richiurci ha scritto:Rispondo anche a boiler e ad altri: che c'entra la morale? Veramente credete che nei momenti di panico noi riusciamo a ragionare "moralmente"?
Capisco che è un thread lungo, con molti messaggi e magari ci si stufa di leggere tutto, ma... messaggio 12:
boiler ha scritto:Un umano d'istinto frena, anche se lo spazio non basta per fermarsi, quello che succede succede... e nessuno farà dei rimproveri perché in una situazione del genere non c'è tempo di fare un'analisi e reagire in modo ponderato.
Risponde alla tua domanda?
E' morale un sistema che riduce i rischi, tutto qui, e che comunque potrebbe avere in memoria molte più informazioni per scegliere "moralmente" di quelle che riusciremmo a elaborare noi in pochi istanti.
È esattamente quello che sto cercando di dire, forse la permanenza in Svezia mi sta rovinando la capacità di esprimermi in italiano?
La questione (chiamala poi morale, etica, algoritmo di decisione, intelligenza artificiale, Siri, Cortana, programma, firmware... o come preferisci) è la seguente: una macchina non ha istinti, non ha reazioni spontanee e non ha fantasia.
Quindi se deve prendere una decisione (continuare dritto o cercare di scansare a destra) lo fa in base ad un programma.
E il programma ha un certo numero di inputs: tipo di ostacolo, numero di ostacoli, probabilità di stenderli, eccetera.
In base a questi input calcola un punteggio-danno e sceglie la traiettoria con il punteggio minore.
Ripeto per l'ennesima volta la domanda: diamo lo stesso punteggio ad un bambino, ad un adulto, ad un anziano e ad un cane? O facciamo delle distinzioni?
E in un gruppo, prendiamo la somma dei danni o il danno piú alto (funzione
somma o
max)?
Non è una domanda di ingegneria.
È un'altra branca, che ho chiamato "morale" facendovi venire i bruciori di culo.
Chiamatela come cazzo vi pare, io ho finito con questo thread.
Boiler