da
Brianz » 2 lug 2016, 18:17
A mio parere evidenzierei qualche punto:
- metropolitana vs. self driving. Sono due cose del tutto differenti. Il metrò corre su binari o comunque in un percorso assolutamente determinato e protetto; comandarlo in modo automatico e relativamente sicuro è un esercizio di automazione industriale non particolarmente difficile.
Un auto, su una strada è coinvolta in un numero di variabili tale da impedire ad un automatismo, anche elevatamente cibernetico, di farvi fronte. Occorre una ulteriore evoluzione, più verso una ia.
E si sta discutendo in questi tempi se abbia un senso "umano" sviluppare questo.
- non mi sembra che siano considerati alcuni aspetti, che sono quelli della decisione "morale".
Un automatismo anche sofisticato, a livello attuale, può eseguire un enorme insieme di calcoli e derivarne azioni in funzioni di quanto stabilito dai suoi programmatori. Ma nessuna di queste azioni può avere un senso "morale".
Ne è un esempio una "decisione del diavolo": davanti ad una situazione di pericolo (es. pedoni), si sacrificano questi o la car? Spero comprendiate che non è cosa da poco.
- si può pensare che la metropolitana non sia soggetta a questo, ma invece lo è, come qualsiasi automatismo che ha a che fare con l'uomo. Stazione, treno automatico; tizio sui binari. Il conduttore umano tenterebbe una frenata. L' automatismo? Dovrebbe essere considerato il caso e inseriti gli opportuni sensori. E' così?
- e, mi sembra che si sorvoli sul fatto che l'attuale self driving non tende ad essere un gadget addizionale di aiuto alla guida, ma mira col tempo a sostituire completamente il pilota. Quanto manca a questo dipende da molti fattori non solo tecnici.
Però, come per tutte le cose della tecnologia, occorre una sperimentazione. Non potendo farla su animali...
Sicuramente il progresso è rapido. Anche solo 10 anni fa era chiara la possibilità di realizzare una macchina che battesse un uomo a scacchi, ma si riteneva ancora molto, molto lontana la macchina che vincesse a go.
Ora c'è (e chi sa cosa è il go si rende conto di cosa sia questa macchina (o meglio, il suo programma)).
Per cui si può pensare a breve ad uno passo tale da poter affrontare anche il self driving in modo ragionevolmente sicuro anche in situazioni complesse.
Ma siccome siamo noi stessi a non avere una chiara idea di come risolvere le decisioni del diavolo (né, peraltro, considerare TUTTE le possibili alternative, sorprese, problemi) come si può pensare che ne sia capace una macchina che dipende dai nostri algoritmi? Ia? e poi?
Prima di andare a sbattere, pensate alle bombe atomiche, a Chernobil, a Fukushima. Dove non vengono fatte valutazioni morali, ma solo tecniche/utilitaristiche/economiche la scienza e la tecnologia producono mostri.