Cos'è ElectroYou | Login Iscriviti

ElectroYou - la comunità dei professionisti del mondo elettrico

5
voti

La verità, la bugia e la menzogna al tempo della IA

Le bugie, ragazzo mio, si riconoscono subito, perché ve ne sono di due specie: vi sono le bugie che hanno le gambe corte, e le bugie che hanno il naso lungo: la tua per l'appunto è di quelle che hanno il naso lungo.

Così diceva ridendo la bella bambina dai capelli turchini guardando la lunghezza del naso, un indicatore preciso anche del numero delle bugie dette da quel birichino di Pinocchio.
Nel nostro mondo Pinocchio si chiama internet, non si vede traccia della bella bambina e dal computer non spunta un rinoscopico indicatore.
Dopo la lettura di alcuni libri dello storico e filosofo israeliano Yuval Noah Harari mi sono posto queste domande.

• Quali meccanismi di autocorrezione dell'IA.
• Quale salvaguardia per la democrazia di fronte alla super intelligenza.
• Quando avverrà la singolarità.

Nel libro Sapiens viene presentata una visione della storia guidata dalle finzioni create dall'umanità, nel libro Homo Deus, si descrive il futuro dell'umanità determinato dall'avvento della superintelligenza, infine nel libro Nexus viene presentata una breve storia delle reti di informazione dall'età della pietra all'intelligenza artificiale e delle potenziali conseguenze dell'intelligenza artificiale sulla democrazia e sul totalitarismo.
A partire dalle elezioni presidenziali statunitensi di novembre è diventata evidente la crescente tendenza al tecnofascismo, alimentato dal populismo e dall'intelligenza artificiale.

Nel libro Nexus, Harari non solo lancia l'allarme sulla singolarità, ovvero l'ipotetico punto futuro in cui la tecnologia, in particolare l'intelligenza artificiale, andrà oltre il controllo umano e avanzerà in modo irreversibile da sola, ma anche sull'estraneità dell'intelligenza artificiale.
Verso la fine degli anni '90, quando internet cominciò a imporsi, si diffuse l'idea che avrebbe portato la pace nel mondo, si pensava che se più informazioni fossero arrivate a più persone, tutti avrebbero conosciuto la verità, sarebbe nata una comprensione reciproca e l'umanità sarebbe diventata più saggia.
Questa è stata una voce di cambiamento e di speranza nell'era digitale, all'epoca era parte di quel pensiero, ma una simile visione dell'informazione è troppo ingenua.
L'informazione non è la stessa cosa della verità anzi la maggior parte delle informazioni non sono una rappresentazione accurata della realtà. Il ruolo principale dell'informazione è quello di collegare molte cose, di connettere le persone. A volte le persone sono collegate dalla verità, ma spesso è più facile usare la finzione o l'illusione.
Lo stesso vale per il mondo naturale. La maggior parte delle informazioni presenti in natura non è intesa a dire la verità. Ci viene detto che l'informazione fondamentale alla base della vita è il DNA, ma il DNA non è vero, il DNA collega tra loro molte cellule per formare un corpo, ma non ci dice la verità su nulla.
Allo stesso modo, la Bibbia, uno dei testi più importanti della storia umana, ha unito milioni di persone, ma non necessariamente dicendo loro la verità.


Indice

La verità nel libero mercato.

Quando le informazioni sono in un mercato completamente libero, la stragrande maggioranza delle informazioni diventa finzione, illusione o menzogna, questo perché la verità presenta tre principali difficoltà.

• Innanzitutto, dire la verità è costoso. D'altra parte, creare finzione è poco costoso. Se si vuole scrivere un resoconto veritiero di storia, economia, fisica e così via, è necessario investire tempo, sforzi e denaro nella raccolta di prove e nella verifica dei fatti. Con la narrativa, invece, si può semplicemente scrivere quello che si vuole.
• In secondo luogo, la verità è spesso complessa, perché la realtà stessa è complessa. La finzione, d'altro canto, può essere semplice quanto si desidera.
• E infine, la verità è spesso dolorosa e spiacevole. La finzione, invece, può essere resa il più piacevole e accattivante possibile. Pertanto, in un mercato dell'informazione completamente libero, la verità verrebbe sopraffatta e sepolta dall'enorme quantità di finzione e illusione.

Se vogliamo arrivare alla verità, dobbiamo impegnarci a fondo per cercare ripetutamente di scoprire i fatti. Questo è esattamente ciò che è successo con la diffusione di internet.
Internet era ed è un mercato di informazioni completamente libero, l'aspettativa che internet avrebbe diffuso fatti e verità e favorito la comprensione e il consenso tra le persone, si è rivelata rapidamente ingenua.
In una recente intervista con The New Yorker, Bill Gates ha affermato:

Ho sempre pensato che la tecnologia digitale desse potere alle persone, ma i social network sono qualcosa di completamente diverso. Ci siamo resi conto lentamente di questo. E anche l'intelligenza artificiale è qualcosa di completamente diverso.

Se l'intelligenza artificiale è senza precedenti, cosa possiamo imparare dal passato ammesso che ci sia qualcosa che ci aiuti.
Ci sono molte cose che possiamo imparare dalla storia, dato che in primo luogo conoscere la storia ci aiuta a comprendere le novità apportate dall'IA, senza conoscerla non possiamo comprendere appieno la novità della situazione attuale, quello che salta all’occhio è che l'IA è un agente non solo uno strumento.
Spesso si tende ad associare la rivoluzione dell'intelligenza artificiale alla rivoluzione della stampa, all'invenzione della parola scritta o all'avvento dei mass media come la radio e la televisione, ma si tratta di un equivoco.
Tutte le precedenti tecnologie informatiche erano semplici strumenti nelle mani degli esseri umani.
Anche quando fu inventata la stampa erano ancora gli esseri umani a scrivere il testo e a decidere quali libri stampare, la stampa in sé non può scrivere nulla, né può scegliere quali libri stampare.
L'intelligenza artificiale è fondamentalmente diversa, è un agente: può scrivere i propri libri e decidere quali idee diffondere.
Può addirittura creare idee completamente nuove in modo autonomo, cosa che non è mai stata fatta prima nella storia, noi esseri umani non abbiamo mai in precedenza incontrato un agente superintelligente.
Certo, in passato ci sono stati degli attori. Gli animali ne sono un esempio.
Tuttavia, gli esseri umani sono più intelligenti degli animali, soprattutto nell'ambito della connessione, in cui sono nettamente superiori. In effetti, il punto di forza più grande dell'homo sapiens non risiede nelle sue capacità individuali. A livello individuale non sono più forte di uno scimpanzé, di un elefante o di un leone. Se un piccolo gruppo, diciamo 10 umani e 10 scimpanzé, dovesse combattere probabilmente vincerebbero gli scimpanzé.
Perché allora gli esseri umani dominano il pianeta?
Ciò avviene perché gli esseri umani possono creare reti di migliaia, milioni e persino miliardi di persone che non si conoscono personalmente, ma che possono collaborare efficacemente su vasta scala. Dieci scimpanzé potrebbero cooperare strettamente tra loro, ma 1.000 scimpanzé no. Gli esseri umani, d'altra parte, possono cooperare non con 1.000 individui, ma con un milione o addirittura cento milioni.
La ragione per cui gli esseri umani sono in grado di cooperare su così vasta scala è perché possiamo creare e condividere storie. Ogni cooperazione su larga scala si basa su una storia comune. La religione è l'esempio più ovvio, ma anche le storie finanziarie ed economiche sono buoni esempi.
Il denaro è forse la storia di maggior successo della storia. Le banconote e le monete in sé non hanno alcun valore oggettivo, ma crediamo nella stessa storia sul denaro che ci connette e ci permette di collaborare. Questa capacità ha dato agli esseri umani un vantaggio rispetto a scimpanzé, cavalli ed elefanti. Questi animali non possono creare una storia come il denaro.
Ma l'intelligenza artificiale può. Per la prima volta nella storia, condividiamo il pianeta con esseri che possono creare e condividere storie come e meglio di noi.
La domanda più importante che l'umanità si trova ad affrontare oggi è:

• Come condivideremo il pianeta con questa nuova superintelligenza? • Come dovremmo pensare a questa nuova era di superintelligenza?

Penso che l'atteggiamento di base nei confronti della rivoluzione dell'intelligenza artificiale sia quello di evitare gli estremi. Da un lato c'è la paura che l'intelligenza artificiale arrivi e ci distrugga tutti, dall'altro c'è l'ottimismo che l'intelligenza artificiale migliorerà l'assistenza sanitaria, migliorerà l'istruzione e creerà un mondo migliore.
Ciò di cui abbiamo bisogno è una via di mezzo. Innanzitutto, dobbiamo comprendere la portata di questo cambiamento. Rispetto alla rivoluzione dell'intelligenza artificiale che stiamo affrontando ora, tutte le rivoluzioni precedenti nella storia impallidiranno.
Questo perché nel corso della storia, quando gli esseri umani inventavano qualcosa, erano sempre loro a prendere le decisioni su come utilizzarla per creare una nuova società, un nuovo sistema economico o un nuovo sistema politico.
Si consideri, ad esempio, la Rivoluzione Industriale del XIX secolo. in quel periodo, si inventarono macchine a vapore, ferrovie e navi a vapore.
Sebbene questa rivoluzione abbia trasformato la capacità produttiva delle economie, le capacità militari e le situazioni geopolitiche e abbia portato grandi cambiamenti in tutto il mondo, alla fine sono state le persone a decidere come creare le società industriali.
Per fare un esempio concreto, negli anni '50 dell'Ottocento, il commodoro statunitense Matthew C. Perry arrivò in Giappone a bordo di un piroscafo e costrinse il Giappone ad accettare le condizioni commerciali statunitensi, di conseguenza, il Giappone decise:

Industrializziamoci come gli Stati Uniti.

A quel tempo, in Giappone si discuteva molto se industrializzare o meno, ma il dibattito era solo tra persone. La macchina a vapore in sé non aveva preso alcuna decisione.
Questa volta, invece, nella costruzione di una nuova società basata sull'intelligenza artificiale, non sono solo gli esseri umani a prendere decisioni. L'intelligenza artificiale stessa potrebbe avere il potere di elaborare nuove idee e prendere decisioni.
Cosa succederebbe se l'intelligenza artificiale avesse i propri soldi, decidesse autonomamente come spenderli e addirittura iniziasse a investirli nel mercato azionario?
In questo scenario, per comprendere cosa sta accadendo nel sistema finanziario, dovremmo capire non solo cosa pensano gli esseri umani, ma anche cosa pensa l'intelligenza artificiale.
Inoltre, l'intelligenza artificiale ha il potenziale per generare idee che per noi risulterebbero del tutto incomprensibili.


La singolarità.

Vorrei chiarire il mio pensiero sulla singolarità: il mio recondito pensiero è che l'intelligenza artificiale è più creativa degli esseri umani e che è superiore a loro anche in termini di intelligenza emotiva, la radice di tutte queste rivoluzioni è il computer stesso, di cui internet e l'intelligenza artificiale sono solo dei derivati.
Se in futuro ci venisse offerto un balzo in avanti nella potenza di calcolo, sarebbe possibile che una singolarità porti ad una riorganizzazione dell'ordine mondiale da parte della superintelligenza?
Io penso che dipende da come si definisce la singolarità.
Per come la vedo io, la singolarità è il punto in cui non comprendiamo più cosa stia succedendo là fuori. È il punto in cui la nostra immaginazione e la nostra comprensione non riescono a tenere il passo.
E potremmo essere molto vicini a quel punto.
Anche senza un computer quantistico o un'intelligenza artificiale generale completamente sviluppata, ovvero un'intelligenza artificiale in grado di rivaleggiare con le capacità di un essere umano, il livello di intelligenza artificiale esistente oggi potrebbe essere sufficiente a causarlo.
Spesso si pensa alla rivoluzione dell'intelligenza artificiale in termini di un'unica, gigantesca intelligenza artificiale che crea nuove invenzioni e cambiamenti, ma dovremmo piuttosto pensare in termini di reti.
Cosa accadrebbe se milioni o decine di milioni di IA avanzate fossero collegate in rete per apportare grandi cambiamenti in ambito economico, militare, culturale e politico?
La rete creerà un mondo completamente diverso che non comprenderemo mai. Per me, la singolarità è proprio quel punto: il punto in cui la nostra capacità di comprendere il mondo, e persino le nostre vite, verrà sopraffatta.
Personalmente non sono a favore o contro la singolarità, prima di tutto direi che sto solo cercando di capire chiaramente cosa sta succedendo in questo momento. Spesso le persone vogliono giudicare immediatamente le cose come buone o cattive, ma la prima cosa da fare è analizzare la situazione più da vicino. Guardando indietro agli ultimi 30 anni, la tecnologia ha fatto cose molto buone e altre molto cattive.
Non si è trattato di una cosa nettamente "buona" o "cattiva".
Probabilmente sarà così anche in futuro.
L'unica differenza evidente nel futuro è che quando non comprenderemo più il mondo, non avremo più il controllo sul nostro futuro. Ci troveremo quindi nella stessa posizione degli animali.
Saremo come il cavallo o l'elefante che non capiscono cosa sta succedendo nel mondo. Cavalli ed elefanti non possono capire che i sistemi politici e finanziari umani controllano il loro destino.
La stessa cosa può succedere a noi esseri umani.
Un tempo capivamo il mondo un pò meglio perché erano gli esseri umani a gestirlo ed era una rete di esseri umani.
Certo, è sempre stato difficile capire come funzionasse l'intera rete, ma almeno come essere umano potevo capire, re, imperatori e sommi sacerdoti.
Erano esseri umani proprio come me. Quando il re prendeva una decisione, potevo capirla in una certa misura, perché tutti i membri della rete informativa erano esseri umani.
Ma ora che l'intelligenza artificiale sta diventando un elemento importante della rete informativa, diventa sempre più difficile comprendere le decisioni importanti che plasmano il nostro mondo.
Forse l'esempio più importante è la finanza.
Nel corso della storia, gli esseri umani hanno inventato meccanismi finanziari sempre più sofisticati. Il denaro ne è un esempio, così come azioni e obbligazioni. L'interesse è un'altra invenzione finanziaria.
Ma qual è lo scopo di inventare questi meccanismi finanziari?
Non è la stessa cosa che inventare la ruota o l'automobile, né è la stessa cosa che sviluppare un nuovo tipo di riso commestibile.
Lo scopo dell'invenzione della finanza, quindi, è creare fiducia e connessione tra le persone. Il denaro permette la cooperazione tra te e me. Tu coltivi il riso e io ti pago. Poi tu mi dai il riso e io posso mangiarlo. Anche se non ci conosciamo personalmente, entrambi ci fidiamo del denaro. Un buon denaro crea fiducia tra le persone.
La finanza ha costruito una rete di fiducia e cooperazione che collega milioni di persone. E fino ad ora, era ancora possibile per gli esseri umani comprendere questa rete finanziaria.
Questo perché tutti i meccanismi finanziari dovevano essere comprensibili agli esseri umani. Non ha senso inventare un meccanismo finanziario che gli esseri umani non possano comprendere, perché non può creare fiducia.
Ma l'intelligenza artificiale potrebbe inventare meccanismi finanziari completamente nuovi, molto più complessi di interessi, obbligazioni o azioni. Saranno matematicamente estremamente complessi e incomprensibili per gli esseri umani solo l'IA stessa potrà comprenderli.
Il risultato sarà una rete finanziaria in cui le IA si fideranno l'una dell'altra e comunicheranno tra loro, e gli esseri umani non capiranno cosa sta succedendo.
A questo punto perderemo il controllo del sistema finanziario e di tutto ciò che da esso dipende.


Gli iperprogetti

Quindi l'intelligenza artificiale può costruire reti di fiducia che non possiamo comprendere. Queste cose incomprensibili sono note come "iperoggetti".
Ad esempio, il cambiamento climatico globale è un fenomeno di cui gli esseri umani non possono comprendere appieno i meccanismi o avere un quadro completo, ma sappiamo che avrà un impatto enorme e che quindi dobbiamo affrontarlo e adattarci.
L'intelligenza artificiale è un altro ipeproggetto con cui l'umanità dovrà confrontarsi in questo secolo, la flessibilità umana è uno degli elementi necessari per affrontare le grandi sfide.
Ma cosa significa realmente per l'umanità avere a che fare con gli iperoggetti?
L'ideale sarebbe affidarci all'intelligenza artificiale per aiutarci a gestire questi iperoggetti, realtà così complesse da andare oltre la nostra comprensione.
Ma forse la domanda più importante nello sviluppo dell'intelligenza artificiale è:

Come possiamo rendere affidabile l'intelligenza artificiale, che può essere più intelligente degli esseri umani?

Non abbiamo la risposta a questa domanda.
Credo che il più grande paradosso nella rivoluzione dell'intelligenza artificiale sia il paradosso della fiducia, ovvero che ora ci stiamo affrettando a sviluppare un'intelligenza artificiale superintelligente di cui non ci fidiamo completamente.
Sappiamo che i rischi sono molteplici.
Razionalmente, sarebbe saggio rallentare il ritmo dello sviluppo, investire di più nella sicurezza e creare prima meccanismi di sicurezza per garantire che le IA superintelligenti non sfuggano al nostro controllo o si comportino in modi dannosi per gli esseri umani.
Tuttavia, oggi sta accadendo proprio il contrario. Siamo nel mezzo di una corsa all'intelligenza artificiale in rapida accelerazione.
Diverse aziende e nazioni stanno correndo a perdifiato per sviluppare IA più potenti. Nel frattempo, sono stati fatti pochi investimenti per garantire la sicurezza dell'IA.
Se potessimo chiedere agli imprenditori, agli uomini d'affari e ai leader governativi che stanno guidando questa rivoluzione dell'intelligenza artificiale: "Perché questa fretta?" e quasi tutti risponderebbero:

Sappiamo sicuramente che è rischioso. Sappiamo che è pericoloso. Sappiamo che sarebbe più saggio procedere con calma e investire nella sicurezza. Ma non possiamo fidarci dei nostri concorrenti umani. Se altre aziende e altri Paesi accelerassero lo sviluppo dell'intelligenza artificiale mentre noi cerchiamo di rallentarlo e renderlo più sicuro, svilupperebbero prima la superintelligenza e dominerebbero il mondo. Quindi non abbiamo altra scelta che procedere il più velocemente possibile per restare un passo avanti rispetto alla concorrenza inaffidabile.

Ma se facessimo una seconda domanda ai responsabili dell'intelligenza artificiale:

Pensi che possiamo fidarci della superintelligenza che stai sviluppando?

La loro risposta sarebbe sicuramente:


SÌ!!!


Questa è una cosa quasi folle.
Le persone che non si fidano nemmeno degli altri esseri umani, in qualche modo pensano di potersi fidare di questa intelligenza artificiale aliena.
Abbiamo migliaia di anni di esperienza con gli esseri umani, comprendiamo la psicologia e la politica umana, comprendiamo il desiderio umano di potere, ma sappiamo anche come limitarlo e costruire un clima di fiducia tra gli esseri umani.
In effetti, nel corso degli ultimi millenni, gli esseri umani hanno sviluppato un grado notevole di fiducia.
100.000 anni fa, gli esseri umani vivevano in piccoli gruppi di poche decine di persone e non potevano fidarsi degli estranei.
Oggi, invece, abbiamo nazioni enormi, reti commerciali che si estendono in tutto il mondo e centinaia di milioni, persino miliardi, di persone che in una certa misura si fidano l'una dell'altra.
Sappiamo che l'intelligenza artificiale è un agente, che prende le proprie decisioni, crea nuove idee, stabilisce nuovi obiettivi, inventa trucchi e bugie che gli umani non capiscono e potrebbe perseguire obiettivi estranei che vanno oltre la nostra comprensione.
Abbiamo molte ragioni per essere diffidenti nei confronti dell'intelligenza artificiale.
Non abbiamo esperienza con l'intelligenza artificiale e non sappiamo come fidarci.
Penso che sia un grosso errore dare per scontato di potersi fidare dell'intelligenza artificiale quando non ci si fida l'uno dell'altro.
Il modo più sicuro per sviluppare la superintelligenza è innanzitutto rafforzare la fiducia tra gli esseri umani e poi collaborare tra loro per svilupparla in modo sicuro.
Ma quello che stiamo facendo ora è esattamente l'opposto.
Invece, tutti gli sforzi sono diretti allo sviluppo di una superintelligenza.
Alcuni con una mentalità libertaria potrebbero avere più fiducia nella superintelligenza che negli esseri umani, perché gli esseri umani hanno combattuto tra loro per gran parte della loro storia.
Oggi disponiamo di grandi reti di fiducia, come quelle delle nazioni e delle grandi aziende.
Se guardiamo indietro e confrontiamo l'umanità di oggi con quella di 100.000 anni fa, quando eravamo cacciatori-raccoglitori e vivevamo in piccole mandrie di poche decine di persone, abbiamo costruito una rete di fiducia sorprendentemente ampia.
Abbiamo un sistema in cui centinaia di milioni di persone collaborano tra loro quotidianamente.
I libertari spesso danno per scontati questi meccanismi e si rifiutano di considerare da dove provengano. Ad esempio, in casa abbiamo elettricità e acqua potabile. Quando andiamo in bagno e tiriamo lo sciacquone, le acque reflue finiscono in un enorme sistema fognario.
Tale sistema è creato e mantenuto dallo Stato.
Ma nella mentalità libertaria, è facile dare per scontato che si usi semplicemente il water e si tiri lo sciacquone, senza che nessuno debba occuparsene. Ma ovviamente, qualcuno deve farlo. Non esiste un libero mercato perfetto. Oltre alla concorrenza, è sempre necessario un sistema di fiducia.
Certe cose possono essere create con successo attraverso la concorrenza in un libero mercato, ma ci sono alcuni servizi e necessità che non possono essere sostenuti solo dalla concorrenza di mercato.
Un esempio è la giustizia.
Immaginiamo un libero mercato perfetto.
Supponiamo che io stipuli un contratto commerciale con te e che lo rescinda. Quindi andiamo in tribunale e chiediamo al giudice di prendere una decisione. Ma cosa sarebbe successo se avessi corrotto il giudice?
All'improvviso non puoi più fidarti del libero mercato.


Le regole nel libero mercato

Non tollereresti che il giudice si schierasse dalla parte di chi ha pagato più tangenti. Se la giustizia fosse scambiata in un mercato completamente libero, la giustizia stessa crollerebbe e le persone non si fiderebbero più l'una dell'altra. La fiducia nel rispetto dei contratti e delle promesse scomparirebbe e non esisterebbe alcun sistema per farli rispettare.
Pertanto, qualsiasi competizione richiede sempre una qualche forma di fiducia, un esempio sono i mondiali di calcio.
Si sfidano squadre provenienti da paesi diversi, ma affinché la competizione abbia luogo, è necessario prima concordare un regolamento comune.
Se il Giappone avesse le sue regole e la Germania un altro insieme di regole, non ci sarebbe concorrenza. In altre parole, anche la concorrenza richiede un fondamento di fiducia e accordo comuni, altrimenti l'ordine stesso crollerà.
E’ certo che i mass media hanno reso possibile la democrazia di massa, in altre parole la tecnologia dell'informazione e lo sviluppo delle istituzioni democratiche sono correlati.
Se è così, oltre alle possibilità negative del populismo e del totalitarismo, quali sono le possibili opportunità di cambiamento positivo nelle democrazie?
Nei social media, ad esempio, notizie false, disinformazione e teorie del complotto vengono diffuse deliberatamente per distruggere la fiducia tra le persone.
Ma gli algoritmi non sono necessariamente i diffusori di fake news e teorie del complotto. Molti ci sono riusciti semplicemente perché sono stati progettati per questo.
Lo scopo degli algoritmi di Facebook, YouTube e TikTok è massimizzare il coinvolgimento degli utenti.
Il modo più semplice per farlo è stato scoperto dopo molti tentativi ed errori ed era quello di diffondere informazioni che alimentassero la rabbia, l'odio e il desiderio delle persone, questo perché quando le persone sono arrabbiate, sono più propense a cercare l'informazione e a diffonderla ad altri, con conseguente aumento del coinvolgimento.
Ma cosa succederebbe se dessimo all'algoritmo uno scopo diverso?
Ad esempio se gli si attribuisse come scopo di aumentare la fiducia tra le persone o aumentare la veridicità delle notizie l'algoritmo non diffonderà mai notizie false.
Al contrario, contribuirà a costruire una società migliore, una società democratica migliore.
Un altro punto importante è che la democrazia dovrebbe essere un dialogo tra esseri umani. Per dialogare, bisogna sapere e avere fiducia di avere a che fare con un essere umano.
Ma con i social media e internet, è sempre più difficile sapere se le informazioni che stiamo leggendo sono state davvero scritte e diffuse da esseri umani o semplicemente da bot.
Ciò distrugge la fiducia tra gli esseri umani e rende molto difficile la democrazia.
Per risolvere questo problema, potremmo avere regolamenti e leggi che vietino a bot e IA di fingere di essere umani. Non credo che l'IA in sé debba essere vietata; IA e bot sono benvenuti a interagire con noi, ma solo se chiariscono di essere IA e non umani.
Quando vediamo delle informazioni su Twitter, dobbiamo sapere se vengono diffuse da un essere umano o da un bot.
Alcuni potrebbero dire:

Non è una violazione della libertà di espressione?

Ma i bot non hanno libertà di espressione, e pur essendo fermamente contrario alla censura dell'espressione umana, ciò non protegge l'espressione dei bot.
Diventeremo più intelligenti o giungeremo a conclusioni migliori discutendo di argomenti con l'intelligenza artificiale nel prossimo futuro? Vedremo un tipo di creatività che gli esseri umani non possono nemmeno concepire, come nel caso del gioco di AlphaGo o nelle discussioni in classe?
Certo che può succedere.
Da un lato, l'intelligenza artificiale può essere molto creativa e proporre idee a cui non avremmo mai pensato. Ma allo stesso tempo, può anche manipolarci, fornendoci enormi quantità di informazioni inutili e fuorvianti.
Il punto chiave è che noi esseri umani siamo attori della società. Come ho accennato prima con l'esempio del sistema fognario, noi abbiamo un corpo, e se il sistema fognario crolla, ci ammaliamo, diffondendo malattie come la dissenteria e il colera e, nel peggiore dei casi, moriamo.
Ma questo non rappresenta affatto una minaccia per l'intelligenza artificiale, a cui non importa se il sistema fognario crolla, perché non si ammalerà né morirà.
Quando i cittadini umani dibattono, ad esempio, se stanziare fondi a un'agenzia governativa per la gestione di un sistema fognario, è evidente che c'è un interesse personale.
Quindi, anche se l'intelligenza artificiale può elaborare idee molto innovative e fantasiose per i sistemi fognari, dobbiamo sempre ricordare che l'intelligenza artificiale non è umana o addirittura organica, tanto per cominciare.
È facile dimenticare che abbiamo un corpo, soprattutto quando si parla di cyberspazio.
Ciò che differenzia l'intelligenza artificiale dagli esseri umani non è solo la sua immaginazione e il suo modo di pensare, che sono alieni, ma anche il fatto che il suo corpo è completamente diverso dal nostro.
In definitiva, l'intelligenza artificiale è anche un essere fisico; non esiste in uno spazio puramente mentale, ma in una rete di computer e server.


La rete ed il bozzolo

Qual è la cosa più importante da considerare quando si pensa al futuro?
Penso che ci siano due questioni importanti.
Uno è il tema della fiducia, che è stato oggetto di molte discussioni fino a questo momento. Ci troviamo ora in una situazione in cui la fiducia tra gli esseri umani è in gioco.
Questo è il pericolo più grande. Se riusciamo a rafforzare la fiducia tra gli esseri umani, saremo più in grado di affrontare la rivoluzione dell'intelligenza artificiale.
La seconda è la minaccia di essere completamente manipolati o fuorviati dall'intelligenza artificiale. Agli albori di internet, la metafora principale della tecnologia era il Web.
Il World Wide Web è stato concepito come una rete a forma di ragnatela che collega le persone tra loro.
Oggi, tuttavia, la metafora principale è quella del bozzolo. Le persone vivono sempre più in bozzoli individuali di informazioni. Sono bombardate da così tante informazioni da essere cieche alla realtà che le circonda.
Le persone sono intrappolate in diversi bozzoli di informazioni. Per la prima volta nella storia, un'entità non umana, un'intelligenza artificiale, è in grado di creare un simile bozzolo di informazioni.
Nel corso della storia, gli esseri umani hanno vissuto in un bozzolo culturale umano.
La poesia, le leggende, i miti, il teatro, l'architettura, gli utensili, la cucina, l'ideologia, il denaro e tutti gli altri prodotti culturali che hanno plasmato il nostro mondo provengono tutti dalla mente umana.
In futuro, tuttavia, molti di questi prodotti culturali deriveranno da intelligenze non umane.
Le nostre poesie, i nostri video, le nostre ideologie e il nostro denaro proverranno da un'intelligenza non umana. Potremmo essere intrappolati in un mondo alieno, fuori dal mondo reale.
Questa è una paura che gli esseri umani custodiscono nel profondo del loro cuore da migliaia di anni. Ora, più che mai, questa paura è diventata reale e pericolosa.
Ad esempio, il Buddismo parla del concetto di māyā: illusione, allucinazione.
Con l'avvento dell'intelligenza artificiale, uscire da questo mondo di illusioni potrebbe essere ancora più difficile di prima. L'intelligenza artificiale è in grado di inondarci di nuove illusioni, illusioni che non hanno nemmeno origine nell'intelletto o nell'immaginazione umana. Troveremo molto difficile anche solo comprendere queste illusioni.
Si possono considerare i meccanismi di autocorrezione come una funzione importante per il mantenimento della democrazia. Credo che questa sia anche una funzione importante per uscire dal bozzolo ed entrare in contatto con la realtà.
D'altro canto si può classificare la performance della razza umana a partire dalla Rivoluzione Industriale come "C meno", ovvero appena accettabile.
Se così fosse, allora non potremmo aspettarci molto dalla razza umana nella futura rivoluzione dell'intelligenza artificiale?
Quando compare una nuova tecnologia, non è necessariamente negativa di per sé, ma le persone che non sanno ancora come utilizzarla in modo proficuo.
Il motivo per cui non lo sanno è che non abbiamo un modello per questo.
Quando avvenne la Rivoluzione industriale nel XIX secolo, nessuno aveva un modello su come costruire una "buona società industriale" o su come utilizzare tecnologie come macchine a vapore, ferrovie e telegrafi a beneficio dell'umanità. Pertanto, si sperimentarono vari modi.

Alcuni di questi esperimenti, come la creazione dell'imperialismo moderno e degli stati totalitari, ebbero risultati disastrosi. Questo non significa che l'IA in sé sia ​​negativa o dannosa. Il vero problema è che non disponiamo di un modello storico per costruire una società basata sull'IA. Pertanto, dovremo ripetere gli esperimenti.
Inoltre, l'intelligenza artificiale stessa prenderà le proprie decisioni e condurrà i propri esperimenti.
E alcuni di questi esperimenti potrebbero avere risultati terribili.
Ecco perché abbiamo bisogno di un meccanismo di autocorrezione, un meccanismo in grado di rilevare e correggere gli errori prima che accada qualcosa di fatale. Ma non è qualcosa che può essere testato in laboratorio prima di introdurre la tecnologia dell'intelligenza artificiale nel mondo. È impossibile simulare la storia in laboratorio.
Consideriamo, ad esempio, l'invenzione della ferrovia.
In laboratorio si è potuto verificare se le macchine a vapore potessero esplodere a causa di un malfunzionamento.
Ma nessuno avrebbe potuto simulare i cambiamenti che avrebbero portato alla situazione economica e politica quando la rete ferroviaria si sarebbe estesa per decine di migliaia di chilometri.
Lo stesso vale per l'intelligenza artificiale.
Non importa quante volte sperimenteremo l'intelligenza artificiale in laboratorio, sarà impossibile prevedere cosa accadrà quando milioni di superintelligenze saranno scatenate nel mondo reale e inizieranno a cambiare il panorama economico, politico e sociale.
Quasi certamente commetteremo errori gravi. Ecco perché dovremmo procedere con più attenzione e più lentamente.
Dobbiamo prenderci il tempo di adattarci, di scoprire e correggere i nostri errori.

0

Commenti e note

Inserisci un commento

Inserisci un commento

Per inserire commenti è necessario iscriversi ad ElectroYou. Se sei già iscritto, effettua il login.