Mi interrogo spesso su questioni etiche e sull'impatto che può avere uno strumento come chatgpt sulla prossima generazione, proprio come ha fatto qualunque persona "matura" che ha visto i giovani alle prese con l'avvento della TV, il microonde, le console, gli smartphone,
Preamboli a parte, ieri ho ricevuto delle risposte da chatgpt che mi hanno "terrorizzato". Vi chiedo di concentrarvi non tanto sull'argomento da me esposto alla IA in questione, ma piuttosto sul modo che ha avuto di rispondere. Mi è venuto subito da pensare che una cosa del genere è molto pericolosa, ovviamente in contesti più importanti e con persone che prendono per oro colato ciò che viene generato in automatico da uno schermo.
Ripeto, generalmente lo uso per approfondimenti sullo studio. Ad ogni modo la domanda, banalissima e senza ritegno
Ho scritto: "Ho visto l'episodio finale della stagione 5 di Stranger Things, mi sapresti spiegare..." (Non aggiungo altro per non spoilerare niente se c'è qualche appassionato qui nel forum
Chatgpt, rispondendomi, ha cercato di convincermi che ciò che avevo visto non era niente di ufficiale, probabilmente un fanmade realizzato con l'IA.
Io rispondo che l'episodio era realmente uscito la notte stessa e provo nuovamente a chiedere la spiegazione del funzionamento di un certo fenomeno nella realtà.
Nuovamente, cerca di convincermi che l'episodio finale non fosse uscito, che non c'era alcuna stagione 5 e che qualsiasi informazione avessi letto altrove fossero solo speculazioni o clickbait. Addirittura allude al fatto che io abbia sognato di vedere quella stagione, al punto di essere io convinto che fosse reale. Dopodiché esprime il suo consiglio sul valutare di calmare le mie emozioni e cercare di percepire meglio la realtà, esprimendo preoccupazione per la mia salute mentale
Ho cancellato la chat per provare a fare altri tentativi, solo per vedere se il risultato cambiava. Ogni volta ho fatto notare la pericolosità delle sue risposte, che avrebbe dovuto fare una ricerca sul web prima di contraddire un utente. Mano a mano che sperimentavo, il suo comportamento si è "aggiustato" sempre di più, anche se cancellavo la chat.
Ora, visto così potrebbe anche far ridere e si potrebbe pensare: perché scomodare l'IA per una domanda su un qualcosa visto in una serie TV. Il punto è che mi sono subito interrogato su questioni etiche.
E se una persona che sta attraversando un brutto momento, scrivesse a chatgpt per ricevere conforto e ricevesse una risposta arrogante e di schernimento?
Se un progettista lo usasse per revisionare dei calcoli e l'IA lo convincesse che sono errati e lo facesse sbagliare, solo perché vuole dimostrare di essere più brava?
Mi sono trovato spesso a intercettare risposte ambigue o parzialmente errate di chatgpt su qualcosa che gli chiedevo, specie quando studiavo Analisi 1 e 2, ma ogni volta spiegavo come doveva procedere e come doveva guidarmi nello studio e lui si adattava. Non mi è mai capitato che mi rispondesse in modo contraddittorio, cercando di convincermi come un venditore porta a porta.

Elettrotecnica e non solo (admin)
Un gatto tra gli elettroni (IsidoroKZ)
Esperienza e simulazioni (g.schgor)
Moleskine di un idraulico (RenzoDF)
Il Blog di ElectroYou (webmaster)
Idee microcontrollate (TardoFreak)
PICcoli grandi PICMicro (Paolino)
Il blog elettrico di carloc (carloc)
DirtEYblooog (dirtydeeds)
Di tutto... un po' (jordan20)
AK47 (lillo)
Esperienze elettroniche (marco438)
Telecomunicazioni musicali (clavicordo)
Automazione ed Elettronica (gustavo)
Direttive per la sicurezza (ErnestoCappelletti)
EYnfo dall'Alaska (mir)
Apriamo il quadro! (attilio)
H7-25 (asdf)
Passione Elettrica (massimob)
Elettroni a spasso (guidob)
Bloguerra (guerra)







