admin ha scritto:.....( ah, io mi autoescludo in quanto non riesco nemmeno ad immaginare come abbiano fatto) ....
La risposta è nell'articolo del 2017 "Attention is all you need" che però si basa su tecniche già parzialmente note nel 2014. In particolare si parla dell' "Attention" e dei "Transformer". La novità non è negli oggetti matematici ma nel come combinarli, è questo che ha portato al risultato. Incredibile come una struttura che non capisce assolutamente nulla di quello che stà producendo stupisca in termini di aderenza a risposte attribuibili ad un umano. Purtroppo per questioni di marketing è stata pubblicizzata assumendo un significato nell'immaginario collettivo che intimamente non ha e pochi si dedicano alla comprensione di come realmente funziona. L'ho studiato come prosecuzione dei miei precedenti studi sui neural networks e devo dire che la genialata non stà tanto nei singoli blocchi ma quanto nella combinazione degli stessi.
Per capirci, i convolutional neural network (CNN) sono più interessanti dal punto di vista teorico ma malgrado l'utilizzo giornaliero che ne facciamo non hanno avuto altrettanta risonanza. Eppure, se l'IA è in grado oggi di riconoscere un'immagine meglio di un essere umano è merito delle CNN.

Elettrotecnica e non solo (admin)
Un gatto tra gli elettroni (IsidoroKZ)
Esperienza e simulazioni (g.schgor)
Moleskine di un idraulico (RenzoDF)
Il Blog di ElectroYou (webmaster)
Idee microcontrollate (TardoFreak)
PICcoli grandi PICMicro (Paolino)
Il blog elettrico di carloc (carloc)
DirtEYblooog (dirtydeeds)
Di tutto... un po' (jordan20)
AK47 (lillo)
Esperienze elettroniche (marco438)
Telecomunicazioni musicali (clavicordo)
Automazione ed Elettronica (gustavo)
Direttive per la sicurezza (ErnestoCappelletti)
EYnfo dall'Alaska (mir)
Apriamo il quadro! (attilio)
H7-25 (asdf)
Passione Elettrica (massimob)
Elettroni a spasso (guidob)
Bloguerra (guerra)











