Cos'è ElectroYou | Login Iscriviti

ElectroYou - la comunità dei professionisti del mondo elettrico

4
voti

L'Intelligenza Artificiale - Le professioni per gestire i dati

Indice

Uno sguardo al mercato del lavoro.

Basta dare un'occhiata agli annunci degli Head Hunters per rendersi conto che si e' scatenata una forsennata ricerca di figure professionali con competenze approfondite sulla gestione dei dati in relazione ai sistemi di Intelligenza Artificiale. La mole dei dati raccolti dalle aziende e' di una dimensione impressionante e conseguentemente e' necessaria una grande professionalita' per il loro trattamento.

Quello che si affaccia nella tecnologia dell'Intelligenza Artificiale e che in parte e' gia' cronaca, deve mettere sul chi vive i professionisti della gestione dei dati. Nei dati, nell'insieme dei dati, nei rapporti causa effetto tra i dati, nell'analisi e nella decodifica di queste leggi sta una delle professionalita' piu' richieste in questo momento storico e che presumibilmente durera' almeno per un decennio. Durera' almeno fino a quando gli algoritmi di analisi non avranno imparato a pensare, e allora...... BUON LAVORO!!!


Il computer da contabile a consulente, i dati qualitativi ed i pappagalli stocastici

In tutta la gamma dei possibili dati quelli qualitativi rappresentano oltre il 95% dell'universo e su questa prateria si e' affacciata la tecnologia dell'intelligenza artificiale per poterli utilizzare e da loro derivare decisioni e comportamenti.
E' inutile parlare di deep learning o di altre modalita' di apprendimento e trattamento di informazioni senza una riappropriazione dei metodi di analisi, di codifica e di trattamento dei dati.
Anche se gli attuali sistemi di computazione basati sugli algoritmi di Turing non permettono stravolgimenti epocali, sofisticati sistemi di lavoro e nuove professioni sono sempre piu' richieste dato che si stanno raccogliendo incredibili quantita' di dati.
Anche se all'orizzonte si affacciano computer quantistici e computer neuromorfici, strumenti che necessiteranno di nuovi approcci per l'analisi ed il trattamento dei dati, purtroppo al momento e' un fatto pragmatico la necessita' di lavorare con gli strumenti tecnologici disponibili.
Trattero' dei calcolatori quantistici e neuromorfici in un documento separato, in queste note cerco di fissare l'argomeno dell'analisi e del trattamento dei dati qualitativi, delle competenze necessarie e delle professioni che si aprono sia a livello aziendale che consulenziale per far diventare il computer un sofisticato consulente quasi onnisciente sulle caratteristiche dell'azienda.
Benche' l'intelligenza artificiale non sia ancora pronta per replicare il cervello umano, i computer dotati di algoritmi di deep learning sono in grado di ascoltare, parlare e guardare, ma si limitano a stare nel mondo delle funzioni, cioe' quello dei compiti da eseguire: l'intelligenza artificiale ascolta ma non capisce, parla ma non sa, guarda ma non vede,

Fino a poco tempo fa non si poteva dire che le macchine fossero in grado di compiere queste attivita', negli ultimi anni, grazie allo sviluppo degli algoritmi di Deep Learning e all'uso di quantita' astronomiche di informazioni, l'intelligenza artificiale e' diventata capace di ascoltare, parlare e guardare.
Al momento l'intelligenza artificiale e' un po' come un cieco congenito che parla di colori. Solo che non e' solo cieco dalla nascita, ma e' anche sordo, privo di sensazioni tattili, non ha mai sentito un sapore o percepito un odore.
Grazie ai nostri cellulari e terminali si generano miliardi di dati ogni secondo, ma sono privi di significato, come la parola "rosso" non ha alcun significato per un non vedente congenito.
I pappagalli stocastici non sono altro che le intelligenze artificiali che producono linguaggio naturale senza conoscerne il significato, come i pappagalli o forse anche peggio di loro. Come il cavaliere inesistente di Calvino, che era una armatura infallibile che sconfiggeva ogni altro essere umano ma dentro di se' non aveva altro che il vuoto, cosi' l'intelligenza artificiale di oggi e' un guscio di funzioni, sempre piu' sofisticate, che non hanno niente dentro.
Le capacita' dell'intelligenza artificiale possono includere l'elaborazione del linguaggio, il riconoscimento vocale e la percezione visiva. In quanto ramo della tecnologia di intelligenza artificiale, l'apprendimento automatico fa uso di algoritmi di dati progettati per le applicazioni informatiche per prevedere risultati accurati con livelli minimi di programmazione.
Facciamo un esempio, pensiamo di usare Replika: un bot online che cerca di imitare il famoso personaggio di Scarlett Johansonn in "Her". Se noi conversiamo con lei abbiamo l'impressione di parlare con una persona in carne ed ossa, come se, dietro i suoi messaggi, ci fosse una persona che "capisce". Ma sappiamo che non c'e' alcuna persona. C'e' solo un modello statistico del linguaggio naturale degli esseri umani, abbastanza complesso da imitare, come un pappagallo, le risposte di una persona vera.
Facciamo un secondo esempio, ancora piu' estremo. Consideriamo due chatbot come Replika che si scambiano messaggi. Leggiamo lo scambio di parole. Si tratta sicuramente di enunciati ben formati e grammaticalmente corretti. È anche possibile che la loro conversazione, ai nostri occhi, abbia un senso. Ma ecco il punto. I messaggi che si sono scambiati, per loro non hanno alcun senso, perche' le due intelligenze artificiali, non hanno ancora la possibilita' di capire il senso delle parole.
Allo stesso modo, altre intelligenze artificiali, presentate come se fossero in grado di immaginare forme e figure, non vedono quello che producono. Prendiamo Wall-E, uno spin off del solito GPT-3, che e' in grado di generare immagini a partire da parole e frasi. Se gli chiediamo di mostrarci un cetriolo verde con la gonna e le ruote, ecco che compare un disegno a colori sgargianti proprio di un simpatico cetriolo dotato di ruote e gonnellino, anzi ci presentera' molte versioni della stessa idea. E cosi' via, perche' Wall-E e' un modello che ha immagazzinato milioni di parametri che collega immagini e parole prese dai Big Data della rete. Ma quello che non dobbiamo dimenticare e' che, mentre noi vediamo il cetriolo con le ruote, Wall-E non vede niente. Wall-E e' solo un insieme di parametri che attivano altri parametri.

La scienza dei dati.

E' lo studio e l'analisi di grandi volumi di dati sia strutturati che non strutturati volti a derivare inferenze predittive e causali che possono consentire un migliore processo decisionale.

La scienza dei dati utilizza una varieta' di discipline come la matematica e la statistica insieme a tecniche come il data mining, la modellazione predittiva, la visualizzazione dei dati e persino l'apprendimento automatico per ottenere risultati significativi per le decisioni aziendali.

La scienza dei dati e' uno dei tanti sottoinsiemi dell'intelligenza artificiale e comprende due algoritmi per l'apprendimento supervisionato e non supervisionato, include tecniche come il rilevamento di anomalie, l'analisi di clustering, l'analisi di regressione e l'analisi di classificazione.

Conoscenza professionale per la scienza dei dati

  • Capacita' di programmare nei linguaggi Python, Scala, R e uso di SQL
  • Capacita' di lavorare con dati non strutturati provenienti da social media e da fonti online
  • Comprensione di altre capacita' analitiche compreso l'apprendimento automatico
  • Conoscenze matematiche per l'analisi dei dati, della probabilita' e della statistica
  • Capacita' di modellazione dei dati.

Come sfatare miti comuni sulla scienza dei dati

Mito 1: le abilita' tecniche:

Tra i miti comuni sulla scienza dei dati, la programmazione e' considerata l'unica abilita' richiesta per diventare un data scientist professionista. Si dice che lo scienziato dei dati deve essere in grado di applicare tecniche di programmazione in Python o R e conoscere l'uso delle corrette librerie per essere considerato un esperto.

Questo non e' vero in quanto i data scientist richiedono un mix di competenze tecniche e trasversali per avere successo nella loro funzione. Alcune delle competenze trasversali richieste includono capacita' di comunicazione efficaci, capacita' di definizione e risoluzione dei problemi e un approccio strutturato verso una soluzione efficace.

Mito 2: L'apprendimento profondo (Deep Learning)

Un altro mito comune e' che l'apprendimento profondo sia l'unica metodologia verso qualsiasi scienza dei dati o soluzione basata su apprendimento automatico. Sebbene il deep learning sia stato molto efficace in aree come la visione artificiale e il riconoscimento vocale naturale, l'apprendimento di framework di deep learning come Tensorflow e Keras non equivale ad acquisire esperienza nell'apprendimento automatico.

Come illustrato, il deep learning e' solo un sottoinsieme dell'apprendimento automatico che deriva i suoi concetti da vari altri campi come le reti neurali, il recupero delle informazioni e le statistiche. Il deep learning e' un algoritmo di apprendimento automatico che utilizza reti neurali artificiali, che sono interconnesse tra loro e possono elaborare grandi volumi di dati.

Mito 3: Linguaggio di programmazione Python:

Grazie ai suoi requisiti sia nella scienza dei dati che nei progetti relativi all'apprendimento automatico, la programmazione con il linguaggio Python e' un'abilita' sempre piu' diffusa tra gli sviluppatori. Come linguaggio di base, Python sta alimentando moltissimi progetti tra cui alcuni meritevoli di ulteriori approfondimenti.

Differenza tra apprendimento automatico e scienza dei dati .

L'apprendimento automatico

E' uno dei sottosistemi dell'intelligenza artificiale che e' percepito come un sottocampo dell'informatica in cui i sistemi vengono sviluppati per eseguire compiti che normalmente richiederebbero l'intervento umano. In sintesi includono

  • Il processo decisionale
  • Il riconoscimento vocale
  • La traduzione tra lingue
  • La percezione visiva
  • L'apprendimento automatico
    L'apprendimento automatico e' una branca dell'intelligenza artificiale in cui una classe di algoritmi basati sui dati consente alle applicazioni software di diventare estremamente accurate nella previsione dei risultati senza alcuna necessita' di programmazione esplicita.
    Qui la premessa di base e' di sviluppare algoritmi in grado di ricevere moltissimi dati in input e sfruttare modelli statistici per prevedere risultati aggiornati mano mano che nuovi dati diventano disponibili.
    I processi coinvolti hanno molto in comune con la modellazione predittiva e il data mining. Questo perche' entrambi gli approcci richiedono una ricerca tra i dati per identificare i modelli e adattare costantemente i risultati.

La scienza dei dati

E' definita come la descrizione, la previsione e l'inferenza causale tra dati strutturati e non strutturati . Questa disciplina aiuta gli individui e le imprese a prendere decisioni aziendali migliori.

La scienza dei dati e' anche uno studio sula loro origine, su cosa rappresentano e su come possano essere trasformati in una risorsa preziosa. Per raggiungere questi obiettivi e' necessario gestire un'enorme quantita' di dati per identificarne i modelli:

La scienza dei dati e' un campo multidisciplinare che richiede sia capacita' di programmazione tecnica che conoscenza di come operano altre discipline come la statistica e l'apprendimento automatico. Sebbene la scienza dei dati sia un termine generico che puo' essere applicato a qualsiasi processo in grado di analizzare e manipolare i dati, una combinazione di intelligenza artificiale e apprendimento automatico e' fondamentale per trovare informazioni e approfondimenti rilevanti da un grande volume di Big Data.

L'ingegnere dell'apprendimento automatico e lo scienziato dei dati:

Le professioni che maggiormente sono ricercate in ambito aziendale per la corretta interpretazione dei dati raccolti sono l'ingegnere dell'apprendimento automatico e lo scienziato dei dati: Non sono le uniche nuove professionalita' che impattano l'ínterpretazione dei Big Data, ma queste sono quelle che generano la maggior richiesta con una notevole offerta di lavoro. Dei linguaggi di programmazione ho accennato in un paragrafo precedente..
Una prima divisione grossolana e' questa: lo scienziato ha bisogno di comprendere appieno la scienza dietro il suo lavoro mentre l'ingegnere ha il compito di costruire qualcosa.
Dato che entrambe le professioni sono relativamente nuove, tende a esserci un po' di fluidita' su come si definisce un ingegnere di apprendimento automatico e cos'e' un data scientist. La mia esperienza e' che gli ingegneri dell'apprendimento automatico tendono a scrivere codice a livello di produzione. ad esempio, un ingegnere dell'apprendimento automatico crea un programma (prodotto) per fornire consigli all'utente e deve effettivamente scrivere il codice che alla fine servira' l'utente aziedale. I data scientist combinano un'ampia gamma di competenze per analizzare i dati raccolti dal Web, dagli smartphone, dai clienti, dai sensori e da altre fonti, dai Big Data, per ricavare modelli di utilizzo.
La loro attivita' comprende la preparazione dei dati per l'analisi, inclusa la pulizia, l'aggregazione e la manipolazione dei dati per eseguire analisi avanzate dei dati. Le applicazioni analitiche e i data scientist possono quindi esaminare i risultati per scoprire modelli e consentire ai leader aziendali di trarre comportamenti informati.
Tornando alla divisione tra scienziato e ingegnere, non ci si aspetta necessariamente che un ingegnere dell'apprendimento automatico capisca i modelli predittivi e la matematica sottostante come fa un data scientist. Tuttavia, ci si aspetta che un ingegnere dell'apprendimento automatico padroneggi gli strumenti software che rendono utilizzabili e comprensivi questi modelli.

Lo scienziato dei dati (Data scientist)

Lo scienziato dei dati deve raccogliere e analizzare una grandissima quantita' e varieta' di Big Data per estrarre preziose informazioni che servono per gestire l'azienda. Alcune funzioni del suo lavoro.

  • Comprendere le esigenze dei problemi aziendali e formulare possibili soluzioni.
  • Sviluppare modelli statistici per l'analisi dei dati.
  • Sviluppare modelli di dati e algoritmi personalizzati.
  • Costruisce modelli predittivi per migliorare l'esperienza del cliente e i ricavi aziendali.
  • Collabora con i team di ingegneri di prodotto e comunica i risultati con i dirigenti aziendali.
  • Crea processi e strumenti per monitorare e analizzare le prestazioni e l'accuratezza dei dati
  • Utilizza la modellazione predittiva per migliorare e ottimizzare le esperienze dei clienti, la generazione di entrate, il targeting degli annunci e altro ancora

Quando un'azienda deve rispondere a una domanda o risolvere un problema si puo' rivolgere ad un data scientist per raccogliere, elaborare e ricavare preziose informazioni dai dati disponibili. Ogni volta che i data scientist vengono assunti da un'organizzazione esplorano tutti gli aspetti del business e sviluppano programmi utilizzando linguaggi, ad esempio Java, per eseguire analisi affidabili. Potranno utilizzare anche indagini online insieme ad altri metodi per aiutare l'azienda a raggiungere una crescita sostenibile, possono sviluppare ricerche su dati personalizzati per aiutare l'azienda a comprendere meglio se stessa ed i propri clienti e per prendere decisioni aziendali piu' informate.
Come accennato in precedenza, i data scientist si concentrano sull'analisi statistica e sulla ricerca necessaria per determinare quale approccio di apprendimento automatico utilizzare, quindi modellano l'algoritmo e fanno prototipi per il test.
Un esempio. Un'azienda vuol capire quale prodotto dovra' cercare di vendere ai sui clienti che hanno gia' acquistato un loro prodotto. Lo scienziato dei dati traduce questo problema aziendale in un modello piu' tecnico ed e' in grado di produrre un modello che puo' assumere un certo insieme di attributi su un cliente tipo e quindi generare una sorta di risultato. Un ingegnere apprendimento automatico prende quel modello sviluppato dal data scientist e lo integrerebbe con il resto della piattaforma dell'azienda, e cio' potrebbe implicare la creazione, ad esempio, di un programma attorno a questo modello in modo che possa essere usato, e quindi essere in grado di mantenere l'integrita' e la qualita' di questo modello in modo che continui a fornire previsioni davvero accurate.
I data scientist sono ben preparati per archiviare, ordinare e ripulire grandi quantita' di dati, esplorare set di dati per identificare informazioni preziose, creare modelli predittivi ed eseguire progetti di scienza dei dati, il piu' delle volte, molti lavoravano come analisti di dati .
La scienza dei dati non si limita a fare semplicemente previsioni ad esempio il concetto di analisi del paniere di mercato. e' una combinazione di tecniche di raggruppamento e regole di associazione, o la capacita' di individuare i valori anomali nei dati.
Le competenze di programmazione richieste per un data scientist includono esperienza nell'uso della codifica di database Python, R, Java, SaS e SQL.

L'ingegnere dell'apprendimento automatico

Per lavorare come ingegnere dell'apprendimento automatico, la maggior parte delle aziende preferisce candidati che hanno un master in informatica.
Le tipiche funzioni lavorative svolte da uno specialista (o ingegnere) di apprendimento automatico includono:

  • Esegue l'analisi statistica in seguito alla modellazione predittiva e alla prototipazione dell'algoritmo.
  • Utilizza i modelli prototipali e li rende idonei alla produzione eseguendoli tramite strumenti software.
  • Traduce un problema aziendale in un modello tecnico. Integra il modello tecnico costruendo un modello in grado di fare previsioni accurate.
  • Determina le caratteristiche del prodotto che devono entrare in un modello di dati.
  • Scrivi il codice effettivo per implementare le funzionalita'. :
  • Collabora e sviluppa pipeline di dati con i data engineer.
  • Sviluppa e migliora modelli di machine learning efficaci.
  • Scrivere e rivedere il codice della linea di produzione. analizza set di dati complessi e ricava informazioni utili.
  • Sviluppa algoritmi e librerie di codice basati su apprendimento automatico .
  • Sviluppa modelli di apprendimento automatico.
  • Collabora con gli ingegneri dei dati per sviluppare raccolte di dati e generare modelli.
  • Applica tecniche di machine learning e scienza dei dati e progetta sistemi distribuiti
  • Scrive programmi a livello di produzione e porta i programmi in produzione
  • Partecipa alla revisione e all'aggiornamento dei programmi.
  • Aggiorna i modelli di machine learning esistenti
  • Analizza ed isola i problemi ed Implementa algoritmi e librerie di machine learning
  • Ricerca e implementa le migliori pratiche per migliorare l'infrastruttura di machine learning.
  • Costruisce modelli in grado di prevedere cio' che un cliente desidera acquistare.

Gli ingegneri dell'apprendimento automatico inseriscono i dati nei modelli definiti dai data scientist. Sono anche responsabili dell'adozione di modelli teorici della scienza dei dati e dell'aiuto per scalarli verso modelli a livello di produzione in grado di gestire terabyte di dati in tempo reale.
Creano anche programmi che controllano computer e robot. Gli algoritmi sviluppati dagli ingegneri dell'apprendimento automatico consentono a una macchina di identificare schemi nei propri dati di programmazione e di imparare a comprendere i comandi e persino a pensare da sola.
Deep Learning e' un altro modo per dire apprendimento automatico E' necessario un background di ricerca per iniziare nel deep learning ed e' necessaria una notevole quantita' di hardware per eseguire attivita' di deep learning.
Un modello di deep learning funzionera' sempre in modo piu' efficiente quando ha una potente configurazione hardware su cui funziona, ma non necessita di un supercomputer per lavorare con il deep learning.
Una volta costruiti, i sistemi di intelligenza artificiale continueranno a evolversi e generalizzarsi da soli Il consenso che descrivono e' che una volta che un sistema di intelligenza artificiale e' stato costruito, continuera' a funzionare e ad evolversi da solo.
Quindi, una volta creato un modello per, ad esempio, il rilevamento delle frodi, il modello si adattera' a qualsiasi modifica apportata. Se l'intero panorama finanziario e' cambiato o sono state aggiunte nuove funzionalita' ai dati, si prevede che il sistema continuera' a funzionare ugualmente bene.
Si ha notizia che delle reti neurali stanno creando le proprie reti neurali. ma questi sviluppi sono ancora troppo pochi e rari e non esiste alcuna metodologia su come inserirli in applicazioni commerciali.

I dati qualitativi

Come detto per dati qualitativi si intendono i dati non strutturati e di solito si riferiscono a materiale testuale come recensioni, risposte aperte a sondaggi, reclami, messaggi di chat, interviste ai clienti, annotazioni di eventi, post sui social media, immagini e filmati.
Quasi sempre questi dati vengono raccolti da metodi di ricerca qualitativa, come domande di indagine aperte, interviste approfondite, focus group, osservazione diretta e analisi dei contenuti (video, immagine o documento).
Il processo di esame e interpretazione dei dati qualitativi e' noto come analisi dei dati qualitativi.
La codifica dei dati qualitativi e' il processo di creazione e assegnazione di codici per poterli classificare e successivamente saranno utilizzati per derivare temi e modelli per analizzarli. La codifica e l'analisi possono aver luogo simultaneamente, ma e' importante notare che la codifica non implica necessariamente l'identificazione di temi, al contrario, si riferisce generalmente al processo di etichettatura e raggruppamento di tipi di dati simili per rendere piu' gestibile la generazione di temi e l'analisi.
Una definizione parallela ci dice che la codifica dei dati qualitativi e' il processo di etichettatura e organizzazione per identificare diversi temi e le relazioni tra i dati. L'analisi qualitativa dei dati e' il processo di esame e interpretazione dei dati qualitativi per capire cosa rappresentano.
Nel tutto vorrei far notare che l'Intelligenza Artificiale puo' fare analisi di una incredibile profondita' e sottigliezza, ma nessun programma ci sapra' mai dire cosa significhi.

Almeno per ora.

6

Commenti e note

Inserisci un commento

di ,

Il "confronto di idee" ha senso quando le idee sono sostenute da una base di competenza, altrimenti è solo dare aria alla bocca (o più che altro far eseguire esercizi ginnici alle dita, visto che su un forum si scrive). Ormai da molto tempo ho smesso di parlare al di là delle mie competenze e ascoltare chi parla di cose che non conosce, e più o meno da sempre chiedo di sapere con chi sto parlando quando gli argomenti sono più complessi della ricetta della pasta cacio e pepe (sulla quale comunque ci sarebbe un po' da dire). Detto questo, non ho molto da commentare sull'articolo, perché praticamente il 90% del suo contenuto è il tipo di presentazione che ci aspetterebbe durante la prima lezione di un corso introduttivo al machine learning (e infatti è molto simile a quella che fu proposta a me all'università): un raccontino generale che per quanto gradevole potrà essere giudicato solo sulla base di quel che verrà eventualmente detto dopo.

Rispondi

di ,

Mi scuso se non ho risposto subito alle cortesissime domande che mi sono state poste, ma sono stato alcuni giorni nella la mia casa di Castiglioncello e sinceramente non ho provato alcun desiderio di montare computer e scorrere la posta. Premetto che non ho internet sul cellulare che adopero solo per comunicare.
Ormai tutti sanno che sono toscano e mi chiamo Carlo Niccolai (molto comune), che la mia eta' ha superato gli ottantadue e che da oltre trent'anni svolgo solo attivita' consulenziale, ho scritto ed ancora scrivo programmi legati al web, a siti internet e alla sicurezza dati ed anche alle reti neurali. Ho collaborato a realizzare un paio di linguaggi di programmazione uno dei quali legato alla programmazione ad oggetti. La mia passione per l'informatica e' molto datata, nel 1962-63 scrissi i primi programmi ed un compilatore per il sistema 1401 IBM.
Come attivita' professionale ho lasciato il lavoro in una media banca come vice direttore generale con responsabilita' sul personale, sull'organizzazione e sui sistemi informatici, non per limiti di eta' ma per possibilita' pensionisiche e problematiche familiari. Ma questo avveniva cosi' tanto tempo fa che le normative aziendali, le leggi ed i regolamenti che regolavano la mia vita appartengono ormai al giurassico.
Da allora posso concentrare, nel tempo libero, la mia attenzione su argomenti di mio interesse che ho tutto il tempo di studiare. Uno studio che mi affascina particolarmente e' legato alle problematiche relative allo sviluppo dei sistemi di intelligenza artificiale. Da questi studi ho fatto scaturire una piccola attivita'di consulenza che mi tiene in contatto con il mondo accademico e della ricerca.
Piu che le reti neurali mi interesso particolarmente ai sistemi neuromorfici, che ritengo, ma e'una mia opinione, piu' adatti a sviluppare una coscienza nei sistemi computerizzati. E' anche una mia opinione, suffragata da importanti pubblicazioni , che le reti neurali non abbiano un futuro "Cosciente". Penso, con un certo disappunto, che i pappagalli stocastici rimarranno tali con gli attuali sistemi di analisi e di programmazione. Comunque i dati ci sono e sono presenti in quantita' immense che le aziende devono gestire e da loro dedurre regole e comportamenti. Per questo servono persone preparate. Persone curiose con mente elastica, capaci di guardare all'insieme e non al particolare.
Somo sempre piu' convinto che gli "IF" ed i "CASE", massima espressione decisionale degli attuali sistemi informatici, non siano adatti ad esprimere stati coscienti come :"AMORE" ma sopratutto "TRADIMENTO".
Ed ora affronto quanto mi e' stato chiesto da un altro punto di vista. Mi sarei aspettato, anzi lo speravo, di aprire un contraddittorio sulle idee che avevo esposto. Idee magari provenienti da esperienze diverse. Sopratutto io ritengo debole l'argomento delle competenze inforrmatiche che un ingegnwre dei sistemi di intelligenza artificiale dovrebbe avere. Speravo sinceramente di trovare interlocuzione e non burocrazia, confronto di idee e non di titoli.

Rispondi

di ,

Senza dubbio l'articolo è interessante al di là di chi l'abbia scritto... ma quando si parla di argomenti tecnici (e soprattutto quando lo si fa con l'intento di spiegare qualcosa) è sempre fondamentale che l'autore si identifichi.

Rispondi

di ,

Gran bell'articolo anche senza credenziali :)

Rispondi

di ,

Mi accodo, le credenziali dell'autore arricchirebbero l'articolo.

Rispondi

di ,

Dato che per qualcuno i contenuti di questo articolo potrebbero fungere da punto di partenza per un'indagine personale se non addirittura per l'orientamento professionale, credo che sarebbe il caso di specificare quali competenze ha nel settore l'autore. In effetti una tale specifica in un forum che vuole fare della qualità dei contenuti la propria bandiera un'informazione del genere andrebbe sempre inserita, ma in casi come quello di questo articolo a mio avviso la necessità diventa particolarmente evidente.

Rispondi

Inserisci un commento

Per inserire commenti è necessario iscriversi ad ElectroYou. Se sei già iscritto, effettua il login.