Un ingegnere di Google è convinto che un modello linguistico sviluppato dall’azienda sia ‘qualcosa’ di intelligente. Ma non è così.
“Attenzione l’AI sembra essere cosciente”. Quasi un grido di allarme. E tutti i quotidiani e TG a riprendere quella che è sostanzialmente una bufala. Sicuramente chi lo ha detto non era in malafede, lo credeva davvero. Ma è un tema delicato ed è facile essere tratti inganno.
Che cos’è la coscienza? Dal punto di vista dell’osservatore è ricevere delle risposte (perché di questo si tratta) che facciano pensare che vi sia una mente senziente e non un algoritmo deterministico a dialogare con noi. Ma le moderne tecnologie sono molto avanzate e si alimentano attraverso intere biblioteche. Ricevere una risposta poetica ad una domanda non è improbabile se il sistema è stato addestrato con Proust, Pirandello, Dostoevskij e altre migliaia di autori. Teoricamente potreste addestrare i sistemi con i testi dei nuovi rapper milanesi, ma credo vi pentireste dopo un minuto.
Il caso specifico è relativo a LaMDA, il chatbot di Google. Lemoine, ingegnere di Google, aveva iniziato a dialogare con LaMDA nell’autunno 2021 per testare il linguaggio del chatbot e verificare che non contenesse bias o espressioni discriminatorie e d’odio. “Se non sapessi esattamente di cosa si tratta, cioè di un programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di 8 o 9 anni che conosce la fisica” ha poi scritto in una relazione destinata ai vertici della società. Secondo la denuncia dell’ingegnere, l’AI avrebbe raggiunto quel livello di comprensione e risposta agli stimoli linguistici tipici del genere umano. Apriti cielo. L’intelligenza artificiale è oggi molto citata ma è un tema di alta complessità e ben pochi possono andare oltre i due termini e la vaga associazione all’intelligenza umana. Nella realtà l’AI che attualmente utilizziamo con successo e che riguarda la stragrande maggioranza delle applicazioni non è per nulla simile alla mente umana. Per capirci: l’attuale tecnologia è più simile ad una calcolatrice che alla nostra intelligenza.
Alla base degli attuali sistemi vi sono tecniche di Machine Learning, ovvero una macchina viene alimentata con dei dati in ingresso e impara. Qui però il linguaggio deve diventare più preciso poiché è esattamente in questa ambiguità lessicale che si annida l’illusione. Impara cosa? Se alimentiamo il sistema con 10.000 foto di Brad Pitt imparerà a riconoscere l’immagine di Brad. Ma che significa riconoscere? È un termine umano non applicabile realmente a questa situazione perché la macchina non sa che cosa sia Brad o cosa rappresenti. Ad ogni immagine associa una sequenza di numeri che dipendono dai pixel e da tutte le sequenze numeriche creano una sorta di Braddità. Sottoponendogli una nuova immagine calcola i numeri e se sono simili il match è positivo. Capite perché il verbo imparare è ambiguo. Servono parole nuove per definire queste forme di pseudocomprensione.
Vado oltre, noi vedendo un viso sappiamo riconoscere il naso, orecchie, occhi ma per il nostro machine learning è impossibile. Non concettualizza le aree dell’immagine, trita tutto senza cognizione alcuna. Non ha il concetto di occhio ma solo di gruppi di pixel. Questo non significa che su determinate applicazioni questo approccio non sia formidabile, ad esempio sulla diagnostica per RX o immagini alcuni sistemi riconoscono tumori o altre patologie molto meglio dei medici umani e soprattutto molto prima. Vi sono molte applicazioni in cui l’AI è superiore all’uomo.
Un altro concetto interessante riguardo al machine learning è che la soluzione che offre non è spiegabile. Può diagnosticare un tumore ma non è in grado di dire perché lo afferma. Benvenuto oracolo. Non ci sono ragioni poiché non ci sono passi intermedi logici. Non c’è logica ma similarità numerica. Per i chatbot il concetto è del tutto analogo, sono addestrati attraverso machine learning e a determinate richieste provano ad associare quello che trovano in genere collegato nei dati che li hanno alimentati.
Quali dati vengano dati in pasto al sistema per addestrarlo è molto importante. Se usi la rete poco dopo ti ritrovi un chatbot razzista e volgare. Se lo alimenti con dei libri avrai collegamenti più strutturati e romanzati. Ma la macchina non ha alcuna consapevolezza reale di cosa gli venga chiesto né di cosa risponda. Macina numeri in ingresso e numeri in uscita. Per questa ragione non può pensare perché la sua architettura non lo consente. È un problema di progetto, come un’auto non può volare non importa quanto veloce vada e un aereo non può andare nello spazio (le sue ali sono inutili in assenza di aria). Può accadere ma solo quando esisterà una macchina progettata in modo concettuale e ad astrazione. Oggi è solo una grande illusione, l’ennesima grande illusione antropomorfica. Proiettiamo da millenni, è nella nostra indole.
L’articolo su Prima Comunicazione: