Come ogni anno il rapporto di Google sulle ricerche più effettuate dagli utenti è rivelatore di tendenze nella società. In Italia primeggia la categoria dei personaggi famosi con il vincitore della coppa Davis Jannik Sinner in testa, davanti a Lukako e a un insospettabile Peppino di Capri. Gli utenti hanno poi cercato cosa significa lutto nazionale, cos’è Hamas e perché c’è la guerra tra Gaza e Israele. La curiosità sull’intelligenza artificiale arriva solo all’ottavo posto con la domanda “cos’è chatgpt?”, perfino dopo “hangover”.
Se ci spostiamo in Francia invece troviamo una intera categoria di ricerca dedicata all’AI, i francesi molto pragmaticamente vogliono conoscere le cose che si possono fare con l’AI, come “l’AI per creare immagini”, “l’AI per riformulare un testo”, “l’AI per fare Power Point”, “l’AI per le foto”, “l’AI per i loghi”. E nella categoria “attualità” ChatGPT è la parola più cercata, prima di Hamas. Anche i tedeschi sembrano essere stati molto interessati dal tema dell’AI, infatti come in Francia, il report di Google riporta una categoria dedicata alle ricerche sul tema, come “cos’è ChatGPT?”, “cos’è l’ìntelligenza artificiale?” “Cosa può fare l’AI?”.
Il fatto che l’Italia non si ponga nemmeno queste domande, mentre siamo nel pieno di una rivoluzione è sinceramente preoccupante. Significa che non ci stiamo rendendo conto che c’è una rivoluzione in atto, che tocca da vicino la nostra vita. Che modificherà profondamente la nostra quotidianità, le nostre relazioni personali, il nostro lavoro, il nostro modo di conoscere, il senso stesso dell’umano. Evidentemente ci troviamo ancora nella fase in cui pensiamo che si stia parlando di strumenti, innovazioni tecnologiche, questioni tecniche che sentiamo lontane o comunque non così sostanziali per noi. Questa incoscienza generale dovrebbe essere presa in carico seriamente dalla politica, dagli organi di informazione, dalle istituzioni educative.
C’è un messaggio che non sta passando. L’intelligenza artificiale cambierà la nostra vita e dobbiamo esserne consapevoli per prendere oggi le giuste decisioni. Pensiamo a un giovane che deve scegliere un percorsouniversitario. È consapevole che alcuni lavori spariranno a causa dell’AI? Pensiamo a chi fa il traduttore, una professione già pesantemente messa a rischio. Se quel giovane vuole scegliere di studiare Lingue, non è fondamentale che sia consapevole del futuro che lo attende? Se un Paese non capisce cosa sta accadendo e non ha neanche l’interesse a farlo, questo deve rappresentare un campanello d’allarme, perché significa che le energie convergeranno verso direzioni sbagliate, di conseguenza saremo in ritardo su tutto.
La situazione è ancora più preoccupante se pensiamo che questa rivoluzione ha implicazioni etiche importantissime. Come, ad esempio, stabilire chi è responsabile per le decisioni prese da una macchina, oppure come, da cosa e per quali scopi le macchine vengono addestrate o ancora quando sono le macchine a suggerire all’uomo cosa fare. Pensiamo ad esempio al “Vangelo”, l’intelligenza artificiale utilizzata da Israele nella guerra contro Hamas per individuare i bersagli da colpire che sta aprendo questioni di sicurezza enormi.
L’Europa in questi giorni ha emesso le prime linee guida sull’utilizzo dell’intelligenza artificiale che vanno nella direzione di proteggere i cittadini da potenziali rischi, limitando alcune capacità dell’AI (come il riconoscimento biometrico), ma se i cittadini, come sembra stia accadendo in Italia, non si rendono neanche conto che esistono simili problemi? Il rischio è quello di trovarsi faccia a faccia con l’utilizzo di strumenti, che verranno e anzi già lo sono, messi a mercato, guidandoli completamente alla cieca. Senza capire le loro reali implicazioni.
Ora ci divertiamo a parlare con ChatGPT. Ma siamo consapevoli che queste stesse conversazioni sono linfa per la crescita di queste macchine e la loro capacità di apprendere e interagire con l’uomo? Ci troviamo nella situazione paradossale per cui stiamo addestrando al comportamento qualcosa che non conosciamo.
La mancanza di consapevolezza implica la non assunzione di responsabilità. A maggio un avvocato newyorkese ha citato in aula, mentre stava difendendo il suo assistito, sentenze che gli erano state suggerite dall’AI che però non esistevano, come ha scoperto il giudice. Sembra un caso limite, ma questo è proprio un esempio di uso sconsiderato di uno strumento, quando non si ha la minima contezza della sua origine e delle sue implicazioni.
L’intelligenza artificiale non è una tecnologia che produce cose finite con un libretto di istruzioni, è appunto un’intelligenza che si sta costruendo sul modello di quella umana, sulla base di come noi la utilizziamo e di ciò che le insegniamo. Abbiamo una responsabilità enorme. Le persone, quindi la società, devono prendere coscienza di questo e possono farlo solo iniziando a conoscere e informandosi su cosa significa intelligenza artificiale.
(Articolo pubblicato su Economy.)
L’intelligenza artificiale stringe rapporti con l'editoria e le testate, assorbendone il punto di vista e perdendo l’imparzialità.
Reputation Manager è tra le 800 aziende italiane che stanno crescendo maggiormente premiate nella graduatoria “Campioni della Crescita” 2025.
Ho parlato di reputazione e del mio nuovo libro "Ingegneria Reputazionale" con Mario Modica in questa intervista per Spot and…
In questa intervista pubblicata su Economy, ho trattato di reputazione e, specificamente, di ingegneria reputazionale.
Nella Top Manager Reputation di ottobre 2024, Andrea Orcel è in prima posizione, seguito da Pier Silvio Berlusconi e Claudio…
È uscito il mio nuovo libro, "Ingegneria Reputazionale", che tenta di sistematizzare una disciplina che trasforma la reputazione in una…