La sfida è far sì che le macchine non prendano decisioni discriminatorie o moralmente riprovevoli. La questione però non può essere risolta solo attraverso la tecnologia, né solo attraverso la prospettiva umanistica. È necessaria una convergenza multidisciplinare di saperi.
La mia rubrica su Lettera43:
Ogni giorno, senza neanche rendercene conto, deleghiamo molte decisioni a una macchina. Pensate alla guida autonoma, ai sistemi di sicurezza, alla domotica. Ogni giorno, senza rendercene conto, subiamo molte decisioni prese da una macchina che modificano il corso della nostra percezione e perfino della nostra vita. Le notizie che vediamo scorrere sui social network (preselezionate dal social sulla base dei nostri comportamenti passati), la musica che ascoltiamo da una playlist predefinita, un mutuo negato dalla banca sulla base di un algoritmo che valuta i buoni e i cattivi pagatori. Le decisioni implicano sempre una scelta tra alternative, le ragioni alla base di questa scelta implicano sempre un approccio etico. In sostanza, fare la cosa giusta.
Da anni, tra le questioni più urgenti per chi si occupa di intelligenza artificiale c’è quella di insegnare l’etica alle macchine affinché gli algoritmi non prendano decisioni discriminatorie o moralmente riprovevoli. Per esempio, tornando agli esempi citatati, negare un mutuo su basi etniche o di genere o, nel caso di un’auto a guida autonoma, imporle di finire fuori strada invece di investire qualcuno. Siamo nell’era delle macchine che correggono altre macchine. Insegnare loro a prendere decisioni, a discernere da sole il bene dal male in determinate situazioni implica infatti che, proprio come gli esseri umani, le macchine possano commettere degli errori. E che abbiano bisogno di essere corrette prima ancora di compiere l’errore.
Pochi giorni fa un siciliano che vive a Vienna si è visto recapitare dall’app ufficiale di McDonald’s questo messaggio: «Hey mafioso, try our new bacon della Casa now. Bella Italia!» e, indignato, ha subito protestato contro l’azienda sollevando il caso sui media. McDonald’s si è scusata spiegando che si è trattato di un errore di traduzione dalla parola tedesca mamfen che significa goloso. Per evitare o ridurre al minimo questi errori, i cosidetti bias degli algoritmi, l’intelligenza artificiale sta lavorando su sistemi correttivi, software capaci di correggere altri software, anzi di indicare loro la strada eticamente più corretta prima che commettano un clamoroso sbaglio.
Oggi lo scenario fantascientifico descritto nel 2001 da Steven Spielberg in A.I. – Intelligenza artificiale fa quasi sorridere, sembra preistoria. La questione etica nell’intelligenza artificiale è un enorme problema e, a ben vedere, è essa stessa soggetta a un gigantesco bias. Infatti, è proprio la caratteristica più apprezzata nei sistemi di intelligenza artificiale, ovvero la capacità di imparare da soli, la causa principale della difficoltà di controllarli. È rimasto impresso nella memoria di molti, il caso nel 2017 dei due robot che, durante un esperimento di Facebook, hanno iniziato a parlare tra loro una lingua incomprensibile per gli umani. La cosa destò talmente tanta inquietudine che i ricercatori decisero di sospendere l’esperimento. Si scoprì poi che il fenomeno era dovuto semplicemente a un errore di programmazione, a causa del quale le macchine riuscirono a modificare la lingua inglese per semplificare la comunicazione tra loro.
Anche se la spiegazione alla stranezza dell’evento era tecnicamente piuttosto semplice e descriveva un meccanismo già osservato in passato dagli addetti ai lavori, in quell’occasione nella comunità scientifica si levarono alcune voci per sottolineare che la robotica, per quanto sia una enorme opportunità, costituisce anche un pericolo, proprio per le sue implicazioni etiche e sociali, e trascurare questo aspetto equivale a mettere la testa sotto la sabbia. Software e tool da soli non bastano a garantire che le scelte compiute dalle macchine siano sempre eticamente corrette.
Se insegnare alle macchine a comportarsi eticamente appare ancora piuttosto problematico, d’altro canto utilizzare l’intelligenza artificiale per rendere più etico un ambiente o un ecosistema informativo, come per esempio un social network, sembra una strada più percorribile, per quanto complessa. Il Financial Times, per esempio, ha introdotto programmi automatici per avvertire i giornalisti quando non rispettano la parità di genere e quando negli articoli il punto di vista femminile è inferiore rispetto a quello maschile. Instagram sta sperimentando un sistema automatico per scoraggiare il cyberbullismo: quando il potenziale bullo, identificato dall’algoritmo, sta per postare un commento offensivo il social network gli invia una notifica con l’obiettivo di dissuaderlo dal pubblicarlo. Se il bullo decide di perseverare nella sua azione lesiva, l’algoritmo isolerà i suoi post in modo che vengano ignorati. Anche questo sistema non è ovviamente esente da errori, anzi.
Per addestrare l’algoritmo a essere sempre più preciso ed efficace nell’identificazione del soggetto violento, Instagram chiede una mano agli utenti che possono segnalare i casi in cui l’algoritmo sbaglia. Attenzione perché anche in questo ultimo passaggio, l’errore è dietro l’angolo. Come abbiamo già visto accadere con le fake news su Facebook, il sistema di segnalazione affidato agli utenti, inesperti e non informati su tutto, può risultare ugualmente fallace. Come se ne esce quindi?
C’è una terza via per utilizzare l’intelligenza artificiale in modo etico. Per quanto riguarda contenuti lesivi, diffamatori o fake news possono essere progettati sistemi di identificazione, analisi e contrasto diretto che supportino l’azione imprescindibile di professionisti ed esperti. Per il ministero della Salute abbiamo sviluppato un sistema denominato Fake Content Mitigation per l’identificazione su tutto il web e il contrasto diretto alle fake news sui vaccini. L’algoritmo lavora attraverso un modello concettuale e semantico strutturato per riconoscere questi contenuti su tutta la Rete, cristallizza la prova online attraverso un tool di web forensics che ne attesta il valore legale e viene in fine certificata da un comitato di esperti del ministero. Certificati alla mano, viene strutturato un piano di moral suasion e richieste di rimozione dei contenuti fake direttamente ai canali che le hanno pubblicate. Questo processo può essere applicato a qualunque settore (pensiamo a tutte le fake news che circolano in campo alimentare o in politica) e mostra che serve un approccio integrato, che faccia lavorare insieme tecnologia ed esperienza specialistica sui temi. La questione etica della tecnologia non può essere risolta solo attraverso la tecnologia. Né solo attraverso la prospettiva antropologica, filosofica o sociologica. È necessaria una convergenza multidisciplinare di saperi.
L’intelligenza artificiale stringe rapporti con l'editoria e le testate, assorbendone il punto di vista e perdendo l’imparzialità.
Reputation Manager è tra le 800 aziende italiane che stanno crescendo maggiormente premiate nella graduatoria “Campioni della Crescita” 2025.
Ho parlato di reputazione e del mio nuovo libro "Ingegneria Reputazionale" con Mario Modica in questa intervista per Spot and…
In questa intervista pubblicata su Economy, ho trattato di reputazione e, specificamente, di ingegneria reputazionale.
Nella Top Manager Reputation di ottobre 2024, Andrea Orcel è in prima posizione, seguito da Pier Silvio Berlusconi e Claudio…
È uscito il mio nuovo libro, "Ingegneria Reputazionale", che tenta di sistematizzare una disciplina che trasforma la reputazione in una…