Focus

Le dinamiche di moderazione dei contenuti da parte delle piattaforme: l’intervista su Airone

La mia intervista su Airone con Fabio Marzano sulle dinamiche di moderazione dei contenuti da parte delle piattaforme.

“Qualche tempo fa Facebook ha rivelato che, in circa quattro mesi di tempo, elimina in media 865 milioni di post, che non rispettano le regole della community. «Le operazioni di controllo sui contenuti sono sia ingegneristiche, cioè eseguite da software informatici, sia umane, cioè eseguite da persone. La parte elettronica è una sorta di allarme perimetrale che si attiva quando, per esempio, compaiono termini sessuali», spiega Andrea Barchiesi, amministratore delegato di Reputation Manager, società di riferimento in Italia per l’analisi, la gestione e la costruzione della reputazione online di aziende e istituzioni.

«È difficile generalizzare perché ogni social media ha le sue regole, ma in alcune piattaforme è sufficiente l’allerta alzata dall’algoritmo a far scattare dei provvedimenti in automatico, mentre per altre esiste un comitato di persone che valuta i singoli casi. Come per la polizia in carne e ossa, che non può controllare tutti, anche sui social media si fanno indagini a campione. Si può però dire che i social più diffusi sono anche quelli meno permissivi, mentre in quelli più piccoli, come il servizio di messaggistica di Telegram, le maglie sono più larghe».

Su Twitter si rischia il cartellino rosso quando si esprimono termini che incitano all’odio o alla discriminazione o immagini con nudi non consensuali ed esiste un pacchetto di linee guida anche per le Forze dell’ordine per individuare i responsabili di reti di diffamazione o altro. Ma l’espulsione o l’oscuramento, come accade per tutti i social media, possono essere richiesti anche da un singolo utente, magari infastidito per un contenuto sgradevole. Quando arriva una richiesta del genere, prima di passare ai fatti, si viene avvertiti e si può replicare a propria difesa. Ci sono pagine e pagine piene di regolamenti sul linguaggio e sui comportamenti da tenere su tutte le piattaforme social ma, come si dice, “fatta la legge, trovato l’inganno”.

«Ormai si moltiplicano i modi per aggirare i divieti usando numeri al posto delle lettere, storpiando le parole o addirittura inserendo il testo in un’immagine che il sistema non è in grado di decifrare», commenta Barchiesi.

Tags: airone
Andrea Barchiesi

Recent Posts

AI e editoria, imparzialità e conflitto

L’intelligenza artificiale stringe rapporti con l'editoria e le testate, assorbendone il punto di vista e perdendo l’imparzialità.

3 giorni ago

Reputation Manager è Campione della Crescita 2025

Reputation Manager è tra le 800 aziende italiane che stanno crescendo maggiormente premiate nella graduatoria “Campioni della Crescita” 2025.

6 giorni ago

La reputazione non si vede, ma controlla e governa i destini

Ho parlato di reputazione e del mio nuovo libro "Ingegneria Reputazionale" con Mario Modica in questa intervista per Spot and…

3 settimane ago

La reputazione si costruisce (e si può riparare)

In questa intervista pubblicata su Economy, ho trattato di reputazione e, specificamente, di ingegneria reputazionale.

3 settimane ago

Top Manager Reputation, Orcel primo, segue Pier Silvio Berlusconi

Nella Top Manager Reputation di ottobre 2024, Andrea Orcel è in prima posizione, seguito da Pier Silvio Berlusconi e Claudio…

3 settimane ago

Oggi esce “Ingegneria Reputazionale”

È uscito il mio nuovo libro, "Ingegneria Reputazionale", che tenta di sistematizzare una disciplina che trasforma la reputazione in una…

4 settimane ago