Walter Quattrociocchi, Professore ordinario di Informatica alla Sapienza Università di Roma, commenta su StartupItalia il cambiamento dell’ex gruppo Facebook in merito alla moderazione dei contenuti. E mentre la Silicon Valley è sempre più allineata a Trump, l’Ue rincorre. «L’Europa ha fatto un casino su AI e innovazione»
«Le persone, alla fine, credono a quello che vogliono credere. La gente non vota in base a quello che trova sui social. Lì ci trova semplicemente quel che gli dà ragione». Walter Quattrociocchi, Professore ordinario di Informatica alla Sapienza Università di Roma e a capo del Centro di Scienza dei Dati e Complessità per la Società, ci ha aiutato a capire perché Meta, la scorsa settimana, ha deciso di dire addio al fact-checking.
Il Ceo Mark Zuckerberg prima e il capo di Instagram Adam Mosseri poi hanno pubblicato video in cui spiegano perché quel modello, dal loro punto di vista, ha fallito. Ecco dunque che si punta al free speech, anche se a governare sembrano soprattutto gli affari, sgravati da opportunismi e dichiarazioni di facciata sull’importanza della lotta contro la disinformazione che fino a qualche anno fa sembravano irrinunciabili per le Big Tech. «Non risolvi il problema delle fake news con il fact-checking. Anzi, peggiori le cose».
Leggi anche: Meta, con l’addio di Zuckerberg al fact-checking inizia una nuova era sui social media?
Nei giorni scorsi Adam Mosseri ha detto che la politica sarà di nuovo benvenuta su Instagram. Come commenta questa mossa?
Bisogna commentare quanto successo in prospettiva. I social nascono come strumenti che disintermediano, tagliano le distanze. Come il telefono. La gerarchia di un tempo, con il giornalista e i giornali che selezionavano i contenuti, si appiattisce e diventa orizzontale. Mi correggo: i social non disintermediano, perché è tutto intermediato dall’algoritmo. Si è creato un contesto di libertà percepita da parte dell’utente. Nel tempo ha avuto effetti collaterali mostruosi: alla fine frequento fonti, personaggi e ambienti a me consoni. Nascono l’echo chamber che polarizzano tutto e semplificano il messaggio.
Nel 2016, l’anno di Brexit e della prima vittoria di Trump si parlava di post-verità.
L’impatto c’è stato perché avverso al mainstream benpensante. Ma le cose stanno così: se vai da un no-vax e gli spieghi perché ha torto, nella maggior parte dei casi non ti considera. Oppure diventa addirittura più attivo nel consumo di informazioni anti-vaccini. Meta ha messo una pezza al problema della sovrabbondanza di contenuti in un ambiente social di vendita di contenuti.
I social, come ha detto in un suo recente intervento, non sono dunque ideali come luogo di informazione?
Sono luoghi di intrattenimento a cui il sistema di informazione si è piegato. Penso a certi titoli. Il fact-checking ha cercato di mettere un tappo al sistema, ma non ha funzionato. E non perché il fact-checking non serva in assoluto, ma perché si sbaglia se si pensa di utilizzarlo per risolvere il problema della disinformazione.
Con la scelta di Meta si rafforza la linea trumpiana della Silicon Valley. E l’Europa?
Per questa destra le regole fermano il mercato. Vogliono liberalizzare per liberare energia e progresso. C’è da dire che l’Europa ha fatto un casino su queste tematiche dell’innovazione. Penso all’AI che è stata normata come un prodotto, mentre è una tecnologia in evoluzione. Si è andato a legiferare senza aver capito il problema. Con l’AI rischiamo la stessa dialettica che oggi abbiamo con i social. I bias stanno nei dati, non nell’algoritmo.
Le echo chamber rischiano di diventare fortezze con l’addio al fact-checking?
Si, diventano una fortezza che si estende alla piattaforma. Io come comunità influenzo le policy di moderazione e chi non si sente accolto va altrove. Ci sono social mainstream e una pletora di piattaforme alternative. C’è una segregazione di internet, di cui parleremo nel 2025. Telegram è diventato una bolgia. C’era un gruppo su Reddit che prendeva in giro le persone obese. Lo hanno chiuso e così ha riaperto altrove. I sistemi complessi, quelli basati su interazioni social, no li cambi con regole top down.
Dunque le Community Notes sul modello di X possono essere una soluzione?
Credo che siano irrilevanti rispetto alla scelta dei contenuti. Se vai in una community di suprematisti bianchi le Community Notes rifletteranno la comunità stessa. Ma sono comunque meglio del fact-checking perché ammettono il problema. Sono state spese cifre mastodontiche pur sapendo che il fact-checking non avrebbe funzionato. Ma almeno hanno fatto contenti i democratici.
C’è poi l’affare TikTok, che rischia di essere messo al bando negli USA. Cosa immagina possa succedere?
Emergerà una piattaforma terza che proporrà servizi simili. Mi immagino una cosa del genere. Ma anche qui: il fact-checking non funziona. La superficialità porta a cose strane, come l’annullamento delle elezioni in Romania. E non perché io sia pro Putin, ma perché c’è l’effetto boomerang. La gente non vota per quello che trova su internet, ma per quello che rinforza le proprie idee. Ci sono evidenze empiriche. Abbiamo pubblicato uno studio a marzo 2024, analizzando 500 milioni di conversazioni, su otto piattaforme su un arco temporale di 34 anni. Risultato? L’algoritmo non influenza il comportamento umano.
E che rischi corriamo con l’AI?
L’Intelligenza artificiale fornisce strumenti per creare contenuti verosimili, ovvio. Ma come Photoshop in passato. Non mi pare che i fotomontaggi abbiano distrutto la società. L’essere umano è imbecille ma non fino a questo punto. E, alla fine, crede sempre a quel che vuole credere.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link