L’Italia è prima per la diffusione di fake news sui social network. La classifica viene dall’ultimo report che le piattaforme social inviano alla Commissione europea sulle attività svolte in attuazione del Codice di condotta sulla disinformazione.
Sono oltre 45mila i post considerati “dannosi per la salute o di interferenza elettorale o sui censimenti” nei primi sei mesi dell’anno e rimossi da Facebook in Italia: circa il 33% delle informazioni fake, dice il report, era concentrato in Italia. La Germania, con oltre 22mila contenuti rimossi, è seconda nella classifica della disinformazione; al terzo posto c’è la Spagna con 16 mila e i Paesi Bassi con 13mila.
Il caso italiano riguarda anche TikTok, la piattaforma di video particolarmente diffusa soprattutto tra le fasce più giovani della popolazione: in Italia sono stati individuati e disattivati oltre un milione di account falsi, il numero più alto in tutta Europa, che in tutto avevano quasi 7milioni di followers, utenti potenzialmente esposti a un rischio alto di disinformazione. Non va meglio con Instagram: dal social Meta ha rimosso quasi 7mila pubblicazioni.
Nota a margine: non si tratta sempre della rimozione di account personali; la maggior parte delle rimozioni riguarda i banner pubblicitari da Facebook e da Instagram per violazione della politica sulla disinformazione dell’Unione Europea.
Ma chi rimuove i contenuti (presunti) fake?
In Unione Europea esiste un codice di condotta rafforzato sulla disinformazione che è stato firmato e presentato nel giugno 2022 da 34 firmatari (tra cui c’è Meta, Microsoft, Reporter senza frontiere, Tik Tok, Vimeo, Adobe e tanti altri ancora) che hanno aderito a un processo di revisione di un codice già nato 4 anni prima (il codice di buone pratiche sulla disinformazione del 2018). Lo spirito è contrastare la disinformazione on line. Tra gli obiettivi del codice c’è abbattere il fenomeno del clickbaiting, l’impegno a garantire la trasparenza della pubblicità politica, la responsabilizzazione degli utenti, la cooperazione con i verificatori dei fatti, un migliore accesso ai dati.
Le misure alternative e sinergiche per la soluzione del problema fake news non hanno comunque attenuato polemiche e discussioni tra chi è favorevole ai cosiddetti fact-checkers (quelli chiamati a verificare le notizie) e chi è contrario. In passato qualcuno ha addirittura avanzato l’ipotesi della nascita di un’Autorità della pubblica verità – o semplicemente di contrasto alla diffusione delle fake news. Un concetto ripreso di recente dal governo Meloni che lo scorso luglio, assieme al sottosegretario Barachini, ha annunciato la necessità dell’istituzione di un garante contro la diffusione delle fake news per le agenzie di stampa che intendano iscriversi nell’elenco nazionale. La questione, che ha scatenato polemiche e prese di posizione da parte dei giornalisti, è ancora molto dibattuta.
Il rischio – quando si parla di un’autorità nazionale, di un garante interno alla redazione, ma anche nella realtà dei fact-checkers – riguarda l’ipotesi di assenza di imparzialità. Torna sempre una domanda: chi controlla il controllore?
La soluzione pratica potrebbe essere educare gli utenti all’uso dei media, social e non, e renderli consapevoli dei rischi di disinformazione sempre più dietro l’angolo.
Le fake news e le vecchie bufale
Con l’avvento di internet, la moltiplicazione delle fonti informative e con la democratizzazione della notizia, oggi chiunque può pubblicare informazioni in Rete e può pubblicare – più o meno volutamente – contenuti menzogneri. Per quanto ovvio, non è solo un fatto di contenuto: l’inganno può consistere anche nell’occultare il mittente dell’informazione con lo scopo di nascondere il reale interesse per cui viene pubblicata una notizia.
Spesso si tende a rimarcare quanto le fake news siano l’espressione moderna delle “bufale” che accompagnano da sempre il mondo dell’informazione. Ma i due termini non sono proprio sinonimi in quanto le fake news riguardano principalmente fatti legati alla contemporaneità diffusi in Rete e si riferiscono a una notizia manipolata in maniera intenzionale, a un fatto distorto con fini propagandistici oppure a una notizia plausibile la cui falsità è difficile da ravvisare. Le bufale, invece, sono notizie indefinite nel tempo e la cui infondatezza è facilmente individuabile. Una cosa è certa: le notizie false e la disinformazione sono sempre esistite. È chiaro che la diffusione capillare dei social abbia consentito una trasformazione strutturale del mondo dell’informazione: tutti potenzialmente sono “protagonisti” della comunicazione; l’utente non è più il passivo fruitore di contenuti dei vecchi media, ma è attivamente produttore di informazioni.
Alcuni recenti accadimenti internazionali hanno evidenziato come la propaganda e la disinformazione siano mezzi subdoli per manipolare l’opinione pubblica. Il conflitto in Ucraina ci ha abituato a video di finte dirette dagli scenari di guerra che viaggiano su TikTok o su Instagram. NewsGuard – organizzazione che monitora la disinformazione on line – ha sfatato più di 140 narrazioni false relative alla guerra tra Russia e Ucraina e ha identificato 400 siti che hanno contribuito a diffonderle.
Non è da meno la pandemia. L’Agcom, nel report delle principali notizie false sul Covid-19 cita diversi casi acclarati di fake news, tra cui rientra, tra le varie cose, anche il servizio di Tgr Leonardo diventato virale in piena pandemia e diffuso per far pensare che il virus fosse stato creato ad hoc in laboratorio.
Il successo delle fake
I dati dimostrano che le notizie false creano sui social un coinvolgimento maggiore rispetto a quelle verificate e accurate. Secondo uno studio di NewsGuard, nel 2021 circa l’1,68% della spesa per la pubblicità programmatica nei 7.500 domini del campione è andata a siti che pubblicano disinformazione. Il problema nasce dal fatto che la pubblicità programmatica non dà informazioni chiare sulle piattaforme in cui compaiono pubblicità, ma si basa semplicemente sull’incrocio tra domanda e offerta.
Quanto è efficace la rimozione di alcuni contenuti dal web? Non tanto, forse. Uno studio della George Washington University, citato dal Fatto Quotidiano, ha rivelato che rimozione dei contenuti no vax da Facebook non ha comportato una diminuzione dell’interazione con i contenuti contrari alle vaccinazioni; anzi, pare che con la politica di rimozione i contenuti no vax siano diventati “più fuorvianti, più politicamente estremizzati e con maggiori probabilità di apparire nei feed di notizie degli utenti”. Un problema di algoritmo o di architettura di Facebook; una dimostrazione che la repressione serve a poco, magari anche a generare più curiosità verso contenuti poco affidabili.