Intelligenza artificiale e fake news: un binomio “pericoloso” che evoca scenari distopici e preoccupanti. È davvero così? Come può l’intelligenza artificiale stessa essere uno strumento di ausilio per i giornalisti? Ne abbiamo parlato con Emanuele Capone, giornalista tech per Il Secolo XIX ed esperto di IA.
Wikipedia ha di recente lanciato il programma WikiProject AI Cleanup, per combattere il problema legato ai contenuti privi di fondamento generati spesso e volentieri con l’IA: pensi che questo tipo di approccio possa avere un futuro anche nell’ambito del contrasto alle fake news?
Decisamente sì: ormai da qualche anno, le IA sono l’unico strumento che abbiamo per contrastare e riconoscere altre IA. Il progetto World di Sam Altman (il fondatore di OpenAI e ChatGPT), che si concretizza con i dispositivi ORB che scansionano le retine per identificare le persone come veri umani, si basa proprio sull’intelligenza artificiale e sulla sua capacità di riconoscere i riflessi negli occhi e altri segnali impercettibili per stabilire se una persona è davvero una persona. Allo stesso modo, ci sono strumenti online, di facile reperibilità e facile utilizzo, che possono aiutarci con buona approssimazione a scovare deepfake (false foto, video e audio fatti con l’IA) e anche testi scritti con l’intelligenza artificiale sulla base della costruzione delle frasi e della ricorrenza di parole o concetti. Penso comunque che una fondamentale barriera di autodifesa, sia per chi legge sia per chi fa il lavoro di giornalista, sia il proprio buon senso: come ci hanno insegnato a scuola, se una “notizia” sembra troppo strana per essere vera, probabilmente non è vera. Se online spunta il video di una giovane donna che racconta di essere stata investita da Kamala Harris da piccola, il primo dubbio che deve scattare è sulla possibilità che questa cosa sia vera a nessuno ne abbia mai scritto. Poi si può fare la verifica con gli strumenti di identificazione tramite IA.
Si parla tanto di IA e dei vantaggi che potremmo trarne anche come categoria giornalistica ma non abbastanza dei suoi lati oscuri. Cosa ne pensi? Quali sono?
Nella mia esperienza, sono fondamentalmente di due tipi ma entrambi riconducibili allo stesso concetto: rischiamo che ci rubino il lavoro, figurativamente e per davvero. Il primo problema è la ormai evidente violazione del copyright o del diritto d’autore sulle opere del nostro ingegno, che siano pezzi scritti, video o fotografie: le IA generative si addestrano leggendo milioni di pagine online, comprese quelle dei siti di informazione, dunque hanno sicuramente imparato a scrivere (o a fare le tante altre cose meravigliose che sanno fare) dal nostro lavoro. Inizialmente è successo senza che nessuno venisse pagato per questo, ma ora molti editori hanno iniziato a fare causa ai colossi della tecnologia o quanto meno a pretendere soldi in cambio di questo materiale. Anche perché (è l’altro problema) con quello che hanno appreso dal nostro lavoro rischiano di portarci via il lavoro: magari non saranno ancora brave a scrivere come un essere umano, ma chi può immaginare cosa sapranno fare fra un paio d’anni? Chi può escludere che qualche editore spregiudicato non affidi la fattura di alcune pagine o di alcuni contenuti a una IA, invece di assumere un praticante? Anche qui, la prima linea di difesa dobbiamo essere noi: usare questi strumenti con moderazione, per gli scopi per cui possono essere indubbiamente utili, senza però farci prendere la mano.
L’informazione resta indubitabilmente un pilastro fondamentale per una società democratica: com’è possibile allora che ancora oggi per informarci facciamo così tanto affidamento sui social network, che sono in mano a poche aziende private, con policy spesso opache?
La risposta più banale e semplice è: perché funzionano. Lo facciamo perché funzionano. I social sono perfetti moltiplicatori di visibilità: da un lato permettono ai giornali di raggiungere un pubblico potenzialmente infinito e probabilmente al di là di quello che sarebbe il loro teorico bacino d’utenza; dall’altro consentono ai lettori di accedere a informazioni e news cui magari non sapevano di essere interessati e di farlo velocemente e con facilità. Come si è visto negli anni nei vari scontri fra Google (o Meta) e gli editori, capire chi ha il coltello dalla parte del manico è difficile: chi ha bisogno di chi? Proprio per questo servono autorità sovranazionali che regolamentino le piattaforme anche dal punto di vista dell’accesso alle informazioni e della libertà di informazione, al di là di quello che vorrebbero gli algoritmi su cui si basano.
Come ti immagini il ruolo del giornalista da qui a vent’anni?
“Molte delle attività più ripetitive e routinarie del giornalismo, come la raccolta di dati, la creazione di report e la stesura di articoli su argomenti semplici, saranno automatizzate grazie all’intelligenza artificiale. Questo permetterà ai giornalisti di concentrarsi su attività più complesse e creative, come l’analisi critica, l’investigazione e la narrazione di storie coinvolgenti”. Questo è quello che mi ha iniziato a rispondere Gemini, l’IA di Google, quando per curiosità le ho fatto la stessa domanda: direi che è un esempio (anche un po’ inquietante) di quanto scritto sin qui su opportunità e forti rischi. Resta comunque un futuro difficile da prevedere, perché la tecnologia progredisce e lo fa rapidissimamente: credo che dovremo essere più preparati ed evoluti, anche usando strumenti come la realtà virtuale e aumentata, che fra 20 anni offriranno sicuramente nuove modalità per raccontare storie, permettendo ai lettori di immergersi in qualche modo negli eventi. E poi una cosa che ritengo importante da sempre e in cui credo da sempre: con le news accessibili da ovunque e su ovunque, crescerà paradossalmente lo spazio per quelle iper-locali, grazie anche alla possibile profilazione e geolocalizzazione di chi legge.
Ci consigli 3 tool per verificare un video, una foto e una notizia?
Ce ne sono tanti, ma fra quelli che funzionano bene e sono usati anche per scopi professionali, direi TrueMedia per i video (https://www.truemedia.org/); la ricerca inversa di Google, che aiuta a capire se una foto spacciata per originale è comparsa altrove online (https://sites.google.com/view/reverse-images/tool), e SightEngine per le immagini (https://sightengine.com/detect-ai-generated-images); forse GPTZero per i testi (https://gptzero.me/).
In generale, per verificare una notizia può essere utile imparare a conoscere chi l’ha pubblicata: il plugin di NewsGuard (si scarica da qui https://www.newsguardtech.com/how-it-works/) permette di avere subito un’idea veloce dell’affidabilità dei siti.
(Chiara Franceschi)