02/12/2024
Fabio Setta
Fake news, post verità e AI generativa
Un antidoto oppure uno strumento per diffondere fake news creando disinformazione al fine di affermare la post-verità? Il dibattito nel campo dei media è aperto da quando l’Intelligenza Artificiale ha fatto capolino nel mondo di giornali, siti e televisioni, mostrando progressi quotidiani e possibilità sicuramente impensabili fino a qualche anno fa. Una situazione che sta modificando e determinando un modo nuovo di fare giornalismo e di essere giornalista. Non sono certo pochi i siti di informazione realizzati utilizzando chatbot di AI. Una situazione che può mettere in crisi l’intera industria dei media e soprattutto creare ancora più confusione nell’utente. Non è un caso che termini come disinformazione ma soprattutto fake news e post-verità siano campanelli d’allarme da tenere presenti. Oggi con le nuove tecnologie e tramite i social è sempre più facile costruire una notizia completamente falsa, farla girare e soprattutto renderla il più possibile verosimile. In questo senso l’AI generativa, può avere un ruolo purtroppo fondamentale dato che ormai è possibile creare con una discreta facilità foto, video, audio decisamente realistici, i cosiddetti deepfake, ovvero video e altre tipologie di media creati in modo così convincente dall’AI che mostrano persone reali che dicono o fanno cose che non hanno mai detto o fatto. In questo 2024 ne abbiamo visti tanti, tantissimi. Indubbiamente troppi. Questo rischia di far perdere ulteriore credibilità ai media ma anche fiducia nei mezzi e nelle potenzialità dell’AI, generativa o meno. Dall’altro può diventare in negativo uno strumento in grado di creare post-verità, quella condizione secondo cui, in una discussione relativa a un fatto o una notizia, la verità è considerata una questione di secondaria importanza. Nella post-verità la notizia viene percepita e accettata come vera dal pubblico sulla base di emozioni e sensazioni, senza alcuna analisi concreta della effettiva veridicità dei fatti raccontati, che vanno ad alimentare pregiudizi e preconcetti. Situazioni che possono andare ad influire anche nelle scelte politiche di uno Stato. La recedente campagna elettorale negli Stati Uniti ne è un esempio. Un falso endorsement da parte della stella pop Taylor Swift nei confronti di Trump, ha scatenato proteste e polemiche sulla disinformazione elettorale. Il nuovo tool basato sui Large Language Models per la produzione di immagini a partire da un prompt testuale è un comodo assist per chi vuole creare disinformazione online. Esistono degli antidoti oppure dobbiamo rassegnarci a vivere in un mare magnum di news, sulla cui verità sarà sempre più complicato mettere le classica mano sul fuoco. E saremo ancora più invasi da teorie complottistiche che in realtà già esistono da sempre. In tal senso l’AI può essere un antidoto. AI-CODE, ad esempio, è un progetto finanziato dall’UE per studiare e sviluppare soluzioni di intelligenza artificiale a supporto degli operatori dei media e dell’informazione, sia nella produzione di un giornalismo corretto, etico e libero, sia nella tutela di questo dalla disinformazione e dai contenuti manipolati. Se infatti gli umani non sono così abili a distinguere immagini generate con l’AI, sistemi di AI possono ottenere risultati. I ricercatori del MIT hanno sviluppato un sistema che riesce a stabilire la veridicità di una news con una precisione pari al 70%, valutando la news da un punto di vista linguistico sia analizzando il contesto storico di appartenenza, andando a rilevare modelli e incoerenze che potrebbero indicare falsità o imprecisioni. AI detective sulle tracce di AI che spacciano fake news. Una sorta di guardie e ladri 5.0 in un mondo tecnologico, in cui il senso critico di ognuno di noi resta comunque la principale bussola da seguire.