[continua]...

L’ingresso dell’AI nella nostra quotidianità si è rivelato un fenomeno realmente dirompente, molto più dell’effettiva evoluzione tecnologica e algoritmica che l’ha resa sempre più potente e… intelligente.

Che sia in modo consapevole (usando chatbot o altri strumenti generativi) o meno (come nelle fotocamere di molti smartphone), siamo tutti o quasi utenti di sistemi dotati di intelligenza artificiale e questo sta certamente migliorando la qualità di molte esperienze, eppure c’è un rovescio della medaglia che nasconde rischi e pericoli ben più gravi e subdoli della tanto temuta invasione di robot intenzionati a “rubarci” il lavoro!

La verità è che l’AI, soprattutto con la generazione di contenuti multimediali (foto, audio e video) è diventata (quasi) in grado di creare evidenze – apparentemente reali – di eventi mai avvenuti! Oggi è possibile vedere immagini di persone in luoghi in cui non erano presenti, come pure ascoltare qualcuno dire parole che non ha mai proferito! Certamente la qualità non è ancora estrema ed un osservatore (o un ascoltatore) attento potrebbe scorgere qualche elemento o anomalia che riveli il “trucco” ma il livello è ormai talmente elevato (e in crescita) che in poco tempo diventerà davvero difficile distinguere i contenuti reali da quelli generati dall’AI.

In futuro potremmo ritrovarci a lottare per dimostrare la nostra estraneità da un evento di cui un software ha documentato la nostra presenza attraverso una foto creata ad hoc oppure dovremmo smentire dichiarazioni che non ci appartengono nonostante la voce ascoltata sia identica alla nostra. Si tratta di una previsione tanto inquietante quanto probabile, con preoccupanti conseguenze sulla giustizia (gli strumenti a disposizione degli inquirenti saranno abbastanza evoluti da riconoscere eventuali prove digitali prodotte artificialmente?), sulla politica (quanto ci vorrà perché un candidato possa presentare registrazioni di audio compromettenti dei propri avversari?) e persino sulle relazioni personali (quante vendette sentimentali potranno giovarsi di tradimenti documentati dall’AI?).

I produttori, in molti casi, garantiscono che ci sono sistemi per riconoscere i fake (es. disclaimer nelle foto) ma sappiamo bene che, se un sistema può fare qualcosa con dei vincoli, ben presto ci sarà un hacker che rimuoverà tali limitazioni, e allora sarà solo il buon senso a difenderci… e a giudicare da ciò che si vede in giro, non c’è da stare molto tranquilli… Il problema è che non basta più ricercare un uso consapevole della tecnologia poiché i rischi possono dipendere non più solo dal nostro comportamento ma anche dagli abusi degli altri e, ad oggi, non si vede un modo sicuro per proteggersi da questa possibile deriva… (2.fine)

Articoli Recenti