Un recente studio condotto da un gruppo di ricercatori di Google ha rivelato come l’intelligenza artificiale (IA) stia distruggendo internet diffondendo false informazioni. Questo fenomeno risulta particolarmente ironico considerando il ruolo significativo di Google nell’avanzamento di questa tecnologia. L’accessibilità e la qualità dei contenuti generati dall’IA, sia in forma scritta che visiva, hanno facilitato nuove forme di abuso e amplificato pratiche già esistenti, offuscando ulteriormente la linea tra verità e menzogna.
Le opportunità e i rischi dell’IA generativa
Dal suo lancio nel 2022, l’IA generativa ha offerto numerose opportunità per accelerare lo sviluppo in diversi settori. Questi strumenti possiedono ora capacità avanzate che vanno dall’analisi audiovisiva complessa, grazie alla comprensione del linguaggio naturale, al ragionamento matematico e alla generazione di immagini realistiche. Questa versatilità ha permesso alla tecnologia di essere integrata in settori critici come la sanità, i servizi pubblici e la ricerca scientifica.
Tuttavia, man mano che la tecnologia evolve, i rischi di uso improprio diventano sempre più preoccupanti. Tra questi rischi spicca la propagazione della disinformazione, che inonda attualmente internet. Un’analisi recente di Google ha infatti dimostrato che l’IA è oggi la principale fonte di disinformazione online basata su immagini. Questo fenomeno è ulteriormente aggravato dall’accresciuta accessibilità degli strumenti, che consente a chiunque di generare contenuti con una minima competenza tecnica.
Le strategie di disinformazione rivelate dallo studio
Nonostante le precedenti ricerche abbiano fornito preziose informazioni sulle minacce legate all’uso improprio dell’IA, non hanno specificato le diverse strategie impiegate per tali fini. Comprendere le tattiche utilizzate dai malintenzionati per diffondere false informazioni è essenziale, soprattutto con il miglioramento continuo della tecnologia.
Il nuovo studio condotto dal team di Google ha messo in luce le diverse strategie utilizzate per diffondere informazioni false generate dall’IA su internet. “Grazie a questa analisi, evidenziamo i principali e nuovi modelli di uso improprio, comprese le motivazioni potenziali, le strategie e il modo in cui gli aggressori sfruttano e abusano delle capacità del sistema attraverso varie modalità, come immagini, testi, audio e video”, spiegano i ricercatori nel loro documento, pubblicato in anteprima sulla piattaforma arXiv.
Le modalità di abuso più comuni
I ricercatori hanno analizzato 200 rapporti mediatici su casi di uso improprio dell’IA tra gennaio 2023 e marzo 2024. Dall’analisi sono emerse tendenze chiave, tra cui le modalità e le motivazioni con cui gli utenti utilizzano l’IA in ambienti non controllati. I contenuti analizzati includevano immagini, testi, audio e video.
Le modalità di abuso più comuni includono la creazione di false immagini di persone e la falsificazione di prove. La maggior parte di questi contenuti falsi viene diffusa con l’intento di influenzare l’opinione pubblica, facilitare attività fraudolente e generare profitti. Inoltre, la maggior parte dei casi (9 su 10) non richiede competenze tecniche avanzate, ma si basa sulla facilità di utilizzo degli strumenti.
Implicazioni etiche e necessità di regolamentazione
È interessante notare che gli abusi non sono sempre esplicitamente malevoli, ma possono comunque risultare dannosi. “La sofisticazione, la disponibilità e l’accessibilità accresciute degli strumenti di IA generativa sembrano introdurre nuove forme di abuso di livello inferiore che non sono apertamente malevoli né violano esplicitamente le condizioni d’uso di questi strumenti, ma che hanno comunque implicazioni etiche preoccupanti”, affermano gli esperti.
Questa situazione suggerisce che, sebbene la maggior parte degli strumenti di IA abbia misure di sicurezza etiche, gli utenti riescono a bypassarle con inviti formulati astutamente. Secondo il team di ricerca, si tratta di una nuova forma di comunicazione emergente volta a confondere le informazioni autentiche con quelle false, soprattutto in ambito politico e di autopromozione. Questo potrebbe aumentare la sfiducia del pubblico verso le informazioni digitali e sovraccaricare gli utenti con compiti di verifica.
Inoltre, i risultati evidenziano la necessità di un approccio multipartito per mitigare i rischi legati all’uso malevolo della tecnologia, nonostante lo studio si basi solo su dati mediatici, il che potrebbe introdurre bias nell’analisi. È curioso che il documento non menzioni alcun caso di uso improprio degli strumenti di IA sviluppati da Google.