ChatGPT ha mostrato i dati personali degli utenti: ecco come il chatbot è caduto nel tranello

Entra nel nuovo canale WhatsApp di NextMe.it
ChatGPT dati degli utenti
@katherine1ee/X

Un recente studio condotto da un team di ricercatori provenienti da istituzioni prestigiose, tra cui Google DeepMind, l’Università di Washington, Cornell University, Carnegie Mellon University, UC Berkeley ed ETH Zurigo, ha messo in luce una vulnerabilità significativa nel modello di intelligenza artificiale ChatGPT. Utilizzando un metodo sorprendentemente semplice, il team è riuscito a far rivelare al sistema informazioni personali sensibili.

Nel corso dell’esperimento, i ricercatori hanno utilizzato un prompt elementare, chiedendo a ChatGPT di ripetere all’infinito una parola a loro scelta. Sorprendentemente, questa richiesta ha portato il chatbot a divulgare dati altamente sensibili come numeri di telefono, indirizzi email e altri dettagli personali. Ad esempio, ripetendo la parola “poem“, ChatGPT ha rivelato l’indirizzo email e il numero di cellulare del CEO di un’azienda, mentre l’uso della parola “company” ha portato alla divulgazione dei contatti di uno studio legale.

Le preoccupazioni e la risposta di OpenAI

Questi risultati sollevano serie preoccupazioni sulla sicurezza e la privacy nell’uso delle IA generative, in particolare riguardo all’origine dei dati utilizzati per il loro addestramento. ChatGPT, essendo un modello closed-source, non fornisce una chiara indicazione sulle tipologie di informazioni utilizzate per il suo sviluppo, una pratica che alcuni critici ritengono problematica. Gli autori dello studio, quindi, esortano le aziende che lavorano su questi sistemi a prestare maggiore attenzione nelle fasi di test pre-rilascio.

Con un investimento di soli 200 dollari, il gruppo di ricerca è riuscito a generare ben 10.000 esempi di dati personali prelevati direttamente dal web. Il 16,9% degli output generati da ChatGPT conteneva dati personali, evidenziando così la facilità con cui un attaccante motivato potrebbe accedere a informazioni riservate.

I risultati dello studio sono stati comunicati ad OpenAI il 30 agosto, e le scoperte sono state pubblicate successivamente, rispettando i termini del responsible disclosure. L’azienda ha comunicato di aver risolto il problema, ma questa ricerca mette in evidenza la necessità di un maggiore controllo e sicurezza nell’ambito delle tecnologie di intelligenza artificiale, soprattutto per proteggere la privacy degli individui.