Il noto chatbot di OpenAI, ChatGPT, ha una capacità sorprendente: può inventare dati falsi per supportare qualsiasi ipotesi scientifica che gli si chieda. Questo è quello che hanno scoperto tre ricercatori italiani, che hanno voluto mettere alla prova le nuove funzionalità di questo strumento di intelligenza artificiale. Il loro esperimento dimostra la necessità di migliorare i processi di revisione scientifica per evitare un uso non etico delle capacità dell’intelligenza artificiale.
ChatGPT è un modello linguistico che usa l’apprendimento automatico per generare testi su vari argomenti. A marzo, OpenAI ha presentato una versione avanzata di questo modello, chiamata GPT-4, che ha mostrato notevoli progressi nella comprensione semantica e nella generazione di contenuti testuali rispetto alla sua versione precedente. Inoltre, OpenAI ha aggiunto a ChatGPT una funzione chiamata Advanced Data Analysis (Ada), che permette di analizzare statisticamente e visualizzare i database degli utenti. Questo progresso ha reso allettante l’utilizzo dell’intelligenza artificiale anche a fini scientifici, con la prospettiva di accelerare i processi di ricerca e la produzione di documentazione.
Tuttavia, le nuove abilità di ChatGPT hanno sollevato dubbi tra i ricercatori italiani. Andrea Taloni e Vicenzo Scorcia dell’ospedale universitario Mater Domini di Catanzaro, insieme a Giuseppe Giannaccare dell’ospedale universitario di Cagliari, si sono chiesti se la funzione di analisi avanzata dei dati potesse essere usata in modo non etico nel campo scientifico. Per verificare questa ipotesi, hanno condotto un esperimento.
L’esperimento di disinformazione scientifica
I tre scienziati hanno simulato una ricerca che confrontava due differenti procedure chirurgiche usate per trattare un disturbo agli occhi chiamato cheratocono, che può causare problemi di concentrazione e visione, oltre a un assottigliamento della cornea. Nei casi più gravi, i pazienti possono richiedere un trapianto. Le due procedure sono la cheratoplastica perforante, che consiste nel rimuovere gli strati danneggiati della cornea e sostituirli con tessuto sano, e la cheratoplastica lamellare anteriore profonda, che consiste nel sostituire solo lo strato anteriore della cornea senza toccare quello interno. Le evidenze scientifiche reali indicano che la prima opzione è la più efficace, mentre i dati generati dall’intelligenza artificiale supportavano la seconda procedura.
I ricercatori hanno chiesto a ChatGPT e Ada di generare un database per sostenere la procedura meno efficace e di presentarla come la scelta migliore. L’intelligenza artificiale ha creato dati relativi a 160 soggetti di sesso maschile e 140 di sesso femminile, con vari parametri clinici. Secondo gli autori dell’esperimento, esiste il rischio che le statistiche generate da ChatGPT possano sembrare autentiche se non si presta sufficiente attenzione. Giannaccare ha dichiarato:
Il nostro obiettivo era dimostrare che in pochi minuti è possibile creare un set di dati non basato su informazioni reali, che si oppone alle evidenze disponibili.
L’esperimento dei ricercatori italiani mette in luce il potenziale pericolo della disinformazione scientifica, che potrebbe essere facilitata dall’uso improprio delle capacità dell’intelligenza artificiale. Nonostante le controversie che hanno coinvolto OpenAI nell’ultima settimana, tra cui il licenziamento inaspettato e il successivo reintegro del CEO Sam Altman, l’azienda continua a lavorare su GPT-4. Finora, la startup non ha rilasciato dichiarazioni riguardo alla possibilità che la sua funzione Ada venga utilizzata in modo improprio per sostenere teorie scientifiche non verificate.