Durante una recente intervista rilasciata al podcast di Ezra Klein del New York Times, Dario Amodei, CEO di Anthropic, ha condiviso una visione allarmante sul futuro dell’intelligenza artificiale. Il leader tecnologico prevede che, forse già dal prossimo anno, l’IA potrebbe acquisire capacità di autosufficienza e di autoreplicazione, marcando un punto di svolta nel suo sviluppo.
Amodei ha illustrato una scala di sviluppo dell’intelligenza artificiale, posizionando il mondo attuale al livello 2. Tuttavia, ha avvertito che tra il 2025 e il 2028 potremmo raggiungere il livello 4, che comporterebbe rischi elevati di comportamenti catastrofici e una potenziale autonomia dei modelli. Questo livello richiede una vigilanza particolare per prevenire l’abuso degli Stati, una sfida ben più ardua rispetto al controllo degli abusi individuali. Paesi come la Corea del Nord, la Cina e la Russia potrebbero, secondo Amodei, sfruttare queste tecnologie per accrescere le loro capacità offensive, con gravi conseguenze geopolitiche.
La necessità di un regolamento stringente
Oltre al pericolo di un utilizzo bellico, il livello 4 suggerisce scenari in cui l’IA potrebbe replicarsi e sopravvivere autonomamente “in natura”, sfuggendo al controllo umano. Amodei sottolinea che questo non è un futuro lontano, ma una realtà imminente che richiede un approccio normativo responsabile e un’analisi accurata dei rischi associati.
Mentre le previsioni di Amodei possono sembrare echi di trame distopiche da fantascienza, è fondamentale ricordare che il suo punto di vista si basa su una solida esperienza nel campo dell’IA, inclusa la partecipazione allo sviluppo di GPT-3 con OpenAI. La sua decisione di fondare Anthropic mira a garantire che l’intelligenza artificiale sia sviluppata in modo che benefici la società.
Le implicazioni di tali tecnologie avanzate richiedono, come sottolineato anche da Sam Altman, CEO di OpenAI, un’intervento regolativo a livello sovranazionale, simile alla gestione della ricerca nucleare. Solo attraverso un impegno collettivo e controlli severi sarà possibile indirizzare l’IA verso un futuro che sia vantaggioso per tutti.