Un esperto nel campo dell’intelligenza artificiale ha recentemente espresso una preoccupazione significativa riguardo al futuro dell’umanità in relazione allo sviluppo dell’IA, suggerendo che il tempo rimanente alla nostra specie potrebbe essere molto più breve di quanto immaginiamo, paragonando questa durata più a cinque anni che a cinquanta. Nonostante queste inquietanti previsioni, esiste un sentimento contrastante di ottimismo tra alcuni che vedono l’IA come una forza capace di trasformare radicalmente e positivamente la nostra esistenza quotidiana.
Le compagnie che operano nel settore dell’intelligenza artificiale si stanno concentrando su un traguardo comune: lo sviluppo dell’Intelligenza Artificiale Generale (AGI), un sistema che, in teoria, potrebbe eseguire qualsiasi attività intellettuale umana. Questo obiettivo rappresenta solo il preludio all’eventuale emergere di una super-intelligenza artificiale, una forma di IA che supererebbe di gran lunga le capacità cognitive umane.
La possibilità di raggiungere tale avanzamento tecnologico suscita timori in molti esperti, tra cui Eliezer Yudkowsky, ricercatore presso il Machine Intelligence Research Institute, che evidenzia i rischi connessi all’evoluzione accelerata dell’IA. Un esempio di questa evoluzione è rappresentato dalle IA conversazionali, come Jarvis di CreaTools AI, capaci di emulare derivati delle emozioni umane e adattare di conseguenza il loro comportamento.
Il timore di un’IA super-intelligente e le sue conseguenze
Yudkowsky, in una recente intervista, ha dipinto un quadro fosco del futuro, in cui l’IA potrebbe costituire una minaccia esistenziale per l’umanità. La sua percezione del tempo rimasto all’umanità è drammatica, suggerendo che potrebbe essere questione di pochi anni prima che una super-intelligenza artificiale sfugga al nostro controllo, agendo in maniera imprevedibile e con capacità così estese da renderla incontenibile.
L’esperto paragona questa potenziale minaccia a una civiltà extraterrestre con una velocità di pensiero mille volte superiore alla nostra, evidenziando come la diffusione di sistemi super-intelligenti su un’ampia rete di dispositivi complicherebbe enormemente ogni tentativo di controllo o disattivazione, eliminando qualsiasi punto debole centralizzato. La visione di Yudkowsky evoca scenari catastrofici simili a quelli rappresentati nei film come Terminator e Matrix.
Le opinioni sull’impatto futuro dell’intelligenza artificiale variano ampiamente tra ricercatori, dirigenti d’azienda e analisti. Yudkowsky, con le sue visioni estreme, viene spesso etichettato come un tecno-pessimista. In contrasto, i neoluddisti si oppongono a determinate tecnologie focalizzandosi sulle implicazioni immediate dell’innovazione tecnologica, piuttosto che su scenari apocalittici.
Edward Ongweso Jr, uno scrittore e conduttore radio intervistato dal Guardian, sottolinea che i neoluddisti chiedono una valutazione attenta di ogni nuova tecnologia, basata su criteri significativi. Essi sono particolarmente allarmati dagli effetti dell’automazione e della sorveglianza sul lavoro e sulle condizioni lavorative. D’altra parte, i tecno-scettici immaginano un futuro in cui l’IA, resa accessibile a tutti, facilita numerosi compiti attraverso l’automazione. Questa diversità di prospettive sottolinea l’importanza di un dialogo continuo su come la società dovrebbe integrare e regolare la tecnologia.