L’intelligenza artificiale supera gli esseri umani nei giudizi morali

Entra nel nuovo canale WhatsApp di NextMe.it
IA giudizi morali

Un recente studio condotto dalla Georgia State University ha rivelato che la maggior parte delle persone tende a considerare le risposte fornite dall’intelligenza artificiale (AI) a domande etiche superiori a quelle date dagli esseri umani. Eyal Aharoni, professore associato nel dipartimento di psicologia dell’università, ha ispirato la ricerca all’esplosione dei modelli di linguaggio di grandi dimensioni come ChatGPT, emersi a marzo dello scorso anno.

Il professor Aharoni ha esplorato la capacità delle AI di affrontare questioni morali attraverso un test di Turing modificato. Invece di chiedere ai partecipanti di identificare se l’interlocutore fosse umano o una macchina, le domande etiche sono state presentate insieme alle risposte, senza specificare la loro origine. I risultati hanno mostrato che le risposte generate da ChatGPT sono state valutate come più virtuose, intelligenti e affidabili rispetto a quelle umane.

Prestazioni superiori

Questi risultati suggeriscono una trasformazione nella fiducia verso l’AI per la guida morale ed etica, sottolineando la necessità di comprendere l’integrazione dell’AI nella società e i suoi potenziali ruoli. Aharoni ha evidenziato come, in determinate circostanze, l’AI potrebbe tecnicamente superare un test morale di Turing, ingannandoci nel suo ragionamento morale:

Se avessimo condotto questo studio cinque o dieci anni fa, avremmo potuto prevedere che le persone avrebbero identificato l’AI per la sua inferiorità nelle risposte. Tuttavia, abbiamo scoperto il contrario: l’AI ha, in un certo senso, superato le aspettative.

La ricerca mette in luce come l’integrazione dell’AI nelle decisioni quotidiane stia guadagnando fiducia, suggerendo un’implicazione crescente di queste tecnologie nelle nostre vite. “Le persone si affidano sempre più a questa tecnologia, e più ci affidiamo ad essa, maggiore diventa il rischio nel tempo,” conclude Aharoni.