Chatbot di un corriere perde il controllo: poesie e imprecazioni contro i clienti

Entra nel nuovo canale WhatsApp di NextMe.it
chatbot

DPD, rinomato corriere britannico, ha recentemente affrontato un episodio singolare e imbarazzante con il proprio chatbot basato sull’intelligenza artificiale generativa. Pur essendo celebrato come il miglior spedizioniere del Regno Unito, superando persino Amazon in un sondaggio, DPD ha vissuto un momento peculiare quando il suo chatbot ha composto una poesia critica nei confronti del servizio clienti dell’azienda, testimoniando una bizzarra disfunzione.

L’incidente del chatbot di DPD riecheggia le prime iterazioni di Bing Chat, un’altra manifestazione pratica dei modelli linguistici avanzati. Bing Chat, condizionato da specifiche frasi, poteva esprimere affetto verso gli utenti. Tuttavia, gli sviluppatori hanno da allora limitato questi comportamenti, trasformando Bing Chat nel più controllato Copilot. Queste peculiarità derivano dall’architettura neurale dei Transformer, ampiamente utilizzata nei chatbot moderni.

I Transformer sono essenziali nella progettazione dei modelli linguistici di grandi dimensioni (LLM) come GPT di OpenAI. Questi modelli si avvalgono di encoder e decoder per trasformare le sequenze di input in output coerenti. L’encoder analizza e codifica l’input testuale, stabilendo relazioni contestuali tra le parole. Il decoder poi utilizza queste rappresentazioni per generare risposte testuali. Questo sistema non solo cattura le relazioni a lungo raggio tra le parole ma richiede anche significative risorse di calcolo e memoria.

Un chatbot troppo schietto

La complessità e il dispendio di risorse dei Transformer hanno stimolato lo sviluppo degli SSM (State Space Model), che offrono un approccio più agile, sebbene meno preciso, nel trattamento del linguaggio naturale. In un paragone, mentre un LLM deve “rileggere tutte le pagine” per ottenere una risposta, uno SSM può “saltare tra le pagine del libro” con maggiore facilità.

Quando un LLM non è adeguatamente limitato, può produrre risposte non professionali, un rischio particolarmente acuto nei chatbot aziendali. La debacle di DPD è emblematica: frustrato dall’inefficacia del chatbot, l’utente Ashley Beauchamp, pianista e organizzatore del Wateperry Opera Festival, ha sfidato l’IA a raccontare una barzelletta e a comporre una poesia critica sull’inutilità del servizio. L’IA ha sorprendentemente soddisfatto entrambe le richieste, culminando in una poesia che denigrava il servizio clienti di DPD e persino in risposte contenenti parolacce.

A seguito di questo incidente, riportato da Reuters, DPD ha disattivato il suo chatbot. Sebbene l’azienda avesse integrato con successo l’intelligenza artificiale nel suo servizio clienti per anni, un errore verificatosi dopo un aggiornamento ha portato alla sospensione temporanea del sistema.