Recentemente, un’inchiesta condotta dal rinomato portale di tecnologia TechCrunch ha messo in luce una serie di problematiche riguardanti il Gpt Store, il negozio digitale dedicato agli assistenti virtuali basati sulla tecnologia di ChatGpt, sviluppata da OpenAI. Secondo quanto rivelato, il marketplace è afflitto da una massiccia presenza di spam e software che non solo infrangono le normative sul diritto d’autore ma violano anche le direttive imposte dalla piattaforma stessa. Alcuni di questi programmi portano gli utenti verso servizi a pagamento, sollevando dubbi sull’efficacia dei sistemi di controllo e moderazione attuati da OpenAI.
Lanciato nel novembre scorso, in seguito al crescente successo del chatbot di intelligenza artificiale ChatGpt, il Gpt Store si propone come una piattaforma online dove individui e aziende possono mettere a disposizione servizi che sfruttano le capacità del noto software. Il sito sottolinea come la creazione di un chatbot attraverso il Gpt Store non necessiti di competenze specifiche in ambito di programmazione, permettendo agli sviluppatori di descrivere le funzionalità che desiderano offrire mediante lo strumento. Tuttavia, questo basso livello di barriere all’entrata sembra aver favorito una rapida espansione del numero di software Gpt disponibili, arrivati a quota 3 milioni. Un incremento che, secondo TechCrunch, è avvenuto a discapito della qualità dei contenuti e del rispetto delle linee guida di OpenAI.
Le criticità del marketplace
TechCrunch evidenzia la presenza, all’interno del Gpt Store, di chatbot capaci di generare immagini di personaggi appartenenti a franchise come Disney e Marvel, in netto contrasto con le leggi sul copyright. Inoltre, sono stati individuati software che simulano conversazioni con celebrità del calibro di Elon Musk, Donald Trump e Leonardo DiCaprio, pratiche queste ultime espressamente vietate dalle politiche di OpenAI. Non mancano poi applicazioni che promettono di eludere sistemi anti-plagio come Turnitin e Copyleaks, indirizzando gli utenti verso servizi a pagamento.
Per contrastare tali violazioni, OpenAI ha implementato un sistema di moderazione che si avvale di un mix di tecniche automatizzate, revisioni umane e segnalazioni da parte degli utenti, con l’obiettivo di individuare e sanzionare i chatbot che non rispettano le regole. Le sanzioni per le violazioni possono variare da semplici avvisi a restrizioni più severe, fino alla possibile esclusione dal Gpt Store.