L’Autorità Garante per la protezione dei dati personali ha intrapreso un’azione di verifica nei confronti di OpenAI, il colosso tecnologico con sede in California, richiedendo dettagli specifici su Sora, il loro innovativo modello text-to-video annunciato verso la metà di febbraio. La richiesta dell’autorità impone alla società di fornire delucidazioni entro un termine di 20 giorni, sollevando interrogativi sulla gestione della privacy e la sicurezza dei dati personali.
OpenAI, azienda notoriamente riconosciuta per i suoi modelli di intelligenza artificiale quali GPT, per il testo, e DALL-E, per le immagini, ha recentemente esteso le sue capacità con Sora, introducendo la possibilità di generare video della durata di 60 secondi. Questi ultimi, stando a quanto mostrato in alcuni esempi, presentano una qualità talmente elevata da risultare quasi indistinguibili da riprese reali, suscitando preoccupazioni riguardo al potenziale uso improprio sotto forma di deepfake.
La salvaguardia dei dati personali di fronte alle innovazioni tecnologiche
Nonostante sul sito ufficiale sia stato assicurato che Sora verrà messo a disposizione del pubblico solo dopo un’attenta fase di test, volta a prevenire eventuali abusi, l’Autorità Garante ha espresso la necessità di chiarimenti in merito alla disponibilità attuale del modello. In particolare, si richiede a OpenAI di confermare se Sora sia già accessibile al pubblico e se il suo utilizzo sia previsto anche per gli utenti nell’Unione Europea, con un focus specifico sull’Italia.
L’indagine si estende poi alla compatibilità delle pratiche informative di OpenAI, sia nei confronti degli utenti che dei non utenti, e alla conformità delle basi giuridiche per il trattamento dei dati raccolti, secondo quanto stabilito dal GDPR. Un ulteriore punto di interesse per il Garante riguarda i metodi di addestramento del modello Sora, le fonti di dati impiegate e la specificità delle categorie di dati trattati, inclusi elementi sensibili come le convinzioni religiose, le opinioni politiche, i dati genetici, lo stato di salute e la vita sessuale degli individui.
Questo approccio precauzionale da parte dell’Autorità Garante si inquadra in un contesto più ampio di tutela della privacy, evidenziato da precedenti indagini, come quella relativa a ChatGPT, mirando a prevenire l’introduzione di tecnologie che potrebbero avere ripercussioni impreviste sulla privacy degli individui.