L’intelligenza artificiale (IA) sta compiendo progressi notevoli, come dimostra l’annuncio del modello Sora di OpenAI, capace di creare video fotorealistici partendo da descrizioni testuali. Ad ogni modo, “da grandi poteri derivano grandi responsabilità”, e la sfida di oggi non è solo tecnologica ma anche etica e normativa. Come garantire che l’evoluzione dell’IA proceda in modo sicuro, etico e allineato ai valori umani? L’Europa risponde con l’AI Act, un tentativo pionieristico di regolamentare il futuro digitale.
Il contesto attuale vede l’introduzione del primo significativo regolamento a livello mondiale per l’IA: l’AI Act europeo. Questo regolamento mira a fornire un quadro normativo per una tecnologia che trova applicazione in un’ampia varietà di ambiti. Le aziende del settore hanno espresso forte interesse per una regolamentazione che definisca chiaramente i confini entro cui operare. L’AI Act si concentra particolarmente sui cosiddetti modelli di intelligenza artificiale di uso generale, addestrati su vasti set di dati per offrire servizi diversificati.
Tali modelli, inclusi GPT di OpenAI e LaMDA di Google, possono essere impiegati in numerosi settori, sia individualmente sia come parte di sistemi IA più complessi. L’Unione Europea adotta un’interpretazione ampia di questi modelli per estendere il più possibile la portata della regolamentazione in un campo tanto variegato come l’IA.
Differenziazione e regolamentazione dei modelli di IA
Si distingue tra modelli di base e quelli a rischio sistemico, applicando normative diverse in base al potenziale pericolo che possono rappresentare nell’UE. La Commissione Europea ha il compito di determinare quali modelli possano costituire un rischio sistemico, avendo la possibilità di aggiornare i criteri di valutazione.
I modelli classificati come di base sono soggetti a requisiti di trasparenza, inclusa la nomina di un rappresentante legale e la redazione di politiche per il rispetto dei diritti d’autore, oltre alla presentazione di documentazione dettagliata sul funzionamento e l’addestramento dei sistemi. Per i modelli a rischio sistemico, invece, si richiedono misure preventive come piani di cybersicurezza e valutazioni dei rischi potenziali prima del lancio sul mercato. Questi modelli devono inoltre aderire a standard specifici e sottoporsi a test di adversaria per valutare la reazione a input dannosi o non intenzionali.
Dopo un accordo politico preliminare alla fine del 2023, nel febbraio 2024 i 27 Stati membri dell’UE hanno ratificato all’unanimità l’AI Act, stabilendo il primo regolamento globale nel campo dell’intelligenza artificiale. Il testo definitivo, ora pubblicato sul sito del Consiglio dell’Unione Europea, dovrà ancora attraversare ulteriori fasi legislative prima della sua approvazione finale, prevista tra marzo e aprile 2024, con pubblicazione ufficiale attesa per maggio dello stesso anno. Tuttavia, l’implementazione completa del regolamento potrebbe slittare al 2026, segnando un importante passo avanti nella regolamentazione dell’IA da parte dell’UE.