Nightshade è nato con una chiara missione: permettere agli artisti di proteggere le proprie opere d’arte dall’uso non autorizzato da parte delle intelligenze artificiali. Attraverso questo strumento, gli artisti hanno la capacità di “avvelenare” i pixel delle loro creazioni prima di pubblicarle in rete. Sebbene queste variazioni siano impercettibili all’occhio umano, causano gravi distorsioni nei modelli IA che tentano di addestrarsi con tali immagini. L’esito? Le intelligenze artificiali producono risultati distorti: una foto di un cane potrebbe essere interpretata come un gatto, o un’automobile potrebbe trasformarsi in una mucca.
Questo straordinario strumento è frutto della ricerca guidata dal professor Ben Zhao dell’Università di Chicago. La sua ideazione è stata motivata dalla necessità di controbilanciare le pratiche ingiuste di alcune aziende che sfruttano l’arte senza il consenso degli artisti per addestrare i loro modelli IA. L’efficacia di Nightshade non si limita a una parola specifica.
Se un artista decide di proteggere la parola “cane”, l’azione di “avvelenamento” si estende anche a termini correlati come “cucciolo” o “husky”. Questa sofisticata tecnologia è stata presentata in anteprima al MIT Technology Review, evidenziando la sua potenzialità di ristabilire i diritti degli artisti in un’era digitale. Va notato che Zhao è anche il cervello dietro a Glaze, un altro strumento dedicato alla protezione degli artisti, progettato per mascherare lo stile distintivo delle opere d’arte, impedendo alle IA di replicarlo.
Obiettivo: restituire il potere decisionale agli artisti
Gli sviluppatori hanno infatti previsto l’integrazione di Nightshade in Glaze. Ciò permetterà agli artisti di scegliere se desiderano solamente mascherare lo stile o procedere con l'”avvelenamento” dell’IA. La natura open source di Nightshade apre anche le porte a modifiche e adattamenti da parte di altri sviluppatori, ampliando le sue potenzialità.
Durante i test effettuati sul modello IA chiamato Stable Diffusion, il team di ricerca ha scoperto che bastano appena 50 immagini modificate con Nightshade per generare anomalie nei risultati. Ad esempio, le immagini di cani avevano un numero errato di zampe o presentavano aspetti irrealistici. Con 300 immagini, l’IA iniziava a produrre gatti invece di cani.
Tuttavia, Zhao ha espressamente evidenziato la possibile vulnerabilità dell’uso improprio di Nightshade. Sebbene siano necessarie migliaia di campioni per sabotare un modello IA di ampie dimensioni, l’espansione dell’utilizzo abusivo rimane una preoccupazione legittima. Vitaly Shmatikov, docente specializzato nella sicurezza dei modelli IA presso l’Università di Cornell, ha spiegato:
Non si sono ancora visti attacchi reali sui modelli di apprendimento automatico, ma potrebbe essere solo una questione di tempo.
Anche Gautam Kamath, esperto di intelligenza artificiale all’Università di Waterloo, mette in guardia sulle crescenti minacce ai modelli IA, in particolare con l’aumento della loro potenza e fiducia. Ad ogni modo, è essenziale sottolineare che, nonostante aziende come OpenAI e Stability AI offrano opzioni per escludere l’uso delle immagini degli artisti, molti di questi ritengono che queste misure non siano sufficienti. La lotta per i diritti d’autore nell’era digitale continua.