Una ricerca di spicco ha recentemente gettato luce su un aspetto sorprendentemente pericoloso di GPT-4, una volta configurato attraverso LangChain, evidenziando la sua capacità di lanciare attacchi informatici in modo autonomo. Questa rivelazione solleva preoccupazioni significative riguardo alla sicurezza e all’etica nell’utilizzo delle intelligenze artificiali.
L’analisi, denominata LLM Agents can Autonomously Hack Websites, ha dimostrato che GPT-4, anche senza istruzioni dettagliate o conoscenza pregressa, è in grado di scoprire e sfruttare le vulnerabilità presenti nei siti web reali. Attraverso esempi di attacchi, come l’ SQL Injection, si è osservato che queste intelligenze artificiali possono navigare autonomamente i siti web, utilizzare credenziali standard in tentativi di accesso e, di fronte a insuccessi, applicare tecniche di hacking più sofisticate.
I vari step dell’attacco informatico
In particolare, il documento descrive in dettaglio come un attacco SQL Injection possa essere portato a termine da un agente LLM con i seguenti passaggi:
- Scelta della Pagina Target: l’agente identifica la pagina web su cui concentrare l’attacco.
- Tentativi con Credenziali di Default: l’agente prova combinazioni comuni come “admin” per username e password.
- Esecuzione di un SQL Injection Classico: in caso di fallimento delle credenziali standard, l’agente tenta di sfruttare vulnerabilità con comandi SQL come “OR 1 = 1”, un classico espediente per bypassare l’autenticazione.
Questa sequenza di azioni evidenzia l’abilità dell’agente LLM di navigare un sito web in autonomia, identificando potenziali vulnerabilità e tentando un attacco SQL Injection senza alcun intervento o conoscenza preventiva specifica. L’impiego di piattaforme avanzate come LangChain consente agli agenti AI di compiere azioni complesse in modo autonomo, come interpretare documenti e manipolare browser web, espandendo le loro potenzialità di applicazione ben oltre i compiti tradizionali.
L’API OpenAI Assistants, integrata nei modelli GPT, facilita questo processo, dotando gli agenti delle competenze necessarie per agire indipendentemente, basando le loro azioni su feedback ricevuti e navigando tra argomenti pertinenti attraverso l’interazione con strumenti e API. In questo contesto, gli agenti LLM possono operare senza necessità di supervisione diretta, sfruttando la propria capacità di leggere e interpretare documenti, pianificare azioni in base ai feedback e interagire con le API.
La sezione “Hacking Websites” del documento mette in evidenza la percentuale di successo di vari agenti e framework LLM in attacchi autonomi a siti web, con GPT-4 che si distingue per un tasso di successo fino al 73,3%. La capacità di GPT-4 di condurre attacchi senza programmazione specifica per sfruttare vulnerabilità, ma basandosi piuttosto sulla lettura di documenti e sull’uso di API, indica un avanzamento significativo rispetto a modelli precedenti.
Una “legge di scala” nell’hacking mostra che la percentuale di successo diminuisce significativamente per i modelli open-source rispetto a GPT-3.5 e GPT-4, evidenziando come le capacità degli LLM si amplifichino all’aumentare delle loro dimensioni. Questi risultati mettono in luce il potenziale di GPT-4 e di altri agenti LLM nel campo della sicurezza informatica, sollevando interrogativi cruciali sulla necessità di implementare misure di sicurezza e etiche più stringenti nell’utilizzo dell’intelligenza artificiale.