Un punto critico pericoloso? Le affermazioni di Anthropic sull'hacking dell'intelligenza artificiale dividono gli esperti

Daniele Bianchi

Un punto critico pericoloso? Le affermazioni di Anthropic sull’hacking dell’intelligenza artificiale dividono gli esperti

Uno spartiacque allarmante per l’intelligenza artificiale o una minaccia sopravvalutata?

Il recente annuncio della startup AI Anthropic di aver rilevato la prima campagna di hacking al mondo guidata dall’intelligenza artificiale ha suscitato una moltitudine di risposte da parte di esperti di sicurezza informatica.

Storie consigliate

elenco di 4 elementifine dell’elenco

Mentre alcuni osservatori hanno lanciato l’allarme riguardo al tanto temuto arrivo di un pericoloso punto di svolta, altri hanno accolto le affermazioni con scetticismo, sostenendo che il resoconto della startup tralascia dettagli cruciali e solleva più domande che risposte.

In un rapporto di venerdì, Anthropic ha affermato che il suo assistente Claude Code è stato manipolato per eseguire l’80-90% di un attacco informatico “su larga scala” e “altamente sofisticato”, con l’intervento umano richiesto “solo sporadicamente”.

Anthropic, il creatore del popolare chatbot Claude, ha affermato che l’attacco mirava a infiltrarsi in agenzie governative, istituzioni finanziarie, aziende tecnologiche e aziende di produzione chimica, sebbene l’operazione abbia avuto successo solo in un numero limitato di casi.

La società con sede a San Francisco, che ha attribuito l’attacco ad hacker sponsorizzati dallo stato cinese, non ha specificato come aveva scoperto l’operazione, né ha identificato “circa” 30 entità che secondo lei erano state prese di mira.

Roman V Yampolskiy, esperto di intelligenza artificiale e sicurezza informatica presso l’Università di Louisville, ha affermato che non vi sono dubbi sul fatto che l’hacking assistito dall’intelligenza artificiale rappresenti una seria minaccia, sebbene sia difficile verificare i dettagli precisi dell’account di Anthropic.

“I modelli moderni possono scrivere e adattare codice di exploit, vagliare enormi volumi di dati rubati e orchestrare strumenti più velocemente e in modo più economico rispetto ai team umani”, ha detto Yampolskiy ad Oltre La Linea.

“Abbassano la barriera delle competenze per l’ingresso e aumentano la scala su cui possono operare gli attori dotati di risorse adeguate. Stiamo effettivamente inserendo un team junior di operazioni informatiche nel cloud, affittabile a ore.”

Yampolskiy ha affermato di aspettarsi che l’intelligenza artificiale aumenti sia la frequenza che la gravità degli attacchi.

Jaime Sevilla, direttore di Epoch AI, ha affermato di non vedere molte novità nel rapporto di Anthropic, ma l’esperienza passata insegna che gli attacchi assistiti dall’intelligenza artificiale sono fattibili e probabilmente diventeranno sempre più comuni.

“Questo probabilmente colpirà più duramente le imprese di medie dimensioni e le agenzie governative”, ha detto il Siviglia ad Oltre La Linea.

“Storicamente, non erano obiettivi abbastanza preziosi per campagne dedicate e spesso sottoinvestivano nella sicurezza informatica, ma l’intelligenza artificiale li rende obiettivi redditizi. Mi aspetto che molte di queste organizzazioni si adattino assumendo specialisti di sicurezza informatica, lanciando programmi di ricompensa per la vulnerabilità e utilizzando l’intelligenza artificiale per rilevare e correggere i punti deboli internamente.”

Mentre molti analisti hanno espresso il desiderio di maggiori informazioni da Anthropic, alcuni hanno respinto le sue affermazioni.

Dopo che il senatore degli Stati Uniti Chris Murphy ha avvertito che gli attacchi guidati dall’intelligenza artificiale ci avrebbero “distrutto” se la regolamentazione non fosse diventata una priorità, il capo scienziato di Meta AI Yann LeCun ha denunciato il legislatore per essere stato “interpretato” da una società in cerca di acquisizione normativa.

“Stanno spaventando tutti con studi dubbi, così che i modelli open source siano regolamentati e cancellati”, ha detto LeCun in un post su X.

Anthropic non ha risposto a una richiesta di commento.

Un portavoce dell’ambasciata cinese a Washington, DC, ha affermato che la Cina “coerentemente e risolutamente” si è opposta a ogni forma di attacco informatico.

“Ci auguriamo che le parti interessate adottino un atteggiamento professionale e responsabile, basando la loro caratterizzazione degli incidenti informatici su prove sufficienti, piuttosto che su speculazioni e accuse infondate”, ha detto Liu Pengyu ad Oltre La Linea.

Toby Murray, esperto di sicurezza informatica presso l’Università di Melbourne, ha affermato che Anthropic aveva incentivi commerciali per evidenziare sia i pericoli di tali attacchi sia la sua capacità di contrastarli.

“Alcune persone hanno messo in dubbio le affermazioni di Anthropic secondo cui gli aggressori sono riusciti a convincere Claude AI a svolgere compiti altamente complessi con una supervisione umana inferiore a quella normalmente richiesta”, ha detto Murray ad Oltre La Linea.

“Sfortunatamente, non ci forniscono prove concrete per dire esattamente quali compiti sono stati eseguiti o quale supervisione è stata fornita. Quindi è difficile esprimere un giudizio in un modo o nell’altro su queste affermazioni.”

Tuttavia, Murray ha affermato di non trovare il rapporto particolarmente sorprendente, considerando l’efficacia di alcuni assistenti di intelligenza artificiale in compiti come la programmazione.

“Non credo che l’hacking basato sull’intelligenza artificiale possa cambiare il tipo di attacchi che si verificheranno”, ha affermato.

“Tuttavia, potrebbe inaugurare un cambiamento di scala. Dovremmo aspettarci di vedere più attacchi basati sull’intelligenza artificiale in futuro e che questi attacchi abbiano più successo.”

Sebbene l’intelligenza artificiale sia destinata a rappresentare rischi crescenti per la sicurezza informatica, secondo gli analisti sarà anche fondamentale nel rafforzare le difese.

Fred Heiding, un ricercatore dell’Università di Harvard specializzato in sicurezza informatica e sicurezza dell’intelligenza artificiale, ha affermato di ritenere che l’intelligenza artificiale fornirà un “vantaggio significativo” agli specialisti della sicurezza informatica nel lungo termine.

“Oggi, molte operazioni informatiche sono frenate dalla carenza di cyber-professionisti umani. L’intelligenza artificiale ci aiuterà a superare questo collo di bottiglia consentendoci di testare tutti i nostri sistemi su larga scala”, ha detto Heiding ad Oltre La Linea.

Heiding, che ha descritto il resoconto di Anthropic come ampiamente credibile ma “esagerato”, ha affermato che il grande pericolo è che gli hacker abbiano una finestra di opportunità per scatenarsi mentre gli esperti di sicurezza lottano per tenere il passo con lo sfruttamento di un’intelligenza artificiale sempre più avanzata.

“Sfortunatamente, è probabile che la comunità difensiva sia troppo lenta nell’implementare la nuova tecnologia in soluzioni automatizzate di test e patch di sicurezza”, ha affermato.

“Se così fosse, gli aggressori causerebbero il caos sui nostri sistemi con la semplice pressione di un pulsante, prima che le nostre difese abbiano il tempo di mettersi al passo”.

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.