Antropico contro il Pentagono: perché un’azienda di intelligenza artificiale sta affrontando l’amministrazione Trump

Daniele Bianchi

Antropico contro il Pentagono: perché un’azienda di intelligenza artificiale sta affrontando l’amministrazione Trump

È in corso una disputa tra il governo degli Stati Uniti e Anthropic, una delle società tecnologiche che sviluppa strumenti di intelligenza artificiale (AI) per la difesa e usi civili.

Secondo recenti rapporti, il software Claude di Anthropic è stato utilizzato in un’operazione militare statunitense, che ha portato al rapimento del presidente venezuelano Nicholas Maduro nel gennaio di quest’anno.

Il segretario alla Difesa americano Pete Hegseth ha concesso alla società tempo fino a venerdì per allentare le sue regole su come i suoi strumenti di intelligenza artificiale possono essere utilizzati dal Pentagono, pena la perdita del contratto governativo, hanno riferito martedì le agenzie di stampa Associated Press e Reuters, citando fonti anonime.

Ma Anthropic si rifiuta di fare marcia indietro sulle misure di salvaguardia che impediscono che la sua tecnologia venga utilizzata per condurre la sorveglianza interna degli Stati Uniti e per programmare armi autonome che possano colpire obiettivi senza intervento umano.

Cos’è l’Antropismo?

Anthropic è una società di intelligenza artificiale fondata nel 2021 da ex dirigenti di OpenAI.

È stato il primo sviluppatore di intelligenza artificiale ad essere utilizzato in operazioni classificate dal Dipartimento della Difesa degli Stati Uniti, che ha sede presso il Pentagono a Washington, DC.

Anthropic è meglio conosciuta per aver creato Claude, un popolare modello di linguaggio di grandi dimensioni (LLM) ed è rapidamente diventata una delle più importanti società di sviluppo di intelligenza artificiale.

LLM è un tipo di tecnologia AI che genera testo, output visivo o audio simile al contenuto creato dagli esseri umani dopo aver analizzato enormi set di dati come libri, archivi, siti Web, immagini e video.

Per uso militare e di difesa, i LLM possono riassumere grandi volumi di testo, analizzare dati, tradurre, trascrivere e redigere promemoria. In teoria, potrebbero anche essere utilizzati per supportare sistemi d’arma autonomi o semi-autonomi, in grado di identificare e colpire obiettivi senza bisogno di istruzioni umane. Tuttavia, la maggior parte delle aziende di intelligenza artificiale hanno termini che vietano questo utilizzo.

Anthropic si posiziona come sviluppatore “responsabile” nel panorama dell’intelligenza artificiale. Sul suo sito web, la società si descrive come una “società di pubblica utilità” impegnata nello “sviluppo e mantenimento responsabili dell’intelligenza artificiale avanzata per il beneficio a lungo termine dell’umanità”.

A novembre, la società ha affermato che un gruppo di hacker sponsorizzato dallo stato cinese aveva manipolato il codice Claude nel tentativo di infiltrarsi in circa 30 obiettivi a livello globale, tra cui agenzie governative, aziende chimiche, istituzioni finanziarie e giganti della tecnologia. Alcuni di questi tentativi hanno avuto successo.

All’inizio di questo mese, Mrinank Sharma, ricercatore sulla sicurezza dell’intelligenza artificiale presso Anthropic, si è dimesso dal suo incarico a causa delle preoccupazioni sull’uso dell’intelligenza artificiale.

In una dichiarazione pubblicata sul suo account X il 9 febbraio, Sharma ha scritto: “Il mondo è in pericolo. E non solo a causa dell’intelligenza artificiale o delle armi biologiche, ma a causa di tutta una serie di crisi interconnesse che si stanno verificando proprio in questo momento”.

“Inoltre, durante il mio tempo qui, ho visto più volte quanto sia difficile lasciare veramente che i nostri valori governino le nostre azioni. L’ho visto dentro di me, all’interno dell’organizzazione, dove affrontiamo costantemente pressioni per mettere da parte ciò che conta di più, e anche in tutta la società in generale”, ha aggiunto.

Con quali altre società di intelligenza artificiale collabora l’esercito americano?

Il Pentagono ha annunciato l’estate scorsa che avrebbe assegnato contratti per la difesa a quattro società di intelligenza artificiale: Anthropic, Google, OpenAI e xAI. Ogni contratto vale fino a 200 milioni di dollari.

Anthropic è stata la prima società di intelligenza artificiale ad essere approvata per reti militari classificate, sulle quali, secondo quanto riferito, lavora con partner come la società di software statunitense Palantir Technologies, che è stata criticata per i suoi legami con l’esercito israeliano. xAI di Elon Musk, che gestisce il chatbot Grok, afferma che Grok è pronto anche per essere utilizzato in ambienti classificati, secondo un anonimo alto funzionario del Pentagono, ha riferito AP.

Ma l’amministrazione Trump vuole poter utilizzare i prodotti di queste società di intelligenza artificiale senza restrizioni. Hegseth ha affermato che la sua visione dei sistemi di intelligenza artificiale militare implica che essi operino “senza vincoli ideologici che limitino le applicazioni militari legittime”, prima di aggiungere che “l’intelligenza artificiale del Pentagono non verrà risvegliata”.

Perché Anthropic è in contrasto con il Pentagono?

Fonti hanno riferito che durante una riunione di martedì, Hegseth ha concesso al CEO di Anthropic, Dario Amodei, tempo fino a venerdì alle 17:00 (22:00 GMT) per accettare di fornire i modelli di intelligenza artificiale di Anthropic da utilizzare sulla nuova rete interna del Pentagono con meno restrizioni.

Funzionari del Dipartimento della Difesa degli Stati Uniti hanno avvertito che potrebbero designare Anthropic un rischio per la catena di fornitura o utilizzare il Defense Production Act per dare essenzialmente all’esercito più autorità per utilizzare i suoi prodotti anche se non approva il modo in cui vengono utilizzati, secondo una persona che ha familiarità con l’incontro e un alto funzionario del Pentagono, nessuno dei quali era autorizzato a commentare pubblicamente e ha parlato in condizione di anonimato, ha riferito AP.

Amodei ha anche precedentemente sollevato preoccupazioni etiche sull’uso incontrollato dell’intelligenza artificiale da parte del governo, compresi i pericoli dei droni armati completamente autonomi e della sorveglianza di massa assistita dall’intelligenza artificiale che potrebbe tenere traccia del dissenso.

“Una potente intelligenza artificiale che analizza miliardi di conversazioni di milioni di persone potrebbe valutare il sentimento pubblico, rilevare sacche di slealtà che si formano e eliminarle prima che crescano”, ha scritto in un saggio il mese scorso.

La persona familiare ha definito “cordiale” il tono dell’incontro di martedì, ma ha detto che Amodei ha rifiutato di muoversi su due questioni chiave: operazioni militari di targeting completamente autonome e sorveglianza interna dei cittadini statunitensi.

Martedì, in un podcast in cui ha spiegato il suo rifiuto di cedere alle richieste del Pentagono, Amodei ha ribadito le sue preoccupazioni sugli “sciami di droni autonomi” – probabilmente droni autonomi che possono attaccare obiettivi senza input umano – e sulla sorveglianza di massa.

“Le protezioni costituzionali nelle nostre strutture militari dipendono dall’idea che ci siano esseri umani che disobbedirebbero agli ordini illegali con armi completamente autonome”, ha detto Amodei, sottolineando che i droni autonomi non sarebbero in grado di fare tale distinzione.

Il Pentagono si oppone alle restrizioni etiche di Anthropic perché le operazioni militari richiedono strumenti che non hanno limitazioni intrinseche, ha detto l’alto funzionario del Pentagono. Il funzionario ha sostenuto che il Pentagono ha emesso solo ordini legittimi e ha sottolineato che l’uso legale degli strumenti di Anthropic sarebbe responsabilità dei militari.

Come è stato utilizzato Claude in Venezuela?

Il 3 gennaio, le forze speciali statunitensi hanno rapito Maduro, che rimane sotto la custodia degli Stati Uniti e deve affrontare un processo con l’accusa di droga e armi a New York.

I resoconti dei media statunitensi hanno rivelato il 14 febbraio che Claude dell’Anthropic era stato utilizzato nell’operazione per colpire Caracas e catturare Maduro.

Un anonimo funzionario di Anthropic contattato dal Wall Street Journal ha rifiutato di commentare se Claude, o qualsiasi altro modello di intelligenza artificiale, sia stato utilizzato in qualsiasi operazione. Tuttavia, il funzionario ha affermato che qualsiasi utilizzo di Claude nel settore privato o da parte del governo dovrebbe essere conforme alle politiche di utilizzo di Claude.

Secondo le politiche di utilizzo elencate sul sito web di Anthropic, Claude non può essere utilizzato per la sorveglianza, lo sviluppo di armi o “l’incitamento alla violenza”.

Un totale di 83 persone, tra cui 47 soldati venezuelani, sono state uccise durante l’operazione speciale americana in Venezuela.

I media statunitensi hanno anche riferito che Anthropic ha collaborato con Palantir Technologies, i cui strumenti sono utilizzati anche dal Dipartimento della Difesa e dalle forze dell’ordine federali.

Non è chiaro come sia stato utilizzato esattamente Claude durante il raid su Caracas di gennaio, ma gli strumenti di intelligenza artificiale possono essere utilizzati per controllare i droni, analizzare le immagini e riassumere le comunicazioni intercettate.

Nel luglio 2025, Francesca Albanese, relatrice speciale delle Nazioni Unite sui diritti umani nei territori palestinesi occupati, ha pubblicato un rapporto che mappa le multinazionali che aiutano Israele nello sfollamento dei palestinesi e nella sua guerra genocida contro Gaza, in violazione del diritto internazionale.

Il rapporto ha rilevato che Palantir aveva ampliato il suo sostegno all’esercito israeliano dall’inizio della sua guerra genocida contro Gaza nell’ottobre 2023.

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.