L’esercito degli Stati Uniti ha impiegato Claude, il modello di intelligenza artificiale sviluppato da Anthropic, durante l’operazione che ha portato alla cattura di Nicolás Maduro in Venezuela. Secondo fonti informate sulla situazione citate da Axios, le ripercussioni di questo utilizzo potrebbero ora mettere a rischio i rapporti commerciali tra l’azienda e il Pentagono.
La vicenda si inserisce in un contesto delicato, dato che il Segretario alla Difesa Pete Hegseth ha spinto con decisione verso l’integrazione rapida dell’intelligenza artificiale in ogni aspetto del lavoro militare, considerandola una mossa necessaria per non perdere terreno rispetto alla Cina.
Il Pentagono – anzi, il Ministero della Guerra – preme affinché i giganti del settore permettano l’uso dei loro modelli in qualsiasi scenario, purché nel rispetto delle leggi vigenti. Anthropic, che ha costruito la propria reputazione posizionandosi come leader nel campo della sicurezza e dell’etica, sta attualmente negoziando i propri termini d’uso con i vertici della difesa. L’azienda punta a ottenere garanzie affinché la sua tecnologia non venga sfruttata per la sorveglianza di massa dei cittadini americani o per gestire sistemi d’arma completamente autonomi.
Stando alle indiscrezioni, Claude sarebbe stato utilizzato non solo nelle fasi preparatorie ma durante l’azione operativa vera e propria contro Maduro, anche se il suo ruolo specifico non è ancora stato chiarito. Una fonte vicina ai colloqui in corso riferisce che Anthropic è convinta che i militari abbiano rispettato le attuali politiche d’uso, le quali prevedono restrizioni aggiuntive rispetto a quelle standard. Tuttavia, un alto funzionario dell’amministrazione ha riferito che le perplessità sollevate dalla società sull’impiego del modello nell’operazione hanno generato forte irritazione al Pentagono. Lo stesso funzionario ha avvertito che qualsiasi azienda capace di mettere a rischio il successo operativo dei soldati sul campo costringe il governo a riconsiderare la validità della partnership per il futuro.
Un portavoce di Anthropic ha negato che l’azienda abbia mosso contestazioni formali al Dipartimento della Difesa in merito alla missione, spiegando che la società non può commentare se Claude, o qualsiasi altro modello, sia stato impiegato per operazioni specifiche, classificate o meno. Nonostante queste tensioni, Anthropic resta uno dei principali fornitori di modelli che collaborano con la Difesa. Altri attori di primo piano come OpenAI, Google e xAI hanno già stretto accordi che consentono agli utenti militari di accedere alle tecnologie senza molti dei vincoli di sicurezza applicati agli utenti comuni. Anthropic mantiene inoltre una collaborazione con Palantir, colosso del settore con numerosi contratti governativi, che permette l’integrazione di Claude all’interno dei suoi prodotti destinati alla sicurezza.
