Viviamo davvero in un mondo sempre più triste e governato dalla sete di potere e di denaro. Potremmo sfruttare l’intelligenza artificiale per risolvere i mali del mondo, curare malattie rare ed aiutare i medici che stanno in prima linea a formulare diagnosi più accurate. Ed invece? Il mio post su Palantir sembra averci visto giusto su quello che succede dietro le quinte, nelle sale dei bottoni dove si decidono i destini di intere popolazioni. Oggi ti propongo la traduzione di un post che ho trovato su Reddit, in cui l’autore si concentra sulle implicazioni etiche dell’uso di sistemi così potenti per motivi bellici. Come se il film WarGames non ci avesse insegnato nulla.
TL;DR: Il Dipartimento della Difesa degli Stati Uniti (DoD), recentemente chiamato anche Dipartimento della Guerra, ha appena siglato contratti con i grandi laboratori di IA. xAI ha dato loro un assegno in bianco per uso militare. OpenAI ha invece fissato alcuni limiti. Google ha silenziosamente rimosso le proprie politiche anti-armi. Anthropic ha dimostrato la sua ipocrisia vietando la sorveglianza interna negli USA, ma autorizzando quella estera. Se tieni alla privacy, la tua unica opzione reale ora sono i modelli locali offline.
Quindi, dal 1° marzo 2026, il panorama dell’IA frontieristica è cambiato in modo permanente. A luglio 2025, il CDAO ha annunciato contratti da 200 milioni di dollari con OpenAI, Google, Anthropic e xAI per scalare i workflow agentici per la difesa. Ma gli aggiornamenti di fine febbraio 2026 mostrano finalmente dove queste aziende tracciano davvero la linea quando il recentemente rinominato Dipartimento della Guerra mette pressione. Volevo analizzare la realtà di questi accordi perché la PR aziendale nasconde una quantità enorme di ipocrisia.
Anthropic e il mito dell’IA etica
Anthropic si è speso per anni per promuoversi come laboratorio “etico e safety-first”. Ma il 26 febbraio Dario Amodei ha delineato le due linee rosse per il DoW: rifiutano la sorveglianza di massa interna e le armi completamente autonome. Ha poi dichiarato esplicitamente di supportare l’intelligence estera legale e il controspionaggio.
Riflettiamo un attimo su questo: Amodei vede un problema solo nel monitoraggio dei cittadini statunitensi. Se vivi altrove nel mondo, sei considerato un obiettivo legittimo per i loro strumenti di sorveglianza. Dubito anche che la loro posizione sulle armi autonome derivi da profonde convinzioni morali: probabilmente la rifiutano solo perché la tecnologia non è ancora affidabile. È pura ipocrisia. Di fronte a minacce del Defense Production Act, hanno dimostrato subito che la loro etica finisce al confine degli USA.
xAI ha dato un assegno in bianco
Poi c’è xAI. Axios ha riportato il 23 febbraio che hanno accettato di inserire Grok nei sistemi classificati e di accettare tutti gli standard di uso legale richiesti dal DoW. Nessuna sfumatura, nessun rifiuto. È una consegna incondizionata, dove forniscono la tecnologia per qualsiasi scopo militare legale.
OpenAI e Google giocano a giochi diversi
OpenAI e Google gestiscono la cosa in modo diverso. La gente pensa che OpenAI firmi tutto senza eccezioni, ma secondo Reuters del 28 febbraio, hanno invece fissato tre linee rosse specifiche per la distribuzione su reti classificate: hanno vietato la sorveglianza di massa interna, il targeting da armi autonome e le decisioni automatizzate critiche. Sono profondamente coinvolti, ma hanno tracciato limiti più netti rispetto a xAI.
Google, a questo punto, è solo una scatola nera. Potresti pensare che offrano ancora supporto limitato a causa delle proteste dei loro ex dipendenti. In realtà, a febbraio 2025 Google ha silenziosamente rimosso dai propri principi pubblici sull’IA il linguaggio che vietava di costruire armi o tecnologie di sorveglianza. Hanno un contratto da 200 milioni di dollari con il CDAO per IA agentica. Poiché i dettagli del contratto sono nascosti, non abbiamo idea dei loro limiti reali.
La vera conclusione sulla privacy
Il punto principale riguarda la privacy. Le applicazioni difensive e di intelligence di questi modelli sono progettate per colpire popolazioni straniere e raccogliere dati globali. Le big tech hanno scelto da che parte stare e si sono allineate allo Stato. Se vuoi davvero mantenere i tuoi dati al di fuori di queste immense reti di sorveglianza, usare un’IA locale offline è praticamente l’unica opzione praticabile. Tutto il resto è un compromesso.
Insomma, c’è poco da stare allegri.
Commenti
Trap ha scritto:
Non smetterò mai di far vedere a tutti questo video.
Risposte al commento di Trap
camu ha scritto:
Accipicchia, ed era il 2011. Siamo proprio nei guai. Non perché l’intelligenza artificiale sia cattiva, ma perché noi la stiamo rendendo tale. Sempre perché i soldi controllano tutto.