Pentagon stempler offisielt Anthropic som en leverandørkjederisiko "med umiddelbar virkning"

Avgjørelsen kan tvinge militære entreprenører til å droppe selskapets Claude AI-verktøy.
Tekst: Óscar Ontañón Docal
Publisert 2026-03-06

Pentagon har utpekt det amerikanske selskapet for kunstig intelligens Anthropic som en forsyningskjederisiko " med umiddelbar virkning, "en beslutning som kan tvinge forsvarsentreprenører til å slutte å bruke Claude chatbot. Avgjørelsen kommer etter en tvist mellom Trump-administrasjonen og Anthropics ledelse om restriksjoner på hvordan militæret kan bruke selskapets AI-systemer.

Konflikten eskalerte etter at CEO Dario Amodei nektet å fjerne sikkerhetstiltak som skulle forhindre at teknologien ble brukt til masseovervåking av amerikanere eller helt autonome våpen. President Donald Trump og forsvarsminister Pete Hegseth hevdet at disse begrensningene kunne sette nasjonal sikkerhet i fare og hindre militære operasjoner.

Noen entreprenører, inkludert Lockheed Martin, har allerede begynt å distansere seg fra Anthropic. I mellomtiden har konkurrenten OpenAI kunngjort en ny avtale med Pentagon om å ta i bruk ChatGPT i klassifiserte militære miljøer, noe som potensielt kan erstatte Anthropics teknologi...

Claude

Les mer og se skjermbilder på Gamereactor.no

Tilbake