Når AI blir et våpen

Om fremtidens krigføring og hvorfor Anthropics kamp mot Pentagon angår oss alle

I kveld, 27. februar 2026 klokken 23.00 norsk tid, utløper en frist som kan forandre verden. Det amerikanske forsvarsdepartementet, Pentagon, har gitt AI-selskapet Anthropic et ultimatum: Fjern de etiske sikkerhetsmekanismene i den avanserte språkmodellen Claude, ellers sier de opp alle militære kontrakter og selskapet risikerer å bli svartelistet som en «nasjonal sikkerhetstrussel».

Pentagon har en kontrakt med Anthropic verdt rundt to milliarder kroner, og de vil bruke Claude «til alle lovlige formål». Kampen står om to prinsipper Anthropic nekter å gi slipp på: Ingen autonome våpen. Ingen masseovervåkning.

Pentagon svarer at de ikke har tenkt å gjøre noen av delene. De sier det høyt og tydelig, men de vil altså ikke love det skriftlig.

Dette er ikke bare en amerikansk strid, det er en kamp om hvem som skal kontrollere fremtidens teknologi – og om etikk eller militær makt skal styre utviklingen. For Norge, som har tatt tydelig avstand fra autonome våpen og støtter FN-krav om forbud, er denne konflikten en påminnelse om hva som står på spill når AI blir et våpen.

Angår også Norge

Norge har i flere år vært en forkjemper for internasjonale avtaler som forbyr autonome våpen. I 2024 støttet vi FN-resolusjonen om å forby dødelige autonome våpensystemer uten menneskelig kontroll, og Forsvarsdepartementet har understreket at mennesker må ta beslutninger om bruk av makt. Likevel er vi en del av NATO, der flere medlemsland allerede utvikler eller tester autonome våpen. Hvis Pentagon lykkes i å tvinge Anthropic til å fjerne sine etiske barrierer, kan dette sette en farlig presedens. Hvis verdens mektigste militærmakt kan overstyre etiske grenser, hva hindrer andre land – eller allianser – i å gjøre det samme?

Norske myndigheter har også advart om at AI i militær sammenheng kan undergrave folkeretten og demokratiske verdier. I en uttalelse til FN sa Norge at autonome våpensystemer reiser alvorlige juridiske, etiske og humanitære bekymringer. Men hva skjer når de største tech-selskapene gir etter for militære krav? OpenAI, Google og Elon Musks xAI har allerede akseptert Pentagons vilkår for å sikre seg milliardkontrakter. Anthropic står alene igjen som det eneste selskapet som sier nei. Foreløpig. Så får vi se kl 23.00 i kveld.

Hva står på spill?

Når maskiner bestemmer over liv og død

Pentagon insisterer på at de ikke vil bruke AI til autonome våpen, men de nekter å skrive dette inn i kontraktene. Anthropics sjef, Dario Amodei, har gjentatte ganger advart om at dagens AI-modeller ikke er pålitelige nok til å ta livskritiske beslutninger. «Vi vil ikke levere et produkt som setter amerikanske soldater eller sivile i fare», skrev han i en uttalelse denne uken. Likevel truer Pentagon med å bruke Defense Production Act, en lov fra Koreakrigen som gir presidenten makt til å tvinge selskaper til å produsere det staten krever, for å fjerne Anthropics sikkerhetsmekanismer.

Norge har allerede investert i autonome systemer for situasjonsbevissthet og forsvar, men Forsvarsdepartementet understreker at menneskelig kontroll må opprettholdes. Hvis Pentagon tvinger igjennom sin vilje, kan dette svekke internasjonale bestrebelser for å regulere autonome våpen, og sette Norge i en vanskelig posisjon som NATO-medlem.

Når AI blir et verktøy for kontroll

Anthropic har også nektet å la Claude brukes til masseovervåkning av amerikanske borgere. Amodei peker på at dagens lovverk ikke har holdt tritt med AI-utviklingen, og at myndigheter allerede kan kjøpe detaljerte data om folks bevegelser, nettbruk og relasjoner, uten rettskjennelse. Med avanserte AI-modeller kan slike data automatisk og i massiv skala brukes til å lage helhetlige profiler av enkeltindivider.

I Norge har vi hatt en lang debatt om personvern og statlig overvåkning. Hvis Pentagon får tilgang til slike verktøy, kan det åpne for misbruk også i andre land, inkludert allierte. Det reiser spørsmål om hvorvidt norske tech-selskaper i fremtiden kan nekte å levere lignende teknologi til militære formål, eller om de vil bli presset til å gi etter for økonomiske eller politiske interesser.

Etisk AI kontra militær makt?

Konflikten mellom Anthropic og Pentagon handler i bunn og grunn om hvem som skal ha makten over AI. Pentagon argumenterer med at det er opp til staten, ikke private selskaper, å bestemme hvordan teknologi brukes. Men hva skjer når staten krever bruk som strider mot internasjonale avtaler og etiske normer?

Norge har tatt til orde for at AI må utvikles og brukes i samsvar med folkeretten og menneskerettighetene. Men hvis de største tech-selskapene gir etter for militære krav, blir det vanskeligere for mindre land å stå imot. Dette er en test på om etiske prinsipper kan overleve i en verden der militær og økonomisk makt ofte går foran moral.

Skal AI brukes til å styrke demokratiet, eller til å undergrave det?

Anthropics kamp mot Pentagon er ikke bare en amerikansk strid. Det er et valg mellom to fremtider: En der AI brukes til å styrke demokratiet, eller en der den brukes til å undergrave det. For Norge, som har tatt et klart standpunkt mot autonome våpen og for etisk AI, er valget klart. Vi kan ikke lenger se på dette som et problem som bare angår USA. Hvis Pentagon vinner denne kampen, vil det påvirke oss alle.

— — —

Kilder

Shifter: AI-selskap fortsetter Pentagon-nekt tross trusler

DN: KI-gigant i åpen konflikt med Pentagon

Dario Amodei, Anthropic: Statement on discussions with the Department of War

Dagsavisen: Frykter maskiner skal bryte folkeretten

NPR: Anthropic rejects Pentagon demands

Skroll til toppen