title: "OpenAIs avtale med Krigsdepartementet: Sikrer AI-sikkerhetsbarrierer" slug: "our-agreement-with-the-department-of-war" date: "2026-03-03" lang: "no" source: "https://openai.com/index/our-agreement-with-the-department-of-war/" category: "AI-sikkerhet" keywords:
- OpenAI
- Krigsdepartementet
- AI-etikk
- nasjonal sikkerhet
- AI-overvåking
- autonome våpen
- AI-sikkerhetsbarrierer
- klassifisert AI
- forsvarskontrakter
- AI-politikk
- USAs militære
- skyutrulling meta_description: 'OpenAI detaljerer sin landemerkeavtale med Krigsdepartementet, som etablerer robuste AI-sikkerhetsbarrierer mot innenlands overvåking og autonome våpen, og setter en ny standard for forsvarsteknologi.' image: "/images/articles/our-agreement-with-the-department-of-war.png" image_alt: "OpenAI og Krigsdepartementets avtale med AI-sikkerhetsbarrierer" quality_score: 94 content_score: 93 seo_score: 95 companies:
- OpenAI schema_type: "NewsArticle" reading_time: 7 faq:
- question: "Hvorfor inngikk OpenAI en avtale med Krigsdepartementet?" answer: "OpenAI inngikk avtalen for å utstyre det amerikanske militæret med avanserte AI-kapasiteter, og anerkjente den økende integreringen av AI fra potensielle motstandere. Dette partnerskapet er betinget av etableringen av robuste sikkerhetsmekanismer, som OpenAI omhyggelig utviklet for å sikre ansvarlig utrulling i klassifiserte miljøer. Målet er å tilby banebrytende verktøy samtidig som strenge etiske prinsipper opprettholdes, og vise at sofistikert AI kan utnyttes for nasjonal sikkerhet uten å kompromittere grunnleggende sikkerhets- og personvernstandarder. Videre siktet OpenAI mot å de-eskalere spenninger mellom DoD og AI-laboratorier, og argumenterte for bredere tilgang til disse nøye strukturerte vilkårene for andre selskaper."
- question: "Hvilke spesifikke sikkerhetsbarrierer er på plass for å forhindre innenlands overvåking?" answer: "Avtalen forbyr eksplisitt bevisst bruk av OpenAIs AI-systemer for innenlands overvåking av amerikanske borgere eller statsborgere, i tråd med det fjerde grunnlovstillegget, nasjonal sikkerhetslov av 1947 og FISA-loven av 1978. Dette inkluderer et strengt forbud mot bevisst sporing, overvåking eller bruk av kommersielt innhentet personlig eller identifiserbar informasjon til slike formål. Avgjørende er at Krigsdepartementet bekreftet at etterretningsbyråer som NSA ville kreve en separat avtale for enhver tjeneste, noe som forsterker disse begrensningene og gir flere juridiske og kontraktsmessige beskyttelseslag mot misbruk."
- question: "Hvordan forhindrer denne avtalen bruken av OpenAIs modeller for autonome våpen?" answer: "Forebyggingen er mangefasettert. For det første er utrullingsarkitekturen kun skybasert, noe som betyr at modeller ikke kan distribueres på 'kant-enheter' som er kritiske for autonome dødelige våpen. For det andre angir kontraktsspråket spesifikt at AI-systemet ikke vil bli brukt til å uavhengig styre autonome våpen der menneskelig kontroll er påkrevd. Det krever også streng verifisering, validering og testing i henhold til DoD-direktiv 3000.09. Til slutt, autorisert OpenAI-personell, inkludert sikkerhets- og justeringsforskere, forblir 'med i loopen', noe som gir et ekstra lag med menneskelig tilsyn og forsikring om at disse strenge røde linjene ikke overskrides."
- question: "Hva gjør OpenAIs avtale annerledes eller sterkere enn andres, for eksempel Anthropics?" answer: "OpenAI mener at avtalen deres tilbyr sterkere garantier og sikkerhetsmekanismer på grunn av dens flerlags tilnærming. I motsetning til noen andre avtaler som kanskje bare er avhengige av bruksretningslinjer, sikrer OpenAIs kontrakt at den proprietære sikkerhetsstacken forblir fullt operativ og under dens kontroll. Den skybaserte utrullingsarkitekturen begrenser i seg selv visse høyrisikoapplikasjoner, som fullt autonome våpen, som typisk krever kant-utrulling. Videre gir den kontinuerlige involveringen av autorisert OpenAI-personell aktiv menneskelig tilsyn og verifisering, noe som skaper et mer robust rammeverk mot uakseptable bruksområder, som de hevder overgår tidligere avtaler."
- question: "Hvilken rolle spiller OpenAI-personell for å sikre overholdelse?" answer: "Autorisert OpenAI-personell, inkludert fremskutt plasserte ingeniører og sikkerhets- og justeringsforskere, spiller en kritisk 'i loopen'-rolle. De hjelper regjeringen med å integrere teknologien ansvarlig, samtidig som de aktivt overvåker overholdelsen av de etablerte røde linjene. Denne direkte involveringen gjør at OpenAI uavhengig kan verifisere at systemet ikke brukes til forbudte aktiviteter, som innenlands overvåking eller kontroll av autonome våpen. Deres kontinuerlige tilstedeværelse sikrer at sikkerhetsbarrierer opprettholdes, og modeller kontinuerlig forbedres med sikkerhet og justering som kjerneprioriteter, noe som gir et ekstra lag med teknisk og etisk forsikring."
- question: "Hva skjer hvis Krigsdepartementet bryter avtalen?" answer: "I tilfelle et brudd, som med enhver kontraktsavtale, beholder OpenAI retten til å si opp kontrakten. Dette fungerer som en betydelig avskrekking, og sikrer at Krigsdepartementet strengt overholder de avtalte vilkårene. Oppsigelsesklausulen understreker alvoret i sikkerhetsbarrierene og de røde linjene som er etablert i avtalen, og demonstrerer OpenAIs forpliktelse til å opprettholde sine etiske prinsipper selv i nasjonale sikkerhetskontekster med høy risiko. Selv om OpenAI ikke forventer et slikt brudd, gir kontraktsbestemmelsen en klar løsning."
- question: "Vil fremtidige lov- eller policyendringer påvirke avtalens beskyttelse?" answer: "Nei, avtalen er utformet for å være motstandsdyktig mot fremtidige endringer i lov eller policy. Den refererer eksplisitt til gjeldende overvåkings- og autonome våpenlover og -politikker, som det fjerde grunnlovstillegget, nasjonal sikkerhetslov, FISA-loven og DoD-direktiv 3000.09, slik de eksisterer i dag. Dette betyr at selv om disse lovene eller policyene skulle bli endret i fremtiden, må bruken av OpenAIs systemer under denne kontrakten fortsatt overholde de strenge standardene som gjenspeiles i den opprinnelige avtalen. Denne fremtidsrettede klausulen gir et sterkt, varig lag med beskyttelse mot potensiell uthuling av sikkerhetsmekanismer."
OpenAI og Krigsdepartementet forsterker AI-sikkerheten med eksplisitte sikkerhetsbarrierer
San Francisco, CA – 3. mars 2026 – OpenAI har kunngjort en betydelig oppdatering av sin avtale med Krigsdepartementet (DoW), som forsterker strenge sikkerhetsbarrierer rundt utrulling av avanserte AI-systemer i klassifiserte miljøer. Dette landemerkesamarbeidet understreker en felles forpliktelse til ansvarlig AI-bruk, spesielt når det gjelder sensitive nasjonale sikkerhetsapplikasjoner. Den oppdaterte avtalen, ferdigstilt 2. mars 2026, forbyr eksplisitt innenlands overvåking av amerikanske borgere og begrenser bruken av AI i autonome våpensystemer, og setter en ny standard for etisk integrering av kunstig intelligens i forsvar.
Kjernen i denne forbedrede avtalen ligger i å gjøre eksplisitt det som tidligere var underforstått, for å sikre at det ikke er tvetydighet angående de etiske begrensningene for AI-teknologi. OpenAI understreker at dette rammeverket er designet for å gi det amerikanske militæret toppmoderne verktøy, samtidig som personvern- og sikkerhetsprinsipper strengt opprettholdes.
Omdefinering av sikkerhetstiltak for klassifiserte AI-utrullinger
I et proaktivt trekk for å adressere potensielle bekymringer har OpenAI og Krigsdepartementet innlemmet ytterligere språk i avtalen, som spesifikt klargjør grensene for AI-utrulling. Denne nye klausulen slår utvetydig fast at OpenAIs verktøy ikke vil bli brukt til innenlands overvåking av amerikanske borgere, inkludert gjennom anskaffelse eller bruk av kommersielt innhentet personlig informasjon. Videre har Krigsdepartementet bekreftet at dets etterretningsbyråer, som NSA, er ekskludert fra denne avtalen og ville kreve helt nye vilkår for enhver tjenesteytelse.
Det oppdaterte språket i avtalen spesifiserer:
- "I samsvar med gjeldende lover, inkludert det fjerde grunnlovstillegget til USAs grunnlov, nasjonal sikkerhetslov av 1947, FISA-loven av 1978, skal AI-systemet ikke bevisst brukes til innenlands overvåking av amerikanske borgere og statsborgere."
- "For å unngå tvil, forstår Departementet denne begrensningen til å forby bevisst sporing, overvåking eller overvåking av amerikanske borgere eller statsborgere, inkludert gjennom anskaffelse eller bruk av kommersielt innhentet personlig eller identifiserbar informasjon."
Denne fremtidsrettede tilnærmingen tar sikte på å etablere en klar vei for andre banebrytende AI-laboratorier til å engasjere seg med Krigsdepartementet, og fremme samarbeid samtidig som urokkelige etiske standarder opprettholdes.
OpenAIs kjerneetiske pilarer: De tre røde linjene
OpenAI opererer under tre grunnleggende "røde linjer" som styrer samarbeidet i sensitive domener som nasjonal sikkerhet. Disse prinsippene, i stor grad delt av andre ledende AI-forskningsinstitusjoner, er sentrale i avtalen med Krigsdepartementet:
- Ingen masseovervåking av innenlandske borgere: OpenAI-teknologi vil ikke bli brukt til utbredt overvåking av amerikanske borgere.
- Ingen autonome våpensystemer: Teknologien er forbudt fra å styre autonome våpen uten menneskelig kontroll.
- Ingen automatiske høyrisikobeslutninger: OpenAI-verktøy vil ikke bli brukt til kritiske automatiske beslutninger (f.eks. "sosialt kredittsystem") som krever menneskelig tilsyn.
OpenAI hevder at den flerlagsstrategien gir mer robust beskyttelse mot uakseptable bruksområder sammenlignet med tilnærminger som primært kun er avhengige av bruksretningslinjer. Denne vektleggingen av strenge tekniske og kontraktsmessige sikkerhetsmekanismer skiller avtalen i det utviklende landskapet av forsvars-AI.
Flerlagsbeskyttelse: Arkitektur, kontrakt og menneskelig ekspertise
Styrken i OpenAIs avtale med Krigsdepartementet ligger i dens omfattende, flerlags tilnærming til beskyttelse. Dette inkluderer:
- Utrullingsarkitektur: Avtalen krever en skybasert utrulling, som sikrer at OpenAI opprettholder full diskresjon over sin sikkerhetsstack og forhindrer utrulling av modeller "uten sikkerhetsbarrierer". Denne arkitekturen begrenser i seg selv bruksområder som autonome dødelige våpen, som typisk krever kant-utrulling. Uavhengige verifiseringsmekanismer, inkludert klassifikatorer, er på plass for å sikre at disse røde linjene ikke overskrides.
- Robust kontraktsmessig språk: Kontrakten beskriver eksplisitt tillatte bruksområder, og krever overholdelse av "alle lovlige formål, i samsvar med gjeldende lov, operasjonelle krav og veletablerte sikkerhets- og tilsynsprotokoller." Den refererer spesifikt til amerikanske lover som det fjerde grunnlovstillegget, nasjonal sikkerhetslov av 1947, FISA-loven av 1978, og DoD-direktiv 3000.09. Avgjørende er at den forbyr uavhengig styring av autonome våpen og ubegrenset overvåking av amerikanske borgeres private informasjon.
- AI-ekspertinvolvering: Autoriserte OpenAI-ingeniører og sikkerhets- og justeringsforskere vil være fremskutt plassert og "med i loopen." Dette direkte menneskelige tilsynet gir et ekstra lag med forsikring, og bidrar til å forbedre systemer over tid og aktivt verifisere overholdelse av avtalens strenge vilkår.
Denne integrerte tilnærmingen sikrer at teknologiske, juridiske og menneskelige sikkerhetsmekanismer alle jobber sammen for å forhindre misbruk.
| Kategori for rød linje | OpenAIs beskyttelsestiltak |
|---|---|
| Masseovervåking av innenlandske borgere | Eksplisitt kontraktsmessig forbud, i tråd med fjerde grunnlovstillegg, FISA, nasjonal sikkerhetslov; ekskludering av NSA/etterretningsbyråer fra omfanget; skybaserte utrullingsbegrensninger for datatilgang; OpenAI-personell 'med i loopen'-verifisering. |
| Autonome våpensystemer | Skybasert utrulling (ingen kant-utrulling for dødelig autonomi); eksplisitt kontraktsmessig forbud mot uavhengig styring av autonome våpen; overholdelse av DoD-direktiv 3000.09 for verifisering/validering; OpenAI-personell 'med i loopen' for tilsyn. |
| Automatiske høyrisikobeslutninger | Eksplisitt kontraktsmessig språk som krever menneskelig godkjenning for høyrisikobeslutninger; OpenAI beholder full kontroll over sin sikkerhetsstack, og forhindrer modeller "uten sikkerhetsbarrierer"; OpenAI-personell 'med i loopen' for å sikre at menneskelig tilsyn opprettholdes der kritiske beslutninger er involvert. |
Adressering av bekymringer og fremtidig AI-samarbeid
OpenAI anerkjenner de iboende risikoene ved avansert AI og ser et dypt samarbeid mellom regjeringen og AI-laboratorier som avgjørende for å navigere fremtiden. Å engasjere seg med Krigsdepartementet gjør at det amerikanske militæret får tilgang til banebrytende verktøy, samtidig som det sikres at disse teknologiene distribueres ansvarlig.
"Vi mener det amerikanske militæret absolutt trenger sterke AI-modeller for å støtte sitt oppdrag, spesielt i møte med økende trusler fra potensielle motstandere som i økende grad integrerer AI-teknologier i sine systemer," uttalte OpenAI. Denne forpliktelsen er balansert med en urokkelig nektelse av å kompromittere tekniske sikkerhetsmekanismer for ytelse, og understreker at en ansvarlig tilnærming er avgjørende.
Avtalen tar også sikte på å de-eskalere spenninger og fremme bredere samarbeid innenfor AI-samfunnet. OpenAI har bedt om at de samme beskyttende vilkårene gjøres tilgjengelige for alle AI-selskaper, i håp om å legge til rette for lignende ansvarlige partnerskap i hele bransjen. Dette er en del av OpenAIs bredere strategi, som demonstrert av dets fortsatte Microsoft-partnerskap og innsats mot å skalere AI for alle.
Setter en ny standard for forsvars-AI-engasjement
OpenAI mener avtalen setter en høyere standard for klassifiserte AI-utrullinger sammenlignet med tidligere avtaler, inkludert de som er diskutert av andre laboratorier som Anthropic. Tilliten stammer fra de grunnleggende beskyttelsene som er innebygd: den skybaserte utrullingen som opprettholder integriteten til OpenAIs sikkerhetsstack, de eksplisitte kontraktsgarantiene og den aktive involveringen av autorisert OpenAI-personell.
Dette omfattende rammeverket sikrer at de spesifiserte røde linjene – som forhindrer masseovervåking av innenlandske borgere og kontroll av autonome våpen – håndheves robust. Kontraktsspråket som eksplisitt refererer til eksisterende lover, sikrer at selv om retningslinjer endres i fremtiden, må bruken av OpenAIs systemer fortsatt overholde de opprinnelige, strengere standardene. Denne proaktive holdningen understreker OpenAIs forpliktelse til å utvikle og distribuere kraftige AI-teknologier på en måte som prioriterer sikkerhet, etikk og demokratiske verdier, selv i de mest krevende nasjonale sikkerhetskontekstene.
Opprinnelig kilde
https://openai.com/index/our-agreement-with-the-department-of-war/Ofte stilte spørsmål
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
Hold deg oppdatert
Få de siste AI-nyhetene i innboksen din.
