Code Velocity
AI-sikkerhed

OpenAI-aftale med Krigsministeriet: Sikring af AI-sikkerhedsforanstaltninger

·7 min læsning·OpenAI·Original kilde
Del
OpenAI og Krigsministeriets aftale med AI-sikkerhedsforanstaltninger

OpenAI og Krigsministeriet styrker AI-sikkerheden med eksplicitte foranstaltninger

San Francisco, CA – 3. marts 2026 – OpenAI har annonceret en betydelig opdatering af sin aftale med Krigsministeriet (DoW), som forstærker strenge sikkerhedsforanstaltninger omkring implementering af avancerede AI-systemer i klassificerede miljøer. Dette skelsættende samarbejde understreger en fælles forpligtelse til ansvarlig AI-brug, især vedrørende følsomme nationale sikkerhedsapplikationer. Den opdaterede aftale, der blev færdiggjort den 2. marts 2026, forbyder udtrykkeligt indenlandsk overvågning af amerikanske borgere og begrænser brugen af AI i autonome våbensystemer, hvilket sætter en ny standard for etisk integration af kunstig intelligens i forsvaret.

Kernen i denne forbedrede aftale ligger i at gøre det eksplicit, hvad der tidligere var underforstået, og sikre, at der ikke er tvetydighed vedrørende de etiske begrænsninger for AI-teknologi. OpenAI understreger, at denne ramme er designet til at give det amerikanske militær avancerede værktøjer, samtidig med at privatlivets fred og sikkerhedsprincipper strengt opretholdes.

Redefinering af sikkerhedsforanstaltninger for klassificerede AI-implementeringer

I et proaktivt skridt for at imødegå potentielle bekymringer har OpenAI og Krigsministeriet indarbejdet yderligere sprog i deres aftale, som specifikt præciserer grænserne for AI-implementering. Denne nye klausul fastslår utvetydigt, at OpenAIs værktøjer ikke vil blive brugt til indenlandsk overvågning af amerikanske borgere, herunder gennem erhvervelse eller brug af kommercielt indhentede personlige oplysninger. Desuden har DoW bekræftet, at dets efterretningstjenester, såsom NSA, er undtaget fra denne aftale og ville kræve helt nye vilkår for enhver tjenesteydelse.

Det opdaterede sprog i aftalen specificerer:

  • "I overensstemmelse med gældende love, herunder Fourth Amendment til USA's forfatning, National Security Act af 1947, FISA Act af 1978, må AI-systemet ikke forsætligt anvendes til indenlandsk overvågning af amerikanske borgere og statsborgere."
  • "For at undgå tvivl forstår Ministeriet denne begrænsning som et forbud mod bevidst sporing, overvågning eller monitorering af amerikanske borgere eller statsborgere, herunder gennem anskaffelse eller brug af kommercielt erhvervede personlige eller identificerbare oplysninger."

Denne fremadskuende tilgang har til formål at etablere en klar vej for andre frontløber-AI-laboratorier til at samarbejde med Krigsministeriet, fremme samarbejde og samtidig opretholde urokkelige etiske standarder.

OpenAIs etiske kernesøjler: De tre røde linjer

OpenAI opererer under tre fundamentale 'røde linjer', der styrer dets samarbejder inden for følsomme områder som national sikkerhed. Disse principper, der i vid udstrækning deles af andre førende AI-forskningsinstitutioner, er centrale for aftalen med Krigsministeriet:

  1. Ingen massiv indenlandsk overvågning: OpenAI-teknologi vil ikke blive brugt til udbredt overvågning af amerikanske borgere.
  2. Ingen autonome våbensystemer: Teknologien er forbudt at styre autonome våben uden menneskelig kontrol.
  3. Ingen automatiserede beslutninger med høj indsats: OpenAIs værktøjer vil ikke blive anvendt til kritiske automatiserede beslutninger (f.eks. 'social credit'-systemer), der kræver menneskelig overvågning.

OpenAI hævder, at dets flerlagede strategi giver en mere robust beskyttelse mod uacceptable anvendelser sammenlignet med tilgange, der primært udelukkende bygger på brugspolitikker. Denne vægt på strenge tekniske og kontraktmæssige sikkerhedsforanstaltninger adskiller deres aftale i det udviklende landskab for forsvars-AI.

Flerlagsbeskyttelse: Arkitektur, kontrakt og menneskelig ekspertise

Styrken ved OpenAIs aftale med Krigsministeriet ligger i dens omfattende, flerlagede tilgang til beskyttelse. Dette omfatter:

  1. Implementeringsarkitektur: Aftalen pålægger en cloud-baseret implementering, hvilket sikrer, at OpenAI bevarer fuld kontrol over sin sikkerhedsstak og forhindrer implementering af modeller 'uden sikkerhedsforanstaltninger'. Denne arkitektur begrænser i sagens natur anvendelsestilfælde som autonome dødbringende våben, der typisk kræver edge-implementering. Uafhængige verificeringsmekanismer, herunder klassificeringssystemer, er på plads for at sikre, at disse røde linjer ikke overskrides.
  2. Robust kontraktsprog: Kontrakten specificerer udtrykkeligt tilladte anvendelser, og kræver overholdelse af 'alle lovlige formål, i overensstemmelse med gældende lovgivning, operationelle krav og veletablerede sikkerheds- og overvågningsprotokoller'. Den henviser specifikt til amerikanske love som Fourth Amendment, National Security Act af 1947, FISA Act af 1978 og DoD-direktiv 3000.09. Afgørende er, at den forbyder uafhængig styring af autonome våben og ubegrænset overvågning af amerikanske borgeres private oplysninger.
  3. Involvering af AI-eksperter: Godkendte OpenAI-ingeniører og sikkerheds- og alignment-forskere vil blive udstationeret og 'involveret'. Denne direkte menneskelige overvågning giver et ekstra lag af sikkerhed, hjælper med at forbedre systemerne over tid og verificerer aktivt overholdelsen af aftalens strenge betingelser.

Denne integrerede tilgang sikrer, at teknologiske, juridiske og menneskelige sikkerhedsforanstaltninger alle arbejder i samspil for at forhindre misbrug.

Kategori for rød linjeOpenAIs beskyttelsesforanstaltninger
Massiv indenlandsk overvågningEksplicit kontraktmæssigt forbud, overensstemmelse med Fourth Amendment, FISA, National Security Act; udelukkelse af NSA/efterretningstjenester fra omfang; cloud-baserede implementeringsbegrænsninger for dataadgang; OpenAI-personale 'in-the-loop' verifikation.
Autonome våbensystemerCloud-baseret implementering (ingen edge-implementering for dødbringende autonomi); eksplicit kontraktmæssigt forbud mod uafhængig styring af autonome våben; overholdelse af DoD-direktiv 3000.09 for verifikation/validering; OpenAI-personale 'in-the-loop' for overvågning.
Automatiserede beslutninger med høj indsatsEksplicit kontraktmæssigt sprog, der kræver menneskelig godkendelse for beslutninger med høj indsats; OpenAI bevarer fuld kontrol over sin sikkerhedsstak, hvilket forhindrer modeller 'uden sikkerhedsforanstaltninger'; OpenAI-personale 'in-the-loop' for at sikre, at menneskelig overvågning opretholdes, hvor kritiske beslutninger er involveret.

Håndtering af bekymringer og fremtidigt AI-samarbejde

OpenAI anerkender de iboende risici ved avanceret AI og betragter et dybt samarbejde mellem regeringen og AI-laboratorier som essentielt for at navigere i fremtiden. Engagement med Krigsministeriet giver det amerikanske militær adgang til banebrydende værktøjer, samtidig med at det sikres, at disse teknologier implementeres ansvarligt.

Vi mener, at det amerikanske militær absolut har brug for stærke AI-modeller til at støtte deres mission, især i lyset af voksende trusler fra potentielle modstandere, som i stigende grad integrerer AI-teknologier i deres systemer, udtalte OpenAI. Denne forpligtelse afbalanceres med en urokkelig afvisning af at kompromittere tekniske sikkerhedsforanstaltninger for ydeevne, idet det understreges, at en ansvarlig tilgang er altafgørende.

Aftalen sigter også mod at deeskalere spændinger og fremme et bredere samarbejde inden for AI-samfundet. OpenAI har anmodet om, at de samme beskyttende vilkår gøres tilgængelige for alle AI-virksomheder, i håb om at lette lignende ansvarlige partnerskaber på tværs af branchen. Dette er en del af OpenAIs bredere strategi, som demonstreret af dets fortsatte Microsoft-partnerskab og bestræbelser på at skalere AI for alle.

Sætter en ny standard for AI-engagement i forsvaret

OpenAI mener, at deres aftale sætter en højere standard for klassificerede AI-implementeringer sammenlignet med tidligere arrangementer, herunder dem, der er diskuteret af andre laboratorier som Anthropic. Tilliden stammer fra de indbyggede grundlæggende beskyttelsesforanstaltninger: den cloud-baserede implementering, der opretholder OpenAIs sikkerhedsstaks integritet, de eksplicitte kontraktmæssige garantier og den aktive involvering af godkendt OpenAI-personale.

Denne omfattende ramme sikrer, at de specificerede røde linjer — der forhindrer massiv indenlandsk overvågning og kontrol af autonome våben — håndhæves robust. Aftalens sprog, der udtrykkeligt henviser til eksisterende love, sikrer, at selvom politikker ændres i fremtiden, skal brugen af OpenAIs systemer stadig overholde de oprindelige, strengere standarder. Denne proaktive holdning understreger OpenAIs engagement i at udvikle og implementere kraftfulde AI-teknologier på en måde, der prioriterer sikkerhed, etik og demokratiske værdier, selv i de mest krævende nationale sikkerhedssammenhænge.

Ofte stillede spørgsmål

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Hold dig opdateret

Få de seneste AI-nyheder i din indbakke.

Del