Code Velocity
AI-beveiliging

OpenAI Akkoord met het Ministerie van Oorlog: Waarborgen van AI-veiligheidsrichtlijnen

·7 min leestijd·OpenAI·Originele bron
Delen
Overeenkomst tussen OpenAI en het Ministerie van Oorlog met AI-veiligheidsrichtlijnen

OpenAI en Ministerie van Oorlog versterken AI-veiligheid met expliciete richtlijnen

San Francisco, CA – 3 maart 2026 – OpenAI heeft een belangrijke update aangekondigd van haar overeenkomst met het Ministerie van Oorlog (DoW), waarbij strenge veiligheidsrichtlijnen worden versterkt rond de implementatie van geavanceerde AI-systemen in geclassificeerde omgevingen. Deze baanbrekende samenwerking onderstreept een gedeelde toewijding aan verantwoord AI-gebruik, met name met betrekking tot gevoelige nationale veiligheidstoepassingen. De bijgewerkte overeenkomst, afgerond op 2 maart 2026, verbiedt expliciet binnenlandse bewaking van Amerikaanse personen en beperkt het gebruik van AI in autonome wapensystemen, waarmee een nieuwe standaard wordt gezet voor de ethische integratie van kunstmatige intelligentie in defensie.

De kern van deze verbeterde overeenkomst ligt in het expliciet maken van wat voorheen werd begrepen, om zo geen dubbelzinnigheid te laten bestaan over de ethische beperkingen van AI-technologie. OpenAI benadrukt dat dit kader is ontworpen om het Amerikaanse leger te voorzien van de modernste tools, terwijl privacy- en veiligheidsprincipes rigoureus worden gehandhaafd.

Herdefiniëren van waarborgen voor geclassificeerde AI-implementaties

In een proactieve stap om potentiële zorgen aan te pakken, hebben OpenAI en het Ministerie van Oorlog aanvullende taal in hun overeenkomst opgenomen, die specifiek de grenzen van AI-implementatie verduidelijkt. Deze nieuwe clausule stelt ondubbelzinnig dat de tools van OpenAI niet zullen worden gebruikt voor binnenlandse bewaking van Amerikaanse personen, inclusief door de verwerving of het gebruik van commercieel verkregen persoonlijke informatie. Bovendien heeft het DoW bevestigd dat zijn inlichtingendiensten, zoals de NSA, zijn uitgesloten van deze overeenkomst en geheel nieuwe voorwaarden zouden vereisen voor elke dienstverlening.

De bijgewerkte taal in de overeenkomst vermeldt:

  • "In overeenstemming met toepasselijke wetten, waaronder het Vierde Amendement van de grondwet van de Verenigde Staten, de National Security Act van 1947, de FISA Act van 1978, zal het AI-systeem niet opzettelijk worden gebruikt voor binnenlandse bewaking van Amerikaanse personen en staatsburgers."
  • "Om elke twijfel weg te nemen, begrijpt het Ministerie deze beperking als een verbod op opzettelijke tracking, bewaking of monitoring van Amerikaanse personen of staatsburgers, inclusief door de aanschaf of het gebruik van commercieel verkregen persoonlijke of identificeerbare informatie."

Deze vooruitstrevende aanpak heeft tot doel een duidelijk pad te effenen voor andere baanbrekende AI-labs om samen te werken met het Ministerie van Oorlog, waarbij samenwerking wordt bevorderd en tegelijkertijd onwrikbare ethische normen worden gehandhaafd.

OpenAI's kern ethische pijlers: De drie rode lijnen

OpenAI opereert onder drie fundamentele "rode lijnen" die haar samenwerkingen in gevoelige domeinen zoals nationale veiligheid beheersen. Deze principes, grotendeels gedeeld door andere toonaangevende AI-onderzoeksinstellingen, staan centraal in de overeenkomst met het Ministerie van Oorlog:

  1. Geen massale binnenlandse bewaking: OpenAI-technologie zal niet worden gebruikt voor grootschalige monitoring van Amerikaanse burgers.
  2. Geen autonome wapensystemen: De technologie is verboden om autonome wapens aan te sturen zonder menselijke controle.
  3. Geen geautomatiseerde beslissingen met hoge inzet: OpenAI-tools zullen niet worden gebruikt voor kritieke geautomatiseerde beslissingen (bijv. 'sociale kredietsystemen') die menselijk toezicht vereisen.

OpenAI beweert dat haar gelaagde strategie robuustere bescherming biedt tegen onacceptabel gebruik vergeleken met benaderingen die primair afhankelijk zijn van alleen gebruiksbeleid. Deze nadruk op strenge technische en contractuele waarborgen onderscheidt haar overeenkomst in het evoluerende landschap van defensie-AI.

Gelaagde bescherming: Architectuur, contract en menselijke expertise

De kracht van OpenAI's overeenkomst met het Ministerie van Oorlog ligt in haar uitgebreide, gelaagde aanpak van bescherming. Dit omvat:

  1. Implementatiearchitectuur: De overeenkomst schrijft een cloud-only implementatie voor, zodat OpenAI volledige zeggenschap behoudt over zijn veiligheidsstack en de implementatie van "guardrails off"-modellen wordt voorkomen. Deze architectuur beperkt inherent gebruiksscenario's zoals autonome dodelijke wapens, die doorgaans edge-implementatie vereisen. Onafhankelijke verificatiemechanismen, waaronder classificatiesystemen, zijn aanwezig om ervoor te zorgen dat deze rode lijnen niet worden overschreden.
  2. Robuuste contractuele taal: Het contract beschrijft expliciet de toegestane gebruiken, en vereist naleving van "alle wettige doeleinden, in overeenstemming met toepasselijke wetgeving, operationele vereisten en goed vastgestelde veiligheids- en toezichtprotocollen." Het verwijst specifiek naar Amerikaanse wetten zoals het Vierde Amendement, de National Security Act van 1947, de FISA Act van 1978 en DoD Directive 3000.09. Cruciaal is dat het de onafhankelijke aansturing van autonome wapens en onbeperkte monitoring van de privé-informatie van Amerikaanse personen verbiedt.
  3. Betrokkenheid van AI-experts: Geautoriseerde OpenAI-ingenieurs en veiligheids- en afstemmingsonderzoekers zullen ter plaatse worden ingezet en "in the loop" zijn. Dit directe menselijke toezicht biedt een extra laag van zekerheid, helpt systemen in de loop van de tijd te verbeteren en controleert actief de naleving van de strikte voorwaarden van de overeenkomst.

Deze geïntegreerde aanpak zorgt ervoor dat technologische, juridische en menselijke waarborgen allemaal in onderlinge afstemming werken om misbruik te voorkomen.

Categorie Rode LijnOpenAI's beschermende maatregelen
Massale binnenlandse bewakingExpliciet contractueel verbod, afstemming met Vierde Amendement, FISA, National Security Act; uitsluiting van NSA/inlichtingendiensten van de reikwijdte; cloud-only implementatiebeperkingen op gegevenstoegang; OpenAI-personeel 'in-the-loop' verificatie.
Autonome wapensystemenCloud-only implementatie (geen edge-implementatie voor dodelijke autonomie); expliciet contractueel verbod op onafhankelijke aansturing van autonome wapens; naleving van DoD Directive 3000.09 voor verificatie/validatie; OpenAI-personeel 'in-the-loop' voor toezicht.
Geautomatiseerde beslissingen met hoge inzetExpliciete contractuele taal die menselijke goedkeuring vereist voor beslissingen met hoge inzet; OpenAI behoudt volledige controle over zijn veiligheidsstack, waardoor "guardrails off"-modellen worden voorkomen; OpenAI-personeel 'in-the-loop' om te garanderen dat menselijk toezicht wordt gehandhaafd waar kritieke beslissingen betrokken zijn.

Zorgen aanpakken en toekomstige AI-samenwerking smeden

OpenAI erkent de inherente risico's van geavanceerde AI en beschouwt een diepe samenwerking tussen de overheid en AI-labs als essentieel voor het navigeren door de toekomst. Door samen te werken met het Ministerie van Oorlog krijgt het Amerikaanse leger toegang tot geavanceerde tools, terwijl wordt gewaarborgd dat deze technologieën verantwoord worden ingezet.

"Wij vinden dat het Amerikaanse leger absoluut sterke AI-modellen nodig heeft om hun missie te ondersteunen, vooral gezien de groeiende dreigingen van potentiële tegenstanders die steeds meer AI-technologieën in hun systemen integreren," verklaarde OpenAI. Deze toewijding wordt in evenwicht gehouden met een onwankelbare weigering om technische waarborgen op te offeren voor prestaties, waarbij wordt benadrukt dat een verantwoorde aanpak van het grootste belang is.

De overeenkomst heeft ook tot doel spanningen te verminderen en een bredere samenwerking binnen de AI-gemeenschap te bevorderen. OpenAI heeft verzocht om dezelfde beschermende voorwaarden beschikbaar te stellen aan alle AI-bedrijven, in de hoop vergelijkbare verantwoorde partnerschappen in de hele sector te faciliteren. Dit maakt deel uit van OpenAI's bredere strategie, zoals blijkt uit haar voortdurende partnerschap met Microsoft en inspanningen voor het opschalen van AI voor iedereen.

Een nieuwe standaard zetten voor Defensie AI-betrokkenheid

OpenAI is van mening dat haar overeenkomst een hogere standaard zet voor geclassificeerde AI-implementaties vergeleken met eerdere afspraken, inclusief die besproken door andere labs zoals Anthropic. Het vertrouwen komt voort uit de ingebedde fundamentele beschermingen: de cloud-only implementatie die de integriteit van OpenAI's veiligheidsstack handhaaft, de expliciete contractuele garanties en de actieve betrokkenheid van geautoriseerd OpenAI-personeel.

Dit uitgebreide kader garandeert dat de gespecificeerde rode lijnen – het voorkomen van massale binnenlandse bewaking en de controle over autonome wapens – robuust worden gehandhaafd. De contractuele taal die expliciet verwijst naar bestaande wetten, zorgt ervoor dat zelfs als beleid in de toekomst verandert, het gebruik van OpenAI's systemen nog steeds moet voldoen aan de oorspronkelijke, strengere normen. Deze proactieve houding onderstreept de toewijding van OpenAI aan het ontwikkelen en inzetten van krachtige AI-technologieën op een manier die veiligheid, ethiek en democratische waarden prioriteert, zelfs in de meest veeleisende nationale veiligheidscontexten.

Veelgestelde vragen

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Blijf op de hoogte

Ontvang het laatste AI-nieuws in je inbox.

Delen