OpenAI en Ministerie van Oorlog versterken AI-veiligheid met expliciete richtlijnen
San Francisco, CA – 3 maart 2026 – OpenAI heeft een belangrijke update aangekondigd van haar overeenkomst met het Ministerie van Oorlog (DoW), waarbij strenge veiligheidsrichtlijnen worden versterkt rond de implementatie van geavanceerde AI-systemen in geclassificeerde omgevingen. Deze baanbrekende samenwerking onderstreept een gedeelde toewijding aan verantwoord AI-gebruik, met name met betrekking tot gevoelige nationale veiligheidstoepassingen. De bijgewerkte overeenkomst, afgerond op 2 maart 2026, verbiedt expliciet binnenlandse bewaking van Amerikaanse personen en beperkt het gebruik van AI in autonome wapensystemen, waarmee een nieuwe standaard wordt gezet voor de ethische integratie van kunstmatige intelligentie in defensie.
De kern van deze verbeterde overeenkomst ligt in het expliciet maken van wat voorheen werd begrepen, om zo geen dubbelzinnigheid te laten bestaan over de ethische beperkingen van AI-technologie. OpenAI benadrukt dat dit kader is ontworpen om het Amerikaanse leger te voorzien van de modernste tools, terwijl privacy- en veiligheidsprincipes rigoureus worden gehandhaafd.
Herdefiniëren van waarborgen voor geclassificeerde AI-implementaties
In een proactieve stap om potentiële zorgen aan te pakken, hebben OpenAI en het Ministerie van Oorlog aanvullende taal in hun overeenkomst opgenomen, die specifiek de grenzen van AI-implementatie verduidelijkt. Deze nieuwe clausule stelt ondubbelzinnig dat de tools van OpenAI niet zullen worden gebruikt voor binnenlandse bewaking van Amerikaanse personen, inclusief door de verwerving of het gebruik van commercieel verkregen persoonlijke informatie. Bovendien heeft het DoW bevestigd dat zijn inlichtingendiensten, zoals de NSA, zijn uitgesloten van deze overeenkomst en geheel nieuwe voorwaarden zouden vereisen voor elke dienstverlening.
De bijgewerkte taal in de overeenkomst vermeldt:
- "In overeenstemming met toepasselijke wetten, waaronder het Vierde Amendement van de grondwet van de Verenigde Staten, de National Security Act van 1947, de FISA Act van 1978, zal het AI-systeem niet opzettelijk worden gebruikt voor binnenlandse bewaking van Amerikaanse personen en staatsburgers."
- "Om elke twijfel weg te nemen, begrijpt het Ministerie deze beperking als een verbod op opzettelijke tracking, bewaking of monitoring van Amerikaanse personen of staatsburgers, inclusief door de aanschaf of het gebruik van commercieel verkregen persoonlijke of identificeerbare informatie."
Deze vooruitstrevende aanpak heeft tot doel een duidelijk pad te effenen voor andere baanbrekende AI-labs om samen te werken met het Ministerie van Oorlog, waarbij samenwerking wordt bevorderd en tegelijkertijd onwrikbare ethische normen worden gehandhaafd.
OpenAI's kern ethische pijlers: De drie rode lijnen
OpenAI opereert onder drie fundamentele "rode lijnen" die haar samenwerkingen in gevoelige domeinen zoals nationale veiligheid beheersen. Deze principes, grotendeels gedeeld door andere toonaangevende AI-onderzoeksinstellingen, staan centraal in de overeenkomst met het Ministerie van Oorlog:
- Geen massale binnenlandse bewaking: OpenAI-technologie zal niet worden gebruikt voor grootschalige monitoring van Amerikaanse burgers.
- Geen autonome wapensystemen: De technologie is verboden om autonome wapens aan te sturen zonder menselijke controle.
- Geen geautomatiseerde beslissingen met hoge inzet: OpenAI-tools zullen niet worden gebruikt voor kritieke geautomatiseerde beslissingen (bijv. 'sociale kredietsystemen') die menselijk toezicht vereisen.
OpenAI beweert dat haar gelaagde strategie robuustere bescherming biedt tegen onacceptabel gebruik vergeleken met benaderingen die primair afhankelijk zijn van alleen gebruiksbeleid. Deze nadruk op strenge technische en contractuele waarborgen onderscheidt haar overeenkomst in het evoluerende landschap van defensie-AI.
Gelaagde bescherming: Architectuur, contract en menselijke expertise
De kracht van OpenAI's overeenkomst met het Ministerie van Oorlog ligt in haar uitgebreide, gelaagde aanpak van bescherming. Dit omvat:
- Implementatiearchitectuur: De overeenkomst schrijft een cloud-only implementatie voor, zodat OpenAI volledige zeggenschap behoudt over zijn veiligheidsstack en de implementatie van "guardrails off"-modellen wordt voorkomen. Deze architectuur beperkt inherent gebruiksscenario's zoals autonome dodelijke wapens, die doorgaans edge-implementatie vereisen. Onafhankelijke verificatiemechanismen, waaronder classificatiesystemen, zijn aanwezig om ervoor te zorgen dat deze rode lijnen niet worden overschreden.
- Robuuste contractuele taal: Het contract beschrijft expliciet de toegestane gebruiken, en vereist naleving van "alle wettige doeleinden, in overeenstemming met toepasselijke wetgeving, operationele vereisten en goed vastgestelde veiligheids- en toezichtprotocollen." Het verwijst specifiek naar Amerikaanse wetten zoals het Vierde Amendement, de National Security Act van 1947, de FISA Act van 1978 en DoD Directive 3000.09. Cruciaal is dat het de onafhankelijke aansturing van autonome wapens en onbeperkte monitoring van de privé-informatie van Amerikaanse personen verbiedt.
- Betrokkenheid van AI-experts: Geautoriseerde OpenAI-ingenieurs en veiligheids- en afstemmingsonderzoekers zullen ter plaatse worden ingezet en "in the loop" zijn. Dit directe menselijke toezicht biedt een extra laag van zekerheid, helpt systemen in de loop van de tijd te verbeteren en controleert actief de naleving van de strikte voorwaarden van de overeenkomst.
Deze geïntegreerde aanpak zorgt ervoor dat technologische, juridische en menselijke waarborgen allemaal in onderlinge afstemming werken om misbruik te voorkomen.
| Categorie Rode Lijn | OpenAI's beschermende maatregelen |
|---|---|
| Massale binnenlandse bewaking | Expliciet contractueel verbod, afstemming met Vierde Amendement, FISA, National Security Act; uitsluiting van NSA/inlichtingendiensten van de reikwijdte; cloud-only implementatiebeperkingen op gegevenstoegang; OpenAI-personeel 'in-the-loop' verificatie. |
| Autonome wapensystemen | Cloud-only implementatie (geen edge-implementatie voor dodelijke autonomie); expliciet contractueel verbod op onafhankelijke aansturing van autonome wapens; naleving van DoD Directive 3000.09 voor verificatie/validatie; OpenAI-personeel 'in-the-loop' voor toezicht. |
| Geautomatiseerde beslissingen met hoge inzet | Expliciete contractuele taal die menselijke goedkeuring vereist voor beslissingen met hoge inzet; OpenAI behoudt volledige controle over zijn veiligheidsstack, waardoor "guardrails off"-modellen worden voorkomen; OpenAI-personeel 'in-the-loop' om te garanderen dat menselijk toezicht wordt gehandhaafd waar kritieke beslissingen betrokken zijn. |
Zorgen aanpakken en toekomstige AI-samenwerking smeden
OpenAI erkent de inherente risico's van geavanceerde AI en beschouwt een diepe samenwerking tussen de overheid en AI-labs als essentieel voor het navigeren door de toekomst. Door samen te werken met het Ministerie van Oorlog krijgt het Amerikaanse leger toegang tot geavanceerde tools, terwijl wordt gewaarborgd dat deze technologieën verantwoord worden ingezet.
"Wij vinden dat het Amerikaanse leger absoluut sterke AI-modellen nodig heeft om hun missie te ondersteunen, vooral gezien de groeiende dreigingen van potentiële tegenstanders die steeds meer AI-technologieën in hun systemen integreren," verklaarde OpenAI. Deze toewijding wordt in evenwicht gehouden met een onwankelbare weigering om technische waarborgen op te offeren voor prestaties, waarbij wordt benadrukt dat een verantwoorde aanpak van het grootste belang is.
De overeenkomst heeft ook tot doel spanningen te verminderen en een bredere samenwerking binnen de AI-gemeenschap te bevorderen. OpenAI heeft verzocht om dezelfde beschermende voorwaarden beschikbaar te stellen aan alle AI-bedrijven, in de hoop vergelijkbare verantwoorde partnerschappen in de hele sector te faciliteren. Dit maakt deel uit van OpenAI's bredere strategie, zoals blijkt uit haar voortdurende partnerschap met Microsoft en inspanningen voor het opschalen van AI voor iedereen.
Een nieuwe standaard zetten voor Defensie AI-betrokkenheid
OpenAI is van mening dat haar overeenkomst een hogere standaard zet voor geclassificeerde AI-implementaties vergeleken met eerdere afspraken, inclusief die besproken door andere labs zoals Anthropic. Het vertrouwen komt voort uit de ingebedde fundamentele beschermingen: de cloud-only implementatie die de integriteit van OpenAI's veiligheidsstack handhaaft, de expliciete contractuele garanties en de actieve betrokkenheid van geautoriseerd OpenAI-personeel.
Dit uitgebreide kader garandeert dat de gespecificeerde rode lijnen – het voorkomen van massale binnenlandse bewaking en de controle over autonome wapens – robuust worden gehandhaafd. De contractuele taal die expliciet verwijst naar bestaande wetten, zorgt ervoor dat zelfs als beleid in de toekomst verandert, het gebruik van OpenAI's systemen nog steeds moet voldoen aan de oorspronkelijke, strengere normen. Deze proactieve houding onderstreept de toewijding van OpenAI aan het ontwikkelen en inzetten van krachtige AI-technologieën op een manier die veiligheid, ethiek en democratische waarden prioriteert, zelfs in de meest veeleisende nationale veiligheidscontexten.
Veelgestelde vragen
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
Blijf op de hoogte
Ontvang het laatste AI-nieuws in je inbox.
