Code Velocity
AI Sekuriteit

OpenAI Departement van Oorlog Ooreenkoms: Verseker AI Veiligheidsbeperkings

·7 min lees·OpenAI·Oorspronklike bron
Deel
OpenAI en Departement van Oorlog ooreenkoms met AI veiligheidsbeperkings

OpenAI en Departement van Oorlog Versterk AI-veiligheid met Explisiete Veiligheidsbeperkings

San Francisco, CA – 3 Maart 2026 – OpenAI het 'n beduidende opdatering aan sy ooreenkoms met die Departement van Oorlog (DvO) aangekondig, wat streng veiligheidsbeperkings rondom die ontplooiing van gevorderde AI-stelsels in geklassifiseerde omgewings versterk. Hierdie baanbrekende samewerking onderstreep 'n gedeelde verbintenis tot verantwoordelike AI-gebruik, veral ten opsigte van sensitiewe nasionale veiligheidstoepassings. Die bygewerkte ooreenkoms, wat op 2 Maart 2026 gefinaliseer is, verbied uitdruklik binnelandse toesig oor Amerikaanse persone en beperk die gebruik van AI in outonome wapenstelsels, en stel sodoende 'n nuwe maatstaf vir die etiese integrasie van kunsmatige intelligensie in verdediging.

Die kern van hierdie verbeterde ooreenkoms lê daarin om eksplisiet te maak wat voorheen verstaan is, om geen dubbelsinnigheid rakende die etiese beperkings van AI-tegnologie te verseker nie. OpenAI beklemtoon dat hierdie raamwerk ontwerp is om die Amerikaanse weermag te voorsien van die nuutste gereedskap terwyl privaatheid- en veiligheidsbeginsels streng gehandhaaf word.

Herdefiniëring van Veiligheidsmaatreëls vir Geklassifiseerde AI-ontplooiings

In 'n proaktiewe stap om potensiële kommer aan te spreek, het OpenAI en die Departement van Oorlog bykomende taal in hul ooreenkoms opgeneem, wat spesifiek die grense van AI-ontplooiing verduidelik. Hierdie nuwe klousule verklaar onomwonde dat OpenAI se gereedskap nie vir binnelandse toesig oor Amerikaanse persone gebruik sal word nie, insluitend deur die verkryging of gebruik van kommersieel verkrygde persoonlike inligting. Verder het die DvO bevestig dat sy intelligensie-agentskappe, soos die NSA, van hierdie ooreenkoms uitgesluit is en heeltemal nuwe bepalings vir enige dienslewering sou benodig.

Die bygewerkte taal in die ooreenkoms spesifiseer:

  • 'In ooreenstemming met toepaslike wette, insluitend die Vierde Wysiging aan die Grondwet van die Verenigde State, die Nasionale Veiligheidswet van 1947, die FISA-wet van 1978, sal die AI-stelsel nie opsetlik gebruik word vir binnelandse toesig oor Amerikaanse persone en burgers nie.'
  • 'Ter vermyding van twyfel, verstaan die Departement hierdie beperking om doelbewuste opsporing, toesig, of monitering van Amerikaanse persone of burgers te verbied, insluitend deur die verkryging of gebruik van kommersieel verkrygde persoonlike of identifiseerbare inligting.'

Hierdie vooruitdenkende benadering poog om 'n duidelike pad vir ander voorpunt AI-laboratoriums te vestig om met die Departement van Oorlog in gesprek te tree, samewerking aan te moedig terwyl onwrikbare etiese standaarde gehandhaaf word.

OpenAI se Kern Etiese Pilare: Die Drie Rooilyne

OpenAI opereer onder drie fundamentele 'rooilyne' wat sy samewerking in sensitiewe domeine soos nasionale veiligheid beheer. Hierdie beginsels, grootliks gedeel deur ander toonaangewende AI-navorsingsinstellings, is sentraal tot die ooreenkoms met die Departement van Oorlog:

  1. Geen massa binnelandse toesig nie: OpenAI-tegnologie sal nie gebruik word vir wydverspreide monitering van Amerikaanse burgers nie.
  2. Geen outonome wapenstelsels nie: Die tegnologie word verbied om outonome wapens sonder menslike beheer te rig.
  3. Geen hoë-insette outomatiese besluite nie: OpenAI-gereedskap sal nie gebruik word vir kritieke outomatiese besluite (bv., 'sosiale kredietsisteme') wat menslike toesig vereis nie.

OpenAI beweer dat sy veelvlakkige strategie meer robuuste beskerming bied teen onaanvaarbare gebruike in vergelyking met benaderings wat hoofsaaklik slegs op gebruiksbeleide staatmaak. Hierdie klem op streng tegniese en kontraktuele voorsorgmaatreëls onderskei sy ooreenkoms in die ontwikkelende landskap van verdedigings-AI.

Veelvlakkige Beskerming: Argitektuur, Kontrak en Menslike Kundigheid

Die sterkte van OpenAI se ooreenkoms met die Departement van Oorlog lê in sy omvattende, veelvlakkige benadering tot beskerming. Dit sluit in:

  1. Ontplooiingsargitektuur: Die ooreenkoms verplig 'n wolk-alleen ontplooiing, wat verseker dat OpenAI volle diskresie oor sy veiligheidstapel behou en die ontplooiing van 'veiligheidsbeperkings af'-modelle voorkom. Hierdie argitektuur beperk inherent gebruiksgevalle soos outonome dodelike wapens, wat tipies randontplooiing vereis. Onafhanklike verifikasiemeganismes, insluitend klassifiseerders, is in plek om te verseker dat hierdie rooilyne nie oorskry word nie.
  2. Robuuste Kontraktaal: Die kontrak spesifiseer uitdruklik toelaatbare gebruike, wat voldoening vereis aan 'alle wettige doeleindes, in ooreenstemming met toepaslike wetgewing, operasionele vereistes, en gevestigde veiligheids- en toesigprotokolle.' Dit verwys spesifiek na Amerikaanse wette soos die Vierde Wysiging, die Nasionale Veiligheidswet van 1947, die FISA-wet van 1978, en DoD-richtlijn 3000.09. Van deurslaggewende belang is dat dit die onafhanklike rigting van outonome wapens en onbeperkte monitering van Amerikaanse persone se private inligting verbied.
  3. Betrokkenheid van AI-kundiges: Goedgekeurde OpenAI-ingenieurs en veiligheids- en belyningsnavorsers sal vooruit ontplooi word en 'in die lus' wees. Hierdie direkte menslike toesig bied 'n bykomende laag versekering, wat help om stelsels mettertyd te verbeter en aktief nakoming van die ooreenkoms se streng bepalings te verifieer.

Hierdie geïntegreerde benadering verseker dat tegnologiese, wetlike, en menslike voorsorgmaatreëls almal saamwerk om misbruik te voorkom.

Rooilyn KategorieOpenAI se Beskermingsmaatreëls
Massa Binnelandse ToesigEksplisiete kontraktuele verbod, belyning met Vierde Wysiging, FISA, Nasionale Veiligheidswet; uitsluiting van NSA/intelligensie-agentskappe van omvang; wolk-alleen ontplooiingsbeperkings op datatoegang; OpenAI-personeel 'in die lus'-verifikasie.
Outonome WapenstellelsWolk-alleen ontplooiing (geen randontplooiing vir dodelike outonomie); eksplisiete kontraktuele verbod teen onafhanklike rigting van outonome wapens; voldoening aan DoD-richtlijn 3000.09 vir verifikasie/validering; OpenAI-personeel 'in die lus' vir toesig.
Hoë-insette Outomatiese BesluiteEksplisiete kontraktuele taal wat menslike goedkeuring vir hoë-insette besluite vereis; OpenAI behou volle beheer oor sy veiligheidstapel, wat 'veiligheidsbeperkings af'-modelle voorkom; OpenAI-personeel 'in die lus' om te verseker dat menslike toesig gehandhaef word waar kritieke besluite betrokke is.

Die Aanspreek van Bekommernisse en die Smee van Toekomstige AI-Samewerking

OpenAI erken die inherente risiko's van gevorderde AI en beskou diepgaande samewerking tussen die regering en AI-laboratoriums as noodsaaklik vir die navigeer van die toekoms. Betrokkenheid by die Departement van Oorlog stel die Amerikaanse weermag in staat om toegang te verkry tot voorpuntgereedskap terwyl verseker word dat hierdie tegnologieë verantwoordelik ontplooi word.

'Ons glo die Amerikaanse weermag het absoluut sterk AI-modelle nodig om hul missie te ondersteun, veral in die lig van groeiende dreigemente van potensiële teenstanders wat toenemend AI-tegnologieë in hul stelsels integreer,' het OpenAI verklaar. Hierdie verbintenis word gebalanseer met 'n onwrikbare weiering om tegniese voorsorgmaatreëls vir prestasie in te boet, en beklemtoon dat 'n verantwoordelike benadering van die uiterste belang is.

Die ooreenkoms beoog ook om spanning te verminder en breër samewerking binne die AI-gemeenskap aan te moedig. OpenAI het versoek dat dieselfde beskermende bepalings aan alle AI-maatskappye beskikbaar gestel word, in die hoop om soortgelyke verantwoordelike vennootskappe oor die bedryf heen te fasiliteer. Dit is deel van OpenAI se breër strategie, soos gedemonstreer deur sy voortgesette Microsoft-vennootskap en pogings tot skaal AI vir almal.

Stel 'n Nuwe Standaard vir Verdedigings-AI-betrokkenheid

OpenAI glo dat sy ooreenkoms 'n hoër standaard stel vir geklassifiseerde AI-ontplooiings in vergelyking met vorige reëlings, insluitend dié wat deur ander laboratoriums soos Anthropic bespreek is. Die vertroue spruit voort uit die fundamentele beskermings wat ingebed is: die wolk-alleen ontplooiing wat die integriteit van OpenAI se veiligheidstapel handhaaf, die eksplisiete kontraktuele waarborge, en die aktiewe betrokkenheid van goedgekeurde OpenAI-personeel.

Hierdie omvattende raamwerk verseker dat die gespesifiseerde rooilyne — die voorkoming van massa binnelandse toesig en outonome wapenbeheer — robuus afgedwing word. Die kontraktuele taal wat uitdruklik na bestaande wette verwys, verseker dat selfs as beleide in die toekoms verander, die gebruik van OpenAI se stelsels steeds moet voldoen aan die oorspronklike, strenger standaarde. Hierdie proaktiewe standpunt onderstreep OpenAI se verbintenis tot die ontwikkeling en ontplooiing van kragtige AI-tegnologieë op 'n manier wat veiligheid, etiek en demokratiese waardes prioritiseer, selfs in die mees veeleisende nasionale veiligheidskontekste.

Gereelde Vrae

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Bly op hoogte

Kry die nuutste KI-nuus in jou inkassie.

Deel