OpenAI en Departement van Oorlog Versterk AI-veiligheid met Explisiete Veiligheidsbeperkings
San Francisco, CA – 3 Maart 2026 – OpenAI het 'n beduidende opdatering aan sy ooreenkoms met die Departement van Oorlog (DvO) aangekondig, wat streng veiligheidsbeperkings rondom die ontplooiing van gevorderde AI-stelsels in geklassifiseerde omgewings versterk. Hierdie baanbrekende samewerking onderstreep 'n gedeelde verbintenis tot verantwoordelike AI-gebruik, veral ten opsigte van sensitiewe nasionale veiligheidstoepassings. Die bygewerkte ooreenkoms, wat op 2 Maart 2026 gefinaliseer is, verbied uitdruklik binnelandse toesig oor Amerikaanse persone en beperk die gebruik van AI in outonome wapenstelsels, en stel sodoende 'n nuwe maatstaf vir die etiese integrasie van kunsmatige intelligensie in verdediging.
Die kern van hierdie verbeterde ooreenkoms lê daarin om eksplisiet te maak wat voorheen verstaan is, om geen dubbelsinnigheid rakende die etiese beperkings van AI-tegnologie te verseker nie. OpenAI beklemtoon dat hierdie raamwerk ontwerp is om die Amerikaanse weermag te voorsien van die nuutste gereedskap terwyl privaatheid- en veiligheidsbeginsels streng gehandhaaf word.
Herdefiniëring van Veiligheidsmaatreëls vir Geklassifiseerde AI-ontplooiings
In 'n proaktiewe stap om potensiële kommer aan te spreek, het OpenAI en die Departement van Oorlog bykomende taal in hul ooreenkoms opgeneem, wat spesifiek die grense van AI-ontplooiing verduidelik. Hierdie nuwe klousule verklaar onomwonde dat OpenAI se gereedskap nie vir binnelandse toesig oor Amerikaanse persone gebruik sal word nie, insluitend deur die verkryging of gebruik van kommersieel verkrygde persoonlike inligting. Verder het die DvO bevestig dat sy intelligensie-agentskappe, soos die NSA, van hierdie ooreenkoms uitgesluit is en heeltemal nuwe bepalings vir enige dienslewering sou benodig.
Die bygewerkte taal in die ooreenkoms spesifiseer:
- 'In ooreenstemming met toepaslike wette, insluitend die Vierde Wysiging aan die Grondwet van die Verenigde State, die Nasionale Veiligheidswet van 1947, die FISA-wet van 1978, sal die AI-stelsel nie opsetlik gebruik word vir binnelandse toesig oor Amerikaanse persone en burgers nie.'
- 'Ter vermyding van twyfel, verstaan die Departement hierdie beperking om doelbewuste opsporing, toesig, of monitering van Amerikaanse persone of burgers te verbied, insluitend deur die verkryging of gebruik van kommersieel verkrygde persoonlike of identifiseerbare inligting.'
Hierdie vooruitdenkende benadering poog om 'n duidelike pad vir ander voorpunt AI-laboratoriums te vestig om met die Departement van Oorlog in gesprek te tree, samewerking aan te moedig terwyl onwrikbare etiese standaarde gehandhaaf word.
OpenAI se Kern Etiese Pilare: Die Drie Rooilyne
OpenAI opereer onder drie fundamentele 'rooilyne' wat sy samewerking in sensitiewe domeine soos nasionale veiligheid beheer. Hierdie beginsels, grootliks gedeel deur ander toonaangewende AI-navorsingsinstellings, is sentraal tot die ooreenkoms met die Departement van Oorlog:
- Geen massa binnelandse toesig nie: OpenAI-tegnologie sal nie gebruik word vir wydverspreide monitering van Amerikaanse burgers nie.
- Geen outonome wapenstelsels nie: Die tegnologie word verbied om outonome wapens sonder menslike beheer te rig.
- Geen hoë-insette outomatiese besluite nie: OpenAI-gereedskap sal nie gebruik word vir kritieke outomatiese besluite (bv., 'sosiale kredietsisteme') wat menslike toesig vereis nie.
OpenAI beweer dat sy veelvlakkige strategie meer robuuste beskerming bied teen onaanvaarbare gebruike in vergelyking met benaderings wat hoofsaaklik slegs op gebruiksbeleide staatmaak. Hierdie klem op streng tegniese en kontraktuele voorsorgmaatreëls onderskei sy ooreenkoms in die ontwikkelende landskap van verdedigings-AI.
Veelvlakkige Beskerming: Argitektuur, Kontrak en Menslike Kundigheid
Die sterkte van OpenAI se ooreenkoms met die Departement van Oorlog lê in sy omvattende, veelvlakkige benadering tot beskerming. Dit sluit in:
- Ontplooiingsargitektuur: Die ooreenkoms verplig 'n wolk-alleen ontplooiing, wat verseker dat OpenAI volle diskresie oor sy veiligheidstapel behou en die ontplooiing van 'veiligheidsbeperkings af'-modelle voorkom. Hierdie argitektuur beperk inherent gebruiksgevalle soos outonome dodelike wapens, wat tipies randontplooiing vereis. Onafhanklike verifikasiemeganismes, insluitend klassifiseerders, is in plek om te verseker dat hierdie rooilyne nie oorskry word nie.
- Robuuste Kontraktaal: Die kontrak spesifiseer uitdruklik toelaatbare gebruike, wat voldoening vereis aan 'alle wettige doeleindes, in ooreenstemming met toepaslike wetgewing, operasionele vereistes, en gevestigde veiligheids- en toesigprotokolle.' Dit verwys spesifiek na Amerikaanse wette soos die Vierde Wysiging, die Nasionale Veiligheidswet van 1947, die FISA-wet van 1978, en DoD-richtlijn 3000.09. Van deurslaggewende belang is dat dit die onafhanklike rigting van outonome wapens en onbeperkte monitering van Amerikaanse persone se private inligting verbied.
- Betrokkenheid van AI-kundiges: Goedgekeurde OpenAI-ingenieurs en veiligheids- en belyningsnavorsers sal vooruit ontplooi word en 'in die lus' wees. Hierdie direkte menslike toesig bied 'n bykomende laag versekering, wat help om stelsels mettertyd te verbeter en aktief nakoming van die ooreenkoms se streng bepalings te verifieer.
Hierdie geïntegreerde benadering verseker dat tegnologiese, wetlike, en menslike voorsorgmaatreëls almal saamwerk om misbruik te voorkom.
| Rooilyn Kategorie | OpenAI se Beskermingsmaatreëls |
|---|---|
| Massa Binnelandse Toesig | Eksplisiete kontraktuele verbod, belyning met Vierde Wysiging, FISA, Nasionale Veiligheidswet; uitsluiting van NSA/intelligensie-agentskappe van omvang; wolk-alleen ontplooiingsbeperkings op datatoegang; OpenAI-personeel 'in die lus'-verifikasie. |
| Outonome Wapenstellels | Wolk-alleen ontplooiing (geen randontplooiing vir dodelike outonomie); eksplisiete kontraktuele verbod teen onafhanklike rigting van outonome wapens; voldoening aan DoD-richtlijn 3000.09 vir verifikasie/validering; OpenAI-personeel 'in die lus' vir toesig. |
| Hoë-insette Outomatiese Besluite | Eksplisiete kontraktuele taal wat menslike goedkeuring vir hoë-insette besluite vereis; OpenAI behou volle beheer oor sy veiligheidstapel, wat 'veiligheidsbeperkings af'-modelle voorkom; OpenAI-personeel 'in die lus' om te verseker dat menslike toesig gehandhaef word waar kritieke besluite betrokke is. |
Die Aanspreek van Bekommernisse en die Smee van Toekomstige AI-Samewerking
OpenAI erken die inherente risiko's van gevorderde AI en beskou diepgaande samewerking tussen die regering en AI-laboratoriums as noodsaaklik vir die navigeer van die toekoms. Betrokkenheid by die Departement van Oorlog stel die Amerikaanse weermag in staat om toegang te verkry tot voorpuntgereedskap terwyl verseker word dat hierdie tegnologieë verantwoordelik ontplooi word.
'Ons glo die Amerikaanse weermag het absoluut sterk AI-modelle nodig om hul missie te ondersteun, veral in die lig van groeiende dreigemente van potensiële teenstanders wat toenemend AI-tegnologieë in hul stelsels integreer,' het OpenAI verklaar. Hierdie verbintenis word gebalanseer met 'n onwrikbare weiering om tegniese voorsorgmaatreëls vir prestasie in te boet, en beklemtoon dat 'n verantwoordelike benadering van die uiterste belang is.
Die ooreenkoms beoog ook om spanning te verminder en breër samewerking binne die AI-gemeenskap aan te moedig. OpenAI het versoek dat dieselfde beskermende bepalings aan alle AI-maatskappye beskikbaar gestel word, in die hoop om soortgelyke verantwoordelike vennootskappe oor die bedryf heen te fasiliteer. Dit is deel van OpenAI se breër strategie, soos gedemonstreer deur sy voortgesette Microsoft-vennootskap en pogings tot skaal AI vir almal.
Stel 'n Nuwe Standaard vir Verdedigings-AI-betrokkenheid
OpenAI glo dat sy ooreenkoms 'n hoër standaard stel vir geklassifiseerde AI-ontplooiings in vergelyking met vorige reëlings, insluitend dié wat deur ander laboratoriums soos Anthropic bespreek is. Die vertroue spruit voort uit die fundamentele beskermings wat ingebed is: die wolk-alleen ontplooiing wat die integriteit van OpenAI se veiligheidstapel handhaaf, die eksplisiete kontraktuele waarborge, en die aktiewe betrokkenheid van goedgekeurde OpenAI-personeel.
Hierdie omvattende raamwerk verseker dat die gespesifiseerde rooilyne — die voorkoming van massa binnelandse toesig en outonome wapenbeheer — robuus afgedwing word. Die kontraktuele taal wat uitdruklik na bestaande wette verwys, verseker dat selfs as beleide in die toekoms verander, die gebruik van OpenAI se stelsels steeds moet voldoen aan die oorspronklike, strenger standaarde. Hierdie proaktiewe standpunt onderstreep OpenAI se verbintenis tot die ontwikkeling en ontplooiing van kragtige AI-tegnologieë op 'n manier wat veiligheid, etiek en demokratiese waardes prioritiseer, selfs in die mees veeleisende nasionale veiligheidskontekste.
Oorspronklike bron
https://openai.com/index/our-agreement-with-the-department-of-war/Gereelde Vrae
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
Bly op hoogte
Kry die nuutste KI-nuus in jou inkassie.
