Code Velocity
Gervigreindaröryggi

Samkomulag OpenAI við Stríðsráðuneytið: Tryggir öryggisvarnir fyrir gervigreind

·7 mín lestur·OpenAI·Upprunaleg heimild
Deila
Samkomulag OpenAI og Stríðsráðuneytisins um öryggisvarnir gervigreindar

OpenAI og Stríðsráðuneytið styrkja öryggi gervigreindar með skýrum vörnum

San Francisco, CA – 3. mars 2026 – OpenAI hefur tilkynnt um mikilvæga uppfærslu á samkomulagi sínu við Stríðsráðuneytið (DoW), sem styrkir strangar öryggisvarnir varðandi dreifingu háþróaðra gervigreindarkerfa í lokuðu umhverfi. Þetta sögulega samstarf undirstrikar sameiginlega skuldbindingu um ábyrga notkun gervigreindar, sérstaklega varðandi viðkvæm þjóðaröryggisforrit. Uppfært samkomulag, sem gengið var frá 2. mars 2026, bannar sérstaklega innanlandseftirlit með bandarískum einstaklingum og takmarkar notkun gervigreindar í sjálfvirkum vopnakerfum, og setur nýjan mælikvarða fyrir siðferðilega samþættingu gervigreindar í vörnum.

Kjarni þessa aukna samkomulags felst í því að gera það skýrt sem áður var talið gefið, og tryggja að enginn tvímæli séu um siðferðileg takmörk gervigreindartækni. OpenAI leggur áherslu á að þessi rammi sé hannaður til að veita bandaríska hernum nýjustu verkfæri á sama tíma og persónuverndar- og öryggisreglur eru í heiðri hafðar.

Endurskilgreining varna fyrir flokkaðar gervigreindardreifingar

Í fyrirbyggjandi skrefi til að takast á við mögulegar áhyggjur, hafa OpenAI og Stríðsráðuneytið bætt viðbótartexta inn í samkomulag sitt, sem skýrir sérstaklega mörk gervigreindardreifingar. Þessi nýja klausa segir ótvírætt að verkfæri OpenAI verði ekki notuð í innanlandseftirlit með bandarískum einstaklingum, þar á meðal með því að afla eða nota persónuupplýsingar sem aflað er í viðskiptum. Ennfremur hefur Stríðsráðuneytið staðfest að leyniþjónustur þess, eins og NSA, eru undanskildar þessu samkomulagi og myndu krefjast algerlega nýrra skilmála fyrir hvers kyns þjónustuveitingu.

Uppfærður texti í samkomulaginu greinir frá:

  • "Í samræmi við gildandi lög, þar á meðal fjórða viðauka stjórnarskrár Bandaríkjanna, lög um þjóðaröryggi frá 1947, FISA-lögin frá 1978, skal gervigreindarkerfið ekki vísvitandi notað í innanlandseftirlit með bandarískum einstaklingum og ríkisborgurum."
  • "Til að afstýra vafa skilur Ráðuneytið þessa takmörkun sem bann við vísvitandi rekja, eftirliti eða vöktun bandarískra einstaklinga eða ríkisborgara, þar á meðal með því að afla eða nota persónuupplýsingar sem aflað er í viðskiptum."

Þessi framsýna nálgun miðar að því að skapa skýra leið fyrir önnur framúrskarandi gervigreindarrannsóknarstofur til að eiga samskipti við Stríðsráðuneytið, stuðla að samstarfi á sama tíma og óhagganlegir siðferðislegir staðlar eru viðhaldið.

Helstu siðferðislegu stoðir OpenAI: Rauðu línurnar þrjár

OpenAI starfar samkvæmt þremur grundvallar "rauðum línum" sem stýra samstarfi þess á viðkvæmum sviðum eins og þjóðaröryggi. Þessar meginreglur, sem að mestu leyti eru deilt af öðrum leiðandi gervigreindarrannsóknarstofnunum, eru miðlægar í samkomulaginu við Stríðsráðuneytið:

  1. Ekkert fjölda innanlandseftirlit: Tækni OpenAI verður ekki notuð til víðtækrar vöktunar á bandarískum ríkisborgurum.
  2. Engin sjálfvirk vopnakerfi: Tækninni er bannað að stýra sjálfvirkum vopnum án mannlegrar stjórnunar.
  3. Engar hááhættu sjálfvirkar ákvarðanir: Verkfæri OpenAI verða ekki notuð í mikilvægum sjálfvirkum ákvörðunum (t.d. "félagslegum kreditkerfum") sem krefjast mannlegs eftirlits.

OpenAI staðfestir að margþætt stefna þess veitir öflugri vernd gegn óásættanlegri notkun samanborið við nálganir sem byggja aðallega á notkunarstefnu einni saman. Þessi áhersla á strangar tæknilegar og samningsbundnar varnir aðgreinir samkomulag þess í vaxandi landslagi varnargervigreindar.

Fjöllaga vernd: Arkitektúr, samningur og mannleg sérfræðiþekking

Styrkur samkomulags OpenAI við Stríðsráðuneytið liggur í alhliða, fjöllaga nálgun þess að vernd. Þetta felur í sér:

  1. Dreifingararkitektúr: Samkomulagið krefst eingöngu skýjadreifingar, sem tryggir að OpenAI haldi fullu frjálsræði yfir öryggisstafla sinni og kemur í veg fyrir dreifingu á líkönum "án varna". Þessi arkitektúr takmarkar í eðli sínu notkunartilvik eins og sjálfvirk banvæn vopn, sem venjulega krefjast jaðardreifingar. Sjálfstæðar sannprófunaraðferðir, þar á meðal flokkarar, eru til staðar til að tryggja að þessar rauðu línur séu ekki farnar yfir.
  2. Öflugt samningstexti: Samningurinn greinir sérstaklega frá leyfilegum notkunartilvikum, sem krefst samræmis við "alla lögmæta tilgangi, í samræmi við gildandi lög, rekstrarkröfur og vel staðfestar öryggis- og eftirlitsreglur." Hann vísar sérstaklega til bandarískra laga eins og fjórða viðauka stjórnarskrárinnar, lög um þjóðaröryggi frá 1947, FISA-lögin frá 1978, og tilskipun DoD 3000.09. Mikilvægt er að hann bannar sjálfstæða stjórnun sjálfvirkra vopna og ótakmarkað eftirlit með persónuupplýsingum bandarískra einstaklinga.
  3. Þátttaka gervigreindarsérfræðinga: Hreinsaðir verkfræðingar OpenAI og öryggis- og samræmisfræðingar verða útsendir og "í ferlinu" ("in the loop"). Þetta beina mannlega eftirlit veitir viðbótarlag af tryggingu, sem hjálpar til við að bæta kerfin með tímanum og sannreyna virkilega samræmi við strangar skilmála samkomulagsins.

Þessi samþætta nálgun tryggir að tæknileg, lagaleg og mannleg vernd vinni öll í samræmi til að koma í veg fyrir misnotkun.

Flokkur rauðra línaVerndarráðstafanir OpenAI
Fjölda innanlandseftirlitSkýrt samningsbundið bann, samræmi við fjórða viðauka stjórnarskrárinnar, FISA, lög um þjóðaröryggi; undanþága NSA/leyniþjónustustofnana frá gildissviði; takmarkanir á gagnaaðgangi vegna eingöngu skýjadreifingar; sannprófun starfsfólks OpenAI sem er "í ferlinu".
Sjálfvirk vopnakerfiEingöngu skýjadreifing (engin jaðardreifing fyrir banvæna sjálfstjórn); skýrt samningsbundið bann gegn sjálfstæðri stjórnun sjálfvirkra vopna; samræmi við tilskipun DoD 3000.09 fyrir sannprófun/staðfestingu; starfsfólk OpenAI sem er "í ferlinu" fyrir eftirlit.
Hááhættu sjálfvirkar ákvarðanirSkýrt samningstexti sem krefst mannlegs samþykkis fyrir hááhættuákvarðanir; OpenAI heldur fullu stjórn á öryggisstafla sínum, sem kemur í veg fyrir líkön "án varna"; starfsfólk OpenAI sem er "í ferlinu" til að tryggja að mannlegt eftirlit sé viðhaldið þar sem mikilvægar ákvarðanir eru teknar.

Takast á við áhyggjur og mynda framtíðarsamstarf um gervigreind

OpenAI viðurkennir eðlislæga áhættu háþróaðrar gervigreindar og telur djúpt samstarf milli ríkisstjórnar og gervigreindarrannsóknarstofa nauðsynlegt til að sigla um framtíðina. Með því að taka þátt í samstarfi við Stríðsráðuneytið fær bandaríski herinn aðgang að nýjustu verkfærum á sama tíma og tryggt er að þessi tækni sé dreift á ábyrgan hátt.

"Við teljum að bandaríski herinn þurfi algerlega sterk gervigreindarlíkön til að styðja við verkefni sitt, sérstaklega í ljósi vaxandi ógnar frá hugsanlegum andstæðingum sem eru í auknum mæli að samþætta gervigreindartækni inn í kerfi sín," sagði OpenAI. Þessi skuldbinding er jafnvægissett með óhagganlegri neitun um að skerða tæknilegar varnir fyrir frammistöðu, og leggur áherslu á að ábyrg nálgun sé afar mikilvæg.

Samkomulagið miðar einnig að því að draga úr spennu og stuðla að víðtækara samstarfi innan gervigreindarsamfélagsins. OpenAI hefur óskað eftir því að sömu verndarskilmálar verði í boði fyrir öll gervigreindarfyritæki, í von um að auðvelda svipuð ábyrg samstarf í greininni. Þetta er hluti af víðtækari stefnu OpenAI, eins og sést á áframhaldandi samstarfi við Microsoft og viðleitni til að skala gervigreind fyrir alla.

Að setja nýjan staðal fyrir þátttöku í varnargervigreind

OpenAI telur að samkomulag þess setji hærri staðal fyrir flokkaðar gervigreindardreifingar samanborið við fyrri fyrirkomulag, þar á meðal þau sem önnur rannsóknarstofur eins og Anthropic hafa rætt. Traustið stafar af grundvallarverndinni sem er innbyggð: skýjadreifingin sem heldur heilleika öryggisstafla OpenAI, skýrar samningsbundnar tryggingar og virk þátttaka hreinsaðs starfsfólks OpenAI.

Þessi alhliða rammi tryggir að tilgreindar rauðar línur – sem koma í veg fyrir fjölda innanlandseftirlit og stjórnun sjálfvirkra vopna – séu öfluglega framfylgdar. Samningstextinn, sem vísar sérstaklega til gildandi laga, tryggir að jafnvel þótt stefnum breytist í framtíðinni, verður notkun kerfa OpenAI enn að vera í samræmi við upprunalegu, strangari staðla. Þessi fyrirbyggjandi afstaða undirstrikar skuldbindingu OpenAI við að þróa og dreifa öflugri gervigreindartækni á þann hátt að öryggi, siðferði og lýðræðisleg gildi séu í forgangi, jafnvel í kröfuhörðustu þjóðaröryggismálum.

Algengar spurningar

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Fylgstu með

Fáðu nýjustu gervigreindarfréttirnar í pósthólfið.

Deila