Code Velocity
Tehisintellekti turvalisus

OpenAI Sõjaministeeriumi leping: tehisintellekti ohutuspiirete tagamine

·7 min lugemist·OpenAI·Algallikas
Jaga
OpenAI ja Sõjaministeeriumi leping tehisintellekti ohutuspiiretega

OpenAI ja Sõjaministeerium tugevdavad tehisintellekti ohutust selgesõnaliste piirangutega

San Francisco, CA – 3. märts 2026 – OpenAI on teatanud olulisest uuendusest oma lepingus Sõjaministeeriumiga (DoW), tugevdades rangeid ohutuspiirdeid arenenud tehisintellekti süsteemide juurutamisel salastatud keskkondades. See murranguline koostöö rõhutab jagatud pühendumust vastutustundlikule tehisintellekti kasutamisele, eriti tundlike riikliku julgeoleku rakenduste puhul. Uuendatud leping, mis vormistati 2. märtsil 2026, keelab selgesõnaliselt USA isikute siseriikliku jälgimise ja piirab tehisintellekti kasutamist autonoomsetes relvasüsteemides, seades uue etalonmärgi tehisintellekti eetilisele integreerimisele kaitsesektorisse.

Selle täiustatud lepingu tuum seisneb selles, et varasemalt mõistetud asjad on tehtud selgesõnaliseks, tagades tehisintellekti tehnoloogia eetiliste piirangute osas igasuguse mitmetähenduslikkuse puudumise. OpenAI rõhutab, et see raamistik on loodud pakkuma USA sõjaväele tipptasemel tööriistu, järgides samal ajal rangelt privaatsuse ja ohutuse põhimõtteid.

Salastatud tehisintellekti juurutamise kaitsemeetmete ümberdefineerimine

Proaktiivse sammuna potentsiaalsete murede lahendamiseks on OpenAI ja Sõjaministeerium lisanud oma lepingusse täiendava sõnastuse, selgitades spetsiifiliselt tehisintellekti juurutamise piire. See uus klausel sätestab üheselt, et OpenAI tööriistu ei kasutata USA isikute siseriiklikuks jälgimiseks, sealhulgas kaubanduslikult hangitud isikliku teabe omandamise või kasutamise kaudu. Lisaks on Kaitseministeerium kinnitanud, et selle luureagentuurid, nagu NSA, on sellest lepingust välja arvatud ja vajaksid mis tahes teenuse osutamiseks täiesti uusi tingimusi.

Uuendatud lepingukeel täpsustab:

  • "Kooskõlas kehtivate seadustega, sealhulgas Ameerika Ühendriikide Konstitutsiooni neljanda muudatuse, 1947. aasta riikliku julgeoleku seaduse ja 1978. aasta FISA seadusega, ei tohi tehisintellekti süsteemi tahtlikult kasutada USA isikute ja kodanike siseriiklikuks jälgimiseks."
  • "Kahtluste vältimiseks mõistab ministeerium, et see piirang keelab USA isikute või kodanike tahtliku jälgimise, seire või monitooringu, sealhulgas kaubanduslikult hangitud isikuandmete või tuvastatava teabe hankimise või kasutamise kaudu."

See ettenägelik lähenemine seab eesmärgiks luua selge tee teistele tipptasemel tehisintellekti laboritele Sõjaministeeriumiga suhtlemiseks, soodustades koostööd, säilitades samal ajal vankumatud eetilised standardid.

OpenAI peamised eetilised tugisambad: kolm punast joont

OpenAI tegutseb kolme põhilise "punase joone" alusel, mis reguleerivad selle koostööd tundlikes valdkondades, nagu riiklik julgeolek. Need põhimõtted, mida jagavad suures osas ka teised juhtivad tehisintellekti uurimisasutused, on Sõjaministeeriumiga sõlmitud lepingu keskmes:

  1. Massilise siseriikliku jälgimise keeld: OpenAI tehnoloogiat ei kasutata USA kodanike laialdaseks jälgimiseks.
  2. Autonoomsete relvasüsteemide keeld: Tehnoloogial on keelatud iseseisvalt juhtida autonoomseid relvi ilma inimkontrollita.
  3. Kõrge riskiga automatiseeritud otsuste keeld: OpenAI tööriistu ei kasutata kriitiliste automatiseeritud otsuste (nt "sotsiaalkrediidi" süsteemide) tegemiseks, mis nõuavad inimlikku järelevalvet.

OpenAI väidab, et selle mitmekihiline strateegia pakub tugevamat kaitset vastuvõetamatute kasutusviiside vastu võrreldes lähenemistega, mis toetuvad peamiselt ainult kasutuspoliitikatele. See rõhk rangetele tehnilistele ja lepingulistele kaitsemeetmetele eristab selle lepingut kaitse-tehisintellekti areneval maastikul.

Mitmekihiline kaitse: arhitektuur, leping ja inimkogemus

OpenAI lepingu tugevus Sõjaministeeriumiga seisneb selle põhjalikus, mitmekihilises kaitsestrateegias. See hõlmab:

  1. Juurutamise arhitektuur: Leping kohustab kasutama ainult pilvepõhist juurutamist, tagades, et OpenAI säilitab täieliku kontrolli oma ohutussüsteemi üle ja takistab "kaitsepiiretest väljas" mudelite juurutamist. See arhitektuur piirab olemuslikult kasutusjuhtumeid, nagu autonoomsed surmrelvad, mis tavaliselt nõuavad servasüsteemi juurutamist. Sõltumatud kontrollimehhanismid, sealhulgas klassifikaatorid, on olemas tagamaks, et neid punaseid jooni ei ületata.
  2. Tugev lepingukeel: Leping sätestab selgesõnaliselt lubatud kasutusviisid, nõudes järgimist "kõigile seaduslikele eesmärkidele, kooskõlas kehtivate õigusaktide, operatiivnõuete ning väljakujunenud ohutus- ja järelevalveprotokollidega". See viitab spetsiifiliselt USA seadustele nagu neljas muudatus, 1947. aasta riikliku julgeoleku seadus, 1978. aasta FISA seadus ja Kaitseministeeriumi direktiiv 3000.09. Oluline on märkida, et see keelab autonoomsete relvade iseseisva juhtimise ja USA isikute privaatse teabe piiramatu jälgimise.
  3. Tehisintellekti ekspertide kaasamine: Volitatud OpenAI insenerid ning ohutuse ja joondamise teadlased paigutatakse ette ja kaasatakse "protsessi". See otsene inimlik järelevalve pakub täiendavat kindlustust, aidates süsteeme aja jooksul paremaks muuta ja aktiivselt kontrollides lepingu rangete tingimuste järgimist.

See integreeritud lähenemine tagab, et tehnoloogilised, õiguslikud ja inimlikud kaitsemeetmed töötavad ühiselt väärkasutuse vältimiseks.

Punase joone kategooriaOpenAI kaitsemeetmed
Massiline siseriiklik jälgimineSelgesõnaline lepinguline keeld, kooskõla neljanda muudatuse, FISA, riikliku julgeoleku seadusega; NSA/luureagentuuride väljajätmine ulatusest; ainult pilvepõhine juurutamine piirab andmetele juurdepääsu; OpenAI personali protsessisisene kontroll.
Autonoomsed relvasüsteemidAinult pilvepõhine juurutamine (surmava autonoomia puhul servasüsteemide juurutamist ei toimu); selgesõnaline lepinguline keeld autonoomsete relvade iseseisva juhtimise vastu; Kaitseministeeriumi direktiivi 3000.09 järgimine verifitseerimiseks/valideerimiseks; OpenAI personali kaasamine järelevalveks.
Kõrge riskiga automatiseeritud otsusedSelgesõnaline lepingukeel, mis nõuab inimliku heakskiitu kõrgete panustega otsuste puhul; OpenAI säilitab täieliku kontrolli oma ohutussüsteemi üle, vältides "kaitsepiiretest väljas" mudeleid; OpenAI personali kaasamine tagamaks inimliku järelevalve säilimist kriitiliste otsuste puhul.

Murede lahendamine ja tulevase tehisintellekti koostöö edendamine

OpenAI tunnistab arenenud tehisintellekti olemuslikke riske ja peab valitsuse ja tehisintellekti laborite vahelist sügavat koostööd tuleviku navigeerimiseks hädavajalikuks. Koostöö Sõjaministeeriumiga võimaldab USA sõjaväel pääseda ligi tipptasemel tööriistadele, tagades samal ajal, et neid tehnoloogiaid juurutatakse vastutustundlikult.

"Me arvame, et USA sõjavägi vajab oma missiooni toetamiseks tingimata tugevaid tehisintellekti mudeleid, eriti arvestades kasvavaid ohte potentsiaalsetelt vastastelt, kes integreerivad üha enam tehisintellekti tehnoloogiaid oma süsteemidesse," ütles OpenAI. See pühendumus on tasakaalustatud vankumatu keeldumisega teha kompromisse tehniliste kaitsemeetmete osas jõudluse nimel, rõhutades, et vastutustundlik lähenemine on esmatähtis.

Lepinguga püütakse samuti leevendada pingeid ja edendada laiemat koostööd tehisintellekti kogukonnas. OpenAI on palunud, et samad kaitsvad tingimused tehtaks kättesaadavaks kõigile tehisintellekti ettevõtetele, lootes hõlbustada sarnaseid vastutustundlikke partnerlusi kogu tööstuses. See on osa OpenAI laiemast strateegiast, mida näitavad selle jätkuv koostöö Microsoftiga ja püüdlused tehisintellekti skaleerimiseks kõigile.

Uue standardi kehtestamine kaitse-tehisintellekti kaasamiseks

OpenAI usub, et nende leping seab salastatud tehisintellekti juurutamisel kõrgema standardi võrreldes varasemate kokkulepetega, sealhulgas nende, mida on arutanud teised laborid nagu Anthropic. Usaldus tuleneb sisseehitatud põhikaitsemeetmetest: ainult pilvepõhine juurutamine, mis säilitab OpenAI ohutussüsteemi terviklikkuse, selgesõnalised lepingulised tagatised ja volitatud OpenAI personali aktiivne kaasamine.

See terviklik raamistik tagab, et kindlaksmääratud punased jooned – massilise siseriikliku jälgimise ja autonoomsete relvade kontrolli vältimine – on jõuliselt täidetud. Lepingukeel, mis viitab selgesõnaliselt kehtivatele seadustele, tagab, et isegi kui poliitika tulevikus muutub, peab OpenAI süsteemide kasutamine endiselt vastama algsetele, rangematele standarditele. See proaktiivne hoiak rõhutab OpenAI pühendumust võimsate tehisintellekti tehnoloogiate arendamisele ja juurutamisele viisil, mis seab esikohale ohutuse, eetika ja demokraatlikud väärtused, isegi kõige nõudlikumates riikliku julgeoleku kontekstides.

Korduma kippuvad küsimused

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Püsige kursis

Saage värskeimad AI uudised oma postkasti.

Jaga