Code Velocity
AI saugumas

OpenAI Karo departamento susitarimas: dirbtinio intelekto saugumo gairių užtikrinimas

·7 min skaitymo·OpenAI·Originalus šaltinis
Dalintis
OpenAI ir Karo departamento susitarimas dėl dirbtinio intelekto saugumo gairių

OpenAI ir Karo departamentas stiprina dirbtinio intelekto saugumą aiškiomis gairėmis

San Fransiskas, Kalifornija – 2026 m. kovo 3 d. – OpenAI paskelbė apie reikšmingą savo susitarimo su Karo departamentu (DoW) atnaujinimą, sustiprinantį griežtas saugumo gaires, susijusias su pažangių dirbtinio intelekto sistemų diegimu įslaptintose aplinkose. Šis istorinis bendradarbiavimas pabrėžia bendrą įsipareigojimą atsakingai naudoti dirbtinį intelektą, ypač jautriose nacionalinio saugumo srityse. Atnaujintas susitarimas, galutinai patvirtintas 2026 m. kovo 2 d., aiškiai draudžia JAV asmenų vidaus stebėjimą ir riboja dirbtinio intelekto naudojimą autonominėse ginklų sistemose, nustatydamas naują etiško dirbtinio intelekto integravimo gynyboje standartą.

Šio sustiprinto susitarimo esmė – aiškiai išdėstyti tai, kas anksčiau buvo suprantama, užtikrinant, kad neliktų dviprasmybių dėl etinių dirbtinio intelekto technologijos apribojimų. OpenAI pabrėžia, kad ši sistema sukurta siekiant suteikti JAV kariuomenei pažangiausius įrankius, griežtai laikantis privatumo ir saugumo principų.

Saugumo gairių persvarstymas įslaptintoms AI diegimo sistemoms

Siekdami spręsti galimas problemas, OpenAI ir Karo departamentas įtraukė papildomą nuostatą į savo susitarimą, konkrečiai paaiškinančią AI diegimo ribas. Ši nauja sąlyga nedviprasmiškai teigia, kad OpenAI įrankiai nebus naudojami JAV asmenų vidaus stebėjimui, įskaitant komerciškai gautos asmeninės informacijos įgijimą ar naudojimą. Be to, Karo departamentas patvirtino, kad jo žvalgybos agentūros, tokios kaip NSA, yra neįtrauktos į šį susitarimą ir bet kokiai paslaugai teikti reikėtų visiškai naujų sąlygų.

Atnaujintoje susitarimo kalboje išsamiai aprašoma:

  • "Atitinkant galiojančius įstatymus, įskaitant Ketvirtąją Jungtinių Valstijų Konstitucijos pataisą, 1947 m. Nacionalinio saugumo aktą, 1978 m. FISA aktą, dirbtinio intelekto sistema negali būti tyčia naudojama JAV asmenų ir piliečių vidaus stebėjimui."
  • "Siekiant išvengti abejonių, Departamentas supranta, kad šis apribojimas draudžia tyčinį JAV asmenų ar piliečių sekimą, stebėjimą ar monitoringą, įskaitant komerciškai įgytos asmeninės ar identifikuojamos informacijos pirkimą ar naudojimą."

Šis į ateitį orientuotas požiūris siekia sukurti aiškų kelią kitoms pažangioms AI laboratorijoms bendradarbiauti su Karo departamentu, skatinant bendradarbiavimą ir išlaikant nepajudinamą etikos standartus.

OpenAI pagrindiniai etikos stulpai: trys raudonos linijos

OpenAI veikia pagal tris pagrindines „raudonas linijas“, kurios reguliuoja jos bendradarbiavimą jautriose srityse, tokiose kaip nacionalinis saugumas. Šie principai, kuriuos plačiai dalijasi kitos pirmaujančios AI tyrimų institucijos, yra esminiai susitarimui su Karo departamentu:

  1. Jokio masinio vidaus stebėjimo: OpenAI technologija nebus naudojama plačiam JAV piliečių stebėjimui.
  2. Jokių autonominių ginklų sistemų: Technologija draudžiama valdyti autonominius ginklus be žmogaus kontrolės.
  3. Jokių didelės rizikos automatizuotų sprendimų: OpenAI įrankiai nebus naudojami kritiniams automatizuotiems sprendimams (pvz., 'socialinio kredito' sistemoms), kuriems reikalinga žmogaus priežiūra.

OpenAI teigia, kad jos daugiasluoksnė strategija suteikia tvirtesnę apsaugą nuo nepriimtino naudojimo, palyginti su metodais, kurie pirmiausia remiasi tik naudojimo politikomis. Šis griežtų techninių ir sutartinių apsaugos priemonių akcentavimas išskiria jos susitarimą besikeičiančioje gynybos AI aplinkoje.

Daugiasluoksnė apsauga: architektūra, sutartis ir žmogaus patirtis

OpenAI susitarimo su Karo departamentu stiprybė slypi jo visapusiškame, daugiasluoksniame apsaugos požiūryje. Tai apima:

  1. Diegimo architektūra: Susitarimas numato tik debesies diegimą, užtikrinant, kad OpenAI išlaikytų visišką savo saugumo paketo kontrolę ir neleistų diegti modelių be 'apsaugos gairių'. Ši architektūra iš esmės riboja naudojimo atvejus, tokius kaip autonominiai mirtini ginklai, kuriems paprastai reikalingas kraštinis diegimas. Įdiegti nepriklausomi patikrinimo mechanizmai, įskaitant klasifikatorius, siekiant užtikrinti, kad šios raudonos linijos nebūtų peržengtos.
  2. Tvirtos sutarties nuostatos: Sutartyje aiškiai aprašomi leistini naudojimo būdai, reikalaujantys laikytis 'visų teisėtų tikslų, atitinkančių taikomus įstatymus, veiklos reikalavimus ir nusistovėjusius saugumo bei priežiūros protokolus'. Jame konkrečiai minimi JAV įstatymai, tokie kaip Ketvirtoji pataisa, 1947 m. Nacionalinio saugumo aktas, 1978 m. FISA aktas ir DoD direktyva 3000.09. Svarbiausia, kad jame draudžiama savarankiškai valdyti autonominius ginklus ir neribotai stebėti JAV asmenų privačią informaciją.
  3. AI ekspertų įtraukimas: Patvirtinti OpenAI inžinieriai ir saugumo bei suderinamumo tyrėjai bus iš anksto dislokuoti ir 'dalyvaus procese'. Ši tiesioginė žmogaus priežiūra suteikia papildomą patikinimo sluoksnį, padedantį laikui bėgant tobulinti sistemas ir aktyviai tikrinti, ar laikomasi griežtų susitarimo sąlygų.

Šis integruotas požiūris užtikrina, kad technologinės, teisinės ir žmogiškosios apsaugos priemonės veiktų kartu, siekiant užkirsti kelią piktnaudžiavimui.

Raudonos linijos kategorijaOpenAI apsaugos priemonės
Masinis vidaus stebėjimasAiškus sutartinis draudimas, atitiktis Ketvirtajai pataisai, FISA, Nacionalinio saugumo aktui; NSA/žvalgybos agentūrų neįtraukimas į taikymo sritį; tik debesyje vykdomo diegimo duomenų prieigos apribojimai; OpenAI personalo dalyvavimas procese ir patikrinimas.
Autonominės ginklų sistemosTik debesyje vykdomas diegimas (jokio kraštinio diegimo mirtinai autonomijai); aiškus sutartinis draudimas savarankiškai valdyti autonominius ginklus; atitiktis DoD direktyvai 3000.09 patikrinimui/patvirtinimui; OpenAI personalo dalyvavimas procese priežiūrai.
Didelės rizikos automatizuoti sprendimaiAiškios sutarties nuostatos, reikalaujančios žmogaus patvirtinimo didelės rizikos sprendimams; OpenAI išlaiko visišką savo saugumo paketo kontrolę, užkertant kelią modeliams be 'apsaugos gairių'; OpenAI personalo dalyvavimas procese, siekiant užtikrinti žmogaus priežiūrą, kai priimami kritiniai sprendimai.

Rūpesčių sprendimas ir ateities AI bendradarbiavimo kūrimas

OpenAI pripažįsta neatsiejamą pažangaus dirbtinio intelekto riziką ir mano, kad glaudus vyriausybės ir AI laboratorijų bendradarbiavimas yra būtinas norint naviguoti ateityje. Bendradarbiavimas su Karo departamentu leidžia JAV kariuomenei gauti prieigą prie pažangiausių įrankių, tuo pačiu užtikrinant, kad šios technologijos būtų diegiamos atsakingai.

"Manome, kad JAV kariuomenei tikrai reikia stiprių AI modelių, kad palaikytų savo misiją, ypač didėjant grėsmėms iš potencialių priešininkų, kurie vis labiau integruoja AI technologijas į savo sistemas", – pareiškė OpenAI. Šis įsipareigojimas subalansuojamas nepajudinamu atsisakymu daryti kompromisus techniniams saugikliams dėl našumo, pabrėžiant, kad atsakingas požiūris yra svarbiausias.

Susitarimas taip pat siekia sumažinti įtampą ir skatinti platesnį bendradarbiavimą AI bendruomenėje. OpenAI paprašė, kad tos pačios apsaugos sąlygos būtų prieinamos visoms AI įmonėms, tikėdamasi palengvinti panašias atsakingas partnerystes visoje pramonėje. Tai yra dalis platesnės OpenAI strategijos, kaip rodo jos tęsiama partnerystė su Microsoft ir pastangos skalinti AI visiems.

Naujo standarto nustatymas gynybos AI bendradarbiavimui

OpenAI mano, kad jos susitarimas nustato aukštesnį standartą įslaptintiems AI diegimams, palyginti su ankstesniais susitarimais, įskaitant tuos, kuriuos aptarė kitos laboratorijos, tokios kaip Anthropic. Pasitikėjimas kyla iš įdiegtų pagrindinių apsaugos priemonių: tik debesyje vykdomo diegimo, kuris palaiko OpenAI saugos paketo vientisumą, aiškių sutartinių garantijų ir aktyvaus patvirtinto OpenAI personalo dalyvavimo.

Ši visapusiška sistema užtikrina, kad nustatytos raudonos linijos – masinio vidaus stebėjimo ir autonominių ginklų kontrolės prevencija – būtų tvirtai įgyvendinamos. Sutarties kalba, aiškiai nurodanti galiojančius įstatymus, užtikrina, kad net jei ateityje pasikeis politika, OpenAI sistemų naudojimas vis tiek turės atitikti pirminius, griežtesnius standartus. Šis proaktyvus požiūris pabrėžia OpenAI įsipareigojimą kurti ir diegti galingas AI technologijas taip, kad pirmenybė būtų teikiama saugumui, etikai ir demokratinėms vertybėms, net ir pačiuose reikliausiuose nacionalinio saugumo kontekstuose.

Dažniausiai užduodami klausimai

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Būkite informuoti

Gaukite naujausias AI naujienas el. paštu.

Dalintis