Code Velocity
AI drošība

OpenAI Kara departamenta nolīgums: nodrošināt AI drošības aizsardzības barjeras

·7 min lasīšana·OpenAI·Sākotnējais avots
Dalīties
OpenAI un Kara departamenta nolīgums par AI drošības aizsardzības barjerām

title: "OpenAI Kara departamenta nolīgums: nodrošināt AI drošības aizsardzības barjeras" slug: "our-agreement-with-the-department-of-war" date: "2026-03-03" lang: "lv" source: "https://openai.com/index/our-agreement-with-the-department-of-war/" category: "AI drošība" keywords:

  • OpenAI
  • Kara departaments
  • AI ētika
  • nacionālā drošība
  • AI novērošana
  • autonomie ieroči
  • AI aizsardzības barjeras
  • klasificēts AI
  • aizsardzības līgumi
  • AI politika
  • ASV militārpersonas
  • mākoņizvietošana meta_description: "OpenAI detalizē savu vēsturisko nolīgumu ar Kara departamentu, nosakot stingras AI drošības aizsardzības barjeras pret vietējo novērošanu un autonomajiem ieročiem, tādējādi nosakot jaunu standartu aizsardzības tehnoloģijām." image: "/images/articles/our-agreement-with-the-department-of-war.png" image_alt: "OpenAI un Kara departamenta nolīgums par AI drošības aizsardzības barjerām" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • OpenAI schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Kāpēc OpenAI sadarbojās ar Kara departamentu?" answer: "OpenAI sadarbojās, lai aprīkotu ASV militāristus ar progresīvām AI spējām, atzīstot potenciālo pretinieku pieaugošo AI integrāciju. Šī partnerība ir atkarīga no stingru drošības pasākumu izveides, kurus OpenAI rūpīgi izstrādāja, lai nodrošinātu atbildīgu ieviešanu klasificētā vidē. Mērķis ir nodrošināt jaunākos rīkus, vienlaikus ievērojot stingrus ētiskos principus, demonstrējot, ka sarežģītu AI var izmantot nacionālajai drošībai, neapdraudot pamata drošības un privātuma standartus. Turklāt OpenAI mērķis bija mazināt spriedzi starp Aizsardzības departamentu un AI laboratorijām, iestājoties par plašāku piekļuvi šiem rūpīgi strukturētajiem noteikumiem citiem uzņēmumiem."
  • question: "Kādi konkrēti drošības pasākumi ir ieviesti, lai novērstu vietējo novērošanu?" answer: "Nolīgums nepārprotami aizliedz tīšu OpenAI AI sistēmu izmantošanu ASV personu vai pilsoņu vietējai novērošanai, saskaņā ar Ceturto grozījumu, 1947. gada Nacionālās drošības aktu un 1978. gada FISA aktu. Tas ietver stingru aizliegumu tīšai izsekošanai, uzraudzībai vai komerciāli iegūtas personiskās vai identificējamās informācijas izmantošanai šādiem mērķiem. Svarīgi, ka Kara departaments apstiprināja, ka izlūkošanas aģentūrām, piemēram, NSA, jebkuram pakalpojumam būtu nepieciešams atsevišķs nolīgums, tādējādi stiprinot šos ierobežojumus un nodrošinot vairākus juridiskos un līgumiskos aizsardzības slāņus pret ļaunprātīgu izmantošanu."
  • question: "Kā šis nolīgums novērš OpenAI modeļu izmantošanu autonomiem ieročiem?" answer: "Novēršana ir daudzpusīga. Pirmkārt, izvietošanas arhitektūra ir tikai mākoņizvietošanas veids, kas nozīmē, ka modeļus nevar izvietot 'malas ierīcēs', kas ir kritiski svarīgas autonomiem nāvējošiem ieročiem. Otrkārt, līguma teksts īpaši nosaka, ka AI sistēma netiks izmantota, lai patstāvīgi vadītu autonomus ieročus, kur ir nepieciešama cilvēka kontrole. Tas arī nosaka stingru verifikāciju, validāciju un testēšanu saskaņā ar Aizsardzības departamenta direktīvu 3000.09. Visbeidzot, pilnvaroti OpenAI darbinieki, tostarp drošības un saskaņošanas pētnieki, paliek procesā, nodrošinot papildu cilvēka uzraudzības slāni un pārliecību, ka šīs stingrās sarkanās līnijas netiek pārkāptas."
  • question: "Kas padara OpenAI nolīgumu atšķirīgu vai spēcīgāku par citiem, piemēram, Anthropic?" answer: "OpenAI uzskata, ka tās nolīgums piedāvā spēcīgākas garantijas un drošības pasākumus, pateicoties tā daudzslāņu pieejai. Atšķirībā no dažiem citiem nolīgumiem, kas var paļauties tikai uz lietošanas politikām, OpenAI līgums nodrošina, ka tā patentētā drošības pakete paliek pilnībā darboties spējīga un tās kontrolē. Mākoņizvietošanas arhitektūra pēc būtības ierobežo noteiktas augsta riska lietojumprogrammas, piemēram, pilnībā autonomus ieročus, kuri parasti prasa malas izvietošanu. Turklāt nepārtraukta pilnvarotu OpenAI darbinieku iesaistīšanās nodrošina aktīvu cilvēka uzraudzību un verifikāciju, radot stingrāku ietvaru pret nepieņemamu izmantošanu, kas, pēc viņu domām, pārspēj iepriekšējos nolīgumus."
  • question: "Kāda ir OpenAI darbinieku loma atbilstības nodrošināšanā?" answer: "Pilnvaroti OpenAI darbinieki, tostarp uz priekšu izvietoti inženieri un drošības un saskaņošanas pētnieki, spēlē kritisku 'procesā iesaistītā' lomu. Viņi palīdz valdībai atbildīgi integrēt tehnoloģiju, vienlaikus aktīvi uzraugot noteikto sarkano līniju ievērošanu. Šī tiešā iesaistīšanās ļauj OpenAI neatkarīgi pārbaudīt, vai sistēma netiek izmantota aizliegtām darbībām, piemēram, vietējai novērošanai vai autonomu ieroču kontrolei. Viņu pastāvīgā klātbūtne nodrošina drošības aizsardzības barjeru uzturēšanu, un modeļi tiek nepārtraukti uzlaboti, drošībai un saskaņošanai esot galvenajām prioritātēm, nodrošinot papildu tehnisko un ētisko garantiju slāni."
  • question: "Kas notiek, ja Kara departaments pārkāpj nolīgumu?" answer: "Pārkāpuma gadījumā, tāpat kā jebkurā līgumiskā vienošanās, OpenAI patur tiesības izbeigt līgumu. Tas kalpo kā būtisks atturēšanas līdzeklis, nodrošinot, ka Kara departaments stingri ievēro saskaņotos noteikumus un nosacījumus. Izbeigšanas klauzula uzsver drošības aizsardzības barjeru un sarkano līniju nopietnību, kas noteiktas nolīgumā, demonstrējot OpenAI apņemšanos ievērot savus ētiskos principus pat augsta riska nacionālās drošības kontekstos. Lai gan OpenAI neparedz šādu pārkāpumu, līgumiskā noteikums nodrošina skaidru tiesiskās aizsardzības līdzekli."
  • question: "Vai turpmākās izmaiņas likumos vai politikā ietekmēs nolīguma aizsardzību?" answer: "Nē, nolīgums ir izstrādāts tā, lai būtu noturīgs pret turpmākām izmaiņām likumos vai politikā. Tas nepārprotami atsaucas uz pašreizējiem novērošanas un autonomo ieroču likumiem un politikām, piemēram, Ceturto grozījumu, Nacionālās drošības aktu, FISA aktu un Aizsardzības departamenta direktīvu 3000.09, kādas tās pastāv šodien. Tas nozīmē, ka pat tad, ja šie likumi vai politikas tiktu mainīti nākotnē, OpenAI sistēmu izmantošanai saskaņā ar šo līgumu joprojām ir jāatbilst stingrajiem standartiem, kas atspoguļoti sākotnējā nolīgumā. Šī nākotnes perspektīvā vērstā klauzula nodrošina spēcīgu, ilgstošu aizsardzības slāni pret iespējamu drošības pasākumu eroziju."

OpenAI un Kara departaments nostiprina AI drošību ar skaidrām aizsardzības barjerām

Sanfrancisko, CA – 2026. gada 3. marts – OpenAI ir paziņojis par būtisku atjauninājumu savā nolīgumā ar Kara departamentu (DoW), pastiprinot stingras drošības aizsardzības barjeras, kas saistītas ar progresīvu AI sistēmu izvietošanu klasificētā vidē. Šī vēsturiskā sadarbība apliecina kopīgu apņemšanos atbildīgi izmantot AI, īpaši attiecībā uz jutīgām nacionālās drošības lietojumprogrammām. Atjauninātais nolīgums, kas tika pabeigts 2026. gada 2. martā, nepārprotami aizliedz ASV personu vietējo novērošanu un ierobežo AI izmantošanu autonomu ieroču sistēmās, nosakot jaunu etalonu mākslīgā intelekta ētiskajai integrācijai aizsardzībā.

Šī uzlabotā nolīguma būtība ir padarīt skaidru to, kas iepriekš tika saprasts, nodrošinot, ka nav nekādu neskaidrību par AI tehnoloģijas ētiskajiem ierobežojumiem. OpenAI uzsver, ka šis ietvars ir izstrādāts, lai nodrošinātu ASV militāristiem jaunākos rīkus, vienlaikus stingri ievērojot privātuma un drošības principus.

AI drošības pasākumu pārdefinēšana klasificētām izvietošanām

Proaktīvi reaģējot uz iespējamām bažām, OpenAI un Kara departaments ir iekļāvuši papildu formulējumus savā nolīgumā, īpaši precizējot AI izvietošanas robežas. Šī jaunā klauzula nepārprotami nosaka, ka OpenAI rīki netiks izmantoti ASV personu vietējai novērošanai, tostarp, iegūstot vai izmantojot komerciāli iegūtu personisko informāciju. Turklāt DoW ir apstiprinājis, ka tā izlūkošanas aģentūras, piemēram, NSA, ir izslēgtas no šī nolīguma un jebkuram pakalpojumam būtu nepieciešami pilnīgi jauni noteikumi.

Atjauninātā nolīguma valoda detalizē:

  • Saskaņā ar piemērojamiem likumiem, tostarp Amerikas Savienoto Valstu Konstitūcijas Ceturto grozījumu, 1947. gada Nacionālās drošības aktu, 1978. gada FISA aktu, AI sistēma netiks tīši izmantota ASV personu un pilsoņu vietējai novērošanai.
  • Lai novērstu šaubas, Departaments saprot, ka šis ierobežojums aizliedz tīšu ASV personu vai pilsoņu izsekošanu, novērošanu vai uzraudzību, tostarp, iegūstot vai izmantojot komerciāli iegūtu personisko vai identificējamo informāciju.

Šī uz nākotni vērstā pieeja ir paredzēta, lai izveidotu skaidru ceļu citiem progresīviem AI laboratorijām sadarbībai ar Kara departamentu, veicinot sadarbību, vienlaikus saglabājot nemainīgus ētiskos standartus.

OpenAI galvenie ētikas pīlāri: trīs sarkanās līnijas

OpenAI darbojas saskaņā ar trim fundamentālām "sarkanajām līnijām", kas regulē tās sadarbību jutīgās jomās, piemēram, nacionālās drošības jomā. Šie principi, ko lielā mērā atbalsta citas vadošās AI pētniecības iestādes, ir centrālie nolīgumā ar Kara departamentu:

  1. Bez masveida vietējās novērošanas: OpenAI tehnoloģija netiks izmantota ASV pilsoņu plašai uzraudzībai.
  2. Bez autonomiem ieroču sistēmām: Tehnoloģija ir aizliegta autonomu ieroču vadīšanai bez cilvēka kontroles.
  3. Bez augsta riska automatizētiem lēmumiem: OpenAI rīki netiks izmantoti kritisku automatizētu lēmumu pieņemšanai (piemēram, 'sociālā kredīta' sistēmas), kam nepieciešama cilvēka uzraudzība.

OpenAI apgalvo, ka tās daudzslāņu stratēģija nodrošina spēcīgāku aizsardzību pret nepieņemamu izmantošanu, salīdzinot ar pieejām, kas galvenokārt balstās tikai uz lietošanas politikām. Šis uzsvars uz stingriem tehniskiem un līgumiskiem drošības pasākumiem atšķir tās nolīgumu aizsardzības AI mainīgajā ainavā.

Daudzslāņu aizsardzība: arhitektūra, līgums un cilvēka pieredze

OpenAI nolīguma ar Kara departamentu spēks slēpjas tā visaptverošajā, daudzslāņu pieejā aizsardzībai. Tas ietver:

  1. Izvietošanas arhitektūra: Nolīgums paredz tikai mākoņizvietošanu, nodrošinot, ka OpenAI saglabā pilnīgu rīcības brīvību attiecībā uz savu drošības paketi un novērš 'aizsardzības barjeru izslēgšanas' modeļu izvietošanu. Šī arhitektūra pēc būtības ierobežo tādus lietošanas gadījumus kā autonomi nāvējoši ieroči, kuri parasti prasa malas izvietošanu. Ir ieviesti neatkarīgi pārbaudes mehānismi, tostarp klasifikatori, lai nodrošinātu, ka šīs sarkanās līnijas netiek pārkāptas.
  2. Stingra līgumiskā valoda: Līgumā ir skaidri detalizētas atļautās lietošanas veidi, pieprasot ievērot 'visus likumīgos mērķus, saskaņā ar piemērojamiem tiesību aktiem, operatīvajām prasībām un labi izveidotajiem drošības un uzraudzības protokoliem.' Tas īpaši atsaucas uz ASV likumiem, piemēram, Ceturto grozījumu, 1947. gada Nacionālās drošības aktu, 1978. gada FISA aktu un Aizsardzības departamenta direktīvu 3000.09. Svarīgi, ka tas aizliedz autonomu ieroču neatkarīgu vadību un neierobežotu ASV personu privātās informācijas uzraudzību.
  3. AI ekspertu iesaistīšanās: Pilnvaroti OpenAI inženieri un drošības un saskaņošanas pētnieki tiks izvietoti priekšplānā un 'procesā iesaistīti'. Šī tiešā cilvēka uzraudzība nodrošina papildu garantiju slāni, palīdzot laika gaitā uzlabot sistēmas un aktīvi pārbaudot atbilstību nolīguma stingriem noteikumiem.

Šī integrētā pieeja nodrošina, ka tehnoloģiskie, juridiskie un cilvēku drošības pasākumi darbojas saskaņoti, lai novērstu ļaunprātīgu izmantošanu.

Sarkano līniju kategorijaOpenAI aizsardzības pasākumi
Masveida vietējā novērošanaSkaidrs līgumisks aizliegums, saskaņošana ar Ceturto grozījumu, FISA, Nacionālās drošības aktu; NSA/izlūkošanas aģentūru izslēgšana no darbības jomas; tikai mākoņizvietošanas ierobežojumi datu piekļuvei; OpenAI darbinieku pārbaude procesā.
Autonomie ieroču sistēmasTikai mākoņizvietošana (bez malas izvietošanas nāvējošai autonomijai); skaidrs līgumisks aizliegums pret autonomu ieroču neatkarīgu vadību; atbilstība Aizsardzības departamenta direktīvai 3000.09 verifikācijai/validācijai; OpenAI darbinieku iesaistīšanās uzraudzībai.
Augsta riska automatizēti lēmumiSkaidra līgumiska valoda, kas pieprasa cilvēka apstiprinājumu augsta riska lēmumiem; OpenAI saglabā pilnīgu kontroli pār savu drošības paketi, novēršot 'aizsardzības barjeru izslēgšanas' modeļus; OpenAI darbinieku iesaistīšanās, lai nodrošinātu cilvēka uzraudzības saglabāšanu, ja ir iesaistīti kritiski lēmumi.

Bažu risināšana un nākotnes AI sadarbības veidošana

OpenAI atzīst progresīvā AI neatņemamos riskus un uzskata, ka cieša sadarbība starp valdību un AI laboratorijām ir būtiska nākotnes virzībai. Sadarbība ar Kara departamentu ļauj ASV militāristiem piekļūt jaunākajiem rīkiem, vienlaikus nodrošinot, ka šīs tehnoloģijas tiek izvietotas atbildīgi.

Mēs domājam, ka ASV militāristiem ir absolūti nepieciešami spēcīgi AI modeļi, lai atbalstītu savu misiju, īpaši, ņemot vērā pieaugošos draudus no potenciālajiem pretiniekiem, kuri arvien vairāk integrē AI tehnoloģijas savās sistēmās,' paziņoja OpenAI. Šī apņemšanās ir līdzsvarota ar nelokāmu atteikumu kompromitēt tehniskos drošības pasākumus veiktspējas dēļ, uzsverot, ka atbildīga pieeja ir vissvarīgākā."

Nolīguma mērķis ir arī mazināt spriedzi un veicināt plašāku sadarbību AI kopienā. OpenAI ir pieprasījis, lai tie paši aizsardzības noteikumi būtu pieejami visiem AI uzņēmumiem, cerot veicināt līdzīgas atbildīgas partnerības visā nozarē. Tas ir daļa no OpenAI plašākas stratēģijas, kā to demonstrē tā turpinošā Microsoft partnerība un centieni paplašināt AI visiem.

Jauna standarta noteikšana aizsardzības AI sadarbībai

OpenAI uzskata, ka tās nolīgums nosaka augstāku standartu klasificētām AI izvietošanām salīdzinājumā ar iepriekšējiem pasākumiem, tostarp tiem, ko apsprieda citas laboratorijas, piemēram, Anthropic. Pārliecība izriet no iestrādātajiem pamata aizsardzības pasākumiem: tikai mākoņizvietošana, kas saglabā OpenAI drošības paketes integritāti, skaidras līgumiskās garantijas un aktīva pilnvarotu OpenAI darbinieku iesaistīšanās.

Šis visaptverošais ietvars nodrošina, ka noteiktās sarkanās līnijas — masveida vietējās novērošanas un autonomu ieroču kontroles novēršana — tiek stingri ievērotas. Līgumiskā valoda, kas nepārprotami atsaucas uz spēkā esošajiem likumiem, nodrošina, ka pat tad, ja politikas nākotnē mainās, OpenAI sistēmu izmantošanai joprojām ir jāatbilst sākotnējiem, stingrākiem standartiem. Šī proaktīvā nostāja uzsver OpenAI apņemšanos izstrādāt un izvietot jaudīgas AI tehnoloģijas tā, lai prioritāte būtu drošība, ētika un demokrātiskās vērtības, pat visprasīgākajos nacionālās drošības kontekstos.

Bieži uzdotie jautājumi

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Esiet informēti

Saņemiet jaunākās AI ziņas savā e-pastā.

Dalīties