OpenAI ir Karo departamentas stiprina dirbtinio intelekto saugumą aiškiomis gairėmis
San Fransiskas, Kalifornija – 2026 m. kovo 3 d. – OpenAI paskelbė apie reikšmingą savo susitarimo su Karo departamentu (DoW) atnaujinimą, sustiprinantį griežtas saugumo gaires, susijusias su pažangių dirbtinio intelekto sistemų diegimu įslaptintose aplinkose. Šis istorinis bendradarbiavimas pabrėžia bendrą įsipareigojimą atsakingai naudoti dirbtinį intelektą, ypač jautriose nacionalinio saugumo srityse. Atnaujintas susitarimas, galutinai patvirtintas 2026 m. kovo 2 d., aiškiai draudžia JAV asmenų vidaus stebėjimą ir riboja dirbtinio intelekto naudojimą autonominėse ginklų sistemose, nustatydamas naują etiško dirbtinio intelekto integravimo gynyboje standartą.
Šio sustiprinto susitarimo esmė – aiškiai išdėstyti tai, kas anksčiau buvo suprantama, užtikrinant, kad neliktų dviprasmybių dėl etinių dirbtinio intelekto technologijos apribojimų. OpenAI pabrėžia, kad ši sistema sukurta siekiant suteikti JAV kariuomenei pažangiausius įrankius, griežtai laikantis privatumo ir saugumo principų.
Saugumo gairių persvarstymas įslaptintoms AI diegimo sistemoms
Siekdami spręsti galimas problemas, OpenAI ir Karo departamentas įtraukė papildomą nuostatą į savo susitarimą, konkrečiai paaiškinančią AI diegimo ribas. Ši nauja sąlyga nedviprasmiškai teigia, kad OpenAI įrankiai nebus naudojami JAV asmenų vidaus stebėjimui, įskaitant komerciškai gautos asmeninės informacijos įgijimą ar naudojimą. Be to, Karo departamentas patvirtino, kad jo žvalgybos agentūros, tokios kaip NSA, yra neįtrauktos į šį susitarimą ir bet kokiai paslaugai teikti reikėtų visiškai naujų sąlygų.
Atnaujintoje susitarimo kalboje išsamiai aprašoma:
- "Atitinkant galiojančius įstatymus, įskaitant Ketvirtąją Jungtinių Valstijų Konstitucijos pataisą, 1947 m. Nacionalinio saugumo aktą, 1978 m. FISA aktą, dirbtinio intelekto sistema negali būti tyčia naudojama JAV asmenų ir piliečių vidaus stebėjimui."
- "Siekiant išvengti abejonių, Departamentas supranta, kad šis apribojimas draudžia tyčinį JAV asmenų ar piliečių sekimą, stebėjimą ar monitoringą, įskaitant komerciškai įgytos asmeninės ar identifikuojamos informacijos pirkimą ar naudojimą."
Šis į ateitį orientuotas požiūris siekia sukurti aiškų kelią kitoms pažangioms AI laboratorijoms bendradarbiauti su Karo departamentu, skatinant bendradarbiavimą ir išlaikant nepajudinamą etikos standartus.
OpenAI pagrindiniai etikos stulpai: trys raudonos linijos
OpenAI veikia pagal tris pagrindines „raudonas linijas“, kurios reguliuoja jos bendradarbiavimą jautriose srityse, tokiose kaip nacionalinis saugumas. Šie principai, kuriuos plačiai dalijasi kitos pirmaujančios AI tyrimų institucijos, yra esminiai susitarimui su Karo departamentu:
- Jokio masinio vidaus stebėjimo: OpenAI technologija nebus naudojama plačiam JAV piliečių stebėjimui.
- Jokių autonominių ginklų sistemų: Technologija draudžiama valdyti autonominius ginklus be žmogaus kontrolės.
- Jokių didelės rizikos automatizuotų sprendimų: OpenAI įrankiai nebus naudojami kritiniams automatizuotiems sprendimams (pvz., 'socialinio kredito' sistemoms), kuriems reikalinga žmogaus priežiūra.
OpenAI teigia, kad jos daugiasluoksnė strategija suteikia tvirtesnę apsaugą nuo nepriimtino naudojimo, palyginti su metodais, kurie pirmiausia remiasi tik naudojimo politikomis. Šis griežtų techninių ir sutartinių apsaugos priemonių akcentavimas išskiria jos susitarimą besikeičiančioje gynybos AI aplinkoje.
Daugiasluoksnė apsauga: architektūra, sutartis ir žmogaus patirtis
OpenAI susitarimo su Karo departamentu stiprybė slypi jo visapusiškame, daugiasluoksniame apsaugos požiūryje. Tai apima:
- Diegimo architektūra: Susitarimas numato tik debesies diegimą, užtikrinant, kad OpenAI išlaikytų visišką savo saugumo paketo kontrolę ir neleistų diegti modelių be 'apsaugos gairių'. Ši architektūra iš esmės riboja naudojimo atvejus, tokius kaip autonominiai mirtini ginklai, kuriems paprastai reikalingas kraštinis diegimas. Įdiegti nepriklausomi patikrinimo mechanizmai, įskaitant klasifikatorius, siekiant užtikrinti, kad šios raudonos linijos nebūtų peržengtos.
- Tvirtos sutarties nuostatos: Sutartyje aiškiai aprašomi leistini naudojimo būdai, reikalaujantys laikytis 'visų teisėtų tikslų, atitinkančių taikomus įstatymus, veiklos reikalavimus ir nusistovėjusius saugumo bei priežiūros protokolus'. Jame konkrečiai minimi JAV įstatymai, tokie kaip Ketvirtoji pataisa, 1947 m. Nacionalinio saugumo aktas, 1978 m. FISA aktas ir DoD direktyva 3000.09. Svarbiausia, kad jame draudžiama savarankiškai valdyti autonominius ginklus ir neribotai stebėti JAV asmenų privačią informaciją.
- AI ekspertų įtraukimas: Patvirtinti OpenAI inžinieriai ir saugumo bei suderinamumo tyrėjai bus iš anksto dislokuoti ir 'dalyvaus procese'. Ši tiesioginė žmogaus priežiūra suteikia papildomą patikinimo sluoksnį, padedantį laikui bėgant tobulinti sistemas ir aktyviai tikrinti, ar laikomasi griežtų susitarimo sąlygų.
Šis integruotas požiūris užtikrina, kad technologinės, teisinės ir žmogiškosios apsaugos priemonės veiktų kartu, siekiant užkirsti kelią piktnaudžiavimui.
| Raudonos linijos kategorija | OpenAI apsaugos priemonės |
|---|---|
| Masinis vidaus stebėjimas | Aiškus sutartinis draudimas, atitiktis Ketvirtajai pataisai, FISA, Nacionalinio saugumo aktui; NSA/žvalgybos agentūrų neįtraukimas į taikymo sritį; tik debesyje vykdomo diegimo duomenų prieigos apribojimai; OpenAI personalo dalyvavimas procese ir patikrinimas. |
| Autonominės ginklų sistemos | Tik debesyje vykdomas diegimas (jokio kraštinio diegimo mirtinai autonomijai); aiškus sutartinis draudimas savarankiškai valdyti autonominius ginklus; atitiktis DoD direktyvai 3000.09 patikrinimui/patvirtinimui; OpenAI personalo dalyvavimas procese priežiūrai. |
| Didelės rizikos automatizuoti sprendimai | Aiškios sutarties nuostatos, reikalaujančios žmogaus patvirtinimo didelės rizikos sprendimams; OpenAI išlaiko visišką savo saugumo paketo kontrolę, užkertant kelią modeliams be 'apsaugos gairių'; OpenAI personalo dalyvavimas procese, siekiant užtikrinti žmogaus priežiūrą, kai priimami kritiniai sprendimai. |
Rūpesčių sprendimas ir ateities AI bendradarbiavimo kūrimas
OpenAI pripažįsta neatsiejamą pažangaus dirbtinio intelekto riziką ir mano, kad glaudus vyriausybės ir AI laboratorijų bendradarbiavimas yra būtinas norint naviguoti ateityje. Bendradarbiavimas su Karo departamentu leidžia JAV kariuomenei gauti prieigą prie pažangiausių įrankių, tuo pačiu užtikrinant, kad šios technologijos būtų diegiamos atsakingai.
"Manome, kad JAV kariuomenei tikrai reikia stiprių AI modelių, kad palaikytų savo misiją, ypač didėjant grėsmėms iš potencialių priešininkų, kurie vis labiau integruoja AI technologijas į savo sistemas", – pareiškė OpenAI. Šis įsipareigojimas subalansuojamas nepajudinamu atsisakymu daryti kompromisus techniniams saugikliams dėl našumo, pabrėžiant, kad atsakingas požiūris yra svarbiausias.
Susitarimas taip pat siekia sumažinti įtampą ir skatinti platesnį bendradarbiavimą AI bendruomenėje. OpenAI paprašė, kad tos pačios apsaugos sąlygos būtų prieinamos visoms AI įmonėms, tikėdamasi palengvinti panašias atsakingas partnerystes visoje pramonėje. Tai yra dalis platesnės OpenAI strategijos, kaip rodo jos tęsiama partnerystė su Microsoft ir pastangos skalinti AI visiems.
Naujo standarto nustatymas gynybos AI bendradarbiavimui
OpenAI mano, kad jos susitarimas nustato aukštesnį standartą įslaptintiems AI diegimams, palyginti su ankstesniais susitarimais, įskaitant tuos, kuriuos aptarė kitos laboratorijos, tokios kaip Anthropic. Pasitikėjimas kyla iš įdiegtų pagrindinių apsaugos priemonių: tik debesyje vykdomo diegimo, kuris palaiko OpenAI saugos paketo vientisumą, aiškių sutartinių garantijų ir aktyvaus patvirtinto OpenAI personalo dalyvavimo.
Ši visapusiška sistema užtikrina, kad nustatytos raudonos linijos – masinio vidaus stebėjimo ir autonominių ginklų kontrolės prevencija – būtų tvirtai įgyvendinamos. Sutarties kalba, aiškiai nurodanti galiojančius įstatymus, užtikrina, kad net jei ateityje pasikeis politika, OpenAI sistemų naudojimas vis tiek turės atitikti pirminius, griežtesnius standartus. Šis proaktyvus požiūris pabrėžia OpenAI įsipareigojimą kurti ir diegti galingas AI technologijas taip, kad pirmenybė būtų teikiama saugumui, etikai ir demokratinėms vertybėms, net ir pačiuose reikliausiuose nacionalinio saugumo kontekstuose.
Originalus šaltinis
https://openai.com/index/our-agreement-with-the-department-of-war/Dažniausiai užduodami klausimai
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
Būkite informuoti
Gaukite naujausias AI naujienas el. paštu.
