OpenAI ja Sõjaministeerium tugevdavad tehisintellekti ohutust selgesõnaliste piirangutega
San Francisco, CA – 3. märts 2026 – OpenAI on teatanud olulisest uuendusest oma lepingus Sõjaministeeriumiga (DoW), tugevdades rangeid ohutuspiirdeid arenenud tehisintellekti süsteemide juurutamisel salastatud keskkondades. See murranguline koostöö rõhutab jagatud pühendumust vastutustundlikule tehisintellekti kasutamisele, eriti tundlike riikliku julgeoleku rakenduste puhul. Uuendatud leping, mis vormistati 2. märtsil 2026, keelab selgesõnaliselt USA isikute siseriikliku jälgimise ja piirab tehisintellekti kasutamist autonoomsetes relvasüsteemides, seades uue etalonmärgi tehisintellekti eetilisele integreerimisele kaitsesektorisse.
Selle täiustatud lepingu tuum seisneb selles, et varasemalt mõistetud asjad on tehtud selgesõnaliseks, tagades tehisintellekti tehnoloogia eetiliste piirangute osas igasuguse mitmetähenduslikkuse puudumise. OpenAI rõhutab, et see raamistik on loodud pakkuma USA sõjaväele tipptasemel tööriistu, järgides samal ajal rangelt privaatsuse ja ohutuse põhimõtteid.
Salastatud tehisintellekti juurutamise kaitsemeetmete ümberdefineerimine
Proaktiivse sammuna potentsiaalsete murede lahendamiseks on OpenAI ja Sõjaministeerium lisanud oma lepingusse täiendava sõnastuse, selgitades spetsiifiliselt tehisintellekti juurutamise piire. See uus klausel sätestab üheselt, et OpenAI tööriistu ei kasutata USA isikute siseriiklikuks jälgimiseks, sealhulgas kaubanduslikult hangitud isikliku teabe omandamise või kasutamise kaudu. Lisaks on Kaitseministeerium kinnitanud, et selle luureagentuurid, nagu NSA, on sellest lepingust välja arvatud ja vajaksid mis tahes teenuse osutamiseks täiesti uusi tingimusi.
Uuendatud lepingukeel täpsustab:
- "Kooskõlas kehtivate seadustega, sealhulgas Ameerika Ühendriikide Konstitutsiooni neljanda muudatuse, 1947. aasta riikliku julgeoleku seaduse ja 1978. aasta FISA seadusega, ei tohi tehisintellekti süsteemi tahtlikult kasutada USA isikute ja kodanike siseriiklikuks jälgimiseks."
- "Kahtluste vältimiseks mõistab ministeerium, et see piirang keelab USA isikute või kodanike tahtliku jälgimise, seire või monitooringu, sealhulgas kaubanduslikult hangitud isikuandmete või tuvastatava teabe hankimise või kasutamise kaudu."
See ettenägelik lähenemine seab eesmärgiks luua selge tee teistele tipptasemel tehisintellekti laboritele Sõjaministeeriumiga suhtlemiseks, soodustades koostööd, säilitades samal ajal vankumatud eetilised standardid.
OpenAI peamised eetilised tugisambad: kolm punast joont
OpenAI tegutseb kolme põhilise "punase joone" alusel, mis reguleerivad selle koostööd tundlikes valdkondades, nagu riiklik julgeolek. Need põhimõtted, mida jagavad suures osas ka teised juhtivad tehisintellekti uurimisasutused, on Sõjaministeeriumiga sõlmitud lepingu keskmes:
- Massilise siseriikliku jälgimise keeld: OpenAI tehnoloogiat ei kasutata USA kodanike laialdaseks jälgimiseks.
- Autonoomsete relvasüsteemide keeld: Tehnoloogial on keelatud iseseisvalt juhtida autonoomseid relvi ilma inimkontrollita.
- Kõrge riskiga automatiseeritud otsuste keeld: OpenAI tööriistu ei kasutata kriitiliste automatiseeritud otsuste (nt "sotsiaalkrediidi" süsteemide) tegemiseks, mis nõuavad inimlikku järelevalvet.
OpenAI väidab, et selle mitmekihiline strateegia pakub tugevamat kaitset vastuvõetamatute kasutusviiside vastu võrreldes lähenemistega, mis toetuvad peamiselt ainult kasutuspoliitikatele. See rõhk rangetele tehnilistele ja lepingulistele kaitsemeetmetele eristab selle lepingut kaitse-tehisintellekti areneval maastikul.
Mitmekihiline kaitse: arhitektuur, leping ja inimkogemus
OpenAI lepingu tugevus Sõjaministeeriumiga seisneb selle põhjalikus, mitmekihilises kaitsestrateegias. See hõlmab:
- Juurutamise arhitektuur: Leping kohustab kasutama ainult pilvepõhist juurutamist, tagades, et OpenAI säilitab täieliku kontrolli oma ohutussüsteemi üle ja takistab "kaitsepiiretest väljas" mudelite juurutamist. See arhitektuur piirab olemuslikult kasutusjuhtumeid, nagu autonoomsed surmrelvad, mis tavaliselt nõuavad servasüsteemi juurutamist. Sõltumatud kontrollimehhanismid, sealhulgas klassifikaatorid, on olemas tagamaks, et neid punaseid jooni ei ületata.
- Tugev lepingukeel: Leping sätestab selgesõnaliselt lubatud kasutusviisid, nõudes järgimist "kõigile seaduslikele eesmärkidele, kooskõlas kehtivate õigusaktide, operatiivnõuete ning väljakujunenud ohutus- ja järelevalveprotokollidega". See viitab spetsiifiliselt USA seadustele nagu neljas muudatus, 1947. aasta riikliku julgeoleku seadus, 1978. aasta FISA seadus ja Kaitseministeeriumi direktiiv 3000.09. Oluline on märkida, et see keelab autonoomsete relvade iseseisva juhtimise ja USA isikute privaatse teabe piiramatu jälgimise.
- Tehisintellekti ekspertide kaasamine: Volitatud OpenAI insenerid ning ohutuse ja joondamise teadlased paigutatakse ette ja kaasatakse "protsessi". See otsene inimlik järelevalve pakub täiendavat kindlustust, aidates süsteeme aja jooksul paremaks muuta ja aktiivselt kontrollides lepingu rangete tingimuste järgimist.
See integreeritud lähenemine tagab, et tehnoloogilised, õiguslikud ja inimlikud kaitsemeetmed töötavad ühiselt väärkasutuse vältimiseks.
| Punase joone kategooria | OpenAI kaitsemeetmed |
|---|---|
| Massiline siseriiklik jälgimine | Selgesõnaline lepinguline keeld, kooskõla neljanda muudatuse, FISA, riikliku julgeoleku seadusega; NSA/luureagentuuride väljajätmine ulatusest; ainult pilvepõhine juurutamine piirab andmetele juurdepääsu; OpenAI personali protsessisisene kontroll. |
| Autonoomsed relvasüsteemid | Ainult pilvepõhine juurutamine (surmava autonoomia puhul servasüsteemide juurutamist ei toimu); selgesõnaline lepinguline keeld autonoomsete relvade iseseisva juhtimise vastu; Kaitseministeeriumi direktiivi 3000.09 järgimine verifitseerimiseks/valideerimiseks; OpenAI personali kaasamine järelevalveks. |
| Kõrge riskiga automatiseeritud otsused | Selgesõnaline lepingukeel, mis nõuab inimliku heakskiitu kõrgete panustega otsuste puhul; OpenAI säilitab täieliku kontrolli oma ohutussüsteemi üle, vältides "kaitsepiiretest väljas" mudeleid; OpenAI personali kaasamine tagamaks inimliku järelevalve säilimist kriitiliste otsuste puhul. |
Murede lahendamine ja tulevase tehisintellekti koostöö edendamine
OpenAI tunnistab arenenud tehisintellekti olemuslikke riske ja peab valitsuse ja tehisintellekti laborite vahelist sügavat koostööd tuleviku navigeerimiseks hädavajalikuks. Koostöö Sõjaministeeriumiga võimaldab USA sõjaväel pääseda ligi tipptasemel tööriistadele, tagades samal ajal, et neid tehnoloogiaid juurutatakse vastutustundlikult.
"Me arvame, et USA sõjavägi vajab oma missiooni toetamiseks tingimata tugevaid tehisintellekti mudeleid, eriti arvestades kasvavaid ohte potentsiaalsetelt vastastelt, kes integreerivad üha enam tehisintellekti tehnoloogiaid oma süsteemidesse," ütles OpenAI. See pühendumus on tasakaalustatud vankumatu keeldumisega teha kompromisse tehniliste kaitsemeetmete osas jõudluse nimel, rõhutades, et vastutustundlik lähenemine on esmatähtis.
Lepinguga püütakse samuti leevendada pingeid ja edendada laiemat koostööd tehisintellekti kogukonnas. OpenAI on palunud, et samad kaitsvad tingimused tehtaks kättesaadavaks kõigile tehisintellekti ettevõtetele, lootes hõlbustada sarnaseid vastutustundlikke partnerlusi kogu tööstuses. See on osa OpenAI laiemast strateegiast, mida näitavad selle jätkuv koostöö Microsoftiga ja püüdlused tehisintellekti skaleerimiseks kõigile.
Uue standardi kehtestamine kaitse-tehisintellekti kaasamiseks
OpenAI usub, et nende leping seab salastatud tehisintellekti juurutamisel kõrgema standardi võrreldes varasemate kokkulepetega, sealhulgas nende, mida on arutanud teised laborid nagu Anthropic. Usaldus tuleneb sisseehitatud põhikaitsemeetmetest: ainult pilvepõhine juurutamine, mis säilitab OpenAI ohutussüsteemi terviklikkuse, selgesõnalised lepingulised tagatised ja volitatud OpenAI personali aktiivne kaasamine.
See terviklik raamistik tagab, et kindlaksmääratud punased jooned – massilise siseriikliku jälgimise ja autonoomsete relvade kontrolli vältimine – on jõuliselt täidetud. Lepingukeel, mis viitab selgesõnaliselt kehtivatele seadustele, tagab, et isegi kui poliitika tulevikus muutub, peab OpenAI süsteemide kasutamine endiselt vastama algsetele, rangematele standarditele. See proaktiivne hoiak rõhutab OpenAI pühendumust võimsate tehisintellekti tehnoloogiate arendamisele ja juurutamisele viisil, mis seab esikohale ohutuse, eetika ja demokraatlikud väärtused, isegi kõige nõudlikumates riikliku julgeoleku kontekstides.
Korduma kippuvad küsimused
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
Püsige kursis
Saage värskeimad AI uudised oma postkasti.
