title: "OpenAI sporazum sa Ministarstvom rata: Osiguravanje sigurnosnih mehanizama veštačke inteligencije" slug: "our-agreement-with-the-department-of-war" date: "2026-03-03" lang: "sr" source: "https://openai.com/index/our-agreement-with-the-department-of-war/" category: "Sigurnost veštačke inteligencije" keywords:
- OpenAI
- Ministarstvo rata
- etika veštačke inteligencije
- nacionalna bezbednost
- nadzor veštačke inteligencije
- autonomno oružje
- sigurnosni mehanizmi AI
- klasifikovana veštačka inteligencija
- odbrambeni ugovori
- AI politika
- američka vojska
- primena u oblaku meta_description: "OpenAI detaljno opisuje svoj značajan sporazum sa Ministarstvom rata, uspostavljajući robusne sigurnosne mehanizme veštačke inteligencije protiv domaćeg nadzora i autonomnog oružja, postavljajući novi standard za odbrambenu tehnologiju." image: "/images/articles/our-agreement-with-the-department-of-war.png" image_alt: "OpenAI i sporazum Ministarstva rata o sigurnosnim mehanizmima veštačke inteligencije" quality_score: 94 content_score: 93 seo_score: 95 companies:
- OpenAI schema_type: "NewsArticle" reading_time: 7 faq:
- question: "Zašto se OpenAI angažovao sa Ministarstvom rata?" answer: "OpenAI se angažovao kako bi opremio američku vojsku naprednim mogućnostima veštačke inteligencije, prepoznajući sve veću integraciju AI od strane potencijalnih protivnika. Ovo partnerstvo je uslovljeno uspostavljanjem robusnih zaštitnih mera, koje je OpenAI pedantno razvio kako bi obezbedio odgovorno postavljanje u klasifikovanim okruženjima. Cilj je pružanje najsavremenijih alata uz poštovanje strogih etičkih principa, demonstrirajući da sofisticirana veštačka inteligencija može biti iskorišćena za nacionalnu bezbednost bez kompromitovanja fundamentalnih standarda bezbednosti i privatnosti. Štaviše, OpenAI je imao za cilj deeskalaciju tenzija između Ministarstva odbrane (DoD) i AI laboratorija, zalažući se za širi pristup ovim pažljivo strukturiranim uslovima za druge kompanije."
- question: "Koje specifične zaštitne mere su na snazi kako bi se sprečio domaći nadzor?" answer: "Sporazum eksplicitno zabranjuje namerno korišćenje AI sistema OpenAI za domaći nadzor američkih lica ili državljana, u skladu sa Četvrtim amandmanom, Zakonom o nacionalnoj bezbednosti iz 1947. i FISA zakonom iz 1978. Ovo uključuje strogu zabranu namernog praćenja, nadzora, ili korišćenja komercijalno stečenih ličnih ili identifikacionih podataka u takve svrhe. Ključno je da je Ministarstvo rata potvrdilo da bi obaveštajnim agencijama poput NSA bio potreban poseban sporazum za bilo koju uslugu, čime se pojačavaju ova ograničenja i pružaju višestruki pravni i ugovorni slojevi zaštite od zloupotrebe."
- question: "Kako ovaj sporazum sprečava korišćenje OpenAI modela za autonomno oružje?" answer: "Prevencija je višestruka. Prvo, arhitektura implementacije je isključivo u oblaku, što znači da se modeli ne mogu primeniti na 'rubnim uređajima' (edge devices) ključnim za autonomno smrtonosno oružje. Drugo, ugovorni jezik izričito navodi da se AI sistem neće koristiti za samostalno upravljanje autonomnim oružjem gde je potrebna ljudska kontrola. Takođe nalaže rigoroznu verifikaciju, validaciju i testiranje prema Direktivi DoD 3000.09. Konačno, provereno osoblje OpenAI, uključujući istraživače bezbednosti i usklađenosti, ostaje uključeno, pružajući dodatni sloj ljudskog nadzora i osiguravanja da se ove stroge crvene linije ne pređu."
- question: "Šta OpenAI sporazum čini drugačijim ili jačim od drugih, poput Anthropicovog?" answer: "OpenAI veruje da njegov sporazum nudi jače garancije i zaštitne mere zbog svog višeslojnog pristupa. Za razliku od nekih drugih sporazuma koji se možda oslanjaju isključivo na politike korišćenja, ugovor OpenAI osigurava da njegov vlasnički bezbednosni sistem ostaje u potpunosti operativan i pod njegovom kontrolom. Arhitektura primene isključivo u oblaku inherentno ograničava određene visokorizične primene, kao što su potpuno autonomno oružje, koje obično zahtevaju primenu na rubu. Štaviše, kontinuirano angažovanje proverenog osoblja OpenAI pruža aktivan ljudski nadzor i verifikaciju, stvarajući robusniji okvir protiv neprihvatljivih upotreba, što, kako tvrde, nadmašuje ranije sporazume."
- question: "Koju ulogu ima osoblje OpenAI u obezbeđivanju usklađenosti?" answer: "Provereno osoblje OpenAI, uključujući inženjere na terenu i istraživače bezbednosti i usklađenosti, igra kritičnu ulogu 'u petlji' (in the loop). Oni pomažu vladi da odgovorno integriše tehnologiju, istovremeno aktivno prateći pridržavanje uspostavljenih crvenih linija. Ovo direktno angažovanje omogućava OpenAI da nezavisno proveri da se sistem ne koristi za zabranjene aktivnosti, kao što su domaći nadzor ili kontrola autonomnog oružja. Njihovo stalno prisustvo osigurava da se zaštitne mere održavaju, a modeli se kontinuirano poboljšavaju sa bezbednošću i usklađenošću kao ključnim prioritetima, pružajući dodatni sloj tehničke i etičke sigurnosti."
- question: "Šta se dešava ako Ministarstvo rata prekrši sporazum?" answer: "U slučaju kršenja, kao i kod svakog ugovornog sporazuma, OpenAI zadržava pravo da raskine ugovor. Ovo služi kao značajno sredstvo odvraćanja, obezbeđujući da se Ministarstvo rata strogo pridržava dogovorenih uslova i odredbi. Klauzula o raskidu naglašava ozbiljnost zaštitnih mera i crvenih linija uspostavljenih unutar sporazuma, demonstrirajući posvećenost OpenAI-a poštovanju svojih etičkih principa čak i u kontekstima nacionalne bezbednosti sa visokim ulozima. Iako OpenAI ne predviđa takvo kršenje, ugovorna odredba pruža jasan pravni lek."
- question: "Da li će buduće promene zakona ili politike uticati na zaštite sporazuma?" answer: "Ne, sporazum je dizajniran da bude otporan na buduće promene zakona ili politike. On eksplicitno referencira važeće zakone i politike o nadzoru i autonomnom oružju, kao što su Četvrti amandman, Zakon o nacionalnoj bezbednosti, FISA zakon i Direktiva DoD 3000.09, onakve kakve su danas. To znači da čak i ako bi se ovi zakoni ili politike promenili u budućnosti, korišćenje OpenAI sistema po ovom ugovoru mora i dalje biti u skladu sa strogim standardima reflektovanim u originalnom sporazumu. Ova napredna klauzula pruža snažan, trajan sloj zaštite od potencijalnog narušavanja zaštitnih mera."
OpenAI i Ministarstvo rata ojačavaju sigurnost veštačke inteligencije eksplicitnim zaštitnim merama
San Francisko, Kalifornija – 3. mart 2026. – OpenAI je najavio značajno ažuriranje svog sporazuma sa Ministarstvom rata (DoW), pojačavajući stroge sigurnosne mere oko primene naprednih AI sistema u klasifikovanim okruženjima. Ova značajna saradnja naglašava zajedničku posvećenost odgovornoj upotrebi veštačke inteligencije, posebno u vezi sa osetljivim aplikacijama nacionalne bezbednosti. Ažurirani sporazum, finalizovan 2. marta 2026. godine, eksplicitno zabranjuje domaći nadzor američkih lica i ograničava upotrebu veštačke inteligencije u sistemima autonomnog oružja, postavljajući novi standard za etičku integraciju veštačke inteligencije u odbranu.
Srž ovog poboljšanog sporazuma leži u eksplicitnom navođenju onoga što je ranije bilo podrazumevano, obezbeđujući da nema dvosmislenosti u vezi sa etičkim ograničenjima AI tehnologije. OpenAI naglašava da je ovaj okvir dizajniran da obezbedi američkoj vojsci najsavremenije alate, istovremeno rigorozno podržavajući principe privatnosti i bezbednosti.
Redefinisanje zaštitnih mera za klasifikovanu primenu veštačke inteligencije
U proaktivnom potezu za rešavanje potencijalnih zabrinutosti, OpenAI i Ministarstvo rata su u svoj sporazum uključili dodatni tekst, koji specifično pojašnjava granice primene veštačke inteligencije. Ova nova klauzula nedvosmisleno navodi da se alati OpenAI neće koristiti za domaći nadzor američkih lica, uključujući nabavku ili korišćenje komercijalno dobijenih ličnih podataka. Štaviše, DoW je potvrdio da su njegove obaveštajne agencije, kao što je NSA, izuzete iz ovog sporazuma i da bi im bili potrebni potpuno novi uslovi za bilo koje pružanje usluga.
Ažurirani tekst u sporazumu detaljno navodi:
- "U skladu sa važećim zakonima, uključujući Četvrti amandman Ustava Sjedinjenih Država, Zakon o nacionalnoj bezbednosti iz 1947., FISA Zakon iz 1978., AI sistem se neće namerno koristiti za domaći nadzor američkih lica i državljana."
- "Radi izbegavanja sumnje, Ministarstvo razume ovo ograničenje kao zabranu namernog praćenja, nadzora ili monitoringa američkih lica ili državljana, uključujući nabavku ili korišćenje komercijalno stečenih ličnih ili identifikacionih informacija."
Ovaj napredni pristup ima za cilj uspostavljanje jasnog puta za druge vodeće AI laboratorije da se angažuju sa Ministarstvom rata, podstičući saradnju uz održavanje nepokolebljivih etičkih standarda.
Osnovni etički stubovi OpenAI-a: Tri crvene linije
OpenAI posluje pod tri fundamentalne "crvene linije" koje regulišu njegovu saradnju u osetljivim domenima kao što je nacionalna bezbednost. Ovi principi, u velikoj meri deljeni od strane drugih vodećih AI istraživačkih institucija, centralni su za sporazum sa Ministarstvom rata:
- Bez masovnog domaćeg nadzora: Tehnologija OpenAI neće biti korišćena za široko rasprostranjeno praćenje građana SAD.
- Bez autonomnih oružanih sistema: Tehnologija je zabranjena za usmeravanje autonomnog oružja bez ljudske kontrole.
- Bez automatizovanih odluka sa visokim ulozima: Alati OpenAI neće biti korišćeni za kritične automatizovane odluke (npr. sistemi "socijalnog kredita") koje zahtevaju ljudski nadzor.
OpenAI tvrdi da njegova višeslojna strategija pruža robusniju zaštitu od neprihvatljivih upotreba u poređenju sa pristupima koji se prvenstveno oslanjaju samo na politike korišćenja. Ovaj naglasak na strogim tehničkim i ugovornim zaštitnim merama izdvaja njegov sporazum u razvoju pejzaža odbrambene veštačke inteligencije.
Višeslojna zaštita: Arhitektura, ugovor i ljudska ekspertiza
Snaga sporazuma OpenAI sa Ministarstvom rata leži u njegovom sveobuhvatnom, višeslojnom pristupu zaštiti. Ovo uključuje:
- Arhitektura primene: Sporazum nalaže primenu isključivo u oblaku, obezbeđujući da OpenAI zadrži punu diskreciju nad svojim bezbednosnim sistemom i sprečavajući primenu modela sa "isključenim zaštitnim merama". Ova arhitektura inherentno ograničava slučajeve upotrebe kao što su autonomno smrtonosno oružje, koje tipično zahteva primenu na rubu. Nezavisni mehanizmi verifikacije, uključujući klasifikatore, su na mestu kako bi se osiguralo da se ove crvene linije ne pređu.
- Robustan ugovorni jezik: Ugovor eksplicitno detaljno opisuje dozvoljene upotrebe, zahtevajući pridržavanje "svih zakonitih svrha, u skladu sa važećim zakonom, operativnim zahtevima i dobro uspostavljenim bezbednosnim i nadzornim protokolima". Posebno se poziva na američke zakone kao što su Četvrti amandman, Zakon o nacionalnoj bezbednosti iz 1947., FISA Zakon iz 1978. i Direktiva DoD 3000.09. Ključno, zabranjuje nezavisno usmeravanje autonomnog oružja i neograničeno praćenje privatnih informacija američkih lica.
- Uključenost AI eksperata: Provereni inženjeri OpenAI i istraživači bezbednosti i usklađenosti biće raspoređeni na terenu i "u petlji". Ovaj direktni ljudski nadzor pruža dodatni sloj sigurnosti, pomažući da se sistemi vremenom poboljšaju i aktivno verifikujući usklađenost sa strogim uslovima sporazuma.
Ovaj integrisani pristup obezbeđuje da tehnološke, pravne i ljudske zaštitne mere funkcionišu u dogovoru kako bi sprečile zloupotrebu.
| Kategorija crvene linije | Zaštitne mere OpenAI-a |
|---|---|
| Masovni domaći nadzor | Eksplicitna ugovorna zabrana, usklađenost sa Četvrtim amandmanom, FISA, Zakonom o nacionalnoj bezbednosti; isključenje NSA/obaveštajnih agencija iz opsega; ograničenja primene u oblaku na pristup podacima; osoblje OpenAI u petlji za verifikaciju. |
| Autonomni oružani sistemi | Primena isključivo u oblaku (bez primene na rubu za smrtonosnu autonomiju); eksplicitna ugovorna zabrana protiv nezavisnog usmeravanja autonomnog oružja; pridržavanje Direktive DoD 3000.09 za verifikaciju/validaciju; osoblje OpenAI u petlji za nadzor. |
| Automatizovane odluke sa visokim ulozima | Eksplicitni ugovorni jezik koji zahteva ljudsko odobrenje za odluke sa visokim ulozima; OpenAI zadržava punu kontrolu nad svojim bezbednosnim sistemom, sprečavajući modele sa "isključenim zaštitnim merama"; osoblje OpenAI u petlji kako bi se osiguralo održavanje ljudskog nadzora tamo gde su uključene kritične odluke. |
Rešavanje zabrinutosti i kovanje buduće AI saradnje
OpenAI priznaje inherentne rizike napredne veštačke inteligencije i smatra duboku saradnju između vlade i AI laboratorija ključnom za navigaciju budućnosti. Angažovanje sa Ministarstvom rata omogućava američkoj vojsci pristup najsavremenijim alatima, istovremeno osiguravajući da se ove tehnologije primenjuju odgovorno.
"Mislimo da američka vojska apsolutno treba jake AI modele za podršku svojoj misiji, posebno u suočavanju sa rastućim pretnjama od potencijalnih protivnika koji sve više integrišu AI tehnologije u svoje sisteme," izjavio je OpenAI. Ova posvećenost je uravnotežena nepokolebljivim odbijanjem da se ugroze tehničke zaštitne mere radi performansi, naglašavajući da je odgovoran pristup najvažniji.
Sporazum takođe ima za cilj deeskalaciju tenzija i podsticanje šire saradnje unutar AI zajednice. OpenAI je zatražio da isti zaštitni uslovi budu dostupni svim AI kompanijama, nadajući se da će olakšati slična odgovorna partnerstva širom industrije. Ovo je deo šire strategije OpenAI-a, kao što je demonstrirano njegovim nastavkom partnerstva sa Microsoftom i naporima ka skaliranju veštačke inteligencije za sve.
Postavljanje novog standarda za angažovanje AI u odbrani
OpenAI veruje da njegov sporazum postavlja viši standard za klasifikovane AI primene u poređenju sa prethodnim aranžmanima, uključujući i one o kojima su diskutovale druge laboratorije poput Anthropic-a. Poverenje proizlazi iz ugrađenih fundamentalnih zaštitnih mera: primena isključivo u oblaku koja održava integritet bezbednosnog sistema OpenAI-a, eksplicitne ugovorne garancije i aktivno angažovanje proverenog osoblja OpenAI-a.
Ovaj sveobuhvatni okvir osigurava da se navedene crvene linije — sprečavanje masovnog domaćeg nadzora i kontrole autonomnog oružja — robusno sprovode. Ugovorni jezik koji eksplicitno referencira postojeće zakone osigurava da čak i ako se politike u budućnosti promene, korišćenje OpenAI sistema mora i dalje biti u skladu sa originalnim, strožim standardima. Ovaj proaktivni stav naglašava posvećenost OpenAI-a razvoju i primeni moćnih AI tehnologija na način koji prioritet daje bezbednosti, etici i demokratskim vrednostima, čak i u najzahtevnijim kontekstima nacionalne bezbednosti.
Često postavljana pitanja
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
Будите у току
Примајте најновије AI вести на имејл.
