Code Velocity
Sigurnost umjetne inteligencije

Sporazum OpenAI-ja i Ministarstva rata: Osiguravanje zaštitnih ograda za sigurnost umjetne inteligencije

·7 min čitanja·OpenAI·Izvorni izvor
Podijeli
Sporazum OpenAI-ja i Ministarstva rata s zaštitnim ogradama za sigurnost umjetne inteligencije

title: "Sporazum OpenAI-ja i Ministarstva rata: Osiguravanje zaštitnih ograda za sigurnost umjetne inteligencije" slug: "our-agreement-with-the-department-of-war" date: "2026-03-03" lang: "hr" source: "https://openai.com/index/our-agreement-with-the-department-of-war/" category: "Sigurnost umjetne inteligencije" keywords:

  • OpenAI
  • Ministarstvo rata
  • Etika umjetne inteligencije
  • nacionalna sigurnost
  • nadzor putem umjetne inteligencije
  • autonomno oružje
  • zaštitne ograde za umjetnu inteligenciju
  • klasificirana umjetna inteligencija
  • obrambeni ugovori
  • politika umjetne inteligencije
  • američka vojska
  • implementacija u oblaku meta_description: "OpenAI detaljno opisuje svoj povijesni sporazum s Ministarstvom rata, uspostavljajući snažne sigurnosne ograde za umjetnu inteligenciju protiv domaćeg nadzora i autonomnog oružja, postavljajući novi standard za obrambenu tehnologiju." image: "/images/articles/our-agreement-with-the-department-of-war.png" image_alt: "Sporazum OpenAI-ja i Ministarstva rata s zaštitnim ogradama za sigurnost umjetne inteligencije" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • OpenAI schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Zašto je OpenAI stupio u suradnju s Ministarstvom rata?" answer: "OpenAI se angažirao kako bi opremio američku vojsku naprednim mogućnostima umjetne inteligencije, prepoznajući sve veću integraciju umjetne inteligencije od strane potencijalnih protivnika. Ovo partnerstvo ovisi o uspostavljanju snažnih zaštitnih mjera, koje je OpenAI pomno razvio kako bi osigurao odgovorno raspoređivanje u klasificiranim okruženjima. Cilj je pružiti najsuvremenije alate uz poštivanje strogih etičkih načela, pokazujući da se sofisticirana umjetna inteligencija može iskoristiti za nacionalnu sigurnost bez kompromitiranja temeljnih standarda sigurnosti i privatnosti. Nadalje, OpenAI je težio smirivanju napetosti između Ministarstva obrane (DoD) i laboratorija za umjetnu inteligenciju, zalažući se za širi pristup ovim pažljivo strukturiranim uvjetima i za druge tvrtke."
  • question: "Koje su specifične zaštitne ograde postavljene kako bi se spriječio domaći nadzor?" answer: "Sporazum izričito zabranjuje namjerno korištenje OpenAI-jevih sustava umjetne inteligencije za domaći nadzor američkih građana ili državljana, u skladu s Četvrtim amandmanom, Zakonom o nacionalnoj sigurnosti iz 1947. i FISA zakonom iz 1978. To uključuje strogu zabranu namjernog praćenja, nadziranja ili korištenja komercijalno pribavljenih osobnih ili identifikacijskih podataka u takve svrhe. Ključno je da je Ministarstvo rata potvrdilo da će obavještajne agencije poput NSA-e zahtijevati zaseban sporazum za bilo koju uslugu, čime se pojačavaju ova ograničenja i osigurava više pravnih i ugovornih slojeva zaštite od zlouporabe."
  • question: "Kako ovaj sporazum sprječava korištenje OpenAI modela za autonomno oružje?" answer: "Prevencija je višestruka. Prvo, arhitektura implementacije je isključivo u oblaku, što znači da se modeli ne mogu implementirati na 'rubnim uređajima' kritičnim za autonomno smrtonosno oružje. Drugo, ugovorni jezik izričito navodi da se AI sustav neće koristiti za neovisno upravljanje autonomnim oružjem gdje je potrebna ljudska kontrola. Također nalaže rigoroznu verifikaciju, validaciju i testiranje u skladu s Direktivom DoD-a 3000.09. Konačno, provjereno osoblje OpenAI-ja, uključujući istraživače sigurnosti i usklađenosti, ostaje uključeno, pružajući dodatni sloj ljudskog nadzora i jamstvo da se te stroge 'crvene linije' neće prekršiti."
  • question: "Po čemu se sporazum OpenAI-ja razlikuje ili je jači od drugih, poput Anthropicovog?" answer: "OpenAI vjeruje da njegov sporazum nudi jača jamstva i zaštitne mjere zbog svog višeslojnog pristupa. Za razliku od nekih drugih sporazuma koji se možda oslanjaju isključivo na politike korištenja, ugovor OpenAI-ja osigurava da njegov vlastiti sigurnosni 'stack' ostaje potpuno operativan i pod njegovom kontrolom. Arhitektura implementacije isključivo u oblaku inherentno ograničava određene visoko rizične primjene, poput potpuno autonomnog oružja, koje obično zahtijevaju rubnu implementaciju. Nadalje, kontinuirano sudjelovanje provjerenog osoblja OpenAI-ja pruža aktivan ljudski nadzor i provjeru, stvarajući robusniji okvir protiv neprihvatljivih korištenja, što, kako tvrde, nadmašuje ranije sporazume."
  • question: "Kakvu ulogu ima osoblje OpenAI-ja u osiguravanju usklađenosti?" answer: "Provjereno osoblje OpenAI-ja, uključujući inženjere raspoređene na terenu i istraživače sigurnosti i usklađenosti, igra ključnu ulogu u 'petlji'. Oni pomažu vladi da odgovorno integrira tehnologiju, istovremeno aktivno nadzirući pridržavanje uspostavljenih 'crvenih linija'. Ova izravna uključenost omogućuje OpenAI-ju neovisnu provjeru da se sustav ne koristi za zabranjene aktivnosti, poput domaćeg nadzora ili kontrole autonomnog oružja. Njihova stalna prisutnost osigurava održavanje sigurnosnih ograda, a modeli se kontinuirano poboljšavaju s sigurnošću i usklađenošću kao glavnim prioritetima, pružajući dodatni sloj tehničkog i etičkog jamstva."
  • question: "Što se događa ako Ministarstvo rata prekrši sporazum?" answer: "U slučaju kršenja, kao i kod svakog ugovornog sporazuma, OpenAI zadržava pravo raskida ugovora. Ovo služi kao značajno odvraćanje, osiguravajući da se Ministarstvo rata strogo pridržava dogovorenih uvjeta. Klauzula o raskidu naglašava ozbiljnost sigurnosnih ograda i 'crvenih linija' uspostavljenih unutar sporazuma, pokazujući predanost OpenAI-ja u poštivanju njegovih etičkih načela čak i u kontekstima nacionalne sigurnosti s visokim ulozima. Iako OpenAI ne predviđa takvo kršenje, ugovorna odredba pruža jasan pravni lijek."
  • question: "Hoće li buduće promjene u zakonu ili politici utjecati na zaštite sporazuma?" answer: "Ne, sporazum je osmišljen tako da bude otporan na buduće promjene u zakonu ili politici. Izričito se poziva na važeće zakone i politike o nadzoru i autonomnom oružju, kao što su Četvrti amandman, Zakon o nacionalnoj sigurnosti, FISA zakon i Direktiva DoD-a 3000.09, onakve kakve su danas. To znači da čak i ako se ti zakoni ili politike u budućnosti izmijene, korištenje OpenAI-jevih sustava prema ovom ugovoru i dalje mora biti usklađeno sa strogim standardima odraženim u izvornom sporazumu. Ova napredna klauzula pruža snažan, trajan sloj zaštite od potencijalne erozije zaštitnih mjera."

# OpenAI i Ministarstvo rata jačaju sigurnost umjetne inteligencije eksplicitnim zaštitnim ogradama

**San Francisco, CA – 3. ožujka 2026.** – OpenAI je objavio značajno ažuriranje svog sporazuma s Ministarstvom rata (DoW), pojačavajući stroge sigurnosne ograde oko implementacije naprednih sustava umjetne inteligencije u klasificiranim okruženjima. Ova povijesna suradnja naglašava zajedničku predanost odgovornom korištenju umjetne inteligencije, posebno u pogledu osjetljivih aplikacija nacionalne sigurnosti. Ažurirani sporazum, finaliziran 2. ožujka 2026., izričito zabranjuje domaći nadzor američkih osoba i ograničava korištenje umjetne inteligencije u sustavima autonomnog oružja, postavljajući novo mjerilo za etičku integraciju umjetne inteligencije u obranu.

Srž ovog poboljšanog sporazuma leži u eksplicitnom navođenju onoga što se ranije podrazumijevalo, osiguravajući da nema dvosmislenosti u pogledu etičkih ograničenja AI tehnologije. OpenAI naglašava da je ovaj okvir osmišljen kako bi američkoj vojsci pružio najsuvremenije alate uz rigorozno poštivanje načela privatnosti i sigurnosti.

## Redefiniranje zaštitnih mjera za klasificirane implementacije umjetne inteligencije

U proaktivnom potezu za rješavanje potencijalnih zabrinutosti, OpenAI i Ministarstvo rata ugradili su dodatni jezik u svoj sporazum, posebno pojašnjavajući granice implementacije umjetne inteligencije. Ova nova klauzula nedvosmisleno navodi da se OpenAI-jevi alati neće koristiti za domaći nadzor američkih osoba, uključujući putem stjecanja ili korištenja komercijalno dobivenih osobnih podataka. Nadalje, DoW je potvrdio da su njegove obavještajne agencije, poput NSA-e, isključene iz ovog sporazuma i da bi zahtijevale potpuno nove uvjete za bilo koju pruženu uslugu.

Ažurirani jezik u sporazumu detaljizira:

-   "U skladu s primjenjivim zakonima, uključujući Četvrti amandman Ustava Sjedinjenih Američkih Država, Zakon o nacionalnoj sigurnosti iz 1947. i FISA zakon iz 1978., AI sustav se neće namjerno koristiti za domaći nadzor američkih osoba i državljana."
-   "Kako bi se izbjegle sumnje, Ministarstvo razumije ovo ograničenje kao zabranu namjernog praćenja, nadzora ili praćenja američkih osoba ili državljana, uključujući putem nabave ili korištenja komercijalno pribavljenih osobnih ili identifikacijskih podataka."

Ovaj napredan pristup ima za cilj uspostaviti jasan put za druge vodeće AI laboratorije za suradnju s Ministarstvom rata, potičući suradnju uz održavanje nepokolebljivih etičkih standarda.

## OpenAI-jevi temeljni etički stupovi: Tri 'crvene linije'

OpenAI djeluje pod tri temeljne 'crvene linije' koje upravljaju njegovom suradnjom u osjetljivim područjima poput nacionalne sigurnosti. Ova načela, koja u velikoj mjeri dijele i druge vodeće AI istraživačke institucije, ključna su za sporazum s Ministarstvom rata:

1.  **Bez masovnog domaćeg nadzora:** OpenAI tehnologija neće se koristiti za široko rasprostranjeno praćenje američkih građana.
2.  **Bez sustava autonomnog oružja:** Tehnologija je zabranjena za upravljanje autonomnim oružjem bez ljudske kontrole.
3.  **Bez visokorizičnih automatiziranih odluka:** OpenAI alati neće se koristiti za kritične automatizirane odluke (npr. sustavi 'socijalnog kredita') koje zahtijevaju ljudski nadzor.

OpenAI tvrdi da njegova višeslojna strategija pruža robusniju zaštitu od neprihvatljivih korištenja u usporedbi s pristupima koji se prvenstveno oslanjaju samo na politike korištenja. Ovaj naglasak na strogim tehničkim i ugovornim zaštitnim mjerama izdvaja njegov sporazum u razvijajućem se krajoliku obrambene umjetne inteligencije.

## Višeslojna zaštita: Arhitektura, ugovor i ljudska ekspertiza

Snaga sporazuma OpenAI-ja s Ministarstvom rata leži u njegovom sveobuhvatnom, višeslojnom pristupu zaštiti. To uključuje:

1.  **Arhitektura implementacije:** Sporazum nalaže implementaciju isključivo u oblaku, osiguravajući da OpenAI zadržava potpunu diskreciju nad svojim sigurnosnim 'stackom' i sprječava implementaciju modela s 'isključenim ogradama'. Ova arhitektura inherentno ograničava slučajeve korištenja poput autonomnog smrtonosnog oružja, koje obično zahtijeva rubnu implementaciju. Neovisni mehanizmi provjere, uključujući klasifikatore, postavljeni su kako bi se osiguralo da se te 'crvene linije' ne prekrše.
2.  **Robusan ugovorni jezik:** Ugovor izričito detaljizira dopuštene upotrebe, zahtijevajući pridržavanje 'svih zakonitih svrha, u skladu s primjenjivim zakonom, operativnim zahtjevima i dobro uspostavljenim protokolima sigurnosti i nadzora'. Posebno se poziva na američke zakone poput Četvrtog amandmana, Zakona o nacionalnoj sigurnosti iz 1947., FISA zakona iz 1978. i Direktive DoD-a 3000.09. Ključno, zabranjuje neovisno upravljanje autonomnim oružjem i neograničeno praćenje privatnih informacija američkih osoba.
3.  **Uključenost AI stručnjaka:** Provjereni inženjeri OpenAI-ja i istraživači sigurnosti i usklađenosti bit će raspoređeni na terenu i 'u petlji'. Ovaj izravni ljudski nadzor pruža dodatni sloj jamstva, pomažući u poboljšanju sustava tijekom vremena i aktivno provjeravajući usklađenost sa strogim uvjetima sporazuma.

Ovaj integrirani pristup osigurava da tehnološke, pravne i ljudske zaštitne mjere sve djeluju usklađeno kako bi spriječile zlouporabu.

| Kategorija 'crvene linije'      | OpenAI-jeve zaštitne mjere                                                                                                                                                                                                                                                                                                    |
| :------------------------------ | :---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| **Masovni domaći nadzor**       | Izričita ugovorna zabrana, usklađenost s Četvrtim amandmanom, FISA-om, Zakonom o nacionalnoj sigurnosti; isključenje NSA/obavještajnih agencija iz opsega; ograničenja pristupa podacima implementacijom isključivo u oblaku; provjera osoblja OpenAI-ja 'u petlji'.                                                                     |
| **Sustavi autonomnog oružja**   | Implementacija isključivo u oblaku (bez rubne implementacije za smrtonosnu autonomiju); izričita ugovorna zabrana neovisnog upravljanja autonomnim oružjem; pridržavanje Direktive DoD-a 3000.09 za verifikaciju/validaciju; osoblje OpenAI-ja 'u petlji' za nadzor.                                                                 |
| **Visokorizične automatizirane odluke** | Izričit ugovorni jezik koji zahtijeva ljudsko odobrenje za visokorizične odluke; OpenAI zadržava potpunu kontrolu nad svojim sigurnosnim 'stackom', sprječavajući modele s 'isključenim ogradama'; osoblje OpenAI-ja 'u petlji' za osiguravanje održavanja ljudskog nadzora tamo gdje su uključene kritične odluke. |

## Rješavanje zabrinutosti i poticanje buduće suradnje na području umjetne inteligencije

OpenAI prepoznaje inherentne rizike napredne umjetne inteligencije i smatra duboku suradnju između vlade i AI laboratorija ključnom za navigaciju budućnošću. Angažiranje s Ministarstvom rata omogućuje američkoj vojsci pristup najsuvremenijim alatima, istovremeno osiguravajući da se ove tehnologije odgovorno implementiraju.

"'Smatramo da američka vojska apsolutno treba snažne AI modele za podršku svojoj misiji, posebno u suočavanju s rastućim prijetnjama od potencijalnih protivnika koji sve više integriraju AI tehnologije u svoje sustave,' izjavio je OpenAI. Ova predanost uravnotežena je s nepokolebljivim odbijanjem kompromitiranja tehničkih zaštitnih mjera radi performansi, naglašavajući da je odgovoran pristup najvažniji."

Sporazum također ima za cilj smiriti napetosti i potaknuti širu suradnju unutar AI zajednice. OpenAI je zatražio da isti zaštitni uvjeti budu dostupni svim AI tvrtkama, nadajući se da će olakšati slična odgovorna partnerstva diljem industrije. Ovo je dio šire strategije OpenAI-ja, kako je demonstrirano njegovim [nastavljajućim partnerstvom s Microsoftom](/hr/continuing-microsoft-partnership) i naporima prema [skaliranju umjetne inteligencije za sve](/hr/scaling-ai-for-everyone).

## Postavljanje novog standarda za angažman obrambene umjetne inteligencije

OpenAI vjeruje da njegov sporazum postavlja viši standard za klasificirane implementacije umjetne inteligencije u usporedbi s prethodnim dogovorima, uključujući one o kojima su raspravljali drugi laboratoriji poput Anthropic-a. Pouzdanje proizlazi iz ugrađenih temeljnih zaštitnih mjera: implementacije isključivo u oblaku koja održava integritet sigurnosnog 'stacka' OpenAI-ja, eksplicitnih ugovornih jamstava i aktivnog sudjelovanja provjerenog osoblja OpenAI-ja.

Ovaj sveobuhvatni okvir osigurava da se navedene 'crvene linije' — sprječavanje masovnog domaćeg nadzora i kontrole autonomnog oružja — snažno provode. Ugovorni jezik koji izričito upućuje na postojeće zakone osigurava da se, čak i ako se politike promijene u budućnosti, korištenje OpenAI-jevih sustava i dalje mora pridržavati izvornih, strožih standarda. Ovaj proaktivni stav naglašava predanost OpenAI-ja razvoju i implementaciji snažnih AI tehnologija na način koji prioritizira sigurnost, etiku i demokratske vrijednosti, čak i u najzahtjevnijim kontekstima nacionalne sigurnosti.

Često postavljana pitanja

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Budite u toku

Primajte najnovije AI vijesti na e-mail.

Podijeli