Code Velocity
Безбедност на вештачката интелигенција

Договор на OpenAI со Одделот за војна: Обезбедување заштитни бариери за безбедност на вештачката интелигенција

·7 мин читање·OpenAI·Оригинален извор
Сподели
Договор помеѓу OpenAI и Одделот за војна со заштитни бариери за безбедност на вештачката интелигенција

OpenAI и Одделот за војна ја зацврстуваат безбедноста на вештачката интелигенција со експлицитни заштитни бариери

Сан Франциско, Калифорнија – 3 март 2026 – OpenAI објави значајно ажурирање на својот договор со Одделот за војна (DoW), зајакнувајќи ги строгите безбедносни бариери околу распоредувањето на напредни системи за вештачка интелигенција во класифицирани средини. Оваа значајна соработка ја нагласува заедничката посветеност на одговорна употреба на вештачката интелигенција, особено во однос на чувствителните апликации за национална безбедност. Ажурираниот договор, финализиран на 2 март 2026 година, експлицитно го забранува домашниот надзор на американски лица и ја ограничува употребата на вештачка интелигенција во системи за автономно оружје, поставувајќи нов стандард за етичка интеграција на вештачката интелигенција во одбраната.

Суштината на овој подобрен договор лежи во тоа што експлицитно се наведува она што претходно беше подразбирано, обезбедувајќи немање двосмисленост во однос на етичките ограничувања на технологијата на вештачката интелигенција. OpenAI нагласува дека оваа рамка е дизајнирана да ѝ обезбеди на американската војска најсовремени алатки, истовремено ригорозно почитувајќи ги принципите на приватност и безбедност.

Редефинирање на заштитните мерки за класифицирани распоредувања на вештачка интелигенција

Во проактивен потег за справување со потенцијалните грижи, OpenAI и Одделот за војна вклучија дополнителен јазик во својот договор, конкретно појаснувајќи ги границите на распоредувањето на вештачката интелигенција. Оваа нова клаузула недвосмислено наведува дека алатките на OpenAI нема да се користат за домашен надзор на американски лица, вклучувајќи и преку стекнување или користење комерцијално добиени лични информации. Понатаму, Одделот за војна потврди дека неговите разузнавачки агенции, како НСА, се исклучени од овој договор и би барале целосно нови услови за секоја услуга.

Ажурираниот јазик во договорот детално наведува:

  • "Во согласност со применливите закони, вклучително и Четвртиот амандман на Уставот на Соединетите Американски Држави, Законот за национална безбедност од 1947 година, Законот FISA од 1978 година, системот за вештачка интелигенција нема намерно да се користи за домашен надзор на лица и државјани на САД."
  • "За избегнување на сомнеж, Одделот го разбира ова ограничување да го забрани намерното следење, надзор или надгледување на американски лица или државјани, вклучувајќи и преку набавка или употреба на комерцијално стекнати лични или идентификациони информации."

Овој напреден пристап има за цел да воспостави јасен пат за другите пионерски лаборатории за вештачка интелигенција да соработуваат со Одделот за војна, поттикнувајќи соработка додека се одржуваат непоколебливи етички стандарди.

Основни етички столбови на OpenAI: Трите 'црвени линии'

OpenAI работи според три основни „црвени линии“ кои ги регулираат неговите соработки во чувствителни области како националната безбедност. Овие принципи, во голема мера споделени од други водечки истражувачки институции за вештачка интелигенција, се централни за договорот со Одделот за војна:

  1. Без масовен домашен надзор: Технологијата на OpenAI нема да се користи за широко распространето следење на американски граѓани.
  2. Без системи за автономно оружје: Технологијата е забранета за управување со автономно оружје без човечка контрола.
  3. Без автоматизирани одлуки со висок влог: Алатките на OpenAI нема да се користат за критични автоматизирани одлуки (на пр., системи за 'социјален кредит') кои бараат човечки надзор.

OpenAI тврди дека неговата повеќеслојна стратегија обезбедува поцврста заштита од неприфатливи употреби во споредба со пристапите кои првенствено се потпираат само на политики за користење. Овој акцент на строги технички и договорни заштитни мерки го издвојува неговиот договор во еволуирачкиот пејзаж на одбранбената вештачка интелигенција.

Повеќеслојна заштита: Архитектура, договор и човечка експертиза

Силата на договорот на OpenAI со Одделот за војна лежи во неговиот сеопфатен, повеќеслоен пристап кон заштитата. Ова вклучува:

  1. Архитектура за распоредување: Договорот наложува распоредување само во облак, осигурувајќи дека OpenAI го задржува целосното дискреционо право над својот безбедносен стек и спречувајќи распоредување на модели без 'заштитни бариери'. Оваа архитектура суштински ги ограничува случаите на употреба како автономно смртоносно оружје, кое типично бара периферно распоредување. Воспоставени се независни механизми за верификација, вклучувајќи класификатори, за да се осигура дека овие 'црвени линии' не се прекршени.
  2. Робустен договорен јазик: Договорот експлицитно ги детализира дозволените употреби, барајќи придржување кон „сите законски цели, во согласност со применливото право, оперативните барања и добро воспоставените безбедносни и надзорни протоколи.“ Тој конкретно се однесува на американските закони како што се Четвртиот амандман, Законот за национална безбедност од 1947 година, Законот FISA од 1978 година и Директивата на DoD 3000.09. Клучно, тој го забранува независното управување со автономно оружје и неограниченото следење на приватни информации на американски лица.
  3. Вклучување на експерти за вештачка интелигенција: Овластени инженери на OpenAI и истражувачи за безбедност и усогласеност ќе бидат распоредени на терен и 'вклучени во процесот'. Овој директен човечки надзор обезбедува дополнителен слој на сигурност, помагајќи да се подобрат системите со текот на времето и активно проверувајќи ја усогласеноста со строгите услови на договорот.

Овој интегриран пристап осигурува дека технолошките, правните и човечките заштитни мерки работат заедно за да спречат злоупотреба.

Категорија на 'црвена линија'Заштитни мерки на OpenAI
Масовен домашен надзорЕксплицитна договорна забрана, усогласување со Четвртиот амандман, FISA, Законот за национална безбедност; исклучување на НСА/разузнавачките агенции од опсегот; ограничувања за пристап до податоци при распоредување само во облак; верификација од персонал на OpenAI 'вклучен во процесот'.
Системи за автономно оружјеРаспоредување само во облак (без периферно распоредување за смртоносна автономија); експлицитна договорна забрана против независно управување со автономно оружје; придржување кон Директивата на DoD 3000.09 за верификација/валидација; персонал на OpenAI 'вклучен во процесот' за надзор.
Автоматизирани одлуки со висок влогЕксплицитен договорен јазик кој бара човечко одобрување за одлуки со висок влог; OpenAI ја задржува целосната контрола над својот безбедносен стек, спречувајќи модели без 'заштитни бариери'; персонал на OpenAI 'вклучен во процесот' за да се осигури дека човечкиот надзор е задржан каде што се вклучени критични одлуки.

Справување со грижите и градење идна соработка во вештачката интелигенција

OpenAI ги признава инхерентните ризици од напредната вештачка интелигенција и ја смета длабоката соработка помеѓу владата и лабораториите за вештачка интелигенција како суштинска за навигација во иднината. Ангажирањето со Одделот за војна ѝ овозможува на американската војска да пристапи до најсовремени алатки, истовремено осигурувајќи дека овие технологии се распоредуваат одговорно.

„Сметаме дека американската војска апсолутно има потреба од силни модели за вештачка интелигенција за поддршка на нивната мисија особено со оглед на растечките закани од потенцијалните противници кои сè повеќе ги интегрираат технологиите за вештачка интелигенција во своите системи“, изјави OpenAI. Оваа посветеност е урамнотежена со непоколебливо одбивање да се компромитираат техничките заштитни мерки за перформанси, нагласувајќи дека одговорниот пристап е најважен.

Договорот исто така има за цел да ги деескалира тензиите и да поттикне поширока соработка во заедницата на вештачката интелигенција. OpenAI побара истите заштитни услови да бидат достапни за сите компании за вештачка интелигенција, надевајќи се дека ќе се олеснат слични одговорни партнерства низ целата индустрија. Ова е дел од пошироката стратегија на OpenAI, како што е демонстрирано со неговото континуирано партнерство со Microsoft и напорите кон скалирање на вештачката интелигенција за сите.

Поставување нов стандард за ангажман на вештачка интелигенција во одбраната

OpenAI верува дека неговиот договор поставува повисок стандард за класифицирани распоредувања на вештачка интелигенција во споредба со претходните аранжмани, вклучувајќи ги и оние дискутирани од други лаборатории како Anthropic. Довербата произлегува од вградените основни заштити: распоредувањето само во облак што го одржува интегритетот на безбедносниот стек на OpenAI, експлицитните договорни гаранции и активното вклучување на овластениот персонал на OpenAI.

Оваа сеопфатна рамка осигурува дека наведените „црвени линии“ – спречување масовен домашен надзор и контрола на автономно оружје – се робусно спроведени. Договорниот јазик кој експлицитно се однесува на постојните закони осигурува дека дури и ако политиките се променат во иднина, употребата на системите на OpenAI мора сè уште да биде во согласност со оригиналните, построги стандарди. Овој проактивен став ја нагласува посветеноста на OpenAI за развивање и распоредување моќни технологии за вештачка интелигенција на начин што ги приоритизира безбедноста, етиката и демократските вредности, дури и во најпребирливите контексти на национална безбедност.

Често поставувани прашања

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Бидете информирани

Добивајте ги најновите AI вести на е-пошта.

Сподели