OpenAI и Одделот за војна ја зацврстуваат безбедноста на вештачката интелигенција со експлицитни заштитни бариери
Сан Франциско, Калифорнија – 3 март 2026 – OpenAI објави значајно ажурирање на својот договор со Одделот за војна (DoW), зајакнувајќи ги строгите безбедносни бариери околу распоредувањето на напредни системи за вештачка интелигенција во класифицирани средини. Оваа значајна соработка ја нагласува заедничката посветеност на одговорна употреба на вештачката интелигенција, особено во однос на чувствителните апликации за национална безбедност. Ажурираниот договор, финализиран на 2 март 2026 година, експлицитно го забранува домашниот надзор на американски лица и ја ограничува употребата на вештачка интелигенција во системи за автономно оружје, поставувајќи нов стандард за етичка интеграција на вештачката интелигенција во одбраната.
Суштината на овој подобрен договор лежи во тоа што експлицитно се наведува она што претходно беше подразбирано, обезбедувајќи немање двосмисленост во однос на етичките ограничувања на технологијата на вештачката интелигенција. OpenAI нагласува дека оваа рамка е дизајнирана да ѝ обезбеди на американската војска најсовремени алатки, истовремено ригорозно почитувајќи ги принципите на приватност и безбедност.
Редефинирање на заштитните мерки за класифицирани распоредувања на вештачка интелигенција
Во проактивен потег за справување со потенцијалните грижи, OpenAI и Одделот за војна вклучија дополнителен јазик во својот договор, конкретно појаснувајќи ги границите на распоредувањето на вештачката интелигенција. Оваа нова клаузула недвосмислено наведува дека алатките на OpenAI нема да се користат за домашен надзор на американски лица, вклучувајќи и преку стекнување или користење комерцијално добиени лични информации. Понатаму, Одделот за војна потврди дека неговите разузнавачки агенции, како НСА, се исклучени од овој договор и би барале целосно нови услови за секоја услуга.
Ажурираниот јазик во договорот детално наведува:
- "Во согласност со применливите закони, вклучително и Четвртиот амандман на Уставот на Соединетите Американски Држави, Законот за национална безбедност од 1947 година, Законот FISA од 1978 година, системот за вештачка интелигенција нема намерно да се користи за домашен надзор на лица и државјани на САД."
- "За избегнување на сомнеж, Одделот го разбира ова ограничување да го забрани намерното следење, надзор или надгледување на американски лица или државјани, вклучувајќи и преку набавка или употреба на комерцијално стекнати лични или идентификациони информации."
Овој напреден пристап има за цел да воспостави јасен пат за другите пионерски лаборатории за вештачка интелигенција да соработуваат со Одделот за војна, поттикнувајќи соработка додека се одржуваат непоколебливи етички стандарди.
Основни етички столбови на OpenAI: Трите 'црвени линии'
OpenAI работи според три основни „црвени линии“ кои ги регулираат неговите соработки во чувствителни области како националната безбедност. Овие принципи, во голема мера споделени од други водечки истражувачки институции за вештачка интелигенција, се централни за договорот со Одделот за војна:
- Без масовен домашен надзор: Технологијата на OpenAI нема да се користи за широко распространето следење на американски граѓани.
- Без системи за автономно оружје: Технологијата е забранета за управување со автономно оружје без човечка контрола.
- Без автоматизирани одлуки со висок влог: Алатките на OpenAI нема да се користат за критични автоматизирани одлуки (на пр., системи за 'социјален кредит') кои бараат човечки надзор.
OpenAI тврди дека неговата повеќеслојна стратегија обезбедува поцврста заштита од неприфатливи употреби во споредба со пристапите кои првенствено се потпираат само на политики за користење. Овој акцент на строги технички и договорни заштитни мерки го издвојува неговиот договор во еволуирачкиот пејзаж на одбранбената вештачка интелигенција.
Повеќеслојна заштита: Архитектура, договор и човечка експертиза
Силата на договорот на OpenAI со Одделот за војна лежи во неговиот сеопфатен, повеќеслоен пристап кон заштитата. Ова вклучува:
- Архитектура за распоредување: Договорот наложува распоредување само во облак, осигурувајќи дека OpenAI го задржува целосното дискреционо право над својот безбедносен стек и спречувајќи распоредување на модели без 'заштитни бариери'. Оваа архитектура суштински ги ограничува случаите на употреба како автономно смртоносно оружје, кое типично бара периферно распоредување. Воспоставени се независни механизми за верификација, вклучувајќи класификатори, за да се осигура дека овие 'црвени линии' не се прекршени.
- Робустен договорен јазик: Договорот експлицитно ги детализира дозволените употреби, барајќи придржување кон „сите законски цели, во согласност со применливото право, оперативните барања и добро воспоставените безбедносни и надзорни протоколи.“ Тој конкретно се однесува на американските закони како што се Четвртиот амандман, Законот за национална безбедност од 1947 година, Законот FISA од 1978 година и Директивата на DoD 3000.09. Клучно, тој го забранува независното управување со автономно оружје и неограниченото следење на приватни информации на американски лица.
- Вклучување на експерти за вештачка интелигенција: Овластени инженери на OpenAI и истражувачи за безбедност и усогласеност ќе бидат распоредени на терен и 'вклучени во процесот'. Овој директен човечки надзор обезбедува дополнителен слој на сигурност, помагајќи да се подобрат системите со текот на времето и активно проверувајќи ја усогласеноста со строгите услови на договорот.
Овој интегриран пристап осигурува дека технолошките, правните и човечките заштитни мерки работат заедно за да спречат злоупотреба.
| Категорија на 'црвена линија' | Заштитни мерки на OpenAI |
|---|---|
| Масовен домашен надзор | Експлицитна договорна забрана, усогласување со Четвртиот амандман, FISA, Законот за национална безбедност; исклучување на НСА/разузнавачките агенции од опсегот; ограничувања за пристап до податоци при распоредување само во облак; верификација од персонал на OpenAI 'вклучен во процесот'. |
| Системи за автономно оружје | Распоредување само во облак (без периферно распоредување за смртоносна автономија); експлицитна договорна забрана против независно управување со автономно оружје; придржување кон Директивата на DoD 3000.09 за верификација/валидација; персонал на OpenAI 'вклучен во процесот' за надзор. |
| Автоматизирани одлуки со висок влог | Експлицитен договорен јазик кој бара човечко одобрување за одлуки со висок влог; OpenAI ја задржува целосната контрола над својот безбедносен стек, спречувајќи модели без 'заштитни бариери'; персонал на OpenAI 'вклучен во процесот' за да се осигури дека човечкиот надзор е задржан каде што се вклучени критични одлуки. |
Справување со грижите и градење идна соработка во вештачката интелигенција
OpenAI ги признава инхерентните ризици од напредната вештачка интелигенција и ја смета длабоката соработка помеѓу владата и лабораториите за вештачка интелигенција како суштинска за навигација во иднината. Ангажирањето со Одделот за војна ѝ овозможува на американската војска да пристапи до најсовремени алатки, истовремено осигурувајќи дека овие технологии се распоредуваат одговорно.
„Сметаме дека американската војска апсолутно има потреба од силни модели за вештачка интелигенција за поддршка на нивната мисија особено со оглед на растечките закани од потенцијалните противници кои сè повеќе ги интегрираат технологиите за вештачка интелигенција во своите системи“, изјави OpenAI. Оваа посветеност е урамнотежена со непоколебливо одбивање да се компромитираат техничките заштитни мерки за перформанси, нагласувајќи дека одговорниот пристап е најважен.
Договорот исто така има за цел да ги деескалира тензиите и да поттикне поширока соработка во заедницата на вештачката интелигенција. OpenAI побара истите заштитни услови да бидат достапни за сите компании за вештачка интелигенција, надевајќи се дека ќе се олеснат слични одговорни партнерства низ целата индустрија. Ова е дел од пошироката стратегија на OpenAI, како што е демонстрирано со неговото континуирано партнерство со Microsoft и напорите кон скалирање на вештачката интелигенција за сите.
Поставување нов стандард за ангажман на вештачка интелигенција во одбраната
OpenAI верува дека неговиот договор поставува повисок стандард за класифицирани распоредувања на вештачка интелигенција во споредба со претходните аранжмани, вклучувајќи ги и оние дискутирани од други лаборатории како Anthropic. Довербата произлегува од вградените основни заштити: распоредувањето само во облак што го одржува интегритетот на безбедносниот стек на OpenAI, експлицитните договорни гаранции и активното вклучување на овластениот персонал на OpenAI.
Оваа сеопфатна рамка осигурува дека наведените „црвени линии“ – спречување масовен домашен надзор и контрола на автономно оружје – се робусно спроведени. Договорниот јазик кој експлицитно се однесува на постојните закони осигурува дека дури и ако политиките се променат во иднина, употребата на системите на OpenAI мора сè уште да биде во согласност со оригиналните, построги стандарди. Овој проактивен став ја нагласува посветеноста на OpenAI за развивање и распоредување моќни технологии за вештачка интелигенција на начин што ги приоритизира безбедноста, етиката и демократските вредности, дури и во најпребирливите контексти на национална безбедност.
Често поставувани прашања
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
Бидете информирани
Добивајте ги најновите AI вести на е-пошта.
