Code Velocity
Сигурност на ИИ

Anthropic се противопоставя на военния секретар за ИИ, позовавайки се на права и безопасност

·4 мин четене·Anthropic·Оригинален източник
Сподели
Официално изявление на Anthropic относно потенциалното определяне от Министерството на войната за риск по веригата за доставки заради етиката на ИИ.

Anthropic е твърдо против Министерството на войната по отношение на етиката на ИИ

В безпрецедентен ход, който развълнува технологичния и отбранителния сектор, лидерът в областта на ИИ Anthropic публично оспори Министерството на войната (DoW) във връзка с потенциално определяне като „риск за веригата за доставки“. Конфликтът произтича от непоколебимия отказ на Anthropic да разреши използването на своя усъвършенстван модел ИИ, Claude, за две конкретни приложения: масово вътрешно наблюдение на американци и разполагане в напълно автономни оръжия. Тази патова ситуация, която министърът на войната Пит Хегсет обяви чрез X на 27 февруари 2026 г., отбелязва критичен момент в продължаващия дебат за етиката на ИИ, националната сигурност и корпоративната отговорност.

Anthropic поддържа, че позицията му е не само етична, но и жизненоважна за общественото доверие и безопасност, като се заклева да оспори по съдебен ред всяко такова определяне. Прозрачността на компанията по този въпрос подчертава нарастващата спешност от ясни насоки и солиден диалог около военните и надзорните приложения на авангардния ИИ.

Етичната червена линия: Наблюдение и автономни оръжия

В основата на спора са двете специфични изключения на Anthropic за законно използване на нейните модели ИИ за национална сигурност. Тези изключения, които според съобщенията са забавили месеци на преговори с Министерството на войната, са:

  1. Масово вътрешно наблюдение на американци: Anthropic смята, че използването на ИИ за широкомащабен мониторинг на собствените граждани представлява сериозно нарушение на основните права и демократичните принципи. Компанията разглежда неприкосновеността на личния живот като крайъгълен камък на гражданските свободи, а разполагането на ИИ по този начин би подкопало тази основа.
  2. Напълно автономни оръжия: Компанията твърдо заявява, че настоящите авангардни модели ИИ, включително Claude, все още не са достатъчно надеждни за разполагане в системи, които вземат решения за живот и смърт без човешка намеса. Тази ненадеждност, предупреждава Anthropic, би могла трагично да застраши както американските бойци, така и невинните цивилни. Тази позиция е в съответствие с нарастващите опасения в общността на ИИ относно непредсказуемия характер на усъвършенстваните модели в сложни, високорискови среди.

Anthropic подчертава, че тези ограничени изключения, доколкото им е известно, не са възпрепятствали нито една съществуваща правителствена мисия. Компанията има доказана история на подкрепа на усилията за национална сигурност на САЩ, като е разположила своите модели в класифицирани правителствени мрежи на САЩ от юни 2024 г. Техният ангажимент остава да подкрепят всички законни употреби на ИИ за национална сигурност, които не преминават тези критични етични и безопасни прагове.

Безпрецедентно определяне: Задава се правна битка

Заплахата на министър Хегсет да определи Anthropic като риск за веригата за доставки е изключително необичайно и потенциално разрушително действие. Исторически погледнато, подобни определения съгласно 10 USC 3252 са били запазвани за чуждестранни противници или субекти, за които се счита, че представляват пряка заплаха за целостта на военните вериги за доставки. Прилагането на този етикет към американска компания, особено такава, която е била правителствен изпълнител и иноватор, е безпрецедентно и създава опасен прецедент.

Anthropic е категоричен в своя отговор: ще оспори всяко определяне за риск по веригата за доставки в съда. Компанията твърди, че такова определяне би било „правно необосновано“ и опит за сплашване на компании, които преговарят с правителството. Тази правна битка, ако се осъществи, би могла да предефинира динамиката на властта между технологичните иноватори и апаратите за национална сигурност, особено по отношение на етичното развитие и внедряване на ИИ. Последиците се простират отвъд само Anthropic, потенциално засягайки как други компании за ИИ се ангажират с договори за отбрана и се ориентират в етични дилеми.

Разясняване на въздействието върху клиентите

Едно от основните притеснения на Anthropic е да изясни практическите последици от определянето на риск по веригата за доставки за своята разнообразна клиентска база. Докато изявленията на министър Хегсет намекнаха за широки ограничения, Anthropic предоставя по-нюансирана интерпретация въз основа на своето разбиране на 10 USC 3252.

Компанията уверява своите клиенти, че правната сила на такова определяне е ограничена:

Клиентски сегментВъздействие от определянето на риск по веригата за доставки на DoW (ако бъде официално прието)
Индивидуални клиентиНапълно незасегнати. Достъпът до Claude чрез claude.ai остава.
Търговски договори с AnthropicНапълно незасегнати. Използването на Claude чрез API или продукти остава.
Изпълнители на Министерството на войнатаЗасяга само използването на Claude при изпълнение на договори с Министерството на войната.
Изпълнители на DoW (за други клиенти/употреби)Незасегнати. Използването на Claude за договори, които не са с DoW, или за вътрешна употреба е разрешено.

Anthropic подчертава, че министърът на войната не притежава законови правомощия да разширява тези ограничения извън преките договори на DoW. Това изясняване цели да намали всяка несигурност или прекъсване за обширната екосистема от потребители и партньори.

По-широки последици за управлението на ИИ и индустриалния диалог

Публичната конфронтация между Anthropic и Министерството на войната сигнализира за фаза на съзряване във връзката на индустрията на ИИ с правителството и националната сигурност. Тя подчертава критичната нужда от всеобхватни политики за управление на ИИ, особено по отношение на технологиите с двойна употреба. Готовността на Anthropic да „оспори всяко определяне на риск по веригата за доставки в съда“ демонстрира силен корпоративен ангажимент към етични принципи, дори пред лицето на значителен натиск.

Тази ситуация също така подчертава нарастващия натиск върху разработчиците на ИИ да поемат по-активна роля в определянето на етичните граници на своите творения, преминавайки от техническо развитие към проактивно застъпничество за политика. Индустрията все повече се бори със сложните етични въпроси, свързани с разполагането на мощни модели като Claude. Компаниите активно работят върху методи за предотвратяване на злонамерени употреби на ИИ и гарантиране, че техните технологии се използват за полезни цели.

Резултатът от тази патова ситуация би могъл значително да повлияе на това как други авангардни компании за ИИ взаимодействат с отбранителните агенции в световен мащаб. Той може да насърчи по-солиден и прозрачен диалог между технолози, етици, политици и военни лидери за установяване на обща основа за отговорни иновации в ИИ, които служат на националните интереси, без да компрометират основните ценности или безопасност. Решимостта на Anthropic да защити своите клиенти и да работи за плавен преход, дори при тези „извънредни събития“, отразява отдаденост както на етичната цялост, така и на практическата приемственост.

Често задавани въпроси

Какъв е основният спор между Anthropic и Министерството на войната?
Основното несъгласие произтича от отказа на Anthropic да разреши използването на своя усъвършенстван модел ИИ, Claude, за две конкретни цели: масово вътрешно наблюдение на американски граждани и разполагане в напълно автономни оръжейни системи. Тези две изключения доведоха до патова ситуация в преговорите, което подтикна министъра на войната Пийт Хегсет да обмисли определянето на Anthropic като риск за веригата за доставки. Anthropic твърди, че позицията му се основава на основни етични принципи относно основните права и текущите ограничения на надеждността на авангардния ИИ.
Кои са двете специфични етични изключения на Anthropic за използване на ИИ?
Anthropic последователно е формулирал две ключови изключения от законното използване на своите модели ИИ, включително Claude. Първото изключение забранява използването на техния ИИ за масово вътрешно наблюдение на американски граждани, позовавайки се на нарушения на основните права. Второто изключение предотвратява използването на техния ИИ в напълно автономни оръжия, аргументирайки се, че настоящите авангардни модели ИИ нямат необходимата надеждност и гаранции за безопасност, за да бъдат разположени в такива критични сценарии, свързани с живот и смърт, без човешки надзор. Тези изключения формират основата на настоящия им спор с Министерството на войната.
Защо Anthropic възразява срещу тези специфични приложения на ИИ?
Възраженията на Anthropic се коренят както в етични, така и в практически съображения. По отношение на напълно автономните оръжия, компанията смята, че днешните авангардни модели ИИ не са достатъчно надеждни, за да гарантират безопасността както на бойците, така и на цивилното население. Непредсказуемостта и потенциалът за грешки в такива критични приложения биха могли да доведат до катастрофални резултати. За масовото вътрешно наблюдение, Anthropic разглежда това като пряко нарушение на основните права, несъвместимо с демократичните принципи и очакванията за неприкосновеност на личния живот на американските граждани. Тяхната позиция подчертава ангажимента към отговорно развитие на ИИ, което зачита човешките ценности и безопасност.
Какво представлява „определяне на риск по веригата за доставки“ и какви са потенциалните му последици?
„Определяне на риск по веригата за доставки“ съгласно 10 USC 3252 е мярка, обикновено запазена за субекти, които представляват заплаха за националната сигурност или целостта на военните вериги за доставки, често свързани с чуждестранни противници. Ако бъде официално прието срещу Anthropic, то законно ще ограничи използването на Claude конкретно в договорите на Министерството на войната. Докато министър Хегсет намекна за по-широки ограничения върху компании, които правят бизнес с армията, Anthropic твърди, че законовото правомощие ограничава обхвата му до директни ангажименти на Министерството на войната, а не до търговски договори или друга правителствена работа. Това определяне е исторически безпрецедентно за американска компания.
Как би повлияло това определяне на клиентите на Anthropic?
Anthropic изяснява, че определянето, ако бъде официално прието, ще има ограничено въздействие. За индивидуални клиенти и тези с търговски договори, достъпът до Claude чрез API, claude.ai или други продукти ще остане напълно незасегнат. За изпълнителите на Министерството на войната, определянето ще се прилага само за използването на Claude в работата по договори на Министерството на войната. Използването на Claude за всякакви други цели или с други клиенти ще остане неограничено. Anthropic подчертава, че министърът на войната няма законови правомощия да налага по-широки ограничения извън преките военни договори.
Каква е следващата стъпка на Anthropic в отговор на това потенциално определяне?
Anthropic публично заяви твърдото си намерение да оспори всяко официално определяне на риск по веригата за доставки в съда. Компанията вярва, че такова определяне би било както „правно необосновано“, така и би създало „опасен прецедент“ за всяка американска компания, участваща в преговори с правителството. Това правно предизвикателство подчертава техния непоколебим ангажимент към техните етични принципи и тяхната решимост да защитят своите операции и отношения с клиенти от това, което възприемат като превишаване на правомощията.
Какъв по-широк прецедент създава тази ситуация за индустрията на ИИ?
Тази ситуация създава значителен прецедент за цялата индустрия на ИИ, особено по отношение на етичните граници на разработването и внедряването на ИИ в контекста на националната сигурност. Тя подчертава нарастващото напрежение между технологичните възможности, етичната отговорност и правителствените изисквания. Дръзката позиция на Anthropic би могла да насърчи други компании за ИИ да определят свои собствени червени линии за допустими употреби, потенциално оформяйки бъдещи регулации и индустриални норми около етиката на ИИ, човешките права и развитието на автономни системи. Тя издига дебата за това къде се крие крайната отговорност за въздействието на ИИ върху обществото.

Бъдете информирани

Получавайте последните AI новини по имейл.

Сподели