Code Velocity
Безбедност на АИ

Anthropic пркоси на Секретарот за војна за АИ, повикувајќи се на правата и безбедноста

·4 мин читање·Anthropic·Оригинален извор
Сподели
Официјална изјава на Anthropic во врска со потенцијалната ознака за ризик во синџирот на снабдување од Department of War поради етиката на АИ.

Anthropic Цврсто стои против Department of War за етиката на АИ

Во потег без преседан што предизвика бранувања низ технолошкиот и одбранбениот сектор, АИ лидерот Anthropic јавно го предизвика Department of War (DoW) поради потенцијална ознака „ризик во синџирот на снабдување“. Конфликтот произлегува од непоколебливото одбивање на Anthropic да дозволи употреба на својот напреден АИ модел, Claude, за две специфични примени: масовен домашен надзор на Американците и распоредување во целосно автономно оружје. Овој судир, кој Секретарот за војна Pete Hegseth го објави преку X на 27 февруари 2026 година, означува критична пресвртница во тековната дебата за етиката на АИ, националната безбедност и корпоративната одговорност.

Anthropic тврди дека нивната позиција е не само етичка, туку и витална за јавната доверба и безбедност, ветувајќи дека законски ќе ја оспори секоја таква ознака. Транспарентноста на компанијата во ова прашање ја нагласува растечката итност за јасни упатства и цврст дијалог околу воените и надзорни апликации на најновата АИ.

Етичката црвена линија: Надзор и автономно оружје

Во суштината на спорот се двата специфични исклучоци на Anthropic за законската употреба на нејзините АИ модели за национална безбедност. Овие исклучоци, кои наводно ги закочиле повеќемесечните преговори со Department of War, се:

  1. Масовен домашен надзор на Американците: Anthropic верува дека употребата на АИ за широко распространет мониторинг на сопствените граѓани претставува сериозно кршење на основните права и демократските принципи. Компанијата ја смета приватноста како камен-темелник на граѓанските слободи, а распоредувањето на АИ на овој начин би ја нарушило таа основа.
  2. Целосно автономно оружје: Компанијата цврсто тврди дека тековните најнови АИ модели, вклучувајќи го и Claude, сè уште не се доволно доверливи за распоредување во системи кои донесуваат одлуки за живот или смрт без човечка интервенција. Таквата несигурност, предупредува Anthropic, може трагично да ги загрози и американските борци и невини цивили. Овој став е во согласност со растечките грижи низ АИ заедницата за непредвидливата природа на напредните модели во сложени средини со висок влог.

Anthropic нагласува дека овие тесни исклучоци, според нивното знаење, не ја попречиле ниту една постоечка владина мисија. Компанијата има докажана историја на поддршка на американските напори за национална безбедност, распоредувајќи ги своите модели во класифицирани владини мрежи на САД од јуни 2024 година. Нивната посветеност останува на поддршка на сите законски употреби на АИ за национална безбедност кои не ги преминуваат овие критични етички и безбедносни прагови.

Ознака без преседан: Се наѕира правна битка

Заканата на Секретарот Hegseth да го означи Anthropic како ризик во синџирот на снабдување е многу необичен и потенцијално нарушувачки потег. Историски, ваквите ознаки според 10 USC 3252 биле резервирани за странски противници или субјекти кои се сметаат дека претставуваат директна закана за интегритетот на воените синџири на снабдување. Примената на оваа етикета на американска компанија, особено онаа што била владин изведувач и иноватор, е без преседан и поставува опасен преседан.

Anthropic е недвосмислен во својот одговор: ќе ја оспори секоја ознака за ризик во синџирот на снабдување на суд. Компанијата тврди дека таквата ознака би била „правно неисправна“ и обид да се заплашат компаниите кои преговараат со владата. Оваа правна битка, доколку се материјализира, би можела да ја редефинира динамиката на моќ помеѓу технолошките иноватори и апаратите за национална безбедност, особено во однос на етичкиот развој и распоредувањето на АИ. Импликациите се протегаат подалеку од само Anthropic, потенцијално влијаејќи на тоа како другите АИ компании се ангажираат со договори за одбрана и се справуваат со етички дилеми.

Влијание врз клиентите: Појаснување на опсегот

Среде ескалирачките тензии, Anthropic презеде чекори да ја увери својата разновидна база на клиенти за практичните импликации од потенцијалната ознака за ризик во синџирот на снабдување. Компанијата нагласува дека имплицираните широки ограничувања на Секретарот Hegseth за секој што работи со војската не се поткрепени со законско овластување.

Според Anthropic, законскиот опсег на ознака 10 USC 3252 е конкретно ограничен на употребата на Claude како дел од договорите на Department of War. Ова значи:

Сегмент на клиентиВлијание на ознаката за ризик во синџирот на снабдување на DoW (доколку биде формално усвоена)
Индивидуални клиентиЦелосно незасегнати. Пристапот до Claude преку claude.ai останува.
Комерцијални договори со AnthropicЦелосно незасегнати. Употребата на Claude преку API или производи останува.
Изведувачи на Department of WarСамо влијае на употребата на Claude за работа по договори со Department of War.
Изведувачи на DoW (за други клиенти/употреби)Незасегнати. Употребата на Claude за договори кои не се со DoW или за внатрешна употреба е дозволена.

Anthropic нагласува дека Секретарот за војна не поседува законска овластување да ги прошири овие ограничувања надвор од директните договори на DoW. Ова појаснување има за цел да ја намали секоја несигурност или нарушување за неговиот огромен екосистем на корисници и партнери. Тимовите за продажба и поддршка на компанијата се во состојба на подготвеност да одговорат на какви било дополнителни прашања.

Пошироки импликации за управувањето со АИ и индустрискиот дијалог

Јавната конфронтација помеѓу Anthropic и Department of War сигнализира фаза на созревање во односот на АИ индустријата со владата и националната безбедност. Таа ја нагласува критичната потреба за сеопфатни политики за управување со АИ, особено во однос на технологиите со двојна употреба. Подготвеноста на Anthropic да „оспори која било ознака за ризик во синџирот на снабдување на суд“ демонстрира силна корпоративна посветеност на етичките принципи, дури и пред значителен притисок.

Оваа ситуација, исто така, го нагласува растечкиот притисок врз развивачите на АИ да преземат поактивна улога во дефинирањето на етичките граници на нивните креации, надминувајќи го техничкиот развој кон проактивно застапување на политиките. Индустријата сè повеќе се соочува со сложените етички прашања околу распоредувањето на моќни модели како Claude. Компаниите активно работат на методи за спречување на злонамерни употреби на АИ и осигурување дека нивните технологии се користат за корисни цели.

Исходот од овој судир би можел значително да влијае на тоа како другите најнови АИ компании комуницираат со одбранбените агенции на глобално ниво. Може да поттикне поцврст и транспарентен дијалог помеѓу технолозите, етичарите, креаторите на политики и воените лидери за да се воспостави заедничка основа за одговорна АИ иновација што им служи на националните интереси без да ги компромитира основните вредности или безбедност. Решеноста на Anthropic да ги заштити своите клиенти и да работи кон непречена транзиција, дури и под овие „вонредни настани“, ја одразува посветеноста и на етичкиот интегритет и на практичната континуитет.

Често поставувани прашања

Кој е основниот спор помеѓу Anthropic и Department of War?
Фундаменталното несогласување произлегува од одбивањето на Anthropic да дозволи употреба на својот напреден АИ модел, Claude, за две специфични цели: масовен домашен надзор на американски граѓани и распоредување во целосно автономни оружени системи. Овие два исклучока доведоа до ќорсокак во преговорите, поттикнувајќи го Секретарот за војна Pete Hegseth да размисли за означување на Anthropic како ризик во синџирот на снабдување. Anthropic тврди дека нивната позиција се заснова на основни етички принципи во врска со фундаменталните права и тековните ограничувања на доверливоста на најновите АИ.
Кои се двата специфични етички исклучоци на Anthropic за употреба на АИ?
Anthropic постојано артикулираше два клучни исклучоци за законската употреба на своите АИ модели, вклучувајќи го и Claude. Првиот исклучок ја забранува употребата на нивната АИ за масовен домашен надзор на американски граѓани, наведувајќи прекршувања на основните права. Вториот исклучок спречува употреба на нивната АИ во целосно автономно оружје, тврдејќи дека тековните најнови АИ модели немаат доволна доверливост и безбедносни гаранции за да бидат распоредени во такви критични сценарија, каде што се одлучува за живот или смрт, без човечки надзор. Овие исклучоци ја формираат основата на нивниот тековен спор со Department of War.
Зошто Anthropic се противи на овие специфични употреби на АИ?
Приговорите на Anthropic се вкоренети во етички и практични грижи. Во однос на целосно автономното оружје, компанијата верува дека денешните најнови АИ модели не се доволно доверливи за да ја осигурат безбедноста и на борците и на цивилите. Непредвидливоста и потенцијалот за грешки во такви критични апликации би можеле да доведат до катастрофални исходи. За масовниот домашен надзор, Anthropic го смета ова за директно кршење на основните права, неконзистентно со демократските принципи и очекувањата за приватност на американските граѓани. Нивниот став ја нагласува посветеноста на одговорен развој на АИ што ги почитува човечките вредности и безбедност.
Што е „ознака за ризик во синџирот на снабдување“ и какви се нејзините потенцијални импликации?
„Ознака за ризик во синџирот на снабдување“ според 10 USC 3252 е мерка типично резервирана за субјекти кои претставуваат закана за националната безбедност или интегритетот на воените синџири на снабдување, често поврзана со странски противници. Доколку биде формално усвоена против Anthropic, таа законски би ја ограничила употребата на Claude конкретно во договорите на Department of War. Додека Секретарот Hegseth навестуваше пошироки ограничувања за компаниите кои работат со војската, Anthropic тврди дека законската овластување го ограничува нејзиниот опсег на директни ангажмани со Department of War, а не на комерцијални договори или друга владина работа. Оваа ознака е историски без преседан за американска компанија.
Како оваа ознака би влијаела на клиентите на Anthropic?
Anthropic појаснува дека ознаката, доколку биде формално усвоена, би имала ограничено влијание. За индивидуални клиенти и оние со комерцијални договори, пристапот до Claude преку API, claude.ai или други производи би останал целосно незасегнат. За изведувачите на Department of War, ознаката би се однесувала само на нивната употреба на Claude за работа по договори со Department of War. Нивната употреба на Claude за какви било други цели или со други клиенти би останала неограничена. Anthropic нагласува дека Секретарот за војна нема законска овластување да наметнува пошироки ограничувања надвор од директните воени договори.
Кој е следниот чекор на Anthropic како одговор на оваа потенцијална ознака?
Anthropic јавно ја изјави својата цврста намера да ја оспори секоја формална ознака за ризик во синџирот на снабдување на суд. Компанијата верува дека таквата ознака би била и „правно неисправна“ и би поставила „опасен преседан“ за која било американска компанија вклучена во преговори со владата. Овој правен предизвик ја нагласува нивната непоколеблива посветеност на нивните етички принципи и нивната решеност да ги заштитат своите операции и односите со клиентите од она што го сметаат за пречекорување на авторитетот.
Каков поширок преседан поставува оваа ситуација за АИ индустријата?
Оваа ситуација поставува значаен преседан за целата АИ индустрија, особено во однос на етичките граници на развојот и распоредувањето на АИ во контекст на националната безбедност. Таа ја нагласува растечката тензија помеѓу технолошките способности, етичката одговорност и владините барања. Пркосниот став на Anthropic може да поттикне други АИ компании да ги постават сопствените црвени линии за дозволените употреби, потенцијално обликувајќи ги идните регулативи и индустриски норми околу етиката на АИ, човековите права и развојот на автономни системи. Таа ја подига дебатата за тоа каде лежи крајната одговорност за општественото влијание на АИ.

Бидете информирани

Добивајте ги најновите AI вести на е-пошта.

Сподели