Code Velocity
Sigurnost AI-ja

Anthropic prkosi Ministarstvu rata zbog AI-ja, poziva se na prava i sigurnost

·4 min čitanja·Anthropic·Izvorni izvor
Podijeli
Službena izjava Anthropic-a u vezi s potencijalnom odlukom Ministarstva rata o riziku opskrbnog lanca zbog etike AI-ja.

Anthropic čvrsto stoji protiv Ministarstva rata zbog etike AI-ja

U potezu bez presedana koji je uzdrmao tehnološki i obrambeni sektor, AI lider Anthropic javno se usprotivio Ministarstvu rata (DoW) zbog potencijalne oznake "rizika opskrbnog lanca". Sukob proizlazi iz Anthropic-ovog nepokolebljivog odbijanja da dopusti korištenje svog naprednog AI modela, Claude, za dvije specifične primjene: masovni domaći nadzor Amerikanaca i primjenu u potpuno autonomnom oružju. Ovaj zastoj, koji je ministar rata Pete Hegseth objavio putem X-a 27. veljače 2026., označava kritičnu točku u tekućoj raspravi o etici AI-ja, nacionalnoj sigurnosti i korporativnoj odgovornosti.

Anthropic tvrdi da je njegov stav ne samo etički, već i vitalan za povjerenje i sigurnost javnosti, obećavajući da će se pravno suprotstaviti svakoj takvoj oznaci. Transparentnost tvrtke u ovom pitanju naglašava sve veću hitnost jasnih smjernica i snažnog dijaloga oko vojne i nadzorne primjene naprednih AI modela.

Etička crvena linija: Nadzor i autonomno oružje

U srži spora su dva specifična izuzetka Anthropic-a od zakonite upotrebe njegovih AI modela za nacionalnu sigurnost. Ti izuzeci, koji su navodno zaustavili višemjesečne pregovore s Ministarstvom rata, su:

  1. Masovni domaći nadzor Amerikanaca: Anthropic vjeruje da korištenje AI-ja za široko rasprostranjeno praćenje vlastitih građana predstavlja ozbiljno kršenje temeljnih prava i demokratskih načela. Tvrtka privatnost smatra kamenom temeljcem građanskih sloboda, a primjena AI-ja na ovaj način narušila bi taj temelj.
  2. Potpuno autonomno oružje: Tvrtka čvrsto tvrdi da trenutni napredni AI modeli, uključujući Claude, još nisu dovoljno pouzdani za primjenu u sustavima koji donose odluke o životu i smrti bez ljudske intervencije. Takva nepouzdanost, upozorava Anthropic, mogla bi tragično ugroziti i američke borce i nevine civile. Ovaj stav usklađen je s rastućim zabrinutostima u AI zajednici oko nepredvidivosti naprednih modela u složenim okruženjima visokog rizika.

Anthropic naglašava da ti uski izuzeci, koliko im je poznato, nisu ometali nijednu postojeću vladinu misiju. Tvrtka ima dokazanu povijest podržavanja američkih napora u nacionalnoj sigurnosti, primjenjujući svoje modele u povjerljivim mrežama američke vlade od lipnja 2024. Njihova predanost ostaje podržavanju svih zakonitih upotreba AI-ja za nacionalnu sigurnost koje ne prelaze ove kritične etičke i sigurnosne pragove.

Oznaka bez presedana: Pravna bitka predstoji

Prijetnja ministra Hegsetha da će Anthropic proglasiti rizikom za opskrbni lanac vrlo je neobična i potencijalno disruptivna akcija. Povijesno gledano, takve oznake prema 10 USC 3252 bile su rezervirane za strane protivnike ili subjekte koji se smatraju prijetnjom integritetu vojnih opskrbnih lanaca. Primjena ove oznake na američku tvrtku, posebno onu koja je bila vladin ugovaratelj i inovator, bez presedana je i postavlja opasan presedan.

Anthropic tvrdi da bi takva oznaka bila "pravno neutemeljena" i postavila "opasan presedan". Tvrde da njihov etički stav, usmjeren na sprječavanje zlouporabe i osiguravanje pouzdanosti AI-ja, ne predstavlja rizik za opskrbni lanac u tradicionalnom smislu. Nadalje, tvrtka, koja je uključena u povjerljive mreže američke vlade od lipnja 2024., vjeruje da je oznaka prekoračenje ovlasti namijenjeno prisilnom poštivanju.

Potencijalna pravna bitka nesumnjivo će preispitati tumačenje 10 USC 3252 i njegovu primjenjivost na napredne AI mogućnosti, potencijalno oblikujući buduće regulatorne okvire za AI u obrani.

Razumijevanje utjecaja na korisnike

Jedna od glavnih briga Anthropic-a bila je razjasniti praktične implikacije oznake rizika opskrbnog lanca za svoju raznoliku bazu korisnika. Dok su izjave ministra Hegsetha implicirale široka ograničenja, Anthropic pruža nijansiranije tumačenje temeljeno na njihovom razumijevanju 10 USC 3252.

Tvrtka uvjerava svoje korisnike da je pravni opseg takve oznake ograničen:

Segment korisnikaUtjecaj oznake rizika opskrbnog lanca DoW-a (ako se formalno usvoji)
Pojedinačni korisniciPotpuno nepromijenjeno. Pristup Claudeu putem claude.ai ostaje.
Komercijalni ugovori s Anthropic-omPotpuno nepromijenjeno. Korištenje Claudea putem API-ja ili proizvoda ostaje.
Ugovaratelji Ministarstva rataSamo utječe na korištenje Claudea na poslovima po ugovoru s Ministarstvom rata.
Ugovaratelji DoW-a (za druge korisnike/svrhe)Nepromijenjeno. Korištenje Claudea za ugovore koji nisu s DoW-om ili internu upotrebu je dopušteno.

Anthropic naglašava da ministar rata ne posjeduje zakonsku ovlast proširiti ta ograničenja izvan izravnih ugovora s DoW-om. Ovo pojašnjenje ima za cilj ublažiti svaku neizvjesnost ili poremećaj za njihov ogroman ekosustav korisnika i partnera. Prodajni i podržni timovi tvrtke spremni su odgovoriti na sva daljnja pitanja.

Šire implikacije za upravljanje AI-jem i dijalog u industriji

Javni sukob između Anthropic-a i Ministarstva rata signalizira sazrijevanje faze u odnosu AI industrije s vladom i nacionalnom sigurnošću. On naglašava kritičnu potrebu za sveobuhvatnim politikama upravljanja AI-jem, posebno u pogledu tehnologija dvostruke namjene. Spremnost Anthropic-a da "ospori svaku oznaku rizika opskrbnog lanca na sudu" pokazuje snažnu korporativnu predanost etičkim načelima, čak i pred značajnim pritiskom.

Ova situacija također naglašava rastući pritisak na AI developere da preuzmu aktivniju ulogu u definiranju etičkih granica svojih kreacija, prelazeći s tehničkog razvoja na proaktivno zagovaranje politika. Industrija se sve više bori sa složenim etičkim pitanjima vezanim uz implementaciju moćnih modela poput Claudea. Tvrtke aktivno rade na metodama za ometanje zlonamjernih upotreba AI-ja i osiguravaju da se njihove tehnologije koriste u korisne svrhe.

Ishod ovog zastoja mogao bi značajno utjecati na način na koji će druge napredne AI tvrtke surađivati s obrambenim agencijama diljem svijeta. Mogao bi potaknuti snažniji i transparentniji dijalog između tehnologa, etičara, kreatora politika i vojnih čelnika kako bi se uspostavila zajednička osnova za odgovorne AI inovacije koje služe nacionalnim interesima bez kompromitiranja temeljnih vrijednosti ili sigurnosti. Anthropic-ova odlučnost da zaštiti svoje korisnike i radi na glatkom prijelazu, čak i pod ovim "izvanrednim događajima", odražava posvećenost etičkom integritetu i praktičnom kontinuitetu.

Često postavljana pitanja

Koji je srž spora između Anthropic-a i Ministarstva rata?
Temeljno neslaganje proizlazi iz Anthropic-ovog odbijanja da dopusti korištenje svog naprednog AI modela, Claude, za dvije specifične svrhe: masovni domaći nadzor američkih građana i primjenu u potpuno autonomnim oružanim sustavima. Ova dva izuzetka dovela su do zastoja u pregovorima, potaknuvši ministra rata Petea Hegsetha da razmotri proglašenje Anthropic-a rizikom za opskrbni lanac. Anthropic tvrdi da je njegov stav temeljen na osnovnim etičkim načelima o temeljnim pravima i trenutnim ograničenjima pouzdanosti naprednih AI modela.
Koja su dva specifična etička izuzetka Anthropic-a za korištenje AI-ja?
Anthropic je dosljedno artikulirao dva ključna izuzetka od zakonite upotrebe svojih AI modela, uključujući Claudea. Prvi izuzetak zabranjuje korištenje njihovog AI-ja za masovni domaći nadzor američkih građana, navodeći kršenje temeljnih prava. Drugi izuzetak sprječava korištenje njihovog AI-ja u potpuno autonomnom oružju, tvrdeći da trenutni napredni AI modeli nemaju potrebnu pouzdanost i sigurnosne garancije da bi se mogli koristiti u tako kritičnim scenarijima života ili smrti bez ljudskog nadzora. Ovi izuzeci čine temelj njihovog sadašnjeg spora s Ministarstvom rata.
Zašto se Anthropic protivi ovim specifičnim upotrebama AI-ja?
Anthropic-ova prigovori ukorijenjeni su u etičkim i praktičnim zabrinutostima. Što se tiče potpuno autonomnog oružja, tvrtka vjeruje da današnji napredni AI modeli nisu dovoljno pouzdani da osiguraju sigurnost i boraca i civila. Nepredvidivost i potencijal za pogreške u tako kritičnim primjenama mogli bi dovesti do katastrofalnih ishoda. Za masovni domaći nadzor, Anthropic to smatra izravnim kršenjem temeljnih prava, nesukladnim s demokratskim načelima i očekivanjima privatnosti američkih građana. Njihov stav naglašava predanost odgovornom razvoju AI-ja koji poštuje ljudske vrijednosti i sigurnost.
Što je 'oznaka rizika opskrbnog lanca' i koje su njezine potencijalne implikacije?
'Oznaka rizika opskrbnog lanca' prema 10 USC 3252 mjera je koja je tipično rezervirana za subjekte koji predstavljaju prijetnju nacionalnoj sigurnosti ili integritetu vojnih opskrbnih lanaca, često povezanih s inozemnim protivnicima. Ako se formalno usvoji protiv Anthropic-a, to bi zakonski ograničilo korištenje Claudea posebno unutar ugovora Ministarstva rata. Iako je ministar Hegseth nagovijestio šira ograničenja za tvrtke koje posluju s vojskom, Anthropic tvrdi da zakonska ovlast ograničava njegov opseg na izravne angažmane Ministarstva rata, a ne na komercijalne ugovore ili druge vladine poslove. Ova je oznaka povijesno bez presedana za američku tvrtku.
Kako bi ova oznaka utjecala na korisnike Anthropic-a?
Anthropic pojašnjava da bi oznaka, ako se formalno usvoji, imala ograničen utjecaj. Za pojedinačne korisnike i one s komercijalnim ugovorima, pristup Claudeu putem API-ja, claude.ai ili drugih proizvoda ostao bi potpuno nepromijenjen. Za ugovaratelje Ministarstva rata, oznaka bi se primjenjivala samo na njihovu upotrebu Claudea u okviru ugovora s Ministarstvom rata. Njihova upotreba Claudea u bilo koje druge svrhe ili s drugim klijentima ostala bi neograničena. Anthropic naglašava da ministar rata nema zakonsku ovlast nametati šira ograničenja izvan izravnih vojnih ugovora.
Koji je sljedeći korak Anthropic-a kao odgovor na ovu potencijalnu oznaku?
Anthropic je javno izjavio svoju čvrstu namjeru da ospori svaku formalnu oznaku rizika opskrbnog lanca na sudu. Tvrtka vjeruje da bi takva oznaka bila 'pravno neutemeljena' i postavila 'opasan presedan' za svaku američku tvrtku uključenu u pregovore s vladom. Ovaj pravni izazov naglašava njihovu nepokolebljivu predanost etičkim načelima i njihovu odlučnost da zaštite svoje poslovanje i odnose s korisnicima od onoga što smatraju prekoračenjem ovlasti.
Koji širi presedan ova situacija postavlja za AI industriju?
Ova situacija postavlja značajan presedan za cijelu AI industriju, posebno u pogledu etičkih granica razvoja i implementacije AI-ja u kontekstu nacionalne sigurnosti. Ona naglašava rastuću napetost između tehnoloških mogućnosti, etičke odgovornosti i vladinih zahtjeva. Anthropic-ov prkosni stav mogao bi potaknuti druge AI tvrtke da povuku vlastite crvene linije o dopuštenim upotrebama, potencijalno oblikujući buduće propise i industrijske norme oko etike AI-ja, ljudskih prava i razvoja autonomnih sustava. Ona podiže debatu o tome gdje leži krajnja odgovornost za društveni utjecaj AI-ja.

Budite u toku

Primajte najnovije AI vijesti na e-mail.

Podijeli