Code Velocity
Bezbednost AI

Anthropic prkosi Sekretaru rata zbog veštačke inteligencije, navodeći prava i bezbednost

·4 min čitanja·Anthropic·Originalni izvor
Podeli
Zvanična izjava Anthropic-a povodom potencijalnog određenja Ministarstva rata kao rizika po lanac snabdevanja zbog etike veštačke inteligencije.

Anthropic ostaje čvrst protiv Ministarstva rata po pitanju etike AI

U potezu bez presedana koji je uzdrmao tehnološki i odbrambeni sektor, AI lider Anthropic javno je osporio Ministarstvo rata (DoW) zbog potencijalnog označavanja kao „rizika po lanac snabdevanja”. Sukob proizlazi iz nepokolebljivog odbijanja Anthropic-a da dozvoli korišćenje svog naprednog AI modela, Claude, za dve specifične primene: masovni domaći nadzor Amerikanaca i primenu u potpuno autonomnom oružju. Ovaj sukob, koji je Sekretar rata Pete Hegseth objavio putem platforme X 27. februara 2026. godine, označava kritičnu prekretnicu u tekućoj debati o etici AI, nacionalnoj bezbednosti i korporativnoj odgovornosti.

Anthropic tvrdi da je njegov stav ne samo etički, već i vitalan za poverenje javnosti i bezbednost, obećavajući da će se pravno suprotstaviti svakom takvom označavanju. Transparentnost kompanije po ovom pitanju naglašava rastuću hitnost za jasnim smernicama i snažnim dijalogom u vezi sa vojnim i nadzornim primenama granične AI.

Etička crvena linija: Nadzor i autonomno oružje

U srcu spora su dva specifična izuzetka Anthropic-a od zakonite upotrebe njegovih AI modela za nacionalnu bezbednost. Ovi izuzeci, koji su navodno zaustavili višemesečne pregovore sa Ministarstvom rata, su:

  1. Masovni domaći nadzor Amerikanaca: Anthropic veruje da korišćenje AI za široko rasprostranjeno praćenje sopstvenih građana predstavlja ozbiljno kršenje fundamentalnih prava i demokratskih principa. Kompanija privatnost posmatra kao kamen temeljac građanskih sloboda, a primena AI na ovaj način bi podrivala taj temelj.
  2. Potpuno autonomno oružje: Kompanija čvrsto tvrdi da trenutni granični AI modeli, uključujući Claudea, još uvek nisu dovoljno pouzdani za primenu u sistemima koji donose odluke o životu i smrti bez ljudske intervencije. Takva nepouzdanost, upozorava Anthropic, mogla bi tragično ugroziti kako američke borce tako i nevine civile. Ovaj stav se podudara sa rastućom zabrinutošću u AI zajednici zbog nepredvidivosti naprednih modela u složenim okruženjima sa visokim ulozima. Posvećenost Anthropic-a izgradnji sigurne i pouzdane AI je od najveće važnosti, što je demonstrirano u diskusijama o bezbednosti Claudeovog koda i naporima da se spreče zlonamerne upotrebe AI.

Anthropic naglašava da ovi uski izuzeci, koliko im je poznato, do sada nisu ometali nijednu postojeću vladinu misiju. Kompanija ima dokazanu istoriju podrške američkim naporima u nacionalnoj bezbednosti, primenjujući svoje modele u klasifikovanim mrežama vlade SAD od juna 2024. godine. Njihova posvećenost ostaje da podržavaju sve zakonite upotrebe AI za nacionalnu bezbednost koje ne prelaze ove kritične etičke i bezbednosne pragove.

Označavanje bez presedana: Pravna bitka predstoji

Pretnja Sekretara Hegsetha da Anthropic označi kao rizik za lanac snabdevanja je veoma neobičan i potencijalno remetilački potez. Istorijski gledano, takva označavanja prema 10 USC 3252 su bila rezervisana za strane protivnike ili entitete za koje se smatralo da predstavljaju direktnu pretnju integritetu vojnih lanaca snabdevanja. Primena ove oznake na američku kompaniju, posebno onu koja je bila vladin izvođač radova i inovator, je bez presedana i postavlja opasan presedan.

Anthropic je nedvosmislen u svom odgovoru: osporiće svako označavanje kao rizika za lanac snabdevanja pred sudom. Kompanija tvrdi da bi takvo označavanje bilo „pravno neutemeljeno” i pokušaj zastrašivanja kompanija koje pregovaraju sa vladom. Ova pravna bitka, ako se ostvari, mogla bi redefinisati dinamiku moći između tehnoloških inovatora i aparata nacionalne bezbednosti, posebno u vezi sa etičkim razvojem i primenom AI u odbrani.

Razumevanje uticaja na korisnike

Jedna od primarnih briga Anthropic-a bila je da razjasni praktične implikacije označavanja kao rizika za lanac snabdevanja za svoju raznoliku bazu korisnika. Dok su izjave Sekretara Hegsetha implicirale široke restrikcije, Anthropic pruža nijansiranije tumačenje zasnovano na svom razumevanju 10 USC 3252.

Kompanija uverava svoje korisnike da je pravno ovlašćenje takvog označavanja ograničeno:

Segment korisnikaUticaj označavanja kao rizika za lanac snabdevanja Ministarstva rata (ako bude formalno usvojeno)
Individualni korisniciPotpuno nepromenjeno. Pristup Claudeu putem claude.ai ostaje.
Komercijalni ugovori sa Anthropic-omPotpuno nepromenjeno. Korišćenje Claudea putem API-ja ili proizvoda ostaje.
Izvođači radova Ministarstva rataSamo utiče na korišćenje Claudea za poslove po ugovoru sa Ministarstvom rata.
Izvođači radova Ministarstva rata (za druge korisnike/namene)Nepromenjeno. Korišćenje Claudea za ugovore koji nisu sa Ministarstvom rata ili za internu upotrebu je dozvoljeno.

Anthropic naglašava da Sekretar rata nema zakonsko ovlašćenje da proširi ove restrikcije izvan direktnih ugovora sa Ministarstvom rata. Ovo pojašnjenje ima za cilj da ublaži bilo kakvu neizvesnost ili poremećaj za njegov ogroman ekosistem korisnika i partnera. Prodajni i timovi za podršku kompanije su u pripravnosti da odgovore na sva dalja pitanja.

Šire implikacije za upravljanje AI i dijalog u industriji

Javni sukob između Anthropic-a i Ministarstva rata signalizira fazu sazrevanja u odnosu AI industrije sa vladom i nacionalnom bezbednošću. On podvlači kritičnu potrebu za sveobuhvatnim politikama o upravljanju AI, posebno u vezi sa tehnologijama dvostruke namene. Spremnost Anthropic-a da „ospori svako označavanje kao rizika za lanac snabdevanja pred sudom” demonstrira snažnu korporativnu posvećenost etičkim principima, čak i pred značajnim pritiskom.

Ova situacija takođe naglašava rastući pritisak na AI programere da preuzmu aktivniju ulogu u definisanju etičkih granica svojih kreacija, prelazeći sa tehničkog razvoja na proaktivno zagovaranje politika. Industrija se sve više bori sa složenim etičkim pitanjima koja okružuju primenu moćnih modela poput Claudea. Kompanije aktivno rade na metodama za ometanje zlonamernih upotreba AI i obezbeđivanje da se njihove tehnologije koriste u korisne svrhe.

Ishod ovog sukoba mogao bi značajno uticati na to kako će druge granične AI kompanije sarađivati sa odbrambenim agencijama širom sveta. To može podstaći snažniji i transparentniji dijalog između tehnologa, etičara, kreatora politika i vojnih lidera kako bi se uspostavio zajednički osnov za odgovornu AI inovaciju koja služi nacionalnim interesima bez ugrožavanja fundamentalnih vrednosti ili bezbednosti. Odlučnost Anthropic-a da zaštiti svoje korisnike i radi na glatkoj tranziciji, čak i pod ovim „izvanrednim okolnostima”, odražava posvećenost etičkom integritetu i praktičnom kontinuitetu.

Često postavljana pitanja

Šta je suština spora između Anthropic-a i Ministarstva rata?
Fundamentalno neslaganje proizlazi iz odbijanja Anthropic-a da dozvoli korišćenje svog naprednog AI modela, Claude, za dve specifične svrhe: masovni domaći nadzor američkih građana i primenu u potpuno autonomnim oružanim sistemima. Ova dva izuzetka dovela su do zastoja u pregovorima, podstičući Sekretara rata Petea Hegsetha da razmotri označavanje Anthropic-a kao rizika za lanac snabdevanja. Anthropic tvrdi da je njegov stav zasnovan na osnovnim etičkim principima koji se tiču fundamentalnih prava i trenutnih ograničenja pouzdanosti granične AI.
Koja su dva specifična etička izuzetka Anthropic-a za upotrebu AI?
Anthropic je dosledno iznosio dva ključna izuzetka od zakonite upotrebe svojih AI modela, uključujući Claudea. Prvi izuzetak zabranjuje korišćenje njihove AI za masovni domaći nadzor američkih građana, navodeći kršenje fundamentalnih prava. Drugi izuzetak sprečava korišćenje njihove AI u potpuno autonomnom oružju, tvrdeći da trenutni granični AI modeli nemaju potrebnu pouzdanost i sigurnosne garancije za primenu u tako kritičnim scenarijima života ili smrti bez ljudskog nadzora. Ovi izuzeci čine temelj njihovog trenutnog spora sa Ministarstvom rata.
Zašto se Anthropic protivi ovim specifičnim upotrebama AI?
Prigovori Anthropic-a su ukorenjeni kako u etičkim tako i u praktičnim brigama. Što se tiče potpuno autonomnog oružja, kompanija veruje da današnji granični AI modeli nisu dovoljno pouzdani da obezbede sigurnost kako boraca tako i civila. Nepredvidivost i potencijal za greške u tako kritičnim primenama mogu dovesti do katastrofalnih ishoda. Za masovni domaći nadzor, Anthropic ovo vidi kao direktno kršenje fundamentalnih prava, nespojivo sa demokratskim principima i očekivanjima američkih građana u pogledu privatnosti. Njihov stav podvlači posvećenost odgovornom razvoju AI koji poštuje ljudske vrednosti i sigurnost.
Šta je 'označavanje kao rizika za lanac snabdevanja' i koje su njegove potencijalne implikacije?
„Označavanje kao rizika za lanac snabdevanja” prema 10 USC 3252 je mera koja je obično rezervisana za entitete koji predstavljaju pretnju nacionalnoj bezbednosti ili integritetu vojnih lanaca snabdevanja, često povezane sa stranim protivnicima. Ako bi bila formalno usvojena protiv Anthropic-a, zakonski bi ograničila upotrebu Claudea specifično unutar ugovora Ministarstva rata. Iako je Sekretar Hegseth implicirao šire restrikcije za kompanije koje posluju sa vojskom, Anthropic tvrdi da zakonsko ovlašćenje ograničava njegov opseg na direktne angažmane Ministarstva rata, a ne na komercijalne ugovore ili druge vladine poslove. Ovo označavanje je istorijski bez presedana za američku kompaniju.
Kako bi ovo označavanje uticalo na korisnike Anthropic-a?
Anthropic pojašnjava da bi označavanje, ako bude formalno usvojeno, imalo ograničen uticaj. Za individualne korisnike i one sa komercijalnim ugovorima, pristup Claudeu putem API-ja, claude.ai ili drugih proizvoda ostao bi potpuno nepromenjen. Za izvođače radova Ministarstva rata, označavanje bi se primenjivalo samo na njihovu upotrebu Claudea u okviru poslova po ugovorima sa Ministarstvom rata. Njihova upotreba Claudea za bilo koje druge svrhe ili sa drugim klijentima ostala bi neograničena. Anthropic naglašava da Sekretar rata nema zakonsko ovlašćenje da nameće šire restrikcije izvan direktnih vojnih ugovora.
Koji je sledeći korak Anthropic-a kao odgovor na ovo potencijalno označavanje?
Anthropic je javno izneo svoju čvrstu nameru da ospori svako formalno označavanje kao rizika za lanac snabdevanja pred sudom. Kompanija veruje da bi takvo označavanje bilo „pravno neutemeljeno” i da bi postavilo „opasan presedan” za bilo koju američku kompaniju uključenu u pregovore sa vladom. Ovaj pravni izazov podvlači njihovu nepokolebljivu posvećenost etičkim principima i njihovu odlučnost da zaštite svoje poslovanje i odnose sa korisnicima od onoga što smatraju prekoračenjem ovlašćenja.
Kakav širi presedan ova situacija postavlja za AI industriju?
Ova situacija postavlja značajan presedan za celokupnu AI industriju, posebno u vezi sa etičkim granicama razvoja i primene AI u kontekstima nacionalne bezbednosti. Ona naglašava rastuću napetost između tehnoloških mogućnosti, etičke odgovornosti i vladinih zahteva. Prkosan stav Anthropic-a mogao bi podstaći druge AI kompanije da povuku sopstvene crvene linije po pitanju dozvoljenih upotreba, potencijalno oblikujući buduće propise i industrijske norme oko etike AI, ljudskih prava i razvoja autonomnih sistema. On podiže debatu o tome gde leži krajnja odgovornost za društveni uticaj AI.

Будите у току

Примајте најновије AI вести на имејл.

Podeli