Code Velocity
Siguria e AI-së

Anthropic sfidon Sekretarin e Luftës për AI, citon të drejtat dhe sigurinë

·4 min lexim·Anthropic·Burimi origjinal
Ndaj
Deklarata zyrtare e Anthropic në lidhje me caktimin e mundshëm të rrezikut të zinxhirit të furnizimit nga Departamenti i Luftës për shkak të etikës së AI-së.

Anthropic qëndron i vendosur kundër Departamentit të Luftës për Etikën e AI-së

Në një lëvizje të paprecedentë që ka krijuar valë në sektorët e teknologjisë dhe mbrojtjes, lideri i AI-së, Anthropic, ka sfiduar publikisht Departamentin e Luftës (DoW) për një caktim të mundshëm si 'rrezik i zinxhirit të furnizimit'. Konflikti buron nga refuzimi i palëkundur i Anthropic për të lejuar përdorimin e modelit të tij të avancuar të AI-së, Claude, për dy aplikacione specifike: mbikëqyrjen masive të brendshme të amerikanëve dhe vendosjen në armë plotësisht autonome. Ky ngërç, të cilin Sekretari i Luftës, Pete Hegseth, e njoftoi nëpërmjet X më 27 shkurt 2026, shënon një pikë kritike në debatin e vazhdueshëm rreth etikës së AI-së, sigurisë kombëtare dhe përgjegjësisë korporative.

Anthropic thekson se pozicioni i saj nuk është vetëm etik, por edhe thelbësor për besimin dhe sigurinë publike, duke u zotuar të kundërshtojë ligjërisht çdo caktim të tillë. Transparenca e kompanisë në këtë çështje thekson urgjencën në rritje për udhëzime të qarta dhe dialog të fortë rreth aplikacioneve ushtarake dhe të mbikëqyrjes të AI-së kufitare.

Linja e kuqe etike: Mbikëqyrja dhe Armët Autonome

Në thelb të mosmarrëveshjes janë dy përjashtimet specifike të Anthropic nga përdorimi i ligjshëm i modeleve të saj të AI-së për sigurinë kombëtare. Këto përjashtime, të cilat thuhet se kanë bllokuar muaj të tërë negociatash me Departamentin e Luftës, janë:

  1. Mbikëqyrja masive e brendshme e amerikanëve: Anthropic beson se përdorimi i AI-së për monitorimin e gjerë të qytetarëve të saj përbën një shkelje të rëndë të të drejtave themelore dhe parimeve demokratike. Kompania e sheh privatësinë si një gur themeli të lirive civile, dhe vendosja e AI-së në këtë mënyrë do të gërryente atë themel.
  2. Armët plotësisht autonome: Kompania thekson me vendosmëri se modelet aktuale të AI-së kufitare, duke përfshirë Claude, nuk janë ende mjaftueshëm të besueshme për t'u vendosur në sisteme që marrin vendime për jetë a vdekje pa ndërhyrje njerëzore. Një pabesueshmëri e tillë, paralajmëron Anthropic, mund të rrezikojë tragjikisht si ushtarakët amerikanë ashtu edhe civilët e pafajshëm. Ky qëndrim përputhet me shqetësimet në rritje në komunitetin e AI-së rreth natyrës së paparashikueshme të modeleve të avancuara në mjedise komplekse dhe me rrezik të lartë. Angazhimi i Anthropic për të ndërtuar AI të sigurt dhe të besueshme është thelbësor, siç demonstrohet në diskutimet rreth sigurisë së kodit të Claude dhe përpjekjeve për të parandaluar përdorimet keqdashëse të AI-së.

Anthropic thekson se këto përjashtime të ngushta, sipas dijenisë së saj, nuk kanë penguar asnjë mision ekzistues qeveritar. Kompania ka një histori të dëshmuar të mbështetjes së përpjekjeve amerikane për sigurinë kombëtare, duke pasur modelet e saj të vendosura në rrjetet e klasifikuara të qeverisë amerikane që nga qershori i vitit 2024. Angazhimi i tyre mbetet për të mbështetur të gjitha përdorimet e ligjshme të AI-së për sigurinë kombëtare që nuk kalojnë këto pragje kritike etike dhe të sigurisë.

Një caktim i paprecedentë: Beteja ligjore afër

Kërcënimi i Sekretarit Hegseth për të caktuar Anthropic si një rrezik për zinxhirin e furnizimit është një veprim tejet i pazakontë dhe potencialisht shqetësues. Historikisht, caktimet e tilla sipas 10 USC 3252 janë rezervuar për kundërshtarët e huaj ose entitetet që konsiderohen si kërcënim i drejtpërdrejtë për integritetin e zinxhirëve të furnizimit ushtarak. Zbatimi i kësaj etikete ndaj një kompanie amerikane, veçanërisht një që ka qenë kontraktor qeveritar dhe inovator, është i paprecedentë dhe vendos një precedent të rrezikshëm.

Anthropic është i prerë në përgjigjen e tij: do të kundërshtojë në gjykatë çdo caktim të rrezikut të zinxhirit të furnizimit. Kompania argumenton se një caktim i tillë do të ishte 'i pabazuar ligjërisht' dhe një përpjekje për të frikësuar kompanitë që negociojnë me qeverinë. Kjo betejë ligjore, nëse materializohet, mund të ripërcaktojë dinamikën e pushtetit midis inovatorëve të teknologjisë dhe aparateve të sigurisë kombëtare, veçanërisht në lidhje me zhvillimin etik dhe vendosjen e AI-së. Implikimet shtrihen përtej Anthropic, duke ndikuar potencialisht se si kompanitë e tjera të AI-së angazhohen me kontratat e mbrojtjes dhe menaxhojnë dilemat etike.

Shpjegimi i ndikimit te klientët

Një nga shqetësimet kryesore të Anthropic ka qenë sqarimi i implikimeve praktike të caktimit të rrezikut të zinxhirit të furnizimit për bazën e saj të ndryshme të klientëve. Ndërsa deklaratat e Sekretarit Hegseth nënkuptonin kufizime të gjera, Anthropic ofron një interpretim më të nuancuar bazuar në kuptimin e saj të 10 USC 3252.

Kompania siguron klientët e saj se autoriteti ligjor i një caktimi të tillë është i kufizuar:

Segmenti i KlientitNdikimi i caktimit të rrezikut të zinxhirit të furnizimit të Departamentit të Luftës (nëse miratohet zyrtarisht)
Klientët individualëPlotësisht të paprekur. Qasja në Claude përmes claude.ai mbetet.
Kontratat komerciale me AnthropicPlotësisht të paprekura. Përdorimi i Claude përmes API-së ose produkteve mbetet.
Kontraktorët e Departamentit të LuftësVetëm prek përdorimin e Claude në punën e kontratës së Departamentit të Luftës.
Kontraktorët e DoW (për klientë/përdorime të tjera)Të paprekur. Përdorimi i Claude për kontrata jo-DoW ose përdorim të brendshëm lejohet.

Anthropic thekson se Sekretari i Luftës nuk posedon autoritetin statutor për të shtrirë këto kufizime përtej kontratave direkte të Departamentit të Luftës. Ky sqarim synon të zbusë çdo pasiguri ose ndërprerje për ekosistemin e saj të gjerë të përdoruesve dhe partnerëve. Ekipet e shitjeve dhe mbështetjes së kompanisë janë në gatishmëri për të adresuar çdo pyetje të mëtejshme.

Implikimet më të gjera për Qeverisjen e AI-së dhe Dialogun e Industrisë

Konfrontimi publik midis Anthropic dhe Departamentit të Luftës sinjalizon një fazë pjekurie në marrëdhëniet e industrisë së AI-së me qeverinë dhe sigurinë kombëtare. Ai thekson nevojën kritike për politika gjithëpërfshirëse mbi qeverisjen e AI-së, veçanërisht në lidhje me teknologjitë me përdorim të dyfishtë. Gatishmëria e Anthropic për të 'kundërshtuar në gjykatë çdo caktim të rrezikut të zinxhirit të furnizimit' demonstron një angazhim të fortë korporativ ndaj parimeve etike, edhe përballë presionit të konsiderueshëm.

Kjo situatë gjithashtu thekson presionin në rritje ndaj zhvilluesve të AI-së për të marrë një rol më aktiv në përcaktimin e kufijve etikë të krijimeve të tyre, duke kaluar përtej zhvillimit teknik drejt avokimit proaktiv të politikave. Industria po përballet gjithnjë e më shumë me pyetjet komplekse etike që rrethojnë vendosjen e modeleve të fuqishme si Claude. Kompanitë po punojnë aktivisht për metoda për ndërprerjen e përdorimeve keqdashëse të AI-së dhe për të siguruar që teknologjitë e tyre të përdoren për qëllime të dobishme.

Rezultati i këtij ngërçi mund të ndikojë ndjeshëm se si kompanitë e tjera të AI-së kufitare bashkëveprojnë me agjencitë e mbrojtjes globalisht. Mund të inkurajojë një dialog më të fortë dhe transparent midis teknologëve, eticistëve, politikëbërësve dhe liderëve ushtarakë për të krijuar një bazë të përbashkët për inovacionin e përgjegjshëm të AI-së që i shërben interesave kombëtare pa kompromentuar vlerat thelbësore ose sigurinë. Vendosmëria e Anthropic për të mbrojtur klientët e saj dhe për të punuar drejt një tranzicioni të qetë, edhe nën këto 'ngjarje të jashtëzakonshme', pasqyron një përkushtim si ndaj integritetit etik ashtu edhe ndaj vazhdimësisë praktike.

Pyetjet e bëra shpesh

Cila është mosmarrëveshja thelbësore midis Anthropic dhe Departamentit të Luftës?
Mosmarrëveshja thelbësore buron nga refuzimi i Anthropic për të lejuar përdorimin e modelit të tij të avancuar të AI-së, Claude, për dy qëllime specifike: mbikëqyrjen masive të brendshme të qytetarëve amerikanë dhe vendosjen në sistemet e armëve plotësisht autonome. Këto dy përjashtime kanë çuar në një ngërç në negociata, duke e nxitur Sekretarin e Luftës, Pete Hegseth, të konsiderojë caktimin e Anthropic si një rrezik për zinxhirin e furnizimit. Anthropic mbron pozicionin e tij duke u bazuar në parimet thelbësore etike në lidhje me të drejtat themelore dhe kufizimet aktuale të besueshmërisë së AI-së kufitare.
Cilat janë dy përjashtimet specifike etike të Anthropic për përdorimin e AI-së?
Anthropic ka artikuluar vazhdimisht dy përjashtime thelbësore nga përdorimi i ligjshëm i modeleve të saj të AI-së, duke përfshirë Claude. Përjashtimi i parë ndalon përdorimin e AI-së së tyre për mbikëqyrjen masive të brendshme të qytetarëve amerikanë, duke cituar shkelje të të drejtave themelore. Përjashtimi i dytë parandalon përdorimin e AI-së së tyre në armë plotësisht autonome, duke argumentuar se modelet aktuale të AI-së kufitare nuk kanë besueshmërinë dhe sigurinë e nevojshme për t'u vendosur në skenarë kaq kritikë, të jetës a vdekjes, pa mbikëqyrje njerëzore. Këto përjashtime formojnë themelin e mosmarrëveshjes së tyre aktuale me Departamentin e Luftës.
Pse Anthropic kundërshton këto përdorime specifike të AI-së?
Kundërshtimet e Anthropic rrjedhin si nga shqetësimet etike ashtu edhe nga ato praktike. Sa i përket armëve plotësisht autonome, kompania beson se modelet e sotme të AI-së kufitare nuk janë mjaftueshëm të besueshme për të siguruar sigurinë si të ushtarakëve ashtu edhe të civilëve. Paparashikueshmëria dhe potenciali për gabime në aplikacione kaq kritike mund të çojnë në rezultate katastrofike. Për mbikëqyrjen masive të brendshme, Anthropic e konsideron këtë si një shkelje të drejtpërdrejtë të të drejtave themelore, e papajtueshme me parimet demokratike dhe pritshmëritë e privatësisë së qytetarëve amerikanë. Qëndrimi i tyre thekson një angazhim për zhvillimin e përgjegjshëm të AI-së që respekton vlerat njerëzore dhe sigurinë.
Çfarë është 'caktimi i rrezikut të zinxhirit të furnizimit' dhe cilat janë implikimet e tij të mundshme?
Një 'caktim i rrezikut të zinxhirit të furnizimit' sipas 10 USC 3252 është një masë tipikisht e rezervuar për entitetet që paraqesin një kërcënim për sigurinë kombëtare ose integritetin e zinxhirëve të furnizimit ushtarak, shpesh të lidhura me kundërshtarët e huaj. Nëse miratohet zyrtarisht kundër Anthropic, do të kufizonte ligjërisht përdorimin e Claude specifikisht brenda kontratave të Departamentit të Luftës. Ndërsa Sekretari Hegseth nënkuptoi kufizime më të gjera për kompanitë që bëjnë biznes me ushtrinë, Anthropic argumenton se autoriteti statutor e kufizon fushën e tij në angazhimet e drejtpërdrejta të Departamentit të Luftës, jo në kontratat komerciale apo punët e tjera qeveritare. Ky caktim është historikisht i paprecedentë për një kompani amerikane.
Si do t'i prekte ky caktim klientët e Anthropic?
Anthropic sqaron se caktimi, nëse miratohet zyrtarisht, do të kishte një ndikim të kufizuar. Për klientët individualë dhe ata me kontrata komerciale, aksesi në Claude përmes API-së, claude.ai, ose produkteve të tjera do të mbetej plotësisht i paprekur. Për kontraktorët e Departamentit të Luftës, caktimi do të zbatohej vetëm për përdorimin e Claude në punën e kontratave të Departamentit të Luftës. Përdorimi i tyre i Claude për çdo qëllim tjetër ose me klientë të tjerë do të mbetej i pakufizuar. Anthropic thekson se Sekretari i Luftës nuk ka autoritetin statutor për të vendosur kufizime më të gjera përtej kontratave direkte ushtarake.
Cili është hapi i radhës i Anthropic në përgjigje të këtij caktimi të mundshëm?
Anthropic ka deklaruar publikisht qëllimin e tij të vendosur për të kundërshtuar në gjykatë çdo caktim zyrtar të rrezikut të zinxhirit të furnizimit. Kompania beson se një caktim i tillë do të ishte si 'i pabazuar ligjërisht' ashtu edhe do të vendoste një 'precedent të rrezikshëm' për çdo kompani amerikane të angazhuar në negociata me qeverinë. Kjo sfidë ligjore thekson angazhimin e tyre të palëkundur ndaj parimeve të tyre etike dhe vendosmërinë e tyre për të mbrojtur operacionet dhe marrëdhëniet me klientët nga ajo që ata e perceptojnë si një tejkalim të autoritetit.
Çfarë precedenti më të gjerë vendos kjo situatë për industrinë e AI-së?
Kjo situatë vendos një precedent të rëndësishëm për të gjithë industrinë e AI-së, veçanërisht në lidhje me kufijtë etikë të zhvillimit dhe vendosjes së AI-së në kontekste të sigurisë kombëtare. Ajo thekson tensionin në rritje midis aftësive teknologjike, përgjegjësisë etike dhe kërkesave qeveritare. Qëndrimi sfidues i Anthropic mund të inkurajojë kompani të tjera të AI-së të vendosin kufijtë e tyre të kuq për përdorimet e lejueshme, duke formuar potencialisht rregulloret dhe normat e ardhshme të industrisë rreth etikës së AI-së, të drejtave të njeriut dhe zhvillimit të sistemeve autonome. Kjo e ngre debatin se ku qëndron përgjegjësia përfundimtare për ndikimin shoqëror të AI-së.

Qëndroni të përditësuar

Merrni lajmet më të fundit të AI në email.

Ndaj