Anthropic qëndron i vendosur kundër Departamentit të Luftës për Etikën e AI-së
Në një lëvizje të paprecedentë që ka krijuar valë në sektorët e teknologjisë dhe mbrojtjes, lideri i AI-së, Anthropic, ka sfiduar publikisht Departamentin e Luftës (DoW) për një caktim të mundshëm si 'rrezik i zinxhirit të furnizimit'. Konflikti buron nga refuzimi i palëkundur i Anthropic për të lejuar përdorimin e modelit të tij të avancuar të AI-së, Claude, për dy aplikacione specifike: mbikëqyrjen masive të brendshme të amerikanëve dhe vendosjen në armë plotësisht autonome. Ky ngërç, të cilin Sekretari i Luftës, Pete Hegseth, e njoftoi nëpërmjet X më 27 shkurt 2026, shënon një pikë kritike në debatin e vazhdueshëm rreth etikës së AI-së, sigurisë kombëtare dhe përgjegjësisë korporative.
Anthropic thekson se pozicioni i saj nuk është vetëm etik, por edhe thelbësor për besimin dhe sigurinë publike, duke u zotuar të kundërshtojë ligjërisht çdo caktim të tillë. Transparenca e kompanisë në këtë çështje thekson urgjencën në rritje për udhëzime të qarta dhe dialog të fortë rreth aplikacioneve ushtarake dhe të mbikëqyrjes të AI-së kufitare.
Linja e kuqe etike: Mbikëqyrja dhe Armët Autonome
Në thelb të mosmarrëveshjes janë dy përjashtimet specifike të Anthropic nga përdorimi i ligjshëm i modeleve të saj të AI-së për sigurinë kombëtare. Këto përjashtime, të cilat thuhet se kanë bllokuar muaj të tërë negociatash me Departamentin e Luftës, janë:
- Mbikëqyrja masive e brendshme e amerikanëve: Anthropic beson se përdorimi i AI-së për monitorimin e gjerë të qytetarëve të saj përbën një shkelje të rëndë të të drejtave themelore dhe parimeve demokratike. Kompania e sheh privatësinë si një gur themeli të lirive civile, dhe vendosja e AI-së në këtë mënyrë do të gërryente atë themel.
- Armët plotësisht autonome: Kompania thekson me vendosmëri se modelet aktuale të AI-së kufitare, duke përfshirë Claude, nuk janë ende mjaftueshëm të besueshme për t'u vendosur në sisteme që marrin vendime për jetë a vdekje pa ndërhyrje njerëzore. Një pabesueshmëri e tillë, paralajmëron Anthropic, mund të rrezikojë tragjikisht si ushtarakët amerikanë ashtu edhe civilët e pafajshëm. Ky qëndrim përputhet me shqetësimet në rritje në komunitetin e AI-së rreth natyrës së paparashikueshme të modeleve të avancuara në mjedise komplekse dhe me rrezik të lartë. Angazhimi i Anthropic për të ndërtuar AI të sigurt dhe të besueshme është thelbësor, siç demonstrohet në diskutimet rreth sigurisë së kodit të Claude dhe përpjekjeve për të parandaluar përdorimet keqdashëse të AI-së.
Anthropic thekson se këto përjashtime të ngushta, sipas dijenisë së saj, nuk kanë penguar asnjë mision ekzistues qeveritar. Kompania ka një histori të dëshmuar të mbështetjes së përpjekjeve amerikane për sigurinë kombëtare, duke pasur modelet e saj të vendosura në rrjetet e klasifikuara të qeverisë amerikane që nga qershori i vitit 2024. Angazhimi i tyre mbetet për të mbështetur të gjitha përdorimet e ligjshme të AI-së për sigurinë kombëtare që nuk kalojnë këto pragje kritike etike dhe të sigurisë.
Një caktim i paprecedentë: Beteja ligjore afër
Kërcënimi i Sekretarit Hegseth për të caktuar Anthropic si një rrezik për zinxhirin e furnizimit është një veprim tejet i pazakontë dhe potencialisht shqetësues. Historikisht, caktimet e tilla sipas 10 USC 3252 janë rezervuar për kundërshtarët e huaj ose entitetet që konsiderohen si kërcënim i drejtpërdrejtë për integritetin e zinxhirëve të furnizimit ushtarak. Zbatimi i kësaj etikete ndaj një kompanie amerikane, veçanërisht një që ka qenë kontraktor qeveritar dhe inovator, është i paprecedentë dhe vendos një precedent të rrezikshëm.
Anthropic është i prerë në përgjigjen e tij: do të kundërshtojë në gjykatë çdo caktim të rrezikut të zinxhirit të furnizimit. Kompania argumenton se një caktim i tillë do të ishte 'i pabazuar ligjërisht' dhe një përpjekje për të frikësuar kompanitë që negociojnë me qeverinë. Kjo betejë ligjore, nëse materializohet, mund të ripërcaktojë dinamikën e pushtetit midis inovatorëve të teknologjisë dhe aparateve të sigurisë kombëtare, veçanërisht në lidhje me zhvillimin etik dhe vendosjen e AI-së. Implikimet shtrihen përtej Anthropic, duke ndikuar potencialisht se si kompanitë e tjera të AI-së angazhohen me kontratat e mbrojtjes dhe menaxhojnë dilemat etike.
Shpjegimi i ndikimit te klientët
Një nga shqetësimet kryesore të Anthropic ka qenë sqarimi i implikimeve praktike të caktimit të rrezikut të zinxhirit të furnizimit për bazën e saj të ndryshme të klientëve. Ndërsa deklaratat e Sekretarit Hegseth nënkuptonin kufizime të gjera, Anthropic ofron një interpretim më të nuancuar bazuar në kuptimin e saj të 10 USC 3252.
Kompania siguron klientët e saj se autoriteti ligjor i një caktimi të tillë është i kufizuar:
| Segmenti i Klientit | Ndikimi i caktimit të rrezikut të zinxhirit të furnizimit të Departamentit të Luftës (nëse miratohet zyrtarisht) |
|---|---|
| Klientët individualë | Plotësisht të paprekur. Qasja në Claude përmes claude.ai mbetet. |
| Kontratat komerciale me Anthropic | Plotësisht të paprekura. Përdorimi i Claude përmes API-së ose produkteve mbetet. |
| Kontraktorët e Departamentit të Luftës | Vetëm prek përdorimin e Claude në punën e kontratës së Departamentit të Luftës. |
| Kontraktorët e DoW (për klientë/përdorime të tjera) | Të paprekur. Përdorimi i Claude për kontrata jo-DoW ose përdorim të brendshëm lejohet. |
Anthropic thekson se Sekretari i Luftës nuk posedon autoritetin statutor për të shtrirë këto kufizime përtej kontratave direkte të Departamentit të Luftës. Ky sqarim synon të zbusë çdo pasiguri ose ndërprerje për ekosistemin e saj të gjerë të përdoruesve dhe partnerëve. Ekipet e shitjeve dhe mbështetjes së kompanisë janë në gatishmëri për të adresuar çdo pyetje të mëtejshme.
Implikimet më të gjera për Qeverisjen e AI-së dhe Dialogun e Industrisë
Konfrontimi publik midis Anthropic dhe Departamentit të Luftës sinjalizon një fazë pjekurie në marrëdhëniet e industrisë së AI-së me qeverinë dhe sigurinë kombëtare. Ai thekson nevojën kritike për politika gjithëpërfshirëse mbi qeverisjen e AI-së, veçanërisht në lidhje me teknologjitë me përdorim të dyfishtë. Gatishmëria e Anthropic për të 'kundërshtuar në gjykatë çdo caktim të rrezikut të zinxhirit të furnizimit' demonstron një angazhim të fortë korporativ ndaj parimeve etike, edhe përballë presionit të konsiderueshëm.
Kjo situatë gjithashtu thekson presionin në rritje ndaj zhvilluesve të AI-së për të marrë një rol më aktiv në përcaktimin e kufijve etikë të krijimeve të tyre, duke kaluar përtej zhvillimit teknik drejt avokimit proaktiv të politikave. Industria po përballet gjithnjë e më shumë me pyetjet komplekse etike që rrethojnë vendosjen e modeleve të fuqishme si Claude. Kompanitë po punojnë aktivisht për metoda për ndërprerjen e përdorimeve keqdashëse të AI-së dhe për të siguruar që teknologjitë e tyre të përdoren për qëllime të dobishme.
Rezultati i këtij ngërçi mund të ndikojë ndjeshëm se si kompanitë e tjera të AI-së kufitare bashkëveprojnë me agjencitë e mbrojtjes globalisht. Mund të inkurajojë një dialog më të fortë dhe transparent midis teknologëve, eticistëve, politikëbërësve dhe liderëve ushtarakë për të krijuar një bazë të përbashkët për inovacionin e përgjegjshëm të AI-së që i shërben interesave kombëtare pa kompromentuar vlerat thelbësore ose sigurinë. Vendosmëria e Anthropic për të mbrojtur klientët e saj dhe për të punuar drejt një tranzicioni të qetë, edhe nën këto 'ngjarje të jashtëzakonshme', pasqyron një përkushtim si ndaj integritetit etik ashtu edhe ndaj vazhdimësisë praktike.
Burimi origjinal
https://www.anthropic.com/news/statement-comments-secretary-warPyetjet e bëra shpesh
Cila është mosmarrëveshja thelbësore midis Anthropic dhe Departamentit të Luftës?
Cilat janë dy përjashtimet specifike etike të Anthropic për përdorimin e AI-së?
Pse Anthropic kundërshton këto përdorime specifike të AI-së?
Çfarë është 'caktimi i rrezikut të zinxhirit të furnizimit' dhe cilat janë implikimet e tij të mundshme?
Si do t'i prekte ky caktim klientët e Anthropic?
Cili është hapi i radhës i Anthropic në përgjigje të këtij caktimi të mundshëm?
Çfarë precedenti më të gjerë vendos kjo situatë për industrinë e AI-së?
Qëndroni të përditësuar
Merrni lajmet më të fundit të AI në email.
