Code Velocity
Seguridad ng AI

Anthropic Sumasalungat sa Kalihim ng Digmaan sa AI, Binabanggit ang Karapatan at Kaligtasan

·4 min basahin·Anthropic·Orihinal na pinagmulan
I-share
Opisyal na pahayag ng Anthropic tungkol sa posibleng pagtatalaga ng panganib sa supply chain ng Departamento ng Digmaan dahil sa etika ng AI.

Anthropic Naninindigan Laban sa Departamento ng Digmaan Dahil sa Etika ng AI

Sa isang hindi pa nagaganap na hakbang na nagdulot ng malaking epekto sa mga sektor ng teknolohiya at depensa, pormal na hinamon ng nangungunang kumpanya ng AI na Anthropic ang Departamento ng Digmaan (DoW) dahil sa posibleng pagtatalaga bilang isang "panganib sa supply chain." Ang sigalot ay nagmumula sa matatag na pagtanggi ng Anthropic na payagan ang paggamit ng kanilang advanced na modelo ng AI, ang Claude, para sa dalawang partikular na aplikasyon: malawakang panloob na pagsubaybay sa mga Amerikano at paggamit sa ganap na awtonomong sandata. Ang pagtatalo na ito, na inihayag ni Kalihim ng Digmaan Pete Hegseth sa X noong Pebrero 27, 2026, ay nagmamarka ng isang kritikal na punto sa patuloy na debate tungkol sa etika ng AI, pambansang seguridad, at responsibilidad ng korporasyon.

Iginigiit ng Anthropic na ang kanilang posisyon ay hindi lamang etikal kundi mahalaga rin para sa tiwala ng publiko at kaligtasan, at nangakong legal na hamunin ang anumang naturang pagtatalaga. Ang pagiging bukas ng kumpanya sa bagay na ito ay nagbibigay-diin sa lumalaking pangangailangan para sa malinaw na alituntunin at matibay na diyalogo tungkol sa militar at mga aplikasyon ng pagsubaybay ng frontier AI.

Ang Etikal na Hangganan: Pagsubaybay at Awtonomong Sandata

Sa puso ng pagtatalo ay ang dalawang partikular na pagbubukod ng Anthropic sa legal na paggamit ng kanilang mga modelo ng AI para sa pambansang seguridad. Ang mga pagbubukod na ito, na iniulat na nagpatigil sa ilang buwan ng negosasyon sa Departamento ng Digmaan, ay:

  1. Malawakang Panloob na Pagsubaybay sa mga Amerikano: Naniniwala ang Anthropic na ang paggamit ng AI para sa malawakang pagsubaybay sa sariling mamamayan ay bumubuo ng isang matinding paglabag sa mga pangunahing karapatan at demokratikong prinsipyo. Itinuturing ng kumpanya ang privacy bilang isang pundasyon ng mga kalayaang sibil, at ang paggamit ng AI sa ganitong paraan ay magpapahina sa pundasyong iyon.
  2. Ganap na Awtonomong Sandata: Matatag na iginigiit ng kumpanya na ang kasalukuyang mga modelo ng frontier AI, kabilang ang Claude, ay hindi pa sapat na mapagkakatiwalaan para sa paggamit sa mga sistema na gumagawa ng mga desisyong may kinalaman sa buhay o kamatayan nang walang interbensyon ng tao. Ang naturang hindi pagiging maaasahan, babala ng Anthropic, ay maaaring malagim na magdulot ng maling pagkakakilanlan at hindi sinasadyang kaswalti ng sibilyan o mapanganib sa mga sundalong Amerikano. Ang paninindigan na ito ay naaayon sa lumalaking pag-aalala sa komunidad ng AI tungkol sa hindi mahulaang katangian ng mga advanced na modelo sa kumplikado, sitwasyong may mataas na pusta.

Binibigyang-diin ng Anthropic na ang mga limitadong pagbubukod na ito ay hindi, sa kanilang kaalaman, nakahadlang sa anumang umiiral na misyon ng gobyerno. May ipinapakitang kasaysayan ang kumpanya ng pagsuporta sa mga pagsisikap ng pambansang seguridad ng Amerika, na nagamit na ang kanilang mga modelo sa mga kumpidensyal na network ng gobyerno ng US simula Hunyo 2024. Mananatili ang kanilang dedikasyon na suportahan ang lahat ng legal na paggamit ng AI para sa pambansang seguridad na hindi lumalampas sa mga kritikal na etikal at kaligtasan na hangganan.

Isang Hindi Pa Nagaganap na Pagtatalaga: Nagbabantang Labanan sa Hukuman

Ang banta ni Kalihim Hegseth na italaga ang Anthropic bilang isang panganib sa supply chain ay isang lubhang hindi karaniwan at posibleng nakakapinsalang aksyon. Sa kasaysayan, ang mga naturang pagtatalaga sa ilalim ng 10 USC 3252 ay inilaan para sa mga dayuhang kalaban o mga entidad na itinuturing na nagdudulot ng direktang banta sa integridad ng mga supply chain ng militar. Ang paglalapat ng label na ito sa isang kumpanyang Amerikano, lalo na sa isang naging kontraktor ng gobyerno at inobasyon, ay walang katulad at nagtatakda ng isang mapanganib na huwaran.

Hindi malabo ang tugon ng Anthropic: hahamunin nila ang anumang pagtatalaga ng panganib sa supply chain sa korte. Iginigiit ng kumpanya na ang naturang pagtatalaga ay magiging "hindi legal" at isang pagtatangka na takutin ang mga kumpanya na nakikipagnegosasyon sa gobyerno. Ang legal na labanan na ito, kung magkakatotoo, ay maaaring muling tukuyin ang dinamika ng kapangyarihan sa pagitan ng mga innovator ng teknolohiya at mga apparatus ng pambansang seguridad, partikular tungkol sa etikal na pagpapaunlad at paggamit ng AI. Ang mga implikasyon ay lumalampas lamang sa Anthropic, na posibleng makaapekto kung paano nakikipag-ugnayan ang iba pang kumpanya ng AI sa mga kontrata sa depensa at nagna-navigate sa mga etikal na dilema.

Paglilinaw sa Epekto sa mga Customer

Sa gitna ng lumalalang tensyon, kumilos ang Anthropic upang tiyakin sa kanilang iba't ibang customer base ang mga praktikal na implikasyon ng isang posibleng pagtatalaga ng panganib sa supply chain. Binibigyang-diin ng kumpanya na ang ipinahiwatig na malawak na paghihigpit ni Kalihim Hegseth sa sinumang nakikipagnegosyo sa militar ay hindi suportado ng awtoridad ayon sa batas.

Ayon sa Anthropic, ang legal na saklaw ng isang 10 USC 3252 na pagtatalaga ay partikular na limitado sa paggamit ng Claude bilang bahagi ng mga kontrata ng Departamento ng Digmaan. Nangangahulugan ito na:

Sektor ng CustomerEpekto ng Pagtatalaga ng Panganib sa Supply Chain ng DoW (kung pormal na ipatupad)
Mga Indibidwal na CustomerGanap na hindi apektado. Mananatiling may access sa Claude sa pamamagitan ng claude.ai.
Mga Komersyal na Kontrata sa AnthropicGanap na hindi apektado. Mananatiling magagamit ang Claude sa pamamagitan ng API o mga produkto.
Mga Kontraktor ng Departamento ng DigmaanTanging ang paggamit lamang ng Claude sa trabaho ng kontrata ng Departamento ng Digmaan ang maaapektuhan.
Mga Kontraktor ng DoW (para sa ibang customer/gamit)Hindi apektado. Pinahihintulutan ang paggamit ng Claude para sa mga kontratang hindi sa DoW o panloob na paggamit.

Binibigyang-diin ng Anthropic na walang awtoridad ayon sa batas ang Kalihim ng Digmaan upang palawigin ang mga paghihigpit na ito lampas sa direktang mga kontrata ng DoW. Nilalayon ng paglilinaw na ito na bawasan ang anumang kawalan ng katiyakan o pagkagambala para sa kanilang malawak na ecosystem ng mga gumagamit at kasosyo. Ang mga sales at support team ng kumpanya ay nakahanda upang tugunan ang anumang karagdagang katanungan.

Mas Malawak na Implikasyon para sa Pamamahala ng AI at Diyalogo sa Industriya

Ang pampublikong komprontasyon sa pagitan ng Anthropic at ng Departamento ng Digmaan ay nagpapahiwatig ng isang lumalawak na yugto sa relasyon ng industriya ng AI sa gobyerno at pambansang seguridad. Binibigyang-diin nito ang kritikal na pangangailangan para sa komprehensibong mga patakaran sa pamamahala ng AI, partikular tungkol sa mga teknolohiyang may dalawahang gamit. Ang kahandaan ng Anthropic na "hamunin ang anumang pagtatalaga ng panganib sa supply chain sa korte" ay nagpapakita ng isang malakas na dedikasyon ng korporasyon sa mga etikal na prinsipyo, kahit sa harap ng malaking presyon.

Ang sitwasyong ito ay nagbibigay-diin din sa lumalaking presyon sa mga developer ng AI na magkaroon ng mas aktibong papel sa pagtukoy ng mga etikal na hangganan ng kanilang mga nilikha, na lumalampas sa teknikal na pagpapaunlad tungo sa proaktibong adbokasiya ng patakaran. Ang industriya ay lalong nakikipaglaban sa kumplikadong etikal na mga katanungan na pumapalibot sa paggamit ng mga makapangyarihang modelo tulad ng Claude. Aktibong nagtatrabaho ang mga kumpanya sa mga pamamaraan para sa pagpigil sa mapaminsalang paggamit ng AI at pagtiyak na ang kanilang mga teknolohiya ay ginagamit para sa kapaki-pakinabang na layunin.

Ang magiging resulta ng pagtatalo na ito ay maaaring makaimpluwensya nang malaki kung paano nakikipag-ugnayan ang iba pang mga kumpanya ng frontier AI sa mga ahensya ng depensa sa buong mundo. Maaari itong maghikayat ng isang mas matibay at bukas na diyalogo sa pagitan ng mga technologist, ethicist, gumagawa ng patakaran, at mga pinuno ng militar upang magtatag ng isang karaniwang batayan para sa responsableng inobasyon ng AI na naglilingkod sa pambansang interes nang hindi ikinokompromiso ang mga pangunahing pagpapahalaga o kaligtasan. Ang determinasyon ng Anthropic na protektahan ang kanilang mga customer at magtrabaho patungo sa isang maayos na transisyon, kahit sa ilalim ng mga "pambihirang pangyayari," ay nagpapakita ng dedikasyon sa parehong etikal na integridad at praktikal na pagpapatuloy.

Mga Karaniwang Tanong

Ano ang pangunahing pagtatalo sa pagitan ng Anthropic at ng Departamento ng Digmaan?
Ang pangunahing hindi pagkakasundo ay nagmumula sa pagtanggi ng Anthropic na payagan ang paggamit ng kanilang advanced na modelo ng AI, ang Claude, para sa dalawang partikular na layunin: malawakang panloob na pagsubaybay sa mga mamamayang Amerikano at paggamit sa ganap na awtonomong sistema ng sandata. Ang dalawang pagbubukod na ito ang nagdulot ng pagkabigo sa negosasyon, na nagtulak kay Kalihim ng Digmaan Pete Hegseth na isaalang-alang ang pagtatalaga sa Anthropic bilang isang panganib sa supply chain. Iginigiit ng Anthropic na ang kanilang posisyon ay batay sa pangunahing etikal na prinsipyo tungkol sa mga pangunahing karapatan at sa kasalukuyang limitasyon ng pagiging maaasahan ng frontier AI.
Ano ang dalawang partikular na etikal na pagbubukod ng Anthropic para sa paggamit ng AI?
Patuloy na inilahad ng Anthropic ang dalawang mahalagang pagbubukod sa legal na paggamit ng kanilang mga modelo ng AI, kabilang ang Claude. Ang unang pagbubukod ay nagbabawal sa paggamit ng kanilang AI para sa malawakang panloob na pagsubaybay sa mga mamamayang Amerikano, na binabanggit ang mga paglabag sa pangunahing karapatan. Ang pangalawang pagbubukod ay pumipigil sa paggamit ng kanilang AI sa ganap na awtonomong sandata, na nangangatwiran na ang kasalukuyang mga modelo ng frontier AI ay walang sapat na pagiging maaasahan at katiyakan sa kaligtasan upang magamit sa mga kritikal, sitwasyong may kinalaman sa buhay o kamatayan nang walang pangangasiwa ng tao. Ang mga pagbubukod na ito ang pundasyon ng kanilang kasalukuyang pagtatalo sa Departamento ng Digmaan.
Bakit tinututulan ng Anthropic ang mga partikular na paggamit na ito ng AI?
Ang mga pagtutol ng Anthropic ay nakaugat sa parehong etikal at praktikal na pag-aalala. Tungkol sa ganap na awtonomong sandata, naniniwala ang kumpanya na ang mga modelo ng frontier AI sa ngayon ay hindi sapat na mapagkakatiwalaan upang matiyak ang kaligtasan ng parehong sundalo at sibilyan. Ang hindi mahulaan at posibleng pagkakamali sa mga kritikal na aplikasyon ay maaaring magdulot ng malaking kapahamakan. Para sa malawakang panloob na pagsubaybay, itinuturing ito ng Anthropic bilang direktang paglabag sa mga pangunahing karapatan, hindi naaayon sa mga demokratikong prinsipyo at sa inaasahang privacy ng mga mamamayang Amerikano. Binibigyang-diin ng kanilang paninindigan ang kanilang dedikasyon sa responsableng pagpapaunlad ng AI na gumagalang sa pagpapahalaga ng tao at kaligtasan.
Ano ang 'pagtatalaga ng panganib sa supply chain,' at ano ang mga posibleng implikasyon nito?
Ang 'pagtatalaga ng panganib sa supply chain' sa ilalim ng 10 USC 3252 ay isang hakbang na karaniwang inilaan para sa mga entidad na nagdudulot ng banta sa pambansang seguridad o sa integridad ng mga supply chain ng militar, na kadalasang nauugnay sa mga dayuhang kalaban. Kung pormal na ipatupad laban sa Anthropic, ito ay legal na maghihigpit sa paggamit ng Claude partikular sa loob ng mga kontrata ng Departamento ng Digmaan. Bagaman ipinahiwatig ni Kalihim Hegseth ang mas malawak na paghihigpit sa mga kumpanyang nakikipagnegosyo sa militar, iginigiit ng Anthropic na nililimitahan ng awtoridad ayon sa batas ang saklaw nito sa direktang pakikipag-ugnayan sa Departamento ng Digmaan, hindi sa mga komersyal na kontrata o iba pang trabaho ng gobyerno. Ang pagtatalaga na ito ay walang katulad sa kasaysayan para sa isang kumpanyang Amerikano.
Paano makakaapekto ang pagtatalaga na ito sa mga customer ng Anthropic?
Nilinaw ng Anthropic na ang pagtatalaga, kung pormal na ipatupad, ay magkakaroon ng limitadong epekto. Para sa mga indibidwal na customer at sa mga may komersyal na kontrata, mananatiling ganap na hindi apektado ang access sa Claude sa pamamagitan ng API, claude.ai, o iba pang produkto. Para sa mga kontraktor ng Departamento ng Digmaan, ang pagtatalaga ay malalapat lamang sa kanilang paggamit ng Claude sa trabaho ng kontrata ng Departamento ng Digmaan. Ang kanilang paggamit ng Claude para sa iba pang layunin o sa iba pang kliyente ay mananatiling walang paghihigpit. Binibigyang-diin ng Anthropic na walang awtoridad ayon sa batas ang Kalihim ng Digmaan upang magpataw ng mas malawak na paghihigpit lampas sa direktang mga kontrata ng militar.
Ano ang susunod na hakbang ng Anthropic bilang tugon sa posibleng pagtatalaga na ito?
Pahayag ng Anthropic sa publiko ang kanilang matatag na intensyon na hamunin sa korte ang anumang pormal na pagtatalaga ng panganib sa supply chain. Naniniwala ang kumpanya na ang naturang pagtatalaga ay magiging 'hindi legal' at magtatakda ng 'mapanganib na huwaran' para sa anumang kumpanyang Amerikano na nakikipagnegosasyon sa gobyerno. Ang legal na pagsubok na ito ay nagbibigay-diin sa kanilang matatag na dedikasyon sa kanilang etikal na prinsipyo at ang kanilang determinasyon na protektahan ang kanilang mga operasyon at relasyon sa customer mula sa kung ano ang itinuturing nilang paglampas sa awtoridad.
Anong mas malawak na huwaran ang itinatatag ng sitwasyong ito para sa industriya ng AI?
Ang sitwasyong ito ay nagtatakda ng isang mahalagang huwaran para sa buong industriya ng AI, partikular tungkol sa mga etikal na hangganan ng pagpapaunlad at paggamit ng AI sa konteksto ng pambansang seguridad. Binibigyang-diin nito ang lumalaking tensyon sa pagitan ng mga kakayahan ng teknolohiya, etikal na responsibilidad, at mga pangangailangan ng pamahalaan. Ang mapanghamon na paninindigan ng Anthropic ay maaaring maghikayat sa iba pang kumpanya ng AI na magtakda ng kanilang sariling mga pulang linya sa mga pinapayagang paggamit, na posibleng humubog sa mga regulasyon sa hinaharap at mga pamantayan ng industriya sa paligid ng etika ng AI, karapatang pantao, at pagpapaunlad ng mga awtonomong sistema. Itinataas nito ang debate kung saan nakasalalay ang tunay na responsibilidad para sa epekto ng AI sa lipunan.

Manatiling Updated

Kunin ang pinakabagong AI news sa iyong inbox.

I-share