Code Velocity
AI drošība

Anthropic ignorē Kara sekretāru par AI, atsaucoties uz tiesībām un drošību

·4 min lasīšana·Anthropic·Sākotnējais avots
Dalīties
Anthropic oficiālais paziņojums par Kara departamenta iespējamo piegādes ķēdes riska apzīmējumu saistībā ar AI ētiku.

Anthropic stingri turas pretī Kara departamentam AI ētikas jautājumos

Bezprecedenta solī, kas izraisījis viļņus tehnoloģiju un aizsardzības nozarēs, AI līderis Anthropic ir publiski izaicinājis Kara departamentu (DoW) par iespējamu "piegādes ķēdes riska" apzīmējumu. Konflikts izriet no Anthropic nelokāmās atteikšanās atļaut izmantot savu progresīvo AI modeli Claude divām specifiskām lietojumprogrammām: amerikāņu masveida iekšzemes novērošanai un izvietošanai pilnībā autonomos ieročos. Šī konfrontācija, ko Kara sekretārs Pīts Hegsets paziņoja platformā X 2026. gada 27. februārī, iezīmē kritisku brīdi notiekošajās debatēs par AI ētiku, nacionālo drošību un korporatīvo atbildību.

Anthropic apgalvo, ka tā nostāja ir ne tikai ētiska, bet arī vitāli svarīga sabiedrības uzticībai un drošībai, un sola juridiski apstrīdēt jebkuru šādu apzīmējumu. Uzņēmuma atklātība šajā jautājumā uzsver pieaugošo steidzamību pēc skaidrām vadlīnijām un robusta dialoga par progresīvo AI militārām un novērošanas lietojumprogrammām.

Ētiskā sarkanā līnija: novērošana un autonomie ieroči

Strīda pamatā ir Anthropic divi specifiskie izņēmumi tā AI modeļu likumīgai izmantošanai nacionālās drošības vajadzībām. Šie izņēmumi, kas, kā ziņots, apturējuši mēnešiem ilgas sarunas ar Kara departamentu, ir šādi:

  1. Amerikāņu masveida iekšzemes novērošana: Anthropic uzskata, ka AI izmantošana plaša mēroga savu pilsoņu uzraudzībai ir nopietns pamattiesību un demokrātisko principu pārkāpums. Uzņēmums uzskata privātumu par pilsonisko brīvību stūrakmeni, un AI izvietošana šādā veidā mazinātu šo pamatu.
  2. Pilnībā autonomi ieroči: Uzņēmums stingri apgalvo, ka pašreizējie progresīvie AI modeļi, tostarp Claude, vēl nav pietiekami uzticami, lai tos izvietotu sistēmās, kas pieņem lēmumus par dzīvību un nāvi bez cilvēka iejaukšanās. Šāda neuzticamība, brīdina Anthropic, varētu traģiski apdraudēt gan amerikāņu karavīrus, gan nevainīgus civiliedzīvotājus. Šī nostāja saskan ar pieaugošām bažām AI sabiedrībā par progresīvu modeļu neparedzamību sarežģītās, augstu likmju situācijās.

Anthropic uzsver, ka šie šaurie izņēmumi, cik tam zināms, nav kavējuši nevienu esošo valdības misiju. Uzņēmumam ir pierādīta vēsture, atbalstot Amerikas nacionālās drošības pasākumus, kopš 2024. gada jūnija izvietojot savus modeļus klasificētos ASV valdības tīklos. To apņemšanās joprojām ir atbalstīt visus likumīgos AI izmantošanas veidus nacionālajai drošībai, kas nepārkāpj šos kritiskos ētiskos un drošības sliekšņus.

Bezprecedenta apzīmējums: tuvojas tiesvedība

Sekretāra Hegseta draudi apzīmēt Anthropic kā piegādes ķēdes risku ir ļoti neparasta un potenciāli traucējoša darbība. Vēsturiski šādi apzīmējumi saskaņā ar 10 USC 3252 ir bijuši rezervēti ārvalstu pretiniekiem vai vienībām, kuras tiek uzskatītas par tiešiem draudiem militāro piegādes ķēžu integritātei. Šīs etiķetes piemērošana vadošajam Amerikas AI izstrādātājam ir bezprecedenta un rada bīstamu precedentu.

Anthropic apgalvo, ka šāds apzīmējums būtu "juridiski nepamatots" un radītu "bīstamu precedentu". Tie apgalvo, ka to ētiskā nostāja, kuras mērķis ir novērst ļaunprātīgu izmantošanu un nodrošināt AI uzticamību, nav piegādes ķēdes risks tradicionālajā izpratnē. Turklāt uzņēmums, kas kopš 2024. gada jūnija ir iesaistīts ASV valdības klasificētos tīklos, uzskata, ka apzīmējums ir varas pārmērīga izmantošana, kas paredzēta, lai piespiestu pakļauties.

Iespējamā tiesvedība neapšaubāmi pārbaudīs 10 USC 3252 interpretāciju un tā piemērojamību progresīvām AI spējām, potenciāli veidojot nākotnes regulējošos ietvarus AI aizsardzības jomā.

Klientu ietekmes izpratne

Viena no Anthropic galvenajām bažām ir bijusi precizēt piegādes ķēdes riska apzīmējuma praktiskās sekas tā daudzveidīgajai klientu bāzei. Kamēr sekretāra Hegseta paziņojumi norādīja uz plašiem ierobežojumiem, Anthropic piedāvā niansētāku interpretāciju, pamatojoties uz tā izpratni par 10 USC 3252.

Uzņēmums apliecina saviem klientiem, ka šāda apzīmējuma juridiskā pilnvaras ir ierobežotas:

Klientu segmentsKara departamenta piegādes ķēdes riska apzīmējuma ietekme (ja tas tiek oficiāli apstiprināts)
Individuālie klientiPilnīgi neietekmēti. Piekļuve Claude, izmantojot claude.ai, paliek.
Komerciālie līgumi ar AnthropicPilnīgi neietekmēti. Claude izmantošana, izmantojot API vai produktus, paliek.
Kara departamenta līgumslēdzējiIetekmē tikai Claude izmantošanu Kara departamenta līgumu darbos.
Kara departamenta līgumslēdzēji (citiem klientiem/izmantošanas veidiem)Neietekmēti. Claude izmantošana līgumiem, kas nav Kara departamenta līgumi, vai iekšējai lietošanai ir atļauta.

Anthropic uzsver, ka Kara sekretāram nav likumdošanas pilnvaru paplašināt šos ierobežojumus ārpus tiešajiem Kara departamenta līgumiem. Šī precizēšana mērķis ir mazināt jebkādu neskaidrību vai traucējumus tā plašajā lietotāju un partneru ekosistēmā. Uzņēmuma pārdošanas un atbalsta komandas ir gatavas atbildēt uz jebkuriem turpmākiem jautājumiem.

Plašākas sekas AI pārvaldībai un nozares dialogam

Anthropic un Kara departamenta publiskā konfrontācija signalizē par AI nozares attiecību ar valdību un nacionālo drošību nobriešanas fāzi. Tā uzsver kritisko nepieciešamību pēc visaptverošām AI pārvaldības politikām, īpaši attiecībā uz divējāda lietojuma tehnoloģijām. Anthropic gatavība "apstrīdēt jebkuru piegādes ķēdes riska apzīmējumu tiesā" demonstrē spēcīgu korporatīvo apņemšanos ievērot ētiskos principus pat ievērojama spiediena apstākļos.

Šī situācija arī izceļ pieaugošo spiedienu uz AI izstrādātājiem aktīvāk noteikt savu radījumu ētiskās robežas, pārejot no tehniskās attīstības uz proaktīvu politikas aizstāvību. Nozarē arvien vairāk tiek risināti sarežģīti ētiskie jautājumi, kas saistīti ar jaudīgu modeļu, piemēram, Claude, izvietošanu. Uzņēmumi aktīvi strādā pie metodēm ļaunprātīgas AI izmantošanas traucēšanai un nodrošināšanai, ka to tehnoloģijas tiek izmantotas labvēlīgiem mērķiem.

Šīs konfrontācijas iznākums varētu būtiski ietekmēt to, kā citas progresīvās AI uzņēmumi sadarbojas ar aizsardzības aģentūrām visā pasaulē. Tas varētu veicināt spēcīgāku un pārredzamāku dialogu starp tehnologiem, ētikas speciālistiem, politikas veidotājiem un militārajiem vadītājiem, lai panāktu kopīgu pamatu atbildīgai AI inovācijai, kas kalpo nacionālajām interesēm, neapdraudot fundamentālās vērtības vai drošību. Anthropic apņēmība aizsargāt savus klientus un strādāt pie vienmērīgas pārejas pat šajos "ārkārtas notikumos" atspoguļo centību gan ētiskai integritātei, gan praktiskai nepārtrauktībai.

Bieži uzdotie jautājumi

Kas ir galvenais strīds starp Anthropic un Kara departamentu?
Fundamentālā domstarpība izriet no Anthropic atteikšanās atļaut izmantot savu progresīvo AI modeli Claude diviem specifiskiem mērķiem: masveida ASV pilsoņu iekšzemes novērošanai un izvietošanai pilnībā autonomās ieroču sistēmās. Šie divi izņēmumi ir noveduši pie sarunu strupceļa, liekot Kara sekretāram Pītam Hegsetam apsvērt Anthropic apzīmēšanu kā piegādes ķēdes risku. Anthropic apgalvo, ka tā nostāja balstās uz galvenajiem ētiskiem principiem attiecībā uz pamattiesībām un pašreizējiem progresīvo AI uzticamības ierobežojumiem.
Kādi ir Anthropic divi specifiskie ētiskie izņēmumi AI izmantošanai?
Anthropic ir konsekventi formulējis divus būtiskus izņēmumus savu AI modeļu, tostarp Claude, likumīgai izmantošanai. Pirmais izņēmums aizliedz izmantot to AI masveida ASV pilsoņu iekšzemes novērošanai, atsaucoties uz pamattiesību pārkāpumiem. Otrais izņēmums nepieļauj to AI izmantošanu pilnībā autonomos ieročos, apgalvojot, ka pašreizējiem progresīvajiem AI modeļiem trūkst nepieciešamās uzticamības un drošības garantiju, lai tos izvietotu šādos kritiskos, dzīvības vai nāves scenārijos bez cilvēka uzraudzības. Šie izņēmumi veido pamatu to pašreizējam strīdam ar Kara departamentu.
Kāpēc Anthropic iebilst pret šīm specifiskajām AI izmantošanas jomām?
Anthropic iebildumi sakņojas gan ētiskās, gan praktiskās bažās. Attiecībā uz pilnībā autonomiem ieročiem uzņēmums uzskata, ka mūsdienu progresīvie AI modeļi nav pietiekami uzticami, lai nodrošinātu gan karavīru, gan civiliedzīvotāju drošību. Neparedzamība un kļūdu iespējamība šādās kritiskās lietojumprogrammās varētu novest pie katastrofāliem rezultātiem. Attiecībā uz masveida iekšzemes novērošanu, Anthropic uzskata to par tiešu pamattiesību pārkāpumu, kas nav saderīgs ar demokrātiskajiem principiem un ASV pilsoņu privātuma gaidām. To nostāja uzsver apņemšanos atbildīgai AI attīstībai, kas respektē cilvēka vērtības un drošību.
Kas ir 'piegādes ķēdes riska apzīmējums' un kādas ir tā iespējamās sekas?
'Piegādes ķēdes riska apzīmējums' saskaņā ar 10 USC 3252 ir pasākums, kas parasti ir paredzēts vienībām, kuras rada draudus nacionālajai drošībai vai militāro piegādes ķēžu integritātei, bieži saistītas ar ārvalstu pretiniekiem. Ja to oficiāli piemērotu pret Anthropic, tas juridiski ierobežotu Claude izmantošanu tieši Kara departamenta līgumos. Kamēr sekretārs Hegsets netieši norādīja uz plašākiem ierobežojumiem uzņēmumiem, kas sadarbojas ar militāriem spēkiem, Anthropic apgalvo, ka likumdošanas pilnvaras ierobežo tā darbības jomu tikai tiešai Kara departamenta sadarbībai, nevis komerciāliem līgumiem vai citam valdības darbam. Šis apzīmējums ir vēsturiski bezprecedenta ASV uzņēmumam.
Kā šis apzīmējums ietekmētu Anthropic klientus?
Anthropic precizē, ka apzīmējumam, ja tas tiktu oficiāli apstiprināts, būtu ierobežota ietekme. Individuālajiem klientiem un tiem, kam ir komerciāli līgumi, piekļuve Claude, izmantojot API, claude.ai vai citus produktus, paliktu pilnīgi neietekmēta. Kara departamenta līgumslēdzējiem apzīmējums attiektos tikai uz Claude izmantošanu Kara departamenta līgumu darbos. To Claude izmantošana citiem mērķiem vai ar citiem klientiem paliktu neierobežota. Anthropic uzsver, ka Kara sekretāram trūkst likumdošanas pilnvaru, lai uzliktu plašākus ierobežojumus ārpus tiešiem militāriem līgumiem.
Kāds ir Anthropic nākamais solis, reaģējot uz šo iespējamo apzīmējumu?
Anthropic ir publiski paziņojis par savu stingro nodomu apstrīdēt jebkuru oficiālu piegādes ķēdes riska apzīmējumu tiesā. Uzņēmums uzskata, ka šāds apzīmējums būtu gan 'juridiski nepamatots', gan radītu 'bīstamu precedentu' jebkuram Amerikas uzņēmumam, kas iesaistīts sarunās ar valdību. Šis juridiskais izaicinājums uzsver viņu nelokāmo apņemšanos ievērot ētiskos principus un apņēmību aizsargāt savas darbības un klientu attiecības no tā, ko viņi uzskata par varas pārmērīgu izmantošanu.
Kādu plašāku precedentu šī situācija rada AI nozarei?
Šī situācija rada nozīmīgu precedentu visai AI nozarei, īpaši attiecībā uz AI attīstības un izvietošanas ētiskajām robežām nacionālās drošības kontekstā. Tā izceļ pieaugošo spriedzi starp tehnoloģiskajām spējām, ētisko atbildību un valdības prasībām. Anthropic izaicinājums varētu mudināt citus AI uzņēmumus novilkt savas sarkanās līnijas attiecībā uz pieļaujamām izmantošanas jomām, potenciāli veidojot nākotnes noteikumus un nozares normas ap AI ētiku, cilvēktiesībām un autonomu sistēmu attīstību. Tas paceļ debates par to, kur gulstas galīgā atbildība par AI sabiedrisko ietekmi.

Esiet informēti

Saņemiet jaunākās AI ziņas savā e-pastā.

Dalīties