Code Velocity
Tehisintellekti turvalisus

Anthropic trotsib sõjaministrit tehisintellekti osas, viidates õigustele ja ohutusele

·4 min lugemist·Anthropic·Algallikas
Jaga
Anthropicu ametlik avaldus seoses Sõjaministeeriumi potentsiaalse tarneahela riskikategooria määramisega tehisintellekti eetika küsimustes.

Anthropic seisab kindlalt vastu Sõjaministeeriumile tehisintellekti eetika küsimuses

Pretsedenditus sammus, mis on tekitanud laineid nii tehnoloogia- kui ka kaitsesektorites, on AI liider Anthropic avalikult vaidlustanud Sõjaministeeriumi (DoW) potentsiaalse "tarneahela riski" määratluse. Konflikt tuleneb Anthropicu vankumatust keeldumisest lubada oma arenenud tehisintellekti mudelit Claude kasutada kahel konkreetsel otstarbel: ameeriklaste massiliseks siseriiklikuks jälgimiseks ja täisautonoomsetes relvades. See vastasseis, millest sõjaminister Pete Hegseth teatas X-i vahendusel 27. veebruaril 2026, tähistab kriitilist pöördepunkti käimasolevas arutelus tehisintellekti eetika, riikliku julgeoleku ja ettevõtte vastutuse üle.

Anthropic väidab, et nende seisukoht ei ole mitte ainult eetiline, vaid ka elutähtis avaliku usalduse ja ohutuse tagamiseks, lubades sellist määratlust kohtus õiguslikult vaidlustada. Ettevõtte läbipaistvus selles küsimuses rõhutab üha kasvavat vajadust selgete suuniste ja sisuka dialoogi järele piir-AI sõjaliste ja järelevalverakenduste osas.

Eetiline punane joon: järelevalve ja autonoomsed relvad

Vaidluse keskmes on Anthropicu kaks konkreetset erandit oma tehisintellekti mudelite seaduslikule kasutamisele riikliku julgeoleku tagamiseks. Need erandid, mis on väidetavalt pidurdanud kuid kestnud läbirääkimisi Sõjaministeeriumiga, on järgmised:

  1. Ameeriklaste massiline siseriiklik järelevalve: Anthropic usub, et tehisintellekti kasutamine oma kodanike laialdaseks jälgimiseks rikub rängalt põhiõigusi ja demokraatlikke printsiipe. Ettevõte peab privaatsust kodanikuvabaduste nurgakiviks ja tehisintellekti sellisel viisil kasutuselevõtt õõnestaks seda alust.
  2. Täisautonoomsed relvad: Ettevõte kinnitab kindlalt, et praegused piir-AI mudelid, sealhulgas Claude, ei ole veel piisavalt usaldusväärsed, et neid saaks paigutada süsteemidesse

Korduma kippuvad küsimused

Milline on Anthropicu ja Sõjaministeeriumi vahelise vaidluse tuum?
Põhiline lahkarvamus tuleneb Anthropicu keeldumisest lubada oma arenenud tehisintellekti mudelit Claude kasutada kahel konkreetsel eesmärgil: Ameerika kodanike massiliseks siseriiklikuks jälgimiseks ja täisautonoomsetes relvasüsteemides. Need kaks erandit on viinud läbirääkimised ummikseisu, ajendades sõjaminister Pete Hegsethi kaaluma Anthropicu määramist tarneahela riskiks. Anthropic kinnitab, et tema seisukoht põhineb põhilistel eetilistel printsiipidel, mis puudutavad põhiõigusi ja piir-AI praeguse usaldusväärsuse piiranguid.
Millised on Anthropicu kaks konkreetset eetilist erandit tehisintellekti kasutamiseks?
Anthropic on järjepidevalt esitanud kaks olulist erandit oma tehisintellekti mudelite, sealhulgas Claude'i, seaduslikule kasutamisele. Esimene erand keelab tehisintellekti kasutamise Ameerika kodanike massiliseks siseriiklikuks jälgimiseks, viidates põhiõiguste rikkumisele. Teine erand keelab tehisintellekti kasutamise täisautonoomsetes relvades, väites, et praegustel piir-AI mudelitel puudub vajalik usaldusväärsus ja ohutusgarantii, et neid saaks inimliku järelevalveta paigutada sellistesse kriitilistesse elu ja surma olukordadesse. Need erandid moodustavad nende praeguse vaidluse aluse Sõjaministeeriumiga.
Miks Anthropic neile konkreetsetele tehisintellekti kasutusviisidele vastu on?
Anthropicu vastuväited põhinevad nii eetilistel kui ka praktilistel kaalutlustel. Mis puudutab täisautonoomseid relvi, siis ettevõte usub, et tänapäeva piir-AI mudelid ei ole piisavalt usaldusväärsed, et tagada nii sõjaväelaste kui ka tsiviilisikute ohutus. Ettearvamatus ja veavõimalus sellistes kriitilistes rakendustes võivad viia katastroofiliste tagajärgedeni. Massilise siseriikliku järelevalve puhul peab Anthropic seda põhiõiguste otseseks rikkumiseks, mis on vastuolus demokraatlike põhimõtete ja Ameerika kodanike privaatsuse ootustega. Nende seisukoht rõhutab pühendumust vastutustundlikule AI arendusele, mis austab inimväärtusi ja ohutust.
Mis on 'tarneahela riskimääratlus' ja millised on selle potentsiaalsed tagajärjed?
Tarneahela riskimääratlus vastavalt 10 USC 3252 on meede, mis on tavaliselt reserveeritud üksustele, mis ohustavad riiklikku julgeolekut või sõjaliste tarneahelate terviklikkust, sageli seostudes välisvaenlastega. Kui see Anthropicu vastu ametlikult vastu võetakse, piiraks see seaduslikult Claude'i kasutamist konkreetselt Sõjaministeeriumi lepingutes. Kuigi sõjaminister Hegseth vihjas laiematele piirangutele ettevõtetele, mis teevad koostööd sõjaväega, väidab Anthropic, et seadusandlik volitus piirab selle ulatuse otsestele Sõjaministeeriumi lepingutele, mitte ärilepingutele või muule valitsuse tööle. See määratlus on Ameerika ettevõtte jaoks ajalooliselt pretsedenditu.
Kuidas see määratlus mõjutaks Anthropicu kliente?
Anthropic selgitab, et määratlusel, kui see ametlikult vastu võetakse, oleks piiratud mõju. Individuaalsetele klientidele ja neile, kellel on ärilised lepingud, jääks juurdepääs Claude'ile API, claude.ai või muude toodete kaudu täiesti puutumata. Sõjaministeeriumi töövõtjate puhul kehtiks määratlus ainult Claude'i kasutamisele Sõjaministeeriumi lepingutöödel. Nende Claude'i kasutamine mis tahes muudel eesmärkidel või teiste klientidega jääks piiramatuks. Anthropic rõhutab, et sõjaministril puudub seadusandlik volitus kehtestada laiemad piirangud väljapoole otseseid sõjalisi lepinguid.
Milline on Anthropicu järgmine samm vastuseks sellele potentsiaalsele määratlusele?
Anthropic on avalikult teatanud oma kindlast kavatsusest vaidlustada igasugune ametlik tarneahela riskimääratlus kohtus. Ettevõte usub, et selline määratlus oleks nii 'õiguslikult ebakorrektne' kui ka looks 'ohtliku pretsedendi' igale Ameerika ettevõttele, mis on seotud valitsusega peetavate läbirääkimistega. See õiguslik vaidlustamine rõhutab nende vankumatut pühendumust eetilistele põhimõtetele ja nende kindlameelsust kaitsta oma tegevust ja kliendisuhteid selle eest, mida nad peavad volituste ületamiseks.
Millise laiema pretsedendi see olukord tehisintellekti tööstusele loob?
See olukord loob olulise pretsedendi kogu tehisintellekti tööstusele, eriti mis puudutab tehisintellekti arenduse ja rakendamise eetilisi piire riikliku julgeoleku kontekstis. See rõhutab kasvavat pinget tehnoloogiliste võimete, eetilise vastutuse ja valitsuse nõudmiste vahel. Anthropicu trotslik seisukoht võib julgustada teisi tehisintellekti ettevõtteid tõmbama oma punaseid jooni lubatud kasutusviiside osas, kujundades potentsiaalselt tulevasi regulatsioone ja tööstusharu norme tehisintellekti eetika, inimõiguste ja autonoomsüsteemide arendamise ümber. See tõstab esile arutelu selle üle, kus lasub lõplik vastutus tehisintellekti sotsiaalse mõju eest.

Püsige kursis

Saage värskeimad AI uudised oma postkasti.

Jaga