Code Velocity
Keselamatan AI

Anthropic Menentang Setiausaha Perang Mengenai AI, Memetik Hak dan Keselamatan

·4 min bacaan·Anthropic·Sumber asal
Kongsi
Kenyataan rasmi Anthropic mengenai kemungkinan penetapan risiko rantaian bekalan oleh Jabatan Perang berkaitan etika AI.

Anthropic Kekal Teguh Menentang Jabatan Perang Berhubung Etika AI

Dalam langkah yang belum pernah terjadi sebelum ini yang telah menimbulkan gelombang dalam sektor teknologi dan pertahanan, peneraju AI Anthropic telah secara terbuka mencabar Jabatan Perang (DoW) berhubung potensi penetapan "risiko rantaian bekalan". Konflik ini berpunca daripada keengganan Anthropic yang tidak berbelah bahagi untuk membenarkan penggunaan model AI canggihnya, Claude, untuk dua aplikasi khusus: pengawasan domestik secara besar-besaran terhadap rakyat Amerika dan penggunaan dalam sistem senjata autonomi sepenuhnya. Kebuntuan ini, yang diumumkan oleh Setiausaha Perang Pete Hegseth melalui X pada 27 Februari 2026, menandakan titik kritikal dalam perdebatan berterusan mengenai etika AI, keselamatan negara, dan tanggungjawab korporat.

Anthropic berpendapat bahawa pendiriannya bukan sahaja beretika tetapi juga penting untuk kepercayaan dan keselamatan awam, berjanji untuk mencabar sebarang penetapan tersebut secara undang-undang. Ketelusan syarikat dalam perkara ini menyerlahkan keperluan yang semakin mendesak untuk garis panduan yang jelas dan dialog yang mantap mengenai aplikasi ketenteraan dan pengawasan AI canggih.

Garis Merah Etika: Pengawasan dan Senjata Autonomi

Punca utama pertikaian adalah dua pengecualian khusus Anthropic terhadap penggunaan sah model AI-nya untuk keselamatan negara. Pengecualian ini, yang dilaporkan telah menghalang rundingan selama berbulan-bulan dengan Jabatan Perang, adalah:

  1. Pengawasan Domestik Besar-besaran Terhadap Rakyat Amerika: Anthropic percaya bahawa penggunaan AI untuk pemantauan meluas terhadap rakyatnya sendiri merupakan pelanggaran serius hak asasi dan prinsip demokrasi. Syarikat itu menganggap privasi sebagai tunjang kebebasan sivil, dan penggunaan AI dengan cara ini akan menghakis asas tersebut.
  2. Sistem Senjata Autonomi Sepenuhnya: Syarikat itu dengan tegas menyatakan bahawa model AI canggih semasa, termasuk Claude, belum cukup boleh dipercayai untuk digunakan dalam sistem yang membuat keputusan hidup-dan-mati tanpa campur tangan manusia. Ketidakbolehpercayaan sedemikian, Anthropic memberi amaran, boleh membahayakan pejuang perang Amerika dan orang awam yang tidak bersalah secara tragis. Pendirian ini sejajar dengan kebimbangan yang semakin meningkat di seluruh komuniti AI mengenai sifat model canggih yang tidak dapat diramal dalam persekitaran yang kompleks dan berisiko tinggi.

Anthropic menekankan bahawa pengecualian sempit ini, mengikut pengetahuannya, tidak menghalang misi kerajaan sedia ada. Syarikat itu mempunyai sejarah yang terbukti dalam menyokong usaha keselamatan negara Amerika, setelah menggunakan modelnya dalam rangkaian kerajaan AS yang dikelaskan sejak Jun 2024. Komitmen mereka kekal untuk menyokong semua penggunaan AI yang sah untuk keselamatan negara yang tidak melangkaui ambang etika dan keselamatan kritikal ini.

Penetapan yang Belum Pernah Berlaku: Pertempuran Undang-undang Menjelang

Ancaman Setiausaha Hegseth untuk menetapkan Anthropic sebagai risiko rantaian bekalan adalah tindakan yang sangat luar biasa dan berpotensi mengganggu. Dari segi sejarah, penetapan sedemikian di bawah 10 USC 3252 telah dikhaskan untuk musuh asing atau entiti yang dianggap mengancam integriti rantaian bekalan ketenteraan secara langsung. Menggunakan label ini kepada syarikat Amerika, terutamanya yang telah menjadi kontraktor kerajaan dan inovator, adalah belum pernah berlaku dan menetapkan duluan yang berbahaya.

Anthropic berpendirian jelas dalam tindak balasnya: ia akan mencabar sebarang penetapan risiko rantaian bekalan di mahkamah. Syarikat itu berpendapat bahawa penetapan sedemikian akan menjadi "tidak sah dari segi undang-undang" dan cubaan untuk mengugut syarikat yang berunding dengan kerajaan. Pertempuran undang-undang ini, jika ia menjadi kenyataan, boleh mentakrifkan semula dinamik kuasa antara inovator teknologi dan jentera keselamatan negara, terutamanya mengenai pembangunan dan penggunaan AI yang beretika. Implikasinya melangkaui Anthropic, berpotensi mempengaruhi bagaimana syarikat AI lain terlibat dalam kontrak pertahanan dan mengatasi dilema etika.

Impak Terhadap Pelanggan: Menjelaskan Skop

Di tengah-tengah ketegangan yang semakin meningkat, Anthropic telah berusaha untuk memberi jaminan kepada pangkalan pelanggannya yang pelbagai mengenai implikasi praktikal potensi penetapan risiko rantaian bekalan. Syarikat itu menekankan bahawa kenyataan Setiausaha Hegseth yang membayangkan sekatan luas terhadap sesiapa yang berurusan dengan pihak tentera tidak disokong oleh kuasa statutori.

Menurut Anthropic, kuasa undang-undang penetapan 10 USC 3252 secara khusus terhad kepada penggunaan Claude sebagai sebahagian daripada kontrak Jabatan Perang. Ini bermakna:

Segmen PelangganImpak Penetapan Risiko Rantaian Bekalan DoW (jika diterima pakai secara rasmi)
Pelanggan IndividuTidak terjejas sama sekali. Akses kepada Claude melalui claude.ai kekal.
Kontrak Komersial dengan AnthropicTidak terjejas sama sekali. Penggunaan Claude melalui API atau produk kekal.
Kontraktor Jabatan PerangHanya menjejaskan penggunaan Claude dalam kerja kontrak Jabatan Perang.
Kontraktor DoW (untuk pelanggan/penggunaan lain)Tidak terjejas. Penggunaan Claude untuk kontrak bukan DoW atau penggunaan dalaman dibenarkan.

Anthropic menekankan bahawa Setiausaha Perang tidak mempunyai kuasa statutori untuk melanjutkan sekatan ini melangkaui kontrak DoW langsung. Penjelasan ini bertujuan untuk mengurangkan sebarang ketidakpastian atau gangguan bagi ekosistem pengguna dan rakan kongsi yang luas. Pasukan jualan dan sokongan syarikat bersedia untuk menjawab sebarang pertanyaan lanjut.

Implikasi Lebih Luas untuk Tadbir Urus AI dan Dialog Industri

Konfrontasi awam antara Anthropic dan Jabatan Perang menandakan fasa kematangan dalam hubungan industri AI dengan kerajaan dan keselamatan negara. Ia menekankan keperluan kritikal untuk dasar tadbir urus AI yang komprehensif, terutamanya mengenai teknologi dwi-guna. Kesediaan Anthropic untuk "mencabar sebarang penetapan risiko rantaian bekalan di mahkamah" menunjukkan komitmen korporat yang kukuh terhadap prinsip etika, walaupun menghadapi tekanan yang signifikan.

Situasi ini juga menyerlahkan tekanan yang semakin meningkat terhadap pembangun AI untuk mengambil peranan yang lebih aktif dalam menentukan batasan etika ciptaan mereka, bergerak melangkaui pembangunan teknikal kepada advokasi dasar proaktif. Industri semakin bergelut dengan persoalan etika yang kompleks mengenai penggunaan model berkuasa seperti Claude. Syarikat secara aktif berusaha mencari kaedah untuk menggugat penggunaan AI berniat jahat dan memastikan teknologi mereka digunakan untuk tujuan yang bermanfaat.

Hasil kebuntuan ini boleh mempengaruhi dengan ketara bagaimana syarikat AI canggih lain berinteraksi dengan agensi pertahanan di seluruh dunia. Ia mungkin menggalakkan dialog yang lebih mantap dan telus antara ahli teknologi, ahli etika, penggubal dasar, dan pemimpin ketenteraan untuk mewujudkan persetujuan bersama untuk inovasi AI yang bertanggungjawab yang memenuhi kepentingan negara tanpa menjejaskan nilai asas atau keselamatan. Keazaman Anthropic untuk melindungi pelanggannya dan berusaha ke arah peralihan yang lancar, walaupun di bawah "peristiwa luar biasa" ini, mencerminkan dedikasi terhadap integriti etika dan kesinambungan praktikal.

Soalan Lazim

Apakah punca pertikaian utama antara Anthropic dan Jabatan Perang?
Perselisihan asas berpunca daripada keengganan Anthropic untuk membenarkan penggunaan model AI canggihnya, Claude, untuk dua tujuan khusus: pengawasan domestik secara besar-besaran terhadap rakyat Amerika dan penggunaan dalam sistem senjata autonomi sepenuhnya. Kedua-dua pengecualian ini telah menyebabkan kebuntuan dalam rundingan, mendorong Setiausaha Perang Pete Hegseth untuk mempertimbangkan untuk menetapkan Anthropic sebagai risiko rantaian bekalan. Anthropic mengekalkan pendiriannya berdasarkan prinsip etika teras mengenai hak asasi dan batasan semasa kebolehpercayaan AI canggih.
Apakah dua pengecualian etika khusus Anthropic untuk penggunaan AI?
Anthropic secara konsisten telah mengartikulasikan dua pengecualian penting terhadap penggunaan sah model AI-nya, termasuk Claude. Pengecualian pertama melarang penggunaan AI mereka untuk pengawasan domestik besar-besaran terhadap rakyat Amerika, memetik pelanggaran hak asasi. Pengecualian kedua menghalang penggunaan AI mereka dalam senjata autonomi sepenuhnya, dengan alasan bahawa model AI canggih semasa kekurangan kebolehpercayaan dan jaminan keselamatan yang diperlukan untuk digunakan dalam senario kritikal, hidup-dan-mati tanpa pengawasan manusia. Pengecualian ini menjadi asas pertikaian mereka sekarang dengan Jabatan Perang.
Mengapa Anthropic membantah penggunaan AI khusus ini?
Bantahan Anthropic berakar umbi dari kebimbangan etika dan praktikal. Berkenaan senjata autonomi sepenuhnya, syarikat itu percaya bahawa model AI canggih hari ini tidak cukup boleh dipercayai untuk memastikan keselamatan kedua-dua pejuang perang dan orang awam. Ketidakpastian dan potensi kesilapan dalam aplikasi kritikal sedemikian boleh menyebabkan akibat yang membawa bencana. Untuk pengawasan domestik besar-besaran, Anthropic menganggap ini sebagai pelanggaran langsung hak asasi, tidak konsisten dengan prinsip demokrasi dan jangkaan privasi rakyat Amerika. Pendirian mereka menekankan komitmen terhadap pembangunan AI yang bertanggungjawab yang menghormati nilai dan keselamatan manusia.
Apakah 'penetapan risiko rantaian bekalan,' dan apakah potensi implikasinya?
Sesuatu 'penetapan risiko rantaian bekalan' di bawah 10 USC 3252 adalah langkah yang biasanya dikhaskan untuk entiti yang menimbulkan ancaman kepada keselamatan negara atau integriti rantaian bekalan ketenteraan, sering dikaitkan dengan musuh asing. Jika diterima pakai secara rasmi terhadap Anthropic, ia akan menyekat secara sah penggunaan Claude secara khusus dalam kontrak Jabatan Perang. Walaupun Setiausaha Hegseth membayangkan sekatan yang lebih luas terhadap syarikat-syarikat yang berurusan dengan pihak tentera, Anthropic berpendapat bahawa kuasa statutori mengehadkan skopnya kepada penglibatan langsung Jabatan Perang, bukan kontrak komersial atau kerja kerajaan lain. Penetapan ini secara sejarah belum pernah berlaku untuk syarikat Amerika.
Bagaimanakah penetapan ini akan menjejaskan pelanggan Anthropic?
Anthropic menjelaskan bahawa penetapan itu, jika diterima pakai secara rasmi, akan mempunyai impak yang terhad. Bagi pelanggan individu dan mereka yang mempunyai kontrak komersial, akses kepada Claude melalui API, claude.ai, atau produk lain akan kekal tidak terjejas sama sekali. Bagi kontraktor Jabatan Perang, penetapan itu hanya akan berlaku untuk penggunaan Claude dalam kerja kontrak Jabatan Perang mereka. Penggunaan Claude untuk tujuan lain atau dengan pelanggan lain akan kekal tidak terhad. Anthropic menekankan bahawa Setiausaha Perang tidak mempunyai kuasa statutori untuk mengenakan sekatan yang lebih luas melangkaui kontrak ketenteraan langsung.
Apakah langkah seterusnya Anthropic sebagai tindak balas kepada kemungkinan penetapan ini?
Anthropic telah menyatakan secara terbuka niatnya yang tegas untuk mencabar sebarang penetapan risiko rantaian bekalan rasmi di mahkamah. Syarikat itu percaya bahawa penetapan sedemikian akan menjadi 'tidak sah dari segi undang-undang' dan menetapkan 'duluan berbahaya' untuk mana-mana syarikat Amerika yang terlibat dalam rundingan dengan kerajaan. Cabaran undang-undang ini menekankan komitmen tidak berbelah bahagi mereka terhadap prinsip etika mereka dan keazaman mereka untuk melindungi operasi dan hubungan pelanggan mereka daripada apa yang mereka anggap sebagai penyalahgunaan kuasa.
Apakah duluan yang lebih luas yang ditetapkan oleh situasi ini untuk industri AI?
Situasi ini menetapkan duluan yang signifikan untuk seluruh industri AI, terutamanya mengenai batasan etika pembangunan dan penggunaan AI dalam konteks keselamatan negara. Ia menyerlahkan ketegangan yang semakin meningkat antara keupayaan teknologi, tanggungjawab etika, dan tuntutan kerajaan. Pendirian Anthropic yang berani boleh menggalakkan syarikat AI lain untuk menetapkan batasan mereka sendiri mengenai penggunaan yang dibenarkan, berpotensi membentuk peraturan masa depan dan norma industri sekitar etika AI, hak asasi manusia, dan pembangunan sistem autonomi. Ia meningkatkan perdebatan tentang di mana letaknya tanggungjawab muktamad terhadap impak sosial AI.

Kekal Dikemas Kini

Dapatkan berita AI terkini dalam peti masuk anda.

Kongsi