Anthropic Kekal Teguh Menentang Jabatan Perang Berhubung Etika AI
Dalam langkah yang belum pernah terjadi sebelum ini yang telah menimbulkan gelombang dalam sektor teknologi dan pertahanan, peneraju AI Anthropic telah secara terbuka mencabar Jabatan Perang (DoW) berhubung potensi penetapan "risiko rantaian bekalan". Konflik ini berpunca daripada keengganan Anthropic yang tidak berbelah bahagi untuk membenarkan penggunaan model AI canggihnya, Claude, untuk dua aplikasi khusus: pengawasan domestik secara besar-besaran terhadap rakyat Amerika dan penggunaan dalam sistem senjata autonomi sepenuhnya. Kebuntuan ini, yang diumumkan oleh Setiausaha Perang Pete Hegseth melalui X pada 27 Februari 2026, menandakan titik kritikal dalam perdebatan berterusan mengenai etika AI, keselamatan negara, dan tanggungjawab korporat.
Anthropic berpendapat bahawa pendiriannya bukan sahaja beretika tetapi juga penting untuk kepercayaan dan keselamatan awam, berjanji untuk mencabar sebarang penetapan tersebut secara undang-undang. Ketelusan syarikat dalam perkara ini menyerlahkan keperluan yang semakin mendesak untuk garis panduan yang jelas dan dialog yang mantap mengenai aplikasi ketenteraan dan pengawasan AI canggih.
Garis Merah Etika: Pengawasan dan Senjata Autonomi
Punca utama pertikaian adalah dua pengecualian khusus Anthropic terhadap penggunaan sah model AI-nya untuk keselamatan negara. Pengecualian ini, yang dilaporkan telah menghalang rundingan selama berbulan-bulan dengan Jabatan Perang, adalah:
- Pengawasan Domestik Besar-besaran Terhadap Rakyat Amerika: Anthropic percaya bahawa penggunaan AI untuk pemantauan meluas terhadap rakyatnya sendiri merupakan pelanggaran serius hak asasi dan prinsip demokrasi. Syarikat itu menganggap privasi sebagai tunjang kebebasan sivil, dan penggunaan AI dengan cara ini akan menghakis asas tersebut.
- Sistem Senjata Autonomi Sepenuhnya: Syarikat itu dengan tegas menyatakan bahawa model AI canggih semasa, termasuk Claude, belum cukup boleh dipercayai untuk digunakan dalam sistem yang membuat keputusan hidup-dan-mati tanpa campur tangan manusia. Ketidakbolehpercayaan sedemikian, Anthropic memberi amaran, boleh membahayakan pejuang perang Amerika dan orang awam yang tidak bersalah secara tragis. Pendirian ini sejajar dengan kebimbangan yang semakin meningkat di seluruh komuniti AI mengenai sifat model canggih yang tidak dapat diramal dalam persekitaran yang kompleks dan berisiko tinggi.
Anthropic menekankan bahawa pengecualian sempit ini, mengikut pengetahuannya, tidak menghalang misi kerajaan sedia ada. Syarikat itu mempunyai sejarah yang terbukti dalam menyokong usaha keselamatan negara Amerika, setelah menggunakan modelnya dalam rangkaian kerajaan AS yang dikelaskan sejak Jun 2024. Komitmen mereka kekal untuk menyokong semua penggunaan AI yang sah untuk keselamatan negara yang tidak melangkaui ambang etika dan keselamatan kritikal ini.
Penetapan yang Belum Pernah Berlaku: Pertempuran Undang-undang Menjelang
Ancaman Setiausaha Hegseth untuk menetapkan Anthropic sebagai risiko rantaian bekalan adalah tindakan yang sangat luar biasa dan berpotensi mengganggu. Dari segi sejarah, penetapan sedemikian di bawah 10 USC 3252 telah dikhaskan untuk musuh asing atau entiti yang dianggap mengancam integriti rantaian bekalan ketenteraan secara langsung. Menggunakan label ini kepada syarikat Amerika, terutamanya yang telah menjadi kontraktor kerajaan dan inovator, adalah belum pernah berlaku dan menetapkan duluan yang berbahaya.
Anthropic berpendirian jelas dalam tindak balasnya: ia akan mencabar sebarang penetapan risiko rantaian bekalan di mahkamah. Syarikat itu berpendapat bahawa penetapan sedemikian akan menjadi "tidak sah dari segi undang-undang" dan cubaan untuk mengugut syarikat yang berunding dengan kerajaan. Pertempuran undang-undang ini, jika ia menjadi kenyataan, boleh mentakrifkan semula dinamik kuasa antara inovator teknologi dan jentera keselamatan negara, terutamanya mengenai pembangunan dan penggunaan AI yang beretika. Implikasinya melangkaui Anthropic, berpotensi mempengaruhi bagaimana syarikat AI lain terlibat dalam kontrak pertahanan dan mengatasi dilema etika.
Impak Terhadap Pelanggan: Menjelaskan Skop
Di tengah-tengah ketegangan yang semakin meningkat, Anthropic telah berusaha untuk memberi jaminan kepada pangkalan pelanggannya yang pelbagai mengenai implikasi praktikal potensi penetapan risiko rantaian bekalan. Syarikat itu menekankan bahawa kenyataan Setiausaha Hegseth yang membayangkan sekatan luas terhadap sesiapa yang berurusan dengan pihak tentera tidak disokong oleh kuasa statutori.
Menurut Anthropic, kuasa undang-undang penetapan 10 USC 3252 secara khusus terhad kepada penggunaan Claude sebagai sebahagian daripada kontrak Jabatan Perang. Ini bermakna:
| Segmen Pelanggan | Impak Penetapan Risiko Rantaian Bekalan DoW (jika diterima pakai secara rasmi) |
|---|---|
| Pelanggan Individu | Tidak terjejas sama sekali. Akses kepada Claude melalui claude.ai kekal. |
| Kontrak Komersial dengan Anthropic | Tidak terjejas sama sekali. Penggunaan Claude melalui API atau produk kekal. |
| Kontraktor Jabatan Perang | Hanya menjejaskan penggunaan Claude dalam kerja kontrak Jabatan Perang. |
| Kontraktor DoW (untuk pelanggan/penggunaan lain) | Tidak terjejas. Penggunaan Claude untuk kontrak bukan DoW atau penggunaan dalaman dibenarkan. |
Anthropic menekankan bahawa Setiausaha Perang tidak mempunyai kuasa statutori untuk melanjutkan sekatan ini melangkaui kontrak DoW langsung. Penjelasan ini bertujuan untuk mengurangkan sebarang ketidakpastian atau gangguan bagi ekosistem pengguna dan rakan kongsi yang luas. Pasukan jualan dan sokongan syarikat bersedia untuk menjawab sebarang pertanyaan lanjut.
Implikasi Lebih Luas untuk Tadbir Urus AI dan Dialog Industri
Konfrontasi awam antara Anthropic dan Jabatan Perang menandakan fasa kematangan dalam hubungan industri AI dengan kerajaan dan keselamatan negara. Ia menekankan keperluan kritikal untuk dasar tadbir urus AI yang komprehensif, terutamanya mengenai teknologi dwi-guna. Kesediaan Anthropic untuk "mencabar sebarang penetapan risiko rantaian bekalan di mahkamah" menunjukkan komitmen korporat yang kukuh terhadap prinsip etika, walaupun menghadapi tekanan yang signifikan.
Situasi ini juga menyerlahkan tekanan yang semakin meningkat terhadap pembangun AI untuk mengambil peranan yang lebih aktif dalam menentukan batasan etika ciptaan mereka, bergerak melangkaui pembangunan teknikal kepada advokasi dasar proaktif. Industri semakin bergelut dengan persoalan etika yang kompleks mengenai penggunaan model berkuasa seperti Claude. Syarikat secara aktif berusaha mencari kaedah untuk menggugat penggunaan AI berniat jahat dan memastikan teknologi mereka digunakan untuk tujuan yang bermanfaat.
Hasil kebuntuan ini boleh mempengaruhi dengan ketara bagaimana syarikat AI canggih lain berinteraksi dengan agensi pertahanan di seluruh dunia. Ia mungkin menggalakkan dialog yang lebih mantap dan telus antara ahli teknologi, ahli etika, penggubal dasar, dan pemimpin ketenteraan untuk mewujudkan persetujuan bersama untuk inovasi AI yang bertanggungjawab yang memenuhi kepentingan negara tanpa menjejaskan nilai asas atau keselamatan. Keazaman Anthropic untuk melindungi pelanggannya dan berusaha ke arah peralihan yang lancar, walaupun di bawah "peristiwa luar biasa" ini, mencerminkan dedikasi terhadap integriti etika dan kesinambungan praktikal.
Soalan Lazim
Apakah punca pertikaian utama antara Anthropic dan Jabatan Perang?
Apakah dua pengecualian etika khusus Anthropic untuk penggunaan AI?
Mengapa Anthropic membantah penggunaan AI khusus ini?
Apakah 'penetapan risiko rantaian bekalan,' dan apakah potensi implikasinya?
Bagaimanakah penetapan ini akan menjejaskan pelanggan Anthropic?
Apakah langkah seterusnya Anthropic sebagai tindak balas kepada kemungkinan penetapan ini?
Apakah duluan yang lebih luas yang ditetapkan oleh situasi ini untuk industri AI?
Kekal Dikemas Kini
Dapatkan berita AI terkini dalam peti masuk anda.
