Code Velocity
Keamanan AI

Anthropic Menentang Sekretaris Perang atas AI, Mengutip Hak dan Keamanan

·4 mnt baca·Anthropic·Sumber asli
Bagikan
Pernyataan resmi Anthropic mengenai potensi penunjukan risiko rantai pasok oleh Departemen Perang terkait etika AI.

Anthropic Tetap Teguh Melawan Departemen Perang Terkait Etika AI

Dalam langkah yang belum pernah terjadi sebelumnya yang telah menimbulkan gelombang di sektor teknologi dan pertahanan, pemimpin AI Anthropic secara terbuka menentang Departemen Perang (DoW) atas potensi penunjukan "risiko rantai pasok". Konflik ini berakar pada penolakan Anthropic yang tak tergoyahkan untuk mengizinkan penggunaan model AI canggihnya, Claude, untuk dua aplikasi spesifik: pengawasan domestik massal terhadap warga Amerika dan penerapan dalam senjata otonom sepenuhnya. Kebuntuan ini, yang diumumkan oleh Sekretaris Perang Pete Hegseth melalui X pada 27 Februari 2026, menandai titik krusial dalam perdebatan yang sedang berlangsung mengenai etika AI, keamanan nasional, dan tanggung jawab perusahaan.

Anthropic mempertahankan bahwa posisinya tidak hanya etis tetapi juga vital untuk kepercayaan dan keamanan publik, berjanji untuk menentang secara hukum setiap penunjukan tersebut. Transparansi perusahaan dalam masalah ini menyoroti urgensi yang meningkat untuk pedoman yang jelas dan dialog yang kuat seputar aplikasi militer dan pengawasan dari AI terdepan.

Garis Merah Etika: Pengawasan dan Senjata Otonom

Inti dari perselisihan ini adalah dua pengecualian spesifik Anthropic terhadap penggunaan model AI-nya yang sah untuk keamanan nasional. Pengecualian-pengecualian ini, yang dilaporkan telah menunda negosiasi selama berbulan-bulan dengan Departemen Perang, adalah:

  1. Pengawasan Domestik Massal terhadap Warga Amerika: Anthropic percaya bahwa penggunaan AI untuk pemantauan luas terhadap warganya sendiri merupakan pelanggaran berat terhadap hak-hak fundamental dan prinsip-prinsip demokratis. Perusahaan memandang privasi sebagai landasan kebebasan sipil, dan penerapan AI dengan cara ini akan mengikis fondasi tersebut.
  2. Senjata Otonom Sepenuhnya: Perusahaan dengan tegas menyatakan bahwa model AI terdepan saat ini, termasuk Claude, belum cukup dapat diandalkan untuk diterapkan dalam sistem yang membuat keputusan hidup-mati tanpa intervensi manusia. Ketidakandalan semacam itu, Anthropic memperingatkan, dapat secara tragis membahayakan baik prajurit Amerika maupun warga sipil yang tidak bersalah. Sikap ini sejalan dengan kekhawatiran yang berkembang di seluruh komunitas AI tentang sifat model canggih yang tidak dapat diprediksi dalam lingkungan yang kompleks dan berisiko tinggi.

Anthropic menekankan bahwa pengecualian sempit ini, sejauh yang mereka ketahui, belum menghambat misi pemerintah yang ada. Perusahaan memiliki rekam jejak yang terbukti dalam mendukung upaya keamanan nasional Amerika, setelah menyebarkan modelnya di jaringan pemerintah AS yang terklasifikasi sejak Juni 2024. Komitmen mereka tetap untuk mendukung semua penggunaan AI yang sah untuk keamanan nasional yang tidak melampaui ambang batas etika dan keamanan kritis ini.

Penunjukan yang Belum Pernah Terjadi: Pertempuran Hukum Mengancam

Ancaman Sekretaris Hegseth untuk menunjuk Anthropic sebagai risiko rantai pasok adalah tindakan yang sangat tidak biasa dan berpotensi mengganggu. Secara historis, penunjukan semacam itu di bawah 10 USC 3252 telah dicadangkan untuk musuh asing atau entitas yang dianggap menimbulkan ancaman langsung terhadap integritas rantai pasok militer. Menerapkan label ini pada perusahaan Amerika, terutama yang telah menjadi kontraktor dan inovator pemerintah, belum pernah terjadi sebelumnya dan menetapkan preseden berbahaya.

Anthropic tegas dalam tanggapannya: ia akan menentang setiap penunjukan risiko rantai pasok di pengadilan. Perusahaan berpendapat bahwa penunjukan semacam itu akan "tidak berdasar secara hukum" dan merupakan upaya untuk mengintimidasi perusahaan yang bernegosiasi dengan pemerintah. Pertarungan hukum ini, jika terwujud, dapat mendefinisikan ulang dinamika kekuasaan antara inovator teknologi dan aparatur keamanan nasional, terutama mengenai pengembangan dan penerapan AI yang etis. Implikasinya melampaui Anthropic saja, berpotensi memengaruhi bagaimana perusahaan AI lain terlibat dengan kontrak pertahanan dan menavigasi dilema etika.

Memahami Dampak terhadap Pelanggan

Di tengah meningkatnya ketegangan, Anthropic telah bergerak untuk meyakinkan basis pelanggannya yang beragam mengenai implikasi praktis dari potensi penunjukan risiko rantai pasok. Perusahaan menyoroti bahwa pembatasan luas yang tersirat oleh Sekretaris Hegseth pada siapa pun yang berbisnis dengan militer tidak didukung oleh otoritas undang-undang.

Menurut Anthropic, ruang lingkup hukum penunjukan 10 USC 3252 secara khusus terbatas pada penggunaan Claude sebagai bagian dari kontrak Departemen Perang. Ini berarti:

| Segmen Pelanggan | Dampak Penunjukan Risiko Rantai Pasok DoW (jika secara resmi diterapkan) | | Pelanggan Individu | Tidak terpengaruh sama sekali. Akses ke Claude melalui claude.ai tetap ada. | | Kontrak Komersial dengan Anthropic | Tidak terpengaruh sama sekali. Penggunaan Claude melalui API atau produk tetap ada. | | Kontraktor Departemen Perang | Hanya memengaruhi penggunaan Claude pada pekerjaan kontrak Departemen Perang. | | Kontraktor DoW (untuk pelanggan/penggunaan lain) | Tidak terpengaruh. Penggunaan Claude untuk kontrak non-DoW atau penggunaan internal diizinkan. |

Anthropic menekankan bahwa Sekretaris Perang tidak memiliki otoritas undang-undang untuk memperluas pembatasan ini di luar kontrak DoW langsung. Klarifikasi ini bertujuan untuk mengurangi ketidakpastian atau gangguan bagi ekosistem pengguna dan mitra yang luas. Tim penjualan dan dukungan perusahaan siap siaga untuk menjawab pertanyaan lebih lanjut.

Implikasi yang Lebih Luas untuk Tata Kelola AI dan Dialog Industri

Konfrontasi publik antara Anthropic dan Departemen Perang menandakan fase kematangan dalam hubungan industri AI dengan pemerintah dan keamanan nasional. Ini menggarisbawahi kebutuhan kritis akan kebijakan komprehensif tentang tata kelola AI, khususnya mengenai teknologi dwi-fungsi. Kesediaan Anthropic untuk "menentang setiap penunjukan risiko rantai pasok di pengadilan" menunjukkan komitmen korporat yang kuat terhadap prinsip-prinsip etika, bahkan di tengah tekanan signifikan.

Situasi ini juga menyoroti tekanan yang semakin besar pada pengembang AI untuk mengambil peran yang lebih aktif dalam mendefinisikan batas-batas etika kreasi mereka, bergerak melampaui pengembangan teknis ke advokasi kebijakan proaktif. Industri ini semakin bergulat dengan pertanyaan etika kompleks seputar penerapan model kuat seperti Claude. Perusahaan secara aktif mengerjakan metode untuk mengganggu penggunaan AI yang berbahaya dan memastikan bahwa teknologi mereka digunakan untuk tujuan yang bermanfaat.

Hasil dari kebuntuan ini dapat secara signifikan memengaruhi bagaimana perusahaan AI terdepan lainnya berinteraksi dengan lembaga pertahanan secara global. Ini dapat mendorong dialog yang lebih kuat dan transparan antara para teknolog, etikus, pembuat kebijakan, dan pemimpin militer untuk membangun landasan bersama bagi inovasi AI yang bertanggung jawab yang melayani kepentingan nasional tanpa mengorbankan nilai-nilai fundamental atau keamanan. Tekad Anthropic untuk melindungi pelanggannya dan bekerja menuju transisi yang mulus, bahkan di bawah "peristiwa luar biasa" ini, mencerminkan dedikasi terhadap integritas etika dan kesinambungan praktis.

Pertanyaan yang Sering Diajukan

Apa inti perselisihan antara Anthropic dan Departemen Perang?
Perbedaan pendapat mendasar berasal dari penolakan Anthropic untuk mengizinkan penggunaan model AI canggihnya, Claude, untuk dua tujuan spesifik: pengawasan domestik massal terhadap warga negara Amerika dan penerapan dalam sistem senjata otonom sepenuhnya. Dua pengecualian ini telah menyebabkan jalan buntu dalam negosiasi, mendorong Sekretaris Perang Pete Hegseth untuk mempertimbangkan menunjuk Anthropic sebagai risiko rantai pasok. Anthropic mempertahankan bahwa posisinya didasarkan pada prinsip-prinsip etika inti mengenai hak-hak fundamental dan keterbatasan keandalan AI terdepan saat ini.
Apa dua pengecualian etika spesifik Anthropic untuk penggunaan AI?
Anthropic secara konsisten mengemukakan dua pengecualian penting terhadap penggunaan model AI-nya yang sah, termasuk Claude. Pengecualian pertama melarang penggunaan AI mereka untuk pengawasan domestik massal terhadap warga negara Amerika, dengan alasan pelanggaran hak-hak fundamental. Pengecualian kedua mencegah penggunaan AI mereka dalam senjata otonom sepenuhnya, dengan alasan bahwa model AI terdepan saat ini tidak memiliki keandalan dan jaminan keamanan yang diperlukan untuk diterapkan dalam skenario kritis, hidup-mati seperti itu tanpa pengawasan manusia. Pengecualian-pengecualian ini menjadi dasar perselisihan mereka saat ini dengan Departemen Perang.
Mengapa Anthropic keberatan dengan penggunaan AI spesifik ini?
Keberatan Anthropic berakar pada kekhawatiran etika dan praktis. Mengenai senjata otonom sepenuhnya, perusahaan percaya bahwa model AI terdepan saat ini tidak cukup dapat diandalkan untuk menjamin keamanan prajurit dan warga sipil. Ketidakpastian dan potensi kesalahan dalam aplikasi kritis tersebut dapat menyebabkan hasil yang bencana. Untuk pengawasan domestik massal, Anthropic melihat ini sebagai pelanggaran langsung terhadap hak-hak fundamental, tidak konsisten dengan prinsip-prinsip demokratis dan ekspektasi privasi warga negara Amerika. Sikap mereka menggarisbawahi komitmen terhadap pengembangan AI yang bertanggung jawab yang menghormati nilai-nilai dan keamanan manusia.
Apa itu 'penunjukan risiko rantai pasok,' dan apa implikasi potensialnya?
Sebuah 'penunjukan risiko rantai pasok' di bawah 10 USC 3252 adalah tindakan yang biasanya dicadangkan untuk entitas yang menimbulkan ancaman terhadap keamanan nasional atau integritas rantai pasok militer, sering kali terkait dengan musuh asing. Jika secara resmi diterapkan terhadap Anthropic, ini akan secara hukum membatasi penggunaan Claude secara spesifik dalam kontrak Departemen Perang. Meskipun Sekretaris Hegseth mengisyaratkan pembatasan yang lebih luas pada perusahaan yang berbisnis dengan militer, Anthropic berpendapat bahwa otoritas undang-undang membatasi cakupannya pada keterlibatan langsung Departemen Perang, bukan kontrak komersial atau pekerjaan pemerintah lainnya. Penunjukan ini secara historis belum pernah terjadi sebelumnya untuk perusahaan Amerika.
Bagaimana penunjukan ini akan memengaruhi pelanggan Anthropic?
Anthropic menjelaskan bahwa penunjukan tersebut, jika secara resmi diterapkan, akan memiliki dampak terbatas. Bagi pelanggan individu dan mereka yang memiliki kontrak komersial, akses ke Claude melalui API, claude.ai, atau produk lain akan tetap tidak terpengaruh sama sekali. Bagi kontraktor Departemen Perang, penunjukan tersebut hanya akan berlaku untuk penggunaan Claude mereka pada pekerjaan kontrak Departemen Perang. Penggunaan Claude untuk tujuan lain atau dengan klien lain akan tetap tidak terbatas. Anthropic menekankan bahwa Sekretaris Perang tidak memiliki otoritas undang-undang untuk memberlakukan pembatasan yang lebih luas di luar kontrak militer langsung.
Apa langkah selanjutnya Anthropic dalam menanggapi potensi penunjukan ini?
Anthropic telah menyatakan secara publik niat tegasnya untuk menentang setiap penunjukan risiko rantai pasok formal di pengadilan. Perusahaan percaya bahwa penunjukan semacam itu akan 'tidak berdasar secara hukum' dan menetapkan 'preseden berbahaya' bagi perusahaan Amerika mana pun yang terlibat dalam negosiasi dengan pemerintah. Tantangan hukum ini menggarisbawahi komitmen teguh mereka terhadap prinsip-prinsip etika mereka dan tekad mereka untuk melindungi operasi dan hubungan pelanggan mereka dari apa yang mereka anggap sebagai penyalahgunaan wewenang.
Preseden yang lebih luas apa yang ditetapkan situasi ini untuk industri AI?
Situasi ini menetapkan preseden signifikan bagi seluruh industri AI, khususnya mengenai batas-batas etika pengembangan dan penerapan AI dalam konteks keamanan nasional. Ini menyoroti ketegangan yang berkembang antara kemampuan teknologi, tanggung jawab etika, dan tuntutan pemerintah. Sikap menentang Anthropic dapat mendorong perusahaan AI lain untuk menetapkan batasan mereka sendiri tentang penggunaan yang diizinkan, berpotensi membentuk regulasi masa depan dan norma industri seputar etika AI, hak asasi manusia, dan pengembangan sistem otonom. Ini meningkatkan perdebatan tentang di mana letak tanggung jawab tertinggi atas dampak sosial AI.

Tetap Update

Dapatkan berita AI terbaru di inbox Anda.

Bagikan