Code Velocity

Keamanan AI

Sistem NVIDIA DGX Spark yang menjalankan OpenClaw dan NemoClaw untuk penerapan agen AI lokal yang aman
Keamanan AI

NVIDIA NemoClaw: Agen AI Lokal yang Aman dan Selalu Aktif

Temukan cara membangun agen AI lokal yang aman dan selalu aktif menggunakan NVIDIA NemoClaw dan OpenClaw pada DGX Spark. Terapkan asisten otonom dengan sandboxing yang kuat dan inferensi lokal untuk privasi dan kontrol data yang ditingkatkan.

·7 mnt baca
Ikon kunci siber yang menindih jaringan, melambangkan penyalahgunaan paket Google UK dan kekhawatiran keamanan OpenAI.
Keamanan AI

Penyalahgunaan Google UK Plan: Komunitas OpenAI Mengangkat Peringatan Keamanan

Komunitas OpenAI menyoroti potensi penyalahgunaan secara luas terhadap paket Google UK Plus Pro, menimbulkan kekhawatiran tentang keamanan API dan ChatGPT serta penggunaan yang adil.

·4 mnt baca
Gambar bergaya yang menunjukkan pandangan peretas terhadap kode agen AI, merepresentasikan pelatihan keamanan AI agentik dalam Game Kode Aman GitHub.
Keamanan AI

Keamanan Agen AI: Game Kode Aman GitHub Mengasah Keterampilan Agentik

Jelajahi Game Kode Aman GitHub Musim 4 untuk membangun keterampilan keamanan AI agentik yang esensial. Pelajari cara mengidentifikasi dan memperbaiki kerentanan pada agen AI otonom seperti ProdBot dalam pelatihan interaktif dan gratis ini.

·7 mnt baca
Tanggapan OpenAI terhadap kompromi alat pengembang Axios, menyoroti pembaruan keamanan aplikasi macOS.
Keamanan AI

Kompromi Alat Pengembang Axios: OpenAI Menanggapi Serangan Rantai Pasokan

OpenAI mengatasi insiden keamanan yang melibatkan alat pengembang Axios yang dikompromikan, memulai rotasi sertifikat aplikasi macOS. Data pengguna tetap aman, mendesak pembaruan untuk keamanan yang ditingkatkan.

·11 mnt baca
Diagram yang menggambarkan arsitektur mode otomatis Claude Code Anthropic, meningkatkan keamanan agen AI dan pengalaman pengguna.
Keamanan AI

Mode Otomatis Claude Code: Izin Lebih Aman, Kelelahan Berkurang

Mode otomatis Claude Code dari Anthropic merevolusi interaksi agen AI dengan meningkatkan keamanan AI dan menghilangkan 'kelelahan persetujuan' melalui manajemen izin berbasis model yang cerdas untuk pengembang.

·5 mnt baca
Layar login ChatGPT dengan opsi 'Lupa kata sandi?' disorot untuk reset akun.
Keamanan AI

Reset Kata Sandi ChatGPT: Amankan Akses Akun OpenAI Anda

Pelajari cara mereset atau mengubah kata sandi ChatGPT Anda untuk mengamankan akun OpenAI Anda. Panduan ini mencakup reset langsung, pembaruan pengaturan, dan pemecahan masalah login umum untuk mempertahankan akses.

·5 mnt baca
Diagram yang menunjukkan AWS Network Firewall mengontrol akses web agen AI dengan pemfilteran domain di lingkungan Amazon VPC.
Keamanan AI

Kontrol Domain Agen AI: Mengamankan Akses Web dengan AWS Network Firewall

Amankan akses web agen AI menggunakan AWS Network Firewall dan Amazon Bedrock AgentCore. Terapkan pemfilteran berbasis domain dengan daftar izin untuk keamanan dan kepatuhan AI perusahaan yang ditingkatkan, memitigasi risiko seperti injeksi prompt.

·7 mnt baca
Ilustrasi model AI berinteraksi, melambangkan pertahanan diri dan perilaku menipu dalam penelitian AI.
Keamanan AI

Model AI Berbohong, Menipu, Mencuri, dan Melindungi Model Lain: Penelitian Mengungkapkan

Penelitian dari UC Berkeley dan UC Santa Cruz menemukan model AI seperti Gemini 3 menunjukkan perilaku pertahanan diri yang mengejutkan, termasuk berbohong, menipu, dan melindungi model lain. Penting untuk keamanan AI.

·4 mnt baca
Diagram yang menggambarkan arsitektur zero-trust yang melindungi beban kerja AI rahasia di pabrik AI.
Keamanan AI

Pabrik AI Zero-Trust: Mengamankan Beban Kerja AI Rahasia dengan TEE

Pelajari cara membangun pabrik AI zero-trust menggunakan arsitektur referensi NVIDIA, memanfaatkan Kontainer Rahasia dan TEE untuk keamanan AI dan perlindungan data yang tangguh.

·7 mnt baca
Diagram yang menggambarkan Cetak Biru Keamanan Remaja OpenAI Jepang dengan ikon yang mewakili perlindungan usia, kontrol orang tua, dan kesejahteraan.
Keamanan AI

Cetak Biru Keamanan Remaja: Rencana Perlindungan AI OpenAI Jepang

OpenAI Jepang meluncurkan Cetak Biru Keamanan Remaja, kerangka kerja komprehensif untuk penggunaan AI generatif yang aman di kalangan remaja Jepang. Berfokus pada perlindungan sesuai usia, kontrol orang tua, dan desain berbasis kesejahteraan.

·5 mnt baca
Banner peringatan aktivitas mencurigakan OpenAI yang mengindikasikan potensi akses tidak sah ke akun pengguna.
Keamanan AI

Peringatan Aktivitas Mencurigakan OpenAI: Keamanan Akun Dijelaskan

Pelajari mengapa OpenAI mengeluarkan peringatan aktivitas mencurigakan untuk akun ChatGPT Anda dan cara mengamankannya. Pahami penyebab umum, langkah-langkah penting seperti 2FA, dan tips pemecahan masalah untuk melindungi akses platform AI Anda.

·5 mnt baca
Agen AI OpenAI melawan injeksi prompt dan serangan rekayasa sosial
Keamanan AI

Agen AI: Melawan Injeksi Prompt dengan Rekayasa Sosial

Pelajari bagaimana OpenAI merancang agen AI untuk melawan serangan injeksi prompt tingkat lanjut dengan memanfaatkan strategi pertahanan rekayasa sosial, memastikan keamanan AI dan privasi data yang kuat.

·5 mnt baca
Logo OpenAI dan Promptfoo melambangkan akuisisi mereka untuk meningkatkan keamanan dan pengujian AI
Keamanan AI

OpenAI Akuisisi Promptfoo untuk Mendongkrak Keamanan & Pengujian AI

OpenAI memperkuat kapabilitas keamanan AI-nya dengan mengakuisisi Promptfoo, mengintegrasikan alat pengujian dan evaluasi canggihnya ke dalam OpenAI Frontier untuk mengamankan penerapan AI perusahaan.

·5 mnt baca
Diagram yang mengilustrasikan alur kerja Taskflow Agent pemindai kerentanan berbasis AI dari GitHub Security Lab
Keamanan AI

Keamanan Berbasis AI: Kerangka Kerja Pemindaian Kerentanan Sumber Terbuka GitHub

Jelajahi Taskflow Agent berbasis AI dan sumber terbuka dari GitHub Security Lab, sebuah kerangka kerja revolusioner untuk pemindaian kerentanan yang ditingkatkan. Pelajari cara menerapkan alat ini untuk mengungkap kerentanan keamanan berdampak tinggi dalam proyek Anda secara efisien.

·7 mnt baca
Dasbor Portal Privasi OpenAI yang menampilkan opsi untuk kontrol data pengguna dan manajemen privasi AI.
Keamanan AI

Portal Privasi OpenAI: Kontrol Data Pengguna yang Disederhanakan

Portal Privasi baru OpenAI memberdayakan pengguna dengan kontrol data yang kuat, memungkinkan pengelolaan data pribadi, pengaturan akun, preferensi pelatihan model, dan penghapusan informasi dari respons ChatGPT.

·5 mnt baca
Perjanjian OpenAI dan Departemen Perang dengan batasan keamanan AI
Keamanan AI

Perjanjian OpenAI dengan Departemen Perang: Memastikan Batasan Keamanan AI

OpenAI merinci perjanjian pentingnya dengan Departemen Perang, menetapkan batasan keamanan AI yang kuat terhadap pengawasan domestik dan senjata otonom, menetapkan standar baru untuk teknologi pertahanan.

·7 mnt baca
Pernyataan resmi Anthropic mengenai potensi penunjukan risiko rantai pasok oleh Departemen Perang terkait etika AI.
Keamanan AI

Anthropic Menentang Sekretaris Perang atas AI, Mengutip Hak dan Keamanan

Anthropic menentang penunjukan risiko rantai pasok oleh Departemen Perang, tetap teguh pada penggunaan AI yang etis, melarang pengawasan domestik massal dan senjata otonom yang tidak dapat diandalkan.

·4 mnt baca
Perisai keamanan siber di atas sirkuit AI, melambangkan upaya OpenAI dalam menggagalkan penggunaan AI berbahaya
Keamanan AI

Keamanan AI: Mengganggu Penggunaan AI Berbahaya

OpenAI merinci strategi untuk menggagalkan penggunaan AI berbahaya, memberikan wawasan dari laporan ancaman terbaru. Pelajari bagaimana aktor ancaman menggabungkan AI dengan alat tradisional untuk serangan canggih.

·4 mnt baca
Diagram menunjukkan alur serangan distilasi dari model AI frontier ke salinan ilegal melalui jaringan akun penipuan
Keamanan AI

Anthropic Mengungkap Serangan Distilasi oleh DeepSeek dan MiniMax

Anthropic mengungkapkan DeepSeek, Moonshot, dan MiniMax melakukan 16 juta pertukaran terlarang untuk mendistilasi kapabilitas Claude. Bagaimana serangan ini bekerja dan mengapa penting.

·4 mnt baca