Code Velocity

Keamanan AI

Agen AI OpenAI melawan injeksi prompt dan serangan rekayasa sosial
Keamanan AI

Agen AI: Melawan Injeksi Prompt dengan Rekayasa Sosial

Pelajari bagaimana OpenAI merancang agen AI untuk melawan serangan injeksi prompt tingkat lanjut dengan memanfaatkan strategi pertahanan rekayasa sosial, memastikan keamanan AI dan privasi data yang kuat.

·5 mnt baca
Logo OpenAI dan Promptfoo melambangkan akuisisi mereka untuk meningkatkan keamanan dan pengujian AI
Keamanan AI

OpenAI Akuisisi Promptfoo untuk Mendongkrak Keamanan & Pengujian AI

OpenAI memperkuat kapabilitas keamanan AI-nya dengan mengakuisisi Promptfoo, mengintegrasikan alat pengujian dan evaluasi canggihnya ke dalam OpenAI Frontier untuk mengamankan penerapan AI perusahaan.

·5 mnt baca
Diagram yang mengilustrasikan alur kerja Taskflow Agent pemindai kerentanan berbasis AI dari GitHub Security Lab
Keamanan AI

Keamanan Berbasis AI: Kerangka Kerja Pemindaian Kerentanan Sumber Terbuka GitHub

Jelajahi Taskflow Agent berbasis AI dan sumber terbuka dari GitHub Security Lab, sebuah kerangka kerja revolusioner untuk pemindaian kerentanan yang ditingkatkan. Pelajari cara menerapkan alat ini untuk mengungkap kerentanan keamanan berdampak tinggi dalam proyek Anda secara efisien.

·7 mnt baca
Dasbor Portal Privasi OpenAI yang menampilkan opsi untuk kontrol data pengguna dan manajemen privasi AI.
Keamanan AI

Portal Privasi OpenAI: Kontrol Data Pengguna yang Disederhanakan

Portal Privasi baru OpenAI memberdayakan pengguna dengan kontrol data yang kuat, memungkinkan pengelolaan data pribadi, pengaturan akun, preferensi pelatihan model, dan penghapusan informasi dari respons ChatGPT.

·5 mnt baca
Perjanjian OpenAI dan Departemen Perang dengan batasan keamanan AI
Keamanan AI

Perjanjian OpenAI dengan Departemen Perang: Memastikan Batasan Keamanan AI

OpenAI merinci perjanjian pentingnya dengan Departemen Perang, menetapkan batasan keamanan AI yang kuat terhadap pengawasan domestik dan senjata otonom, menetapkan standar baru untuk teknologi pertahanan.

·7 mnt baca
Pernyataan resmi Anthropic mengenai potensi penunjukan risiko rantai pasok oleh Departemen Perang terkait etika AI.
Keamanan AI

Anthropic Menentang Sekretaris Perang atas AI, Mengutip Hak dan Keamanan

Anthropic menentang penunjukan risiko rantai pasok oleh Departemen Perang, tetap teguh pada penggunaan AI yang etis, melarang pengawasan domestik massal dan senjata otonom yang tidak dapat diandalkan.

·4 mnt baca
Perisai keamanan siber di atas sirkuit AI, melambangkan upaya OpenAI dalam menggagalkan penggunaan AI berbahaya
Keamanan AI

Keamanan AI: Mengganggu Penggunaan AI Berbahaya

OpenAI merinci strategi untuk menggagalkan penggunaan AI berbahaya, memberikan wawasan dari laporan ancaman terbaru. Pelajari bagaimana aktor ancaman menggabungkan AI dengan alat tradisional untuk serangan canggih.

·4 mnt baca
Diagram menunjukkan alur serangan distilasi dari model AI frontier ke salinan ilegal melalui jaringan akun penipuan
Keamanan AI

Anthropic Mengungkap Serangan Distilasi oleh DeepSeek dan MiniMax

Anthropic mengungkapkan DeepSeek, Moonshot, dan MiniMax melakukan 16 juta pertukaran terlarang untuk mendistilasi kapabilitas Claude. Bagaimana serangan ini bekerja dan mengapa penting.

·4 mnt baca