Code Velocity

Keselamatan AI

Ejen AI OpenAI menentang suntikan prompt dan serangan kejuruteraan sosial
Keselamatan AI

Ejen AI: Menentang Suntikan Prompt dengan Kejuruteraan Sosial

Ketahui cara OpenAI mereka bentuk ejen AI untuk menentang serangan suntikan prompt lanjutan dengan memanfaatkan strategi pertahanan kejuruteraan sosial, memastikan keselamatan AI yang mantap dan privasi data.

·5 min bacaan
Logo OpenAI dan Promptfoo melambangkan pengambilalihan mereka untuk meningkatkan keselamatan dan pengujian AI
Keselamatan AI

OpenAI Mengambil Alih Promptfoo untuk Meningkatkan Keselamatan & Pengujian AI

OpenAI memperkukuh keupayaan keselamatan AI dengan mengambil alih Promptfoo, menyepadukan alat ujian dan penilaian canggihnya ke dalam OpenAI Frontier untuk melindungi pelaksanaan AI perusahaan.

·5 min bacaan
Gambar rajah yang menggambarkan aliran kerja Ejen Taskflow pengimbasan kerentanan berkuasa AI Makmal Keselamatan GitHub
Keselamatan AI

Keselamatan Berkuasa AI: Rangka Kerja Pengimbasan Kerentanan Sumber Terbuka GitHub

Terokai Ejen Taskflow berkuasa AI sumber terbuka Makmal Keselamatan GitHub, rangka kerja revolusioner untuk pengimbasan kerentanan yang dipertingkatkan. Pelajari cara menggunakan alat ini untuk membongkar kerentanan keselamatan berimpak tinggi dalam projek anda dengan cekap.

·7 min bacaan
Papan pemuka Portal Privasi OpenAI menunjukkan pilihan untuk kawalan data pengguna dan pengurusan privasi AI.
Keselamatan AI

Portal Privasi OpenAI: Kawalan Data Pengguna Dipermudahkan

Portal Privasi baharu OpenAI memperkasakan pengguna dengan kawalan data yang mantap, membolehkan pengurusan data peribadi, tetapan akaun, pilihan latihan model, dan penyingkiran maklumat daripada respons ChatGPT.

·5 min bacaan
Perjanjian OpenAI dan Jabatan Perang dengan kawalan keselamatan AI
Keselamatan AI

Perjanjian Jabatan Perang OpenAI: Memastikan Kawalan Keselamatan AI

OpenAI memperincikan perjanjian pentingnya dengan Jabatan Perang, mewujudkan kawalan keselamatan AI yang kukuh terhadap pengawasan domestik dan senjata autonomi, menetapkan standard baharu untuk teknologi pertahanan.

·7 min bacaan
Kenyataan rasmi Anthropic mengenai kemungkinan penetapan risiko rantaian bekalan oleh Jabatan Perang berkaitan etika AI.
Keselamatan AI

Anthropic Menentang Setiausaha Perang Mengenai AI, Memetik Hak dan Keselamatan

Anthropic menentang penetapan risiko rantaian bekalan Jabatan Perang, kekal teguh pada penggunaan AI yang beretika, melarang pengawasan domestik besar-besaran dan senjata autonomi yang tidak boleh dipercayai.

·4 min bacaan
Perisai keselamatan siber di atas litar AI, mewakili usaha OpenAI dalam membantutkan penggunaan AI yang berniat jahat
Keselamatan AI

Keselamatan AI: Membantutkan Penggunaan AI Berniat Jahat

OpenAI memperincikan strategi untuk membantutkan penggunaan AI yang berniat jahat, memberikan pandangan daripada laporan ancaman terkini. Ketahui bagaimana pelaku ancaman menggabungkan AI dengan alat tradisional untuk serangan yang canggih.

·4 min bacaan
Rajah menunjukkan aliran serangan distilasi dari model AI perintis ke salinan haram melalui rangkaian akaun penipuan
Keselamatan AI

Anthropic Mendedahkan Serangan Distilasi oleh DeepSeek dan MiniMax

Anthropic mendedahkan DeepSeek, Moonshot, dan MiniMax menjalankan 16 juta pertukaran haram untuk mendistilasi keupayaan Claude. Bagaimana serangan itu berfungsi dan mengapa ia penting.

·4 min bacaan