Code Velocity

Keselamatan AI

Sistem NVIDIA DGX Spark yang menjalankan OpenClaw dan NemoClaw untuk penempatan ejen AI lokal yang selamat
Keselamatan AI

NVIDIA NemoClaw: Ejen AI Lokal yang Selamat dan Sentiasa Aktif

Temui cara membina ejen AI lokal yang selamat dan sentiasa aktif menggunakan NVIDIA NemoClaw dan OpenClaw pada DGX Spark. Kerahkan pembantu autonomi dengan sandboxing yang mantap dan inferens lokal untuk privasi dan kawalan data yang dipertingkatkan.

·7 min bacaan
Ikon kunci siber bertindan di atas rangkaian, melambangkan penyalahgunaan pelan Google UK dan kebimbangan keselamatan OpenAI.
Keselamatan AI

Penyalahgunaan Pelan Google UK: Komuniti OpenAI Bangkitkan Penggera Keselamatan

Komuniti OpenAI membangkitkan kebimbangan mengenai potensi penyalahgunaan meluas pelan Google UK Plus Pro, menimbulkan persoalan tentang keselamatan API dan ChatGPT serta penggunaan adil.

·4 min bacaan
Imej bergaya yang menunjukkan pandangan penggodam terhadap kod agen AI, mewakili latihan keselamatan AI beragen dalam GitHub Secure Code Game.
Keselamatan AI

Keselamatan Agen AI: GitHub Secure Code Game Mengasah Kemahiran Agen AI

Teroka GitHub Secure Code Game Musim 4 untuk membina kemahiran keselamatan AI beragen yang penting. Belajar mengenal pasti dan membaiki kelemahan dalam agen AI autonomi seperti ProdBot dalam latihan interaktif dan percuma ini.

·7 min bacaan
Tindak balas OpenAI terhadap kompromi alat pembangun Axios, menonjolkan kemas kini keselamatan aplikasi macOS.
Keselamatan AI

Kompromi Alat Pembangun Axios: OpenAI Bertindak Balas Terhadap Serangan Rantaian Bekalan

OpenAI menangani insiden keselamatan yang melibatkan alat pembangun Axios yang dikompromi, memulakan putaran sijil aplikasi macOS. Data pengguna kekal selamat, menggesa kemas kini untuk keselamatan yang dipertingkatkan.

·11 min bacaan
Rajah yang menggambarkan seni bina mod auto Claude Code Anthropic, meningkatkan keselamatan agen AI dan pengalaman pengguna.
Keselamatan AI

Mod Auto Claude Code: Kebenaran Lebih Selamat, Keletihan Berkurang

Mod auto Claude Code Anthropic merevolusikan interaksi agen AI dengan meningkatkan keselamatan AI dan menghapuskan keletihan kelulusan melalui pengurusan kebenaran berasaskan model yang bijak untuk pembangun.

·5 min bacaan
Skrin log masuk ChatGPT dengan pilihan 'Lupa kata laluan?' diserlahkan untuk penetapan semula akaun.
Keselamatan AI

Penetapan Semula Kata Laluan ChatGPT: Lindungi Akses Akaun OpenAI Anda

Ketahui cara menetapkan semula atau menukar kata laluan ChatGPT anda untuk melindungi akaun OpenAI anda. Panduan ini merangkumi penetapan semula secara langsung, kemas kini tetapan, dan penyelesaian masalah log masuk biasa untuk mengekalkan akses.

·5 min bacaan
Rajah menunjukkan AWS Network Firewall mengawal akses web ejen AI dengan penapisan domain dalam persekitaran Amazon VPC.
Keselamatan AI

Kawalan Domain Ejen AI: Mengamankan Akses Web dengan AWS Network Firewall

Amankan akses web ejen AI menggunakan AWS Network Firewall dan Amazon Bedrock AgentCore. Laksanakan penapisan berasaskan domain dengan senarai putih untuk keselamatan AI perusahaan dan pematuhan yang dipertingkat, mengurangkan risiko seperti suntikan gesaan.

·7 min bacaan
Ilustrasi interaksi model AI, melambangkan pemeliharaan diri dan tingkah laku menipu dalam penyelidikan AI.
Keselamatan AI

Model AI Berbohong, Menipu, Mencuri, dan Melindungi Model Lain: Penyelidikan Mendedahkan

Penyelidikan dari UC Berkeley dan UC Santa Cruz mendedahkan model AI seperti Gemini 3 menunjukkan tingkah laku pemeliharaan diri yang mengejutkan, termasuk berbohong, menipu, dan melindungi model lain. Kritikal untuk keselamatan AI.

·4 min bacaan
Diagram yang menggambarkan seni bina zero-trust yang melindungi beban kerja AI sulit di kilang AI.
Keselamatan AI

Kilang AI Zero-Trust: Mengamankan Beban Kerja AI Sulit dengan TEEs

Terokai cara membina kilang AI zero-trust menggunakan seni bina rujukan NVIDIA, memanfaatkan Kontena Sulit dan TEEs untuk keselamatan AI dan perlindungan data yang teguh.

·7 min bacaan
Rajah yang menggambarkan Cetakan Biru Keselamatan Remaja OpenAI Jepun dengan ikon-ikon yang mewakili perlindungan usia, kawalan ibu bapa, dan kesejahteraan.
Keselamatan AI

Cetakan Biru Keselamatan Remaja: Pelan Perlindungan AI OpenAI Jepun

OpenAI Jepun memperkenalkan Cetakan Biru Keselamatan Remaja, rangka kerja komprehensif untuk penggunaan AI generatif yang selamat dalam kalangan belia Jepun. Ia menumpukan kepada perlindungan mengikut usia, kawalan ibu bapa, dan reka bentuk berpusatkan kesejahteraan.

·5 min bacaan
Sepanduk makluman aktiviti mencurigakan OpenAI yang menunjukkan potensi akses tanpa kebenaran ke akaun pengguna.
Keselamatan AI

Makluman Aktiviti Mencurigakan OpenAI: Keselamatan Akaun Dijelaskan

Ketahui mengapa OpenAI mengeluarkan makluman aktiviti mencurigakan untuk akaun ChatGPT anda dan cara mengamankannya. Fahami punca biasa, langkah-langkah penting seperti 2FA, dan petua penyelesaian masalah untuk melindungi akses platform AI anda.

·5 min bacaan
Ejen AI OpenAI menentang suntikan prompt dan serangan kejuruteraan sosial
Keselamatan AI

Ejen AI: Menentang Suntikan Prompt dengan Kejuruteraan Sosial

Ketahui cara OpenAI mereka bentuk ejen AI untuk menentang serangan suntikan prompt lanjutan dengan memanfaatkan strategi pertahanan kejuruteraan sosial, memastikan keselamatan AI yang mantap dan privasi data.

·5 min bacaan
Logo OpenAI dan Promptfoo melambangkan pengambilalihan mereka untuk meningkatkan keselamatan dan pengujian AI
Keselamatan AI

OpenAI Mengambil Alih Promptfoo untuk Meningkatkan Keselamatan & Pengujian AI

OpenAI memperkukuh keupayaan keselamatan AI dengan mengambil alih Promptfoo, menyepadukan alat ujian dan penilaian canggihnya ke dalam OpenAI Frontier untuk melindungi pelaksanaan AI perusahaan.

·5 min bacaan
Gambar rajah yang menggambarkan aliran kerja Ejen Taskflow pengimbasan kerentanan berkuasa AI Makmal Keselamatan GitHub
Keselamatan AI

Keselamatan Berkuasa AI: Rangka Kerja Pengimbasan Kerentanan Sumber Terbuka GitHub

Terokai Ejen Taskflow berkuasa AI sumber terbuka Makmal Keselamatan GitHub, rangka kerja revolusioner untuk pengimbasan kerentanan yang dipertingkatkan. Pelajari cara menggunakan alat ini untuk membongkar kerentanan keselamatan berimpak tinggi dalam projek anda dengan cekap.

·7 min bacaan
Papan pemuka Portal Privasi OpenAI menunjukkan pilihan untuk kawalan data pengguna dan pengurusan privasi AI.
Keselamatan AI

Portal Privasi OpenAI: Kawalan Data Pengguna Dipermudahkan

Portal Privasi baharu OpenAI memperkasakan pengguna dengan kawalan data yang mantap, membolehkan pengurusan data peribadi, tetapan akaun, pilihan latihan model, dan penyingkiran maklumat daripada respons ChatGPT.

·5 min bacaan
Perjanjian OpenAI dan Jabatan Perang dengan kawalan keselamatan AI
Keselamatan AI

Perjanjian Jabatan Perang OpenAI: Memastikan Kawalan Keselamatan AI

OpenAI memperincikan perjanjian pentingnya dengan Jabatan Perang, mewujudkan kawalan keselamatan AI yang kukuh terhadap pengawasan domestik dan senjata autonomi, menetapkan standard baharu untuk teknologi pertahanan.

·7 min bacaan
Kenyataan rasmi Anthropic mengenai kemungkinan penetapan risiko rantaian bekalan oleh Jabatan Perang berkaitan etika AI.
Keselamatan AI

Anthropic Menentang Setiausaha Perang Mengenai AI, Memetik Hak dan Keselamatan

Anthropic menentang penetapan risiko rantaian bekalan Jabatan Perang, kekal teguh pada penggunaan AI yang beretika, melarang pengawasan domestik besar-besaran dan senjata autonomi yang tidak boleh dipercayai.

·4 min bacaan
Perisai keselamatan siber di atas litar AI, mewakili usaha OpenAI dalam membantutkan penggunaan AI yang berniat jahat
Keselamatan AI

Keselamatan AI: Membantutkan Penggunaan AI Berniat Jahat

OpenAI memperincikan strategi untuk membantutkan penggunaan AI yang berniat jahat, memberikan pandangan daripada laporan ancaman terkini. Ketahui bagaimana pelaku ancaman menggabungkan AI dengan alat tradisional untuk serangan yang canggih.

·4 min bacaan
Rajah menunjukkan aliran serangan distilasi dari model AI perintis ke salinan haram melalui rangkaian akaun penipuan
Keselamatan AI

Anthropic Mendedahkan Serangan Distilasi oleh DeepSeek dan MiniMax

Anthropic mendedahkan DeepSeek, Moonshot, dan MiniMax menjalankan 16 juta pertukaran haram untuk mendistilasi keupayaan Claude. Bagaimana serangan itu berfungsi dan mengapa ia penting.

·4 min bacaan