Code Velocity

Yapay Zeka Güvenliği

OpenAI yapay zeka aracıları, istek enjeksiyonu ve sosyal mühendislik saldırılarına direniyor
Yapay Zeka Güvenliği

Yapay Zeka Aracılar: Sosyal Mühendislikle İstek Enjeksiyonuna Direnme

OpenAI'ın yapay zeka aracılarını, sosyal mühendislik savunma stratejilerinden yararlanarak gelişmiş istek enjeksiyonu saldırılarına karşı nasıl dirençli hale getirdiğini öğrenin, sağlam yapay zeka güvenliği ve veri gizliliği sağlayın.

·5 dk okuma
OpenAI ve Promptfoo logoları, yapay zeka güvenliğini ve testini geliştirmek amacıyla birleşmelerini simgeliyor
Yapay Zeka Güvenliği

OpenAI, Yapay Zeka Güvenliği ve Testini Güçlendirmek İçin Promptfoo'yu Satın Aldı

OpenAI, Promptfoo'yu satın alarak yapay zeka güvenliği yeteneklerini güçlendiriyor ve kurumsal yapay zeka dağıtımlarını güvence altına almak için gelişmiş test ve değerlendirme araçlarını OpenAI Frontier'e entegre ediyor.

·5 dk okuma
GitHub Güvenlik Laboratuvarı'nın yapay zeka destekli güvenlik açığı taraması Görev Akışı Aracısı iş akışını gösteren diyagram
Yapay Zeka Güvenliği

Yapay Zeka Destekli Güvenlik: GitHub'ın Açık Kaynak Güvenlik Açığı Tarama Çerçevesi

GitHub Güvenlik Laboratuvarı'nın açık kaynak, yapay zeka destekli Görev Akışı Aracısı'nı keşfedin; bu, geliştirilmiş güvenlik açığı taraması için devrim niteliğinde bir çerçevedir. Bu aracı projelerinizdeki yüksek etkili güvenlik açıklarını verimli bir şekilde ortaya çıkarmak için nasıl kullanacağınızı öğrenin.

·7 dk okuma
Kullanıcı veri kontrolü ve YZ gizlilik yönetimi seçeneklerini gösteren OpenAI Gizlilik Portalı paneli.
Yapay Zeka Güvenliği

OpenAI Gizlilik Portalı: Kullanıcı Veri Kontrolü Basitleştirildi

OpenAI'ın yeni Gizlilik Portalı, kullanıcılara güçlü veri kontrolü sağlayarak kişisel verilerin, hesap ayarlarının, model eğitim tercihlerinin yönetilmesine ve ChatGPT yanıtlarından bilgilerin kaldırılmasına olanak tanır.

·5 dk okuma
OpenAI ve Savaş Bakanlığı yapay zeka güvenlik rayları anlaşması
Yapay Zeka Güvenliği

OpenAI Savaş Bakanlığı Anlaşması: Yapay Zeka Güvenlik Raylarını Sağlamak

OpenAI, Savaş Bakanlığı ile yaptığı dönüm noktası niteliğindeki anlaşmasını detaylandırıyor. Bu anlaşma, yurt içi gözetim ve otonom silahlara karşı güçlü yapay zeka güvenlik rayları oluşturarak savunma teknolojisi için yeni bir standart belirliyor.

·7 dk okuma
Anthropic'in, Savaş Bakanlığı'nın yapay zeka etiği konusundaki potansiyel tedarik zinciri riski tanımlamasına ilişkin resmi açıklaması.
Yapay Zeka Güvenliği

Anthropic Yapay Zeka Konusunda Savaş Bakanlığı'na Meydan Okuyor: Haklar ve Güvenlik Vurgusu

Anthropic, Savaş Bakanlığı'nın tedarik zinciri riski tanımına meydan okuyor; etik yapay zeka kullanımı, toplu iç gözetimin yasaklanması ve güvenilmez otonom silahlar konusunda kararlılığını sürdürüyor.

·4 dk okuma
Yapay zeka devrelerinin üzerinde bir siber güvenlik kalkanı, OpenAI'ın kötü niyetli yapay zeka kullanımlarını engelleme çabalarını temsil ediyor
Yapay Zeka Güvenliği

Yapay Zeka Güvenliği: Kötü Niyetli Yapay Zeka Kullanımlarını Engelleme

OpenAI, kötü niyetli yapay zeka kullanımlarını engelleme stratejilerini detaylandırıyor ve son tehdit raporlarından bilgiler sunuyor. Tehdit aktörlerinin sofistike saldırılar için yapay zekayı geleneksel araçlarla nasıl birleştirdiğini öğrenin.

·4 dk okuma
Öncü yapay zeka modelinden yasa dışı kopyalara, sahte hesap ağları aracılığıyla damıtma saldırısı akışını gösteren diyagram
Yapay Zeka Güvenliği

Anthropic, DeepSeek ve MiniMax'ın Damıtma Saldırılarını Ortaya Çıkardı

Anthropic, DeepSeek, Moonshot ve MiniMax'ın Claude'un yeteneklerini damıtmak için 16 milyon yasa dışı alışveriş gerçekleştirdiğini ortaya koyuyor. Saldırıların nasıl çalıştığı ve neden önemli oldukları.

·4 dk okuma