Code Velocity

Bezpieczeństwo AI

Agenci AI OpenAI odporni na iniekcje promptów i ataki inżynierii społecznej
Bezpieczeństwo AI

Agenci AI: Odporność na iniekcje promptów dzięki inżynierii społecznej

Dowiedz się, jak OpenAI projektuje agentów AI, aby byli odporni na zaawansowane ataki typu 'prompt injection', wykorzystując strategie obrony oparte na inżynierii społecznej, zapewniając solidne bezpieczeństwo AI i prywatność danych.

·5 min czytania
Loga OpenAI i Promptfoo symbolizujące ich przejęcie w celu wzmocnienia bezpieczeństwa i testowania AI
Bezpieczeństwo AI

OpenAI przejmuje Promptfoo, aby wzmocnić bezpieczeństwo i testowanie AI

OpenAI wzmacnia swoje możliwości w zakresie bezpieczeństwa AI, przejmując Promptfoo i integrując jego zaawansowane narzędzia do testowania i oceny z platformą OpenAI Frontier, aby zabezpieczyć wdrożenia AI w przedsiębiorstwach.

·5 min czytania
Diagram ilustrujący przepływ pracy agenta Taskflow z GitHub Security Lab, wspomaganego AI do skanowania podatności
Bezpieczeństwo AI

Bezpieczeństwo wspomagane AI: Otwartoźródłowy framework GitHub do skanowania podatności

Poznaj otwarty, wspomagany AI Taskflow Agent z GitHub Security Lab – rewolucyjny framework do ulepszonego skanowania podatności. Dowiedz się, jak wdrożyć to narzędzie, aby efektywnie odkrywać krytyczne luki bezpieczeństwa w swoich projektach.

·7 min czytania
Panel Portalu Prywatności OpenAI przedstawiający opcje kontroli danych użytkownika i zarządzania prywatnością w AI.
Bezpieczeństwo AI

Portal Prywatności OpenAI: Uproszczona Kontrola Danych Użytkownika

Nowy Portal Prywatności OpenAI zapewnia użytkownikom solidną kontrolę nad danymi, umożliwiając zarządzanie danymi osobowymi, ustawieniami konta, preferencjami dotyczącymi treningu modeli oraz usuwanie informacji z odpowiedzi ChatGPT.

·5 min czytania
Umowa OpenAI i Departamentu Wojny dotycząca zabezpieczeń bezpieczeństwa AI
Bezpieczeństwo AI

Umowa OpenAI z Departamentem Wojny: Zapewnienie zabezpieczeń bezpieczeństwa AI

OpenAI szczegółowo opisuje swoją przełomową umowę z Departamentem Wojny, ustanawiającą solidne zabezpieczenia bezpieczeństwa AI przeciwko nadzorowi wewnętrznemu i broni autonomicznej, wyznaczając nowy standard dla technologii obronnych.

·7 min czytania
Oficjalne oświadczenie Anthropic dotyczące potencjalnego wyznaczenia go przez Departament Wojny jako ryzyka w łańcuchu dostaw z powodu etyki AI.
Bezpieczeństwo AI

Anthropic sprzeciwia się Sekretarzowi Wojny w sprawie AI, powołując się na prawa i bezpieczeństwo

Anthropic sprzeciwia się wyznaczeniu go przez Departament Wojny jako ryzyka w łańcuchu dostaw, trzymając się etycznego wykorzystania AI, zakazując masowej inwigilacji wewnętrznej i zawodnych autonomicznych broni.

·4 min czytania
Tarcza cyberbezpieczeństwa nad obwodami AI, symbolizująca wysiłki OpenAI w zakłócaniu złośliwych zastosowań AI
Bezpieczeństwo AI

Bezpieczeństwo AI: Zakłócanie złośliwych zastosowań AI

OpenAI przedstawia strategie zakłócania złośliwych zastosowań AI, dostarczając wniosków z najnowszych raportów o zagrożeniach. Dowiedz się, jak podmioty zagrażające łączą AI z tradycyjnymi narzędziami w celu przeprowadzenia wyrafinowanych ataków.

·4 min czytania
Schemat przedstawiający przepływ ataku destylacji od granicznego modelu AI do nielegalnych kopii za pośrednictwem sieci fałszywych kont
Bezpieczeństwo AI

Anthropic Ujawnia Ataki Destylacji Przeprowadzone przez DeepSeek i MiniMax

Anthropic ujawnia, że DeepSeek, Moonshot i MiniMax przeprowadziły 16 milionów nielegalnych wymian, aby destylować możliwości Claude'a. Jak działały ataki i dlaczego są ważne.

·4 min czytania