Bezpieczeństwo AI

Agenci AI: Odporność na iniekcje promptów dzięki inżynierii społecznej
Dowiedz się, jak OpenAI projektuje agentów AI, aby byli odporni na zaawansowane ataki typu 'prompt injection', wykorzystując strategie obrony oparte na inżynierii społecznej, zapewniając solidne bezpieczeństwo AI i prywatność danych.

OpenAI przejmuje Promptfoo, aby wzmocnić bezpieczeństwo i testowanie AI
OpenAI wzmacnia swoje możliwości w zakresie bezpieczeństwa AI, przejmując Promptfoo i integrując jego zaawansowane narzędzia do testowania i oceny z platformą OpenAI Frontier, aby zabezpieczyć wdrożenia AI w przedsiębiorstwach.

Bezpieczeństwo wspomagane AI: Otwartoźródłowy framework GitHub do skanowania podatności
Poznaj otwarty, wspomagany AI Taskflow Agent z GitHub Security Lab – rewolucyjny framework do ulepszonego skanowania podatności. Dowiedz się, jak wdrożyć to narzędzie, aby efektywnie odkrywać krytyczne luki bezpieczeństwa w swoich projektach.

Portal Prywatności OpenAI: Uproszczona Kontrola Danych Użytkownika
Nowy Portal Prywatności OpenAI zapewnia użytkownikom solidną kontrolę nad danymi, umożliwiając zarządzanie danymi osobowymi, ustawieniami konta, preferencjami dotyczącymi treningu modeli oraz usuwanie informacji z odpowiedzi ChatGPT.

Umowa OpenAI z Departamentem Wojny: Zapewnienie zabezpieczeń bezpieczeństwa AI
OpenAI szczegółowo opisuje swoją przełomową umowę z Departamentem Wojny, ustanawiającą solidne zabezpieczenia bezpieczeństwa AI przeciwko nadzorowi wewnętrznemu i broni autonomicznej, wyznaczając nowy standard dla technologii obronnych.

Anthropic sprzeciwia się Sekretarzowi Wojny w sprawie AI, powołując się na prawa i bezpieczeństwo
Anthropic sprzeciwia się wyznaczeniu go przez Departament Wojny jako ryzyka w łańcuchu dostaw, trzymając się etycznego wykorzystania AI, zakazując masowej inwigilacji wewnętrznej i zawodnych autonomicznych broni.

Bezpieczeństwo AI: Zakłócanie złośliwych zastosowań AI
OpenAI przedstawia strategie zakłócania złośliwych zastosowań AI, dostarczając wniosków z najnowszych raportów o zagrożeniach. Dowiedz się, jak podmioty zagrażające łączą AI z tradycyjnymi narzędziami w celu przeprowadzenia wyrafinowanych ataków.

Anthropic Ujawnia Ataki Destylacji Przeprowadzone przez DeepSeek i MiniMax
Anthropic ujawnia, że DeepSeek, Moonshot i MiniMax przeprowadziły 16 milionów nielegalnych wymian, aby destylować możliwości Claude'a. Jak działały ataki i dlaczego są ważne.