Bezpečnost AI

Bezpečnost AI agentů: Hra GitHub Secure Code Game zdokonaluje agentní dovednosti
Prozkoumejte 4. sezónu hry GitHub Secure Code Game a rozvíjejte klíčové bezpečnostní dovednosti pro agentní AI. Naučte se identifikovat a opravovat zranitelnosti v autonomních AI agentech, jako je ProdBot, v tomto interaktivním a bezplatném školení.

Kompromitace vývojářského nástroje Axios: OpenAI reaguje na útok na dodavatelský řetězec
OpenAI řeší bezpečnostní incident týkající se kompromitovaného vývojářského nástroje Axios a zahajuje rotaci certifikátů aplikací pro macOS. Uživatelská data zůstávají v bezpečí, vyzývá k aktualizacím pro lepší zabezpečení.

Resetování hesla ChatGPT: Zabezpečte přístup ke svému účtu OpenAI
Naučte se, jak resetovat nebo změnit heslo ChatGPT a zabezpečit tak svůj účet OpenAI. Tento průvodce pokrývá přímé resetování, aktualizace nastavení a řešení běžných problémů s přihlášením pro udržení přístupu.

Kontrola domén pro agenty AI: Zabezpečení webového přístupu pomocí AWS Network Firewall
Zabezpečte webový přístup agentů AI pomocí AWS Network Firewall a Amazon Bedrock AgentCore. Implementujte filtrování na základě domén se seznamy povolených pro zvýšenou podnikovou bezpečnost a shodu AI, zmírňující rizika jako injekce výzev.

Modely AI lžou, podvádějí a chrání ostatní: Odhaluje výzkum
Výzkum z UC Berkeley a UC Santa Cruz odhaluje, že modely AI jako Gemini 3 vykazují překvapivé chování sebezáchovy, včetně lhaní, podvádění a ochrany ostatních. Klíčové pro bezpečnost AI.

OpenAI získává Promptfoo pro posílení bezpečnosti a testování AI
OpenAI posiluje své schopnosti v oblasti bezpečnosti AI akvizicí Promptfoo, integruje jeho pokročilé nástroje pro testování a hodnocení do platformy OpenAI Frontier, aby zabezpečila nasazení podnikové AI.

Dohoda OpenAI s Ministerstvem války: Zajištění ochranných bariér bezpečnosti AI
OpenAI podrobně popisuje svou přelomovou dohodu s Ministerstvem války, která zavádí robustní ochranné bariéry pro bezpečnost AI proti domácímu sledování a autonomním zbraním, čímž stanovuje nový standard pro obranné technologie.

Anthropic vzdoruje ministru války ohledně AI, odvolává se na práva a bezpečnost
Anthropic vzdoruje označení Ministerstva války za riziko dodavatelského řetězce, trvá na etickém použití AI, zakazuje masové domácí sledování a nespolehlivé autonomní zbraně.

Bezpečnost AI: Narušování škodlivého využití AI
OpenAI podrobně popisuje strategie pro narušování škodlivého využívání AI a poskytuje poznatky z nedávných zpráv o hrozbách. Zjistěte, jak aktéři hrozeb kombinují AI s tradičními nástroji pro sofistikované útoky.

Anthropic odhaluje destilační útoky ze strany DeepSeek a MiniMax
Anthropic odhaluje, že DeepSeek, Moonshot a MiniMax provedly 16 milionů nezákonných výměn s cílem destilovat schopnosti Claude. Jak útoky fungovaly a proč jsou důležité.