Code Velocity

Bezpečnost AI

Stylizovaný obrázek ukazující pohled hackera na kód AI agenta, představující školení v oblasti bezpečnosti agentní AI v rámci hry GitHub Secure Code Game.
Bezpečnost AI

Bezpečnost AI agentů: Hra GitHub Secure Code Game zdokonaluje agentní dovednosti

Prozkoumejte 4. sezónu hry GitHub Secure Code Game a rozvíjejte klíčové bezpečnostní dovednosti pro agentní AI. Naučte se identifikovat a opravovat zranitelnosti v autonomních AI agentech, jako je ProdBot, v tomto interaktivním a bezplatném školení.

·7 min čtení
Reakce OpenAI na kompromitaci vývojářského nástroje Axios, zdůrazňující aktualizace zabezpečení aplikací macOS.
Bezpečnost AI

Kompromitace vývojářského nástroje Axios: OpenAI reaguje na útok na dodavatelský řetězec

OpenAI řeší bezpečnostní incident týkající se kompromitovaného vývojářského nástroje Axios a zahajuje rotaci certifikátů aplikací pro macOS. Uživatelská data zůstávají v bezpečí, vyzývá k aktualizacím pro lepší zabezpečení.

·11 min čtení
Přihlašovací obrazovka ChatGPT s zvýrazněnou možností 'Zapomenuté heslo?' pro resetování účtu.
Bezpečnost AI

Resetování hesla ChatGPT: Zabezpečte přístup ke svému účtu OpenAI

Naučte se, jak resetovat nebo změnit heslo ChatGPT a zabezpečit tak svůj účet OpenAI. Tento průvodce pokrývá přímé resetování, aktualizace nastavení a řešení běžných problémů s přihlášením pro udržení přístupu.

·5 min čtení
Diagram ukazující, jak AWS Network Firewall kontroluje webový přístup agentů AI s filtrováním domén v prostředí Amazon VPC.
Bezpečnost AI

Kontrola domén pro agenty AI: Zabezpečení webového přístupu pomocí AWS Network Firewall

Zabezpečte webový přístup agentů AI pomocí AWS Network Firewall a Amazon Bedrock AgentCore. Implementujte filtrování na základě domén se seznamy povolených pro zvýšenou podnikovou bezpečnost a shodu AI, zmírňující rizika jako injekce výzev.

·7 min čtení
Ilustrace interagujících modelů AI symbolizující chování sebezáchovy a podvodné chování ve výzkumu AI.
Bezpečnost AI

Modely AI lžou, podvádějí a chrání ostatní: Odhaluje výzkum

Výzkum z UC Berkeley a UC Santa Cruz odhaluje, že modely AI jako Gemini 3 vykazují překvapivé chování sebezáchovy, včetně lhaní, podvádění a ochrany ostatních. Klíčové pro bezpečnost AI.

·4 min čtení
Loga OpenAI a Promptfoo symbolizující jejich akvizici za účelem posílení bezpečnosti a testování AI
Bezpečnost AI

OpenAI získává Promptfoo pro posílení bezpečnosti a testování AI

OpenAI posiluje své schopnosti v oblasti bezpečnosti AI akvizicí Promptfoo, integruje jeho pokročilé nástroje pro testování a hodnocení do platformy OpenAI Frontier, aby zabezpečila nasazení podnikové AI.

·5 min čtení
Dohoda OpenAI a Ministerstva války o ochranných bariérách bezpečnosti AI
Bezpečnost AI

Dohoda OpenAI s Ministerstvem války: Zajištění ochranných bariér bezpečnosti AI

OpenAI podrobně popisuje svou přelomovou dohodu s Ministerstvem války, která zavádí robustní ochranné bariéry pro bezpečnost AI proti domácímu sledování a autonomním zbraním, čímž stanovuje nový standard pro obranné technologie.

·7 min čtení
Oficiální prohlášení společnosti Anthropic týkající se potenciálního označení Ministerstva války za riziko dodavatelského řetězce kvůli etice AI.
Bezpečnost AI

Anthropic vzdoruje ministru války ohledně AI, odvolává se na práva a bezpečnost

Anthropic vzdoruje označení Ministerstva války za riziko dodavatelského řetězce, trvá na etickém použití AI, zakazuje masové domácí sledování a nespolehlivé autonomní zbraně.

·4 min čtení
Kybernetický štít nad obvody AI, reprezentující úsilí OpenAI narušovat škodlivé využití AI.
Bezpečnost AI

Bezpečnost AI: Narušování škodlivého využití AI

OpenAI podrobně popisuje strategie pro narušování škodlivého využívání AI a poskytuje poznatky z nedávných zpráv o hrozbách. Zjistěte, jak aktéři hrozeb kombinují AI s tradičními nástroji pro sofistikované útoky.

·4 min čtení
Diagram znázorňující průběh destilačního útoku z hraničního modelu AI na nelegální kopie prostřednictvím sítí podvodných účtů
Bezpečnost AI

Anthropic odhaluje destilační útoky ze strany DeepSeek a MiniMax

Anthropic odhaluje, že DeepSeek, Moonshot a MiniMax provedly 16 milionů nezákonných výměn s cílem destilovat schopnosti Claude. Jak útoky fungovaly a proč jsou důležité.

·4 min čtení