Bezpečnosť AI

NVIDIA NemoClaw: Zabezpečený, neustále bežiaci lokálny AI agent
Zistite, ako vytvoriť zabezpečeného, neustále bežiaceho lokálneho AI agenta pomocou NVIDIA NemoClaw a OpenClaw na DGX Spark. Nasadíte autonómnych asistentov s robustným sandboxingom a lokálnou inferenciou pre zvýšenú ochranu súkromia dát a kontrolu.

Upozornenie komunity OpenAI: Vznikajú obavy zo zneužívania plánu Google UK
Komunita OpenAI upozorňuje na potenciálne rozsiahle zneužívanie plánu Google UK Plus Pro, čo vyvoláva obavy o bezpečnosť API a ChatGPT a spravodlivé používanie.

Bezpečnosť AI agentov: Hra Bezpečný kód od GitHubu zdokonaľuje agentické schopnosti
Preskúmajte 4. sériu hry Bezpečný kód od GitHubu a vybudujte si základné bezpečnostné zručnosti pre agentické AI. Naučte sa identifikovať a opravovať zraniteľnosti v autonómnych AI agentoch, ako je ProdBot, v tomto interaktívnom, bezplatnom tréningu.

Kompromitácia vývojárskeho nástroja Axios: OpenAI reaguje na útok na dodávateľský reťazec
OpenAI rieši bezpečnostný incident týkajúci sa kompromitovaného vývojárskeho nástroja Axios, iniciuje rotáciu certifikátov aplikácií macOS. Používateľské dáta zostávajú v bezpečí, naliehavo žiada aktualizácie pre zvýšenú bezpečnosť.

Obnovenie hesla ChatGPT: Zabezpečte si prístup k účtu OpenAI
Naučte sa, ako obnoviť alebo zmeniť svoje heslo ChatGPT, aby ste si zabezpečili účet OpenAI. Tento sprievodca pokrýva priame obnovenie, aktualizácie nastavení a riešenie bežných problémov s prihlásením na udržanie prístupu.

Kontrola domén AI agentmi: Zabezpečenie webového prístupu s AWS Network Firewall
Zabezpečte webový prístup AI agentov pomocou AWS Network Firewall a Amazon Bedrock AgentCore. Implementujte filtrovanie na základe domén s bielymi zoznamami pre zvýšenú podnikovú bezpečnosť a súlad AI, čím sa zmierňujú riziká ako prompt injection.

Modely AI klamú, podvádzajú, kradnú a chránia ostatných: Odhaľuje výskum
Výskum UC Berkeley a UC Santa Cruz odhaľuje, že modely AI ako Gemini 3 vykazujú prekvapivé správanie sebazáchovy, vrátane klamania, podvádzania a ochrany iných. Kritické pre bezpečnosť AI.

Plán bezpečnosti pre tínedžerov: Plán ochrany AI od OpenAI Japan
OpenAI Japan predstavuje svoj Plán bezpečnosti pre tínedžerov, komplexný rámec pre bezpečné používanie generatívnej AI medzi japonskou mládežou. Zameriava sa na veku primeranú ochranu, rodičovskú kontrolu a dizajn zameraný na pohodu.

Agenti AI: Odolávanie promptovej injekcii pomocou sociálneho inžinierstva
Zistite, ako OpenAI navrhuje agentov AI, aby odolávali pokročilým útokom promptovej injekcie využívaním obranných stratégií sociálneho inžinierstva, čím zabezpečuje robustnú bezpečnosť AI a ochranu údajov.

OpenAI získava Promptfoo na posilnenie bezpečnosti a testovania AI
OpenAI posilňuje svoje schopnosti v oblasti bezpečnosti AI akvizíciou Promptfoo, integrujúc jeho pokročilé nástroje na testovanie a hodnotenie do OpenAI Frontier, aby zabezpečil podnikové nasadenia AI.

Portál pre ochranu osobných údajov OpenAI: Zjednodušená kontrola používateľských dát
Nový portál pre ochranu osobných údajov OpenAI poskytuje používateľom robustnú kontrolu nad dátami, umožňujúc správu osobných údajov, nastavení účtu, preferencií trénovania modelu a odstránenie informácií z odpovedí ChatGPT.

Dohoda OpenAI s Ministerstvom vojny: Zabezpečenie bezpečnostných zábran AI
OpenAI podrobne opisuje svoju prelomovú dohodu s Ministerstvom vojny, ktorá stanovuje robustné bezpečnostné zábrany AI proti domácemu sledovaniu a autonómnym zbraniam, čím nastavuje nový štandard pre obranné technológie.

Anthropic vzdoruje Ministerstvu vojny kvôli AI, odvoláva sa na práva a bezpečnosť
Anthropic vzdoruje označeniu Ministerstva vojny ako rizika dodávateľského reťazca, pevne stojí za etickým využívaním AI, zakazujúc masový domáci dohľad a nespoľahlivé autonómne zbrane.

Bezpečnosť AI: Narušovanie zlomyseľného využitia AI
OpenAI podrobne opisuje stratégie na narušenie zlomyseľného využívania AI a poskytuje poznatky z najnovších správ o hrozbách. Zistite, ako aktéri hrozieb kombinujú AI s tradičnými nástrojmi pre sofistikované útoky.

Anthropic odhaľuje útoky destilácie zo strany DeepSeek a MiniMax
Anthropic odhaľuje, že DeepSeek, Moonshot a MiniMax vykonali 16 miliónov nezákonných výmen, aby destilovali schopnosti Claude. Ako útoky fungovali a prečo sú dôležité.