Code Velocity

Bezpečnosť AI

Systém NVIDIA DGX Spark spúšťajúci OpenClaw a NemoClaw pre bezpečné nasadenie lokálneho AI agenta
Bezpečnosť AI

NVIDIA NemoClaw: Zabezpečený, neustále bežiaci lokálny AI agent

Zistite, ako vytvoriť zabezpečeného, neustále bežiaceho lokálneho AI agenta pomocou NVIDIA NemoClaw a OpenClaw na DGX Spark. Nasadíte autonómnych asistentov s robustným sandboxingom a lokálnou inferenciou pre zvýšenú ochranu súkromia dát a kontrolu.

·7 min čítania
Ikona kybernetického zámku prekrývajúca sieť, symbolizujúca zneužívanie plánu Google UK a obavy o bezpečnosť OpenAI.
Bezpečnosť AI

Upozornenie komunity OpenAI: Vznikajú obavy zo zneužívania plánu Google UK

Komunita OpenAI upozorňuje na potenciálne rozsiahle zneužívanie plánu Google UK Plus Pro, čo vyvoláva obavy o bezpečnosť API a ChatGPT a spravodlivé používanie.

·4 min čítania
Štylizovaný obrázok zobrazujúci pohľad hackera na kód AI agenta, reprezentujúci tréning bezpečnosti agentickej AI v rámci hry Bezpečný kód od GitHubu.
Bezpečnosť AI

Bezpečnosť AI agentov: Hra Bezpečný kód od GitHubu zdokonaľuje agentické schopnosti

Preskúmajte 4. sériu hry Bezpečný kód od GitHubu a vybudujte si základné bezpečnostné zručnosti pre agentické AI. Naučte sa identifikovať a opravovať zraniteľnosti v autonómnych AI agentoch, ako je ProdBot, v tomto interaktívnom, bezplatnom tréningu.

·7 min čítania
Reakcia OpenAI na kompromitáciu vývojárskeho nástroja Axios, zdôrazňujúca bezpečnostné aktualizácie aplikácií macOS.
Bezpečnosť AI

Kompromitácia vývojárskeho nástroja Axios: OpenAI reaguje na útok na dodávateľský reťazec

OpenAI rieši bezpečnostný incident týkajúci sa kompromitovaného vývojárskeho nástroja Axios, iniciuje rotáciu certifikátov aplikácií macOS. Používateľské dáta zostávajú v bezpečí, naliehavo žiada aktualizácie pre zvýšenú bezpečnosť.

·11 min čítania
Prihlasovacia obrazovka ChatGPT s zvýraznenou možnosťou 'Zabudli ste heslo?' pre obnovenie účtu.
Bezpečnosť AI

Obnovenie hesla ChatGPT: Zabezpečte si prístup k účtu OpenAI

Naučte sa, ako obnoviť alebo zmeniť svoje heslo ChatGPT, aby ste si zabezpečili účet OpenAI. Tento sprievodca pokrýva priame obnovenie, aktualizácie nastavení a riešenie bežných problémov s prihlásením na udržanie prístupu.

·5 min čítania
Diagram zobrazujúci AWS Network Firewall kontrolujúci webový prístup AI agentov s filtrovaním domén v prostredí Amazon VPC.
Bezpečnosť AI

Kontrola domén AI agentmi: Zabezpečenie webového prístupu s AWS Network Firewall

Zabezpečte webový prístup AI agentov pomocou AWS Network Firewall a Amazon Bedrock AgentCore. Implementujte filtrovanie na základe domén s bielymi zoznamami pre zvýšenú podnikovú bezpečnosť a súlad AI, čím sa zmierňujú riziká ako prompt injection.

·7 min čítania
Ilustrácia interakcie modelov AI, symbolizujúca sebazáchovu a klamlivé správanie vo výskume AI.
Bezpečnosť AI

Modely AI klamú, podvádzajú, kradnú a chránia ostatných: Odhaľuje výskum

Výskum UC Berkeley a UC Santa Cruz odhaľuje, že modely AI ako Gemini 3 vykazujú prekvapivé správanie sebazáchovy, vrátane klamania, podvádzania a ochrany iných. Kritické pre bezpečnosť AI.

·4 min čítania
Diagram ilustrujúci Plán bezpečnosti pre tínedžerov od OpenAI Japan s ikonami predstavujúcimi vekovú ochranu, rodičovskú kontrolu a pohodu.
Bezpečnosť AI

Plán bezpečnosti pre tínedžerov: Plán ochrany AI od OpenAI Japan

OpenAI Japan predstavuje svoj Plán bezpečnosti pre tínedžerov, komplexný rámec pre bezpečné používanie generatívnej AI medzi japonskou mládežou. Zameriava sa na veku primeranú ochranu, rodičovskú kontrolu a dizajn zameraný na pohodu.

·5 min čítania
Agenti AI od OpenAI odolávajúci promptovej injekcii a útokom sociálneho inžinierstva
Bezpečnosť AI

Agenti AI: Odolávanie promptovej injekcii pomocou sociálneho inžinierstva

Zistite, ako OpenAI navrhuje agentov AI, aby odolávali pokročilým útokom promptovej injekcie využívaním obranných stratégií sociálneho inžinierstva, čím zabezpečuje robustnú bezpečnosť AI a ochranu údajov.

·5 min čítania
Logá OpenAI a Promptfoo symbolizujúce ich akvizíciu na zlepšenie bezpečnosti a testovania AI
Bezpečnosť AI

OpenAI získava Promptfoo na posilnenie bezpečnosti a testovania AI

OpenAI posilňuje svoje schopnosti v oblasti bezpečnosti AI akvizíciou Promptfoo, integrujúc jeho pokročilé nástroje na testovanie a hodnotenie do OpenAI Frontier, aby zabezpečil podnikové nasadenia AI.

·5 min čítania
Informačný panel portálu pre ochranu osobných údajov OpenAI zobrazujúci možnosti kontroly používateľských dát a správy súkromia v AI.
Bezpečnosť AI

Portál pre ochranu osobných údajov OpenAI: Zjednodušená kontrola používateľských dát

Nový portál pre ochranu osobných údajov OpenAI poskytuje používateľom robustnú kontrolu nad dátami, umožňujúc správu osobných údajov, nastavení účtu, preferencií trénovania modelu a odstránenie informácií z odpovedí ChatGPT.

·5 min čítania
Dohoda OpenAI a Ministerstva vojny o bezpečnostných zábranách AI
Bezpečnosť AI

Dohoda OpenAI s Ministerstvom vojny: Zabezpečenie bezpečnostných zábran AI

OpenAI podrobne opisuje svoju prelomovú dohodu s Ministerstvom vojny, ktorá stanovuje robustné bezpečnostné zábrany AI proti domácemu sledovaniu a autonómnym zbraniam, čím nastavuje nový štandard pre obranné technológie.

·7 min čítania
Oficiálne vyhlásenie spoločnosti Anthropic týkajúce sa potenciálneho označenia Ministerstva vojny ako rizika dodávateľského reťazca pre etiku AI.
Bezpečnosť AI

Anthropic vzdoruje Ministerstvu vojny kvôli AI, odvoláva sa na práva a bezpečnosť

Anthropic vzdoruje označeniu Ministerstva vojny ako rizika dodávateľského reťazca, pevne stojí za etickým využívaním AI, zakazujúc masový domáci dohľad a nespoľahlivé autonómne zbrane.

·4 min čítania
Kybernetický štít nad obvodmi AI, reprezentujúci úsilie OpenAI v narúšaní zlomyseľného využívania AI
Bezpečnosť AI

Bezpečnosť AI: Narušovanie zlomyseľného využitia AI

OpenAI podrobne opisuje stratégie na narušenie zlomyseľného využívania AI a poskytuje poznatky z najnovších správ o hrozbách. Zistite, ako aktéri hrozieb kombinujú AI s tradičnými nástrojmi pre sofistikované útoky.

·4 min čítania
Diagram znázorňujúci tok útokov destilácie z hraničného AI modelu na nelegálne kópie prostredníctvom sietí podvodných účtov
Bezpečnosť AI

Anthropic odhaľuje útoky destilácie zo strany DeepSeek a MiniMax

Anthropic odhaľuje, že DeepSeek, Moonshot a MiniMax vykonali 16 miliónov nezákonných výmen, aby destilovali schopnosti Claude. Ako útoky fungovali a prečo sú dôležité.

·4 min čítania