Code Velocity

Bezpečnosť AI

Agenti AI od OpenAI odolávajúci promptovej injekcii a útokom sociálneho inžinierstva
Bezpečnosť AI

Agenti AI: Odolávanie promptovej injekcii pomocou sociálneho inžinierstva

Zistite, ako OpenAI navrhuje agentov AI, aby odolávali pokročilým útokom promptovej injekcie využívaním obranných stratégií sociálneho inžinierstva, čím zabezpečuje robustnú bezpečnosť AI a ochranu údajov.

·5 min čítania
Logá OpenAI a Promptfoo symbolizujúce ich akvizíciu na zlepšenie bezpečnosti a testovania AI
Bezpečnosť AI

OpenAI získava Promptfoo na posilnenie bezpečnosti a testovania AI

OpenAI posilňuje svoje schopnosti v oblasti bezpečnosti AI akvizíciou Promptfoo, integrujúc jeho pokročilé nástroje na testovanie a hodnotenie do OpenAI Frontier, aby zabezpečil podnikové nasadenia AI.

·5 min čítania
Informačný panel portálu pre ochranu osobných údajov OpenAI zobrazujúci možnosti kontroly používateľských dát a správy súkromia v AI.
Bezpečnosť AI

Portál pre ochranu osobných údajov OpenAI: Zjednodušená kontrola používateľských dát

Nový portál pre ochranu osobných údajov OpenAI poskytuje používateľom robustnú kontrolu nad dátami, umožňujúc správu osobných údajov, nastavení účtu, preferencií trénovania modelu a odstránenie informácií z odpovedí ChatGPT.

·5 min čítania
Dohoda OpenAI a Ministerstva vojny o bezpečnostných zábranách AI
Bezpečnosť AI

Dohoda OpenAI s Ministerstvom vojny: Zabezpečenie bezpečnostných zábran AI

OpenAI podrobne opisuje svoju prelomovú dohodu s Ministerstvom vojny, ktorá stanovuje robustné bezpečnostné zábrany AI proti domácemu sledovaniu a autonómnym zbraniam, čím nastavuje nový štandard pre obranné technológie.

·7 min čítania
Oficiálne vyhlásenie spoločnosti Anthropic týkajúce sa potenciálneho označenia Ministerstva vojny ako rizika dodávateľského reťazca pre etiku AI.
Bezpečnosť AI

Anthropic vzdoruje Ministerstvu vojny kvôli AI, odvoláva sa na práva a bezpečnosť

Anthropic vzdoruje označeniu Ministerstva vojny ako rizika dodávateľského reťazca, pevne stojí za etickým využívaním AI, zakazujúc masový domáci dohľad a nespoľahlivé autonómne zbrane.

·4 min čítania
Kybernetický štít nad obvodmi AI, reprezentujúci úsilie OpenAI v narúšaní zlomyseľného využívania AI
Bezpečnosť AI

Bezpečnosť AI: Narušovanie zlomyseľného využitia AI

OpenAI podrobne opisuje stratégie na narušenie zlomyseľného využívania AI a poskytuje poznatky z najnovších správ o hrozbách. Zistite, ako aktéri hrozieb kombinujú AI s tradičnými nástrojmi pre sofistikované útoky.

·4 min čítania
Diagram znázorňujúci tok útokov destilácie z hraničného AI modelu na nelegálne kópie prostredníctvom sietí podvodných účtov
Bezpečnosť AI

Anthropic odhaľuje útoky destilácie zo strany DeepSeek a MiniMax

Anthropic odhaľuje, že DeepSeek, Moonshot a MiniMax vykonali 16 miliónov nezákonných výmen, aby destilovali schopnosti Claude. Ako útoky fungovali a prečo sú dôležité.

·4 min čítania