Bezpečnosť AI

Agenti AI: Odolávanie promptovej injekcii pomocou sociálneho inžinierstva
Zistite, ako OpenAI navrhuje agentov AI, aby odolávali pokročilým útokom promptovej injekcie využívaním obranných stratégií sociálneho inžinierstva, čím zabezpečuje robustnú bezpečnosť AI a ochranu údajov.

OpenAI získava Promptfoo na posilnenie bezpečnosti a testovania AI
OpenAI posilňuje svoje schopnosti v oblasti bezpečnosti AI akvizíciou Promptfoo, integrujúc jeho pokročilé nástroje na testovanie a hodnotenie do OpenAI Frontier, aby zabezpečil podnikové nasadenia AI.

Portál pre ochranu osobných údajov OpenAI: Zjednodušená kontrola používateľských dát
Nový portál pre ochranu osobných údajov OpenAI poskytuje používateľom robustnú kontrolu nad dátami, umožňujúc správu osobných údajov, nastavení účtu, preferencií trénovania modelu a odstránenie informácií z odpovedí ChatGPT.

Dohoda OpenAI s Ministerstvom vojny: Zabezpečenie bezpečnostných zábran AI
OpenAI podrobne opisuje svoju prelomovú dohodu s Ministerstvom vojny, ktorá stanovuje robustné bezpečnostné zábrany AI proti domácemu sledovaniu a autonómnym zbraniam, čím nastavuje nový štandard pre obranné technológie.

Anthropic vzdoruje Ministerstvu vojny kvôli AI, odvoláva sa na práva a bezpečnosť
Anthropic vzdoruje označeniu Ministerstva vojny ako rizika dodávateľského reťazca, pevne stojí za etickým využívaním AI, zakazujúc masový domáci dohľad a nespoľahlivé autonómne zbrane.

Bezpečnosť AI: Narušovanie zlomyseľného využitia AI
OpenAI podrobne opisuje stratégie na narušenie zlomyseľného využívania AI a poskytuje poznatky z najnovších správ o hrozbách. Zistite, ako aktéri hrozieb kombinujú AI s tradičnými nástrojmi pre sofistikované útoky.

Anthropic odhaľuje útoky destilácie zo strany DeepSeek a MiniMax
Anthropic odhaľuje, že DeepSeek, Moonshot a MiniMax vykonali 16 miliónov nezákonných výmen, aby destilovali schopnosti Claude. Ako útoky fungovali a prečo sú dôležité.