AI drošība

AI aģenti: pretestība pamudinājuma injekcijām ar sociālo inženieriju
Uzziniet, kā OpenAI veido AI aģentus, lai tie spētu pretoties uzlabotiem pamudinājuma injekciju uzbrukumiem, izmantojot sociālās inženierijas aizsardzības stratēģijas, nodrošinot stabilu AI drošību un datu privātumu.

OpenAI iegādājas Promptfoo, lai stiprinātu AI drošību un testēšanu
OpenAI stiprina savas AI drošības spējas, iegādājoties Promptfoo, integrējot tā modernizētos testēšanas un novērtēšanas rīkus OpenAI Frontier platformā, lai nodrošinātu uzņēmumu AI izvietošanu.

AI darbināta drošība: GitHub atvērtā koda ievainojamību skenēšanas ietvars
Izpētiet GitHub drošības laboratorijas atvērtā koda, ar AI darbināto Taskflow aģentu — revolucionāru ietvaru uzlabotai ievainojamību skenēšanai. Uzziniet, kā izvietot šo rīku, lai efektīvi atklātu augstas ietekmes drošības ievainojamības jūsu projektos.

OpenAI konfidencialitātes portāls: Vienkāršota lietotāja datu kontrole
OpenAI jaunais Konfidencialitātes portāls dod lietotājiem iespēju efektīvi kontrolēt savus datus, ļaujot pārvaldīt personas datus, konta iestatījumus, modeļa apmācības preferences un dzēst informāciju no ChatGPT atbildēm.

OpenAI Kara departamenta nolīgums: nodrošināt AI drošības aizsardzības barjeras
OpenAI detalizē savu vēsturisko nolīgumu ar Kara departamentu, nosakot stingras AI drošības aizsardzības barjeras pret vietējo novērošanu un autonomajiem ieročiem, tādējādi nosakot jaunu standartu aizsardzības tehnoloģijām.

Anthropic ignorē Kara sekretāru par AI, atsaucoties uz tiesībām un drošību
Anthropic ignorē Kara departamenta piegādes ķēdes riska apzīmējumu, stingri turoties pie ētiskiem AI izmantošanas principiem, aizliedzot masveida iekšzemes novērošanu un neuzticamus autonomos ieročus.

AI drošība: Ļaunprātīgas AI izmantošanas novēršana
OpenAI detalizē stratēģijas ļaunprātīgas AI izmantošanas novēršanai, sniedzot ieskatu no jaunākajiem apdraudējumu ziņojumiem. Uzziniet, kā apdraudējumu dalībnieki apvieno AI ar tradicionālajiem rīkiem sarežģītiem uzbrukumiem.

Anthropic atklāj DeepSeek un MiniMax destilācijas uzbrukumus
Anthropic atklāj, ka DeepSeek, Moonshot un MiniMax veica 16 miljonus nelikumīgu apmaiņu, lai destilētu Claude iespējas. Kā uzbrukumi darbojās un kāpēc tie ir svarīgi.