Code Velocity

AI drošība

OpenAI AI aģenti pretojas pamudinājuma injekcijām un sociālās inženierijas uzbrukumiem
AI drošība

AI aģenti: pretestība pamudinājuma injekcijām ar sociālo inženieriju

Uzziniet, kā OpenAI veido AI aģentus, lai tie spētu pretoties uzlabotiem pamudinājuma injekciju uzbrukumiem, izmantojot sociālās inženierijas aizsardzības stratēģijas, nodrošinot stabilu AI drošību un datu privātumu.

·5 min lasīšana
OpenAI un Promptfoo logotipi, kas simbolizē to iegādi AI drošības un testēšanas uzlabošanai
AI drošība

OpenAI iegādājas Promptfoo, lai stiprinātu AI drošību un testēšanu

OpenAI stiprina savas AI drošības spējas, iegādājoties Promptfoo, integrējot tā modernizētos testēšanas un novērtēšanas rīkus OpenAI Frontier platformā, lai nodrošinātu uzņēmumu AI izvietošanu.

·5 min lasīšana
Diagramma, kas ilustrē GitHub drošības laboratorijas ar AI darbinātā ievainojamību skenēšanas Taskflow aģenta darbplūsmu
AI Drošība

AI darbināta drošība: GitHub atvērtā koda ievainojamību skenēšanas ietvars

Izpētiet GitHub drošības laboratorijas atvērtā koda, ar AI darbināto Taskflow aģentu — revolucionāru ietvaru uzlabotai ievainojamību skenēšanai. Uzziniet, kā izvietot šo rīku, lai efektīvi atklātu augstas ietekmes drošības ievainojamības jūsu projektos.

·7 min lasīšana
OpenAI konfidencialitātes portāla vadības panelis, kas parāda lietotāja datu kontroles un AI konfidencialitātes pārvaldības iespējas.
AI Drošība

OpenAI konfidencialitātes portāls: Vienkāršota lietotāja datu kontrole

OpenAI jaunais Konfidencialitātes portāls dod lietotājiem iespēju efektīvi kontrolēt savus datus, ļaujot pārvaldīt personas datus, konta iestatījumus, modeļa apmācības preferences un dzēst informāciju no ChatGPT atbildēm.

·5 min lasīšana
OpenAI un Kara departamenta nolīgums par AI drošības aizsardzības barjerām
AI drošība

OpenAI Kara departamenta nolīgums: nodrošināt AI drošības aizsardzības barjeras

OpenAI detalizē savu vēsturisko nolīgumu ar Kara departamentu, nosakot stingras AI drošības aizsardzības barjeras pret vietējo novērošanu un autonomajiem ieročiem, tādējādi nosakot jaunu standartu aizsardzības tehnoloģijām.

·7 min lasīšana
Anthropic oficiālais paziņojums par Kara departamenta iespējamo piegādes ķēdes riska apzīmējumu saistībā ar AI ētiku.
AI drošība

Anthropic ignorē Kara sekretāru par AI, atsaucoties uz tiesībām un drošību

Anthropic ignorē Kara departamenta piegādes ķēdes riska apzīmējumu, stingri turoties pie ētiskiem AI izmantošanas principiem, aizliedzot masveida iekšzemes novērošanu un neuzticamus autonomos ieročus.

·4 min lasīšana
Kiberdrošības vairogs virs AI shēmām, attēlojot OpenAI centienus ļaunprātīgas AI izmantošanas novēršanā
AI drošība

AI drošība: Ļaunprātīgas AI izmantošanas novēršana

OpenAI detalizē stratēģijas ļaunprātīgas AI izmantošanas novēršanai, sniedzot ieskatu no jaunākajiem apdraudējumu ziņojumiem. Uzziniet, kā apdraudējumu dalībnieki apvieno AI ar tradicionālajiem rīkiem sarežģītiem uzbrukumiem.

·4 min lasīšana
Diagramma, kas parāda destilācijas uzbrukuma plūsmu no pionieru AI modeļa uz nelikumīgām kopijām, izmantojot krāpniecisku kontu tīklus
AI drošība

Anthropic atklāj DeepSeek un MiniMax destilācijas uzbrukumus

Anthropic atklāj, ka DeepSeek, Moonshot un MiniMax veica 16 miljonus nelikumīgu apmaiņu, lai destilētu Claude iespējas. Kā uzbrukumi darbojās un kāpēc tie ir svarīgi.

·4 min lasīšana