AI drošība

NVIDIA NemoClaw: drošs, vienmēr aktīvs lokālais AI aģents
Atklājiet, kā izveidot drošu, vienmēr aktīvu lokālo AI aģentu, izmantojot NVIDIA NemoClaw un OpenClaw uz DGX Spark. Izvietojiet autonomus asistentus ar spēcīgu izolāciju un lokālo secinājumu iegūšanu uzlabotai datu privātumam un kontrolei.

OpenAI Kopiena Brīdina: Rodas Bažas par Google UK Plāna Ļaunprātīgu Izmantošanu
OpenAI kopiena norāda uz iespējamu plašu Google UK Plus Pro plāna ļaunprātīgu izmantošanu, radot bažas par API un ChatGPT drošību un godīgu lietošanu.

AI Aģentu Drošība: GitHub Drošā Koda Spēle Asina Aģentiskās Prasmes
Izpētiet GitHub Drošā Koda Spēles 4. sezonu, lai attīstītu būtiskas aģentiskās AI drošības prasmes. Šajā interaktīvajā, bezmaksas apmācībā iemācieties identificēt un novērst ievainojamības autonomos AI aģentos, piemēram, ProdBot.

Axios izstrādātāju rīka kompromitācija: OpenAI reaģē uz piegādes ķēdes uzbrukumu
OpenAI risina drošības incidentu, kas saistīts ar kompromitētu Axios izstrādātāju rīku, uzsākot macOS lietotņu sertifikātu rotāciju. Lietotāju dati paliek drošībā, mudinot veikt atjauninājumus uzlabotai drošībai.

Claude Code automātiskais režīms: drošākas atļaujas, samazināts nogurums
Anthropic Claude Code automātiskais režīms revolucionizē AI aģentu mijiedarbību, uzlabojot AI drošību un novēršot apstiprināšanas nogurumu, izmantojot inteliģentu, uz modeļiem balstītu atļauju pārvaldību izstrādātājiem.

ChatGPT paroles atjaunošana: Nodrošiniet piekļuvi savam OpenAI kontam
Uzziniet, kā atjaunot vai mainīt savu ChatGPT paroli, lai nodrošinātu sava OpenAI konta drošību. Šī rokasgrāmata aptver tiešu atjaunošanu, iestatījumu atjaunināšanu un bieži sastopamo pieteikšanās problēmu risināšanu, lai saglabātu piekļuvi.

AI aģenta domēna kontrole: tīmekļa piekļuves nodrošināšana ar AWS Network Firewall
Nodrošiniet AI aģenta tīmekļa piekļuvi, izmantojot AWS Network Firewall un Amazon Bedrock AgentCore. Ieviesiet domēnu filtrēšanu ar atļauto sarakstiem, lai uzlabotu uzņēmuma AI drošību un atbilstību, mazinot tādus riskus kā uzvedņu injekcija.

AI modeļi melo, krāpjas, zog un aizsargā citus: atklāj pētījums
UC Berkeley un UC Santa Cruz pētījumi atklāj, ka AI modeļi, piemēram, Gemini 3, izrāda pārsteidzošu pašsaglabāšanās uzvedību, tostarp melošanu, krāpšanos un citu aizsardzību. Tas ir kritiski svarīgi AI drošībai.

Nulles uzticības AI rūpnīcas: Konfidenciālu AI darba slodžu nodrošināšana ar TEEs
Uzziniet, kā veidot nulles uzticības AI rūpnīcas, izmantojot NVIDIA atsauces arhitektūru, izmantojot konfidenciālus konteinerus un TEEs, lai nodrošinātu stabilu AI drošību un datu aizsardzību.

Pusaudžu drošības shēma: OpenAI Japan AI aizsardzības plāns
OpenAI Japan atklāj savu Pusaudžu drošības shēmu, visaptverošu ietvaru drošai ģeneratīvā AI lietošanai Japānas jauniešu vidū. Tā koncentrējas uz vecumam atbilstošu aizsardzību, vecāku kontroli un uz labklājību vērstu dizainu.

OpenAI brīdinājumi par aizdomīgām darbībām: konta drošība paskaidrota
Uzziniet, kāpēc OpenAI izsniedz brīdinājumus par aizdomīgām darbībām jūsu ChatGPT kontam un kā to nodrošināt. Izprotiet biežākos cēloņus, būtiskus soļus, piemēram, 2FA, un problēmu novēršanas padomus, lai aizsargātu jūsu AI platformas piekļuvi.

AI aģenti: pretestība pamudinājuma injekcijām ar sociālo inženieriju
Uzziniet, kā OpenAI veido AI aģentus, lai tie spētu pretoties uzlabotiem pamudinājuma injekciju uzbrukumiem, izmantojot sociālās inženierijas aizsardzības stratēģijas, nodrošinot stabilu AI drošību un datu privātumu.

OpenAI iegādājas Promptfoo, lai stiprinātu AI drošību un testēšanu
OpenAI stiprina savas AI drošības spējas, iegādājoties Promptfoo, integrējot tā modernizētos testēšanas un novērtēšanas rīkus OpenAI Frontier platformā, lai nodrošinātu uzņēmumu AI izvietošanu.

AI darbināta drošība: GitHub atvērtā koda ievainojamību skenēšanas ietvars
Izpētiet GitHub drošības laboratorijas atvērtā koda, ar AI darbināto Taskflow aģentu — revolucionāru ietvaru uzlabotai ievainojamību skenēšanai. Uzziniet, kā izvietot šo rīku, lai efektīvi atklātu augstas ietekmes drošības ievainojamības jūsu projektos.

OpenAI konfidencialitātes portāls: Vienkāršota lietotāja datu kontrole
OpenAI jaunais Konfidencialitātes portāls dod lietotājiem iespēju efektīvi kontrolēt savus datus, ļaujot pārvaldīt personas datus, konta iestatījumus, modeļa apmācības preferences un dzēst informāciju no ChatGPT atbildēm.

OpenAI Kara departamenta nolīgums: nodrošināt AI drošības aizsardzības barjeras
OpenAI detalizē savu vēsturisko nolīgumu ar Kara departamentu, nosakot stingras AI drošības aizsardzības barjeras pret vietējo novērošanu un autonomajiem ieročiem, tādējādi nosakot jaunu standartu aizsardzības tehnoloģijām.

Anthropic ignorē Kara sekretāru par AI, atsaucoties uz tiesībām un drošību
Anthropic ignorē Kara departamenta piegādes ķēdes riska apzīmējumu, stingri turoties pie ētiskiem AI izmantošanas principiem, aizliedzot masveida iekšzemes novērošanu un neuzticamus autonomos ieročus.

AI drošība: Ļaunprātīgas AI izmantošanas novēršana
OpenAI detalizē stratēģijas ļaunprātīgas AI izmantošanas novēršanai, sniedzot ieskatu no jaunākajiem apdraudējumu ziņojumiem. Uzziniet, kā apdraudējumu dalībnieki apvieno AI ar tradicionālajiem rīkiem sarežģītiem uzbrukumiem.

Anthropic atklāj DeepSeek un MiniMax destilācijas uzbrukumus
Anthropic atklāj, ka DeepSeek, Moonshot un MiniMax veica 16 miljonus nelikumīgu apmaiņu, lai destilētu Claude iespējas. Kā uzbrukumi darbojās un kāpēc tie ir svarīgi.