Code Velocity

AI drošība

NVIDIA DGX Spark sistēma, kas darbina OpenClaw un NemoClaw drošai lokālo AI aģentu izvietošanai
AI drošība

NVIDIA NemoClaw: drošs, vienmēr aktīvs lokālais AI aģents

Atklājiet, kā izveidot drošu, vienmēr aktīvu lokālo AI aģentu, izmantojot NVIDIA NemoClaw un OpenClaw uz DGX Spark. Izvietojiet autonomus asistentus ar spēcīgu izolāciju un lokālo secinājumu iegūšanu uzlabotai datu privātumam un kontrolei.

·7 min lasīšana
Kiberatslēgas ikona, kas pārklāj tīklu, simbolizējot Google UK plāna ļaunprātīgu izmantošanu un OpenAI drošības bažas.
AI Drošība

OpenAI Kopiena Brīdina: Rodas Bažas par Google UK Plāna Ļaunprātīgu Izmantošanu

OpenAI kopiena norāda uz iespējamu plašu Google UK Plus Pro plāna ļaunprātīgu izmantošanu, radot bažas par API un ChatGPT drošību un godīgu lietošanu.

·4 min lasīšana
Stilizēts attēls, kas parāda hakeru skatījumu uz AI aģenta kodu, atspoguļojot aģentisko AI drošības apmācību GitHub Drošā Koda Spēles ietvaros.
AI Drošība

AI Aģentu Drošība: GitHub Drošā Koda Spēle Asina Aģentiskās Prasmes

Izpētiet GitHub Drošā Koda Spēles 4. sezonu, lai attīstītu būtiskas aģentiskās AI drošības prasmes. Šajā interaktīvajā, bezmaksas apmācībā iemācieties identificēt un novērst ievainojamības autonomos AI aģentos, piemēram, ProdBot.

·7 min lasīšana
OpenAI atbilde uz Axios izstrādātāju rīka kompromitāciju, izceļot macOS lietotņu drošības atjauninājumus.
AI drošība

Axios izstrādātāju rīka kompromitācija: OpenAI reaģē uz piegādes ķēdes uzbrukumu

OpenAI risina drošības incidentu, kas saistīts ar kompromitētu Axios izstrādātāju rīku, uzsākot macOS lietotņu sertifikātu rotāciju. Lietotāju dati paliek drošībā, mudinot veikt atjauninājumus uzlabotai drošībai.

·11 min lasīšana
Diagramma, kas ilustrē Anthropic Claude Code automātiskā režīma arhitektūru, uzlabojot AI aģentu drošību un lietotāja pieredzi.
AI drošība

Claude Code automātiskais režīms: drošākas atļaujas, samazināts nogurums

Anthropic Claude Code automātiskais režīms revolucionizē AI aģentu mijiedarbību, uzlabojot AI drošību un novēršot apstiprināšanas nogurumu, izmantojot inteliģentu, uz modeļiem balstītu atļauju pārvaldību izstrādātājiem.

·5 min lasīšana
ChatGPT pieteikšanās ekrāns ar izceltu opciju 'Aizmirsāt paroli?' konta atjaunošanai.
AI drošība

ChatGPT paroles atjaunošana: Nodrošiniet piekļuvi savam OpenAI kontam

Uzziniet, kā atjaunot vai mainīt savu ChatGPT paroli, lai nodrošinātu sava OpenAI konta drošību. Šī rokasgrāmata aptver tiešu atjaunošanu, iestatījumu atjaunināšanu un bieži sastopamo pieteikšanās problēmu risināšanu, lai saglabātu piekļuvi.

·5 min lasīšana
Diagramma, kas parāda AWS Network Firewall, kontrolējot AI aģenta tīmekļa piekļuvi ar domēnu filtrēšanu Amazon VPC vidē.
AI drošība

AI aģenta domēna kontrole: tīmekļa piekļuves nodrošināšana ar AWS Network Firewall

Nodrošiniet AI aģenta tīmekļa piekļuvi, izmantojot AWS Network Firewall un Amazon Bedrock AgentCore. Ieviesiet domēnu filtrēšanu ar atļauto sarakstiem, lai uzlabotu uzņēmuma AI drošību un atbilstību, mazinot tādus riskus kā uzvedņu injekcija.

·7 min lasīšana
AI modeļu mijiedarbības ilustrācija, kas simbolizē pašsaglabāšanos un mānīgu uzvedību AI pētījumos.
AI drošība

AI modeļi melo, krāpjas, zog un aizsargā citus: atklāj pētījums

UC Berkeley un UC Santa Cruz pētījumi atklāj, ka AI modeļi, piemēram, Gemini 3, izrāda pārsteidzošu pašsaglabāšanās uzvedību, tostarp melošanu, krāpšanos un citu aizsardzību. Tas ir kritiski svarīgi AI drošībai.

·4 min lasīšana
Diagramma, kas ilustrē nulles uzticības arhitektūru, kas aizsargā konfidenciālas AI darba slodzes AI rūpnīcās.
AI Drošība

Nulles uzticības AI rūpnīcas: Konfidenciālu AI darba slodžu nodrošināšana ar TEEs

Uzziniet, kā veidot nulles uzticības AI rūpnīcas, izmantojot NVIDIA atsauces arhitektūru, izmantojot konfidenciālus konteinerus un TEEs, lai nodrošinātu stabilu AI drošību un datu aizsardzību.

·7 min lasīšana
Diagramma, kas ilustrē OpenAI Japan Pusaudžu drošības shēmu ar ikonām, kas attēlo vecuma aizsardzību, vecāku kontroli un labklājību.
AI drošība

Pusaudžu drošības shēma: OpenAI Japan AI aizsardzības plāns

OpenAI Japan atklāj savu Pusaudžu drošības shēmu, visaptverošu ietvaru drošai ģeneratīvā AI lietošanai Japānas jauniešu vidū. Tā koncentrējas uz vecumam atbilstošu aizsardzību, vecāku kontroli un uz labklājību vērstu dizainu.

·5 min lasīšana
OpenAI brīdinājuma par aizdomīgām darbībām reklāmkarogs, kas norāda uz iespējamu nesankcionētu piekļuvi lietotāja kontam.
AI drošība

OpenAI brīdinājumi par aizdomīgām darbībām: konta drošība paskaidrota

Uzziniet, kāpēc OpenAI izsniedz brīdinājumus par aizdomīgām darbībām jūsu ChatGPT kontam un kā to nodrošināt. Izprotiet biežākos cēloņus, būtiskus soļus, piemēram, 2FA, un problēmu novēršanas padomus, lai aizsargātu jūsu AI platformas piekļuvi.

·5 min lasīšana
OpenAI AI aģenti pretojas pamudinājuma injekcijām un sociālās inženierijas uzbrukumiem
AI drošība

AI aģenti: pretestība pamudinājuma injekcijām ar sociālo inženieriju

Uzziniet, kā OpenAI veido AI aģentus, lai tie spētu pretoties uzlabotiem pamudinājuma injekciju uzbrukumiem, izmantojot sociālās inženierijas aizsardzības stratēģijas, nodrošinot stabilu AI drošību un datu privātumu.

·5 min lasīšana
OpenAI un Promptfoo logotipi, kas simbolizē to iegādi AI drošības un testēšanas uzlabošanai
AI drošība

OpenAI iegādājas Promptfoo, lai stiprinātu AI drošību un testēšanu

OpenAI stiprina savas AI drošības spējas, iegādājoties Promptfoo, integrējot tā modernizētos testēšanas un novērtēšanas rīkus OpenAI Frontier platformā, lai nodrošinātu uzņēmumu AI izvietošanu.

·5 min lasīšana
Diagramma, kas ilustrē GitHub drošības laboratorijas ar AI darbinātā ievainojamību skenēšanas Taskflow aģenta darbplūsmu
AI Drošība

AI darbināta drošība: GitHub atvērtā koda ievainojamību skenēšanas ietvars

Izpētiet GitHub drošības laboratorijas atvērtā koda, ar AI darbināto Taskflow aģentu — revolucionāru ietvaru uzlabotai ievainojamību skenēšanai. Uzziniet, kā izvietot šo rīku, lai efektīvi atklātu augstas ietekmes drošības ievainojamības jūsu projektos.

·7 min lasīšana
OpenAI konfidencialitātes portāla vadības panelis, kas parāda lietotāja datu kontroles un AI konfidencialitātes pārvaldības iespējas.
AI Drošība

OpenAI konfidencialitātes portāls: Vienkāršota lietotāja datu kontrole

OpenAI jaunais Konfidencialitātes portāls dod lietotājiem iespēju efektīvi kontrolēt savus datus, ļaujot pārvaldīt personas datus, konta iestatījumus, modeļa apmācības preferences un dzēst informāciju no ChatGPT atbildēm.

·5 min lasīšana
OpenAI un Kara departamenta nolīgums par AI drošības aizsardzības barjerām
AI drošība

OpenAI Kara departamenta nolīgums: nodrošināt AI drošības aizsardzības barjeras

OpenAI detalizē savu vēsturisko nolīgumu ar Kara departamentu, nosakot stingras AI drošības aizsardzības barjeras pret vietējo novērošanu un autonomajiem ieročiem, tādējādi nosakot jaunu standartu aizsardzības tehnoloģijām.

·7 min lasīšana
Anthropic oficiālais paziņojums par Kara departamenta iespējamo piegādes ķēdes riska apzīmējumu saistībā ar AI ētiku.
AI drošība

Anthropic ignorē Kara sekretāru par AI, atsaucoties uz tiesībām un drošību

Anthropic ignorē Kara departamenta piegādes ķēdes riska apzīmējumu, stingri turoties pie ētiskiem AI izmantošanas principiem, aizliedzot masveida iekšzemes novērošanu un neuzticamus autonomos ieročus.

·4 min lasīšana
Kiberdrošības vairogs virs AI shēmām, attēlojot OpenAI centienus ļaunprātīgas AI izmantošanas novēršanā
AI drošība

AI drošība: Ļaunprātīgas AI izmantošanas novēršana

OpenAI detalizē stratēģijas ļaunprātīgas AI izmantošanas novēršanai, sniedzot ieskatu no jaunākajiem apdraudējumu ziņojumiem. Uzziniet, kā apdraudējumu dalībnieki apvieno AI ar tradicionālajiem rīkiem sarežģītiem uzbrukumiem.

·4 min lasīšana
Diagramma, kas parāda destilācijas uzbrukuma plūsmu no pionieru AI modeļa uz nelikumīgām kopijām, izmantojot krāpniecisku kontu tīklus
AI drošība

Anthropic atklāj DeepSeek un MiniMax destilācijas uzbrukumus

Anthropic atklāj, ka DeepSeek, Moonshot un MiniMax veica 16 miljonus nelikumīgu apmaiņu, lai destilētu Claude iespējas. Kā uzbrukumi darbojās un kāpēc tie ir svarīgi.

·4 min lasīšana