Code Velocity

Siguria e AI

Sistem NVIDIA DGX Spark që ekzekuton OpenClaw dhe NemoClaw për vendosjen e sigurt të agjentit AI lokal
Siguria e AI

NVIDIA NemoClaw: Agjent i AI Lokal, i Sigurt dhe Gjithmonë Aktiv

Zbuloni si të ndërtoni një agjent AI lokal, të sigurt dhe gjithmonë aktiv duke përdorur NVIDIA NemoClaw dhe OpenClaw në DGX Spark. Vendosni asistentë autonomë me izolim të fortë dhe inferencë lokale për privatësi dhe kontroll të përmirësuar të të dhënave.

·7 min lexim
Një imazh i stilizuar që tregon pamjen e një hakeri mbi kodin e një agjenti AI, duke përfaqësuar trajnimin e sigurisë agjentike të AI brenda Lojës Secure Code Game të GitHub.
Siguria e AI

Siguria e Agjentit AI: Loja 'Secure Code Game' e GitHub-it Mpreh Aftësitë Agjentike

Eksploroni Sezonin 4 të Lojës 'Secure Code Game' të GitHub-it për të ndërtuar aftësi thelbësore të sigurisë agjentike të AI. Mësoni të identifikoni dhe rregulloni dobësitë në agjentët autonomë të AI si ProdBot në këtë trajnim interaktiv dhe falas.

·7 min lexim
Reagimi i OpenAI ndaj komprometimit të mjetit të zhvilluesit Axios, duke theksuar azhurnimet e sigurisë së aplikacionit macOS.
Siguria e AI

Komprometimi i Mjetit të Zhvilluesit Axios: OpenAI Reagon ndaj Sulmit në Zinxhirin e Furnizimit

OpenAI adreson një incident sigurie që përfshin një mjet zhvilluesi Axios të komprometuar, duke nisur rrotullimin e certifikatës së aplikacionit macOS. Të dhënat e përdoruesve mbeten të sigurta, duke nxitur azhurnimet për siguri të përmirësuar.

·11 min lexim
Diagram që ilustron një arkitekturë zero besim duke mbrojtur ngarkesat konfidenciale të AI në fabrikat e AI.
Siguria e AI

Fabrikat e AI me Zero Besim: Sigurimi i Ngarkesave të Punës Konfidenciale të AI me TEE-të

Eksploroni si të ndërtoni fabrika të AI me zero besim duke përdorur arkitekturën referencë të NVIDIA-s, duke shfrytëzuar Konteinerët Konfidencialë dhe TEE-të për siguri të fortë të AI dhe mbrojtje të të dhënave.

·7 min lexim
Diagramë që ilustron Planin e Sigurisë së Adoleshentëve të OpenAI Japan me ikona që përfaqësojnë mbrojtjen e moshës, kontrollet prindërore dhe mirëqenien.
Siguria e AI

Plani i Sigurisë së Adoleshentëve: Plani i OpenAI Japan për Mbrojtjen me AI

OpenAI Japan zbulon Planin e saj të Sigurisë së Adoleshentëve, një kornizë gjithëpërfshirëse për përdorimin e sigurt të AI gjeneruese nga të rinjtë japonezë. Fokusohet në mbrojtjet e përshtatshme për moshën, kontrollet prindërore dhe dizajnin e përqendruar te mirëqenia.

·5 min lexim
Banner i njoftimit për aktivitet të dyshimtë të OpenAI që tregon qasje të mundshme të paautorizuar në llogarinë e një përdoruesi.
Siguria e AI

Njoftime për Aktivitet të Dyshimtë në OpenAI: Siguria e Llogarisë Shpjegohet

Mësoni pse OpenAI lëshon njoftime për aktivitet të dyshimtë për llogarinë tuaj në ChatGPT dhe si ta siguroni atë. Kuptoni shkaqet e zakonshme, hapat thelbësorë si 2FA, dhe këshilla për zgjidhjen e problemeve për të mbrojtur qasjen tuaj në platformën e AI.

·5 min lexim
Agjentë të OpenAI AI që i rezistojnë injektimit të prompt-it dhe sulmeve të inxhinierisë sociale
Siguria e AI

Agjentët e AI: Rezistenca ndaj Injektimit të Prompt-it me Inxhinieri Sociale

Mësoni se si OpenAI projekton agjentë të AI për t'i rezistuar sulmeve të avancuara të injektimit të prompt-it duke shfrytëzuar strategji mbrojtëse të inxhinierisë sociale, duke siguruar siguri të fortë të AI dhe privatësi të të dhënave.

·5 min lexim
Logot e OpenAI dhe Promptfoo që simbolizojnë blerjen e tyre për të përmirësuar sigurinë dhe testimin e AI
Siguria e AI

OpenAI Blen Promptfoo për të Përmirësuar Sigurinë dhe Testimin e AI

OpenAI forcon aftësitë e saj të sigurisë së AI duke blerë Promptfoo, duke integruar mjetet e saj të avancuara të testimit dhe vlerësimit në OpenAI Frontier për të siguruar vendosjen e AI në shkallë ndërmarrjeje.

·5 min lexim
Marrëveshja e OpenAI dhe Departamentit të Luftës me masa mbrojtëse të sigurisë së AI
Siguria e AI

Marrëveshja e OpenAI me Departamentin e Luftës: Sigurimi i Masave Mbrojtëse të Sigurisë së AI

OpenAI detajon marrëveshjen e saj historike me Departamentin e Luftës, duke vendosur masa mbrojtëse të fuqishme për sigurinë e AI kundër mbikëqyrjes së brendshme dhe armëve autonome, duke vendosur një standard të ri për teknologjinë e mbrojtjes.

·7 min lexim
Diagram që tregon rrjedhën e sulmit të distilimit nga modeli kufitar i AI te kopjet e paligjshme përmes rrjeteve të llogarive mashtruese
Siguria e AI

Anthropic ekspozon sulmet e distilimit nga DeepSeek dhe MiniMax

Anthropic zbulon se DeepSeek, Moonshot dhe MiniMax kryen 16 milionë shkëmbime të paligjshme për të distiluar aftësitë e Claude. Si funksionuan sulmet dhe pse janë të rëndësishme.

·4 min lexim