Code Velocity

AI turvalisus

NVIDIA DGX Spark süsteem, mis käitab OpenClaw'd ja NemoClaw'd turvaliseks kohaliku AI-agendi juurutamiseks
AI turvalisus

NVIDIA NemoClaw: Turvaline, pidevalt töötav kohalik AI-agent

Avasta, kuidas luua turvaline, pidevalt töötav kohalik AI-agent, kasutades NVIDIA NemoClaw'd ja OpenClaw'd DGX Sparkil. Juuruta autonoomsed abimehed tugeva liivakasti ja kohaliku järeldamise abil, et tagada parem andmekaitse ja kontroll.

·7 min lugemist
OpenAI vastus Axiosi arendajavahendi kompromissile, rõhutades macOS-i rakenduste turvavärskendusi.
AI turvalisus

Axiosi arendajavahendi kompromiss: OpenAI reageerib tarneahela rünnakule

OpenAI käsitleb turvaintsidenti, mis hõlmab kompromiteeritud Axiosi arendajavahendit, algatades macOS-i rakenduste sertifikaatide rotatsiooni. Kasutajaandmed jäävad turvaliseks, kutsudes üles värskendama turvalisuse parandamiseks.

·11 min lugemist
Diagramm, mis illustreerib Anthropicu Claude Code'i automaatrežiimi arhitektuuri, parandades AI-agendi turvalisust ja kasutajakogemust.
AI turvalisus

Claude Code automaatrežiim: turvalisemad õigused, väiksem väsimus

Anthropicu Claude Code'i automaatrežiim muudab AI-agendi suhtluse revolutsiooniliseks, parandades AI-turvalisust ja kõrvaldades loaväsimuse intelligentse, mudelipõhise õiguste haldamise abil arendajatele.

·5 min lugemist
ChatGPT sisselogimisekraan, kus konto lähtestamiseks on esile tõstetud 'Unustasid parooli?' valik.
AI turvalisus

ChatGPT parooli lähtestamine: kindlusta oma OpenAI konto ligipääs

Lugege, kuidas lähtestada või muuta oma ChatGPT parooli, et kindlustada oma OpenAI konto. See juhend käsitleb otseseid lähtestamisi, seadete uuendusi ja levinud sisselogimisprobleemide lahendamist, et säilitada juurdepääs.

·5 min lugemist
Diagramm, mis näitab AWS Network Firewalli kontrollimas AI agentide veebijuurdepääsu domeenifiltreerimisega Amazon VPC keskkonnas.
AI Turvalisus

AI agentide domeenikontroll: Veebijuurdepääsu turvamine AWS Network Firewalliga

Turva AI agentide veebijuurdepääs AWS Network Firewalli ja Amazon Bedrock AgentCore'i abil. Rakenda domeenipõhist filtreerimist lubatud loenditega ettevõtte AI turvalisuse ja vastavuse parandamiseks, leevendades riske nagu käsu süstimine.

·7 min lugemist
Illustratsioon tehisintellekti mudelite interaktsioonist, mis sümboliseerib enesesäilitamist ja petlikku käitumist tehisintellekti uuringutes.
AI turvalisus

Tehisintellekti mudelid valetavad, petavad, varastavad ja kaitsevad teisi: uuring paljastab

UC Berkeley ja UC Santa Cruzi uuringud paljastavad, et tehisintellekti mudelid, nagu Gemini 3, näitavad üllatavaid enesesäilitamise käitumisviise, sealhulgas valetamine, petmine ja teiste kaitsmine. Kriitilise tähtsusega tehisintellekti turvalisuse jaoks.

·4 min lugemist
Diagramm, mis illustreerib nullus-usaldus arhitektuuri konfidentsiaalsete AI töökoormuste kaitsmisel AI vabrikutes.
AI Turvalisus

Nullus-usaldus AI vabrikud: Konfidentsiaalsete AI töökoormuste turvamine TEEdega

Uurige, kuidas ehitada nullus-usaldus AI vabrikuid, kasutades NVIDIA võrdlusarhitektuuri, mis rakendab Konfidentsiaalseid Konteinereid ja TEEsid, et tagada tugev AI turvalisus ja andmekaitse.

·7 min lugemist
Diagramm, mis illustreerib OpenAI Jaapani Noorte Ohutuse Tegevuskava ikoonidega, mis esindavad vanusekaitset, vanemlikku kontrolli ja heaolu.
AI turvalisus

Noorte ohutuse tegevuskava: OpenAI Jaapani AI kaitseplaan

OpenAI Jaapan avalikustab oma Noorte Ohutuse Tegevuskava, mis on terviklik raamistik generatiivse AI ohutuks kasutamiseks Jaapani noorte seas. See keskendub eakohasele kaitsele, vanemlikule kontrollile ja heaolule suunatud disainile.

·5 min lugemist
OpenAI kahtlase tegevuse hoiatusteade, mis viitab võimalikule volitamata juurdepääsule kasutaja kontole.
AI turvalisus

OpenAI kahtlase tegevuse hoiatused: konto turvalisuse selgitus

Saate teada, miks OpenAI väljastab teie ChatGPT konto kohta kahtlase tegevuse hoiatusi ja kuidas seda kaitsta. Mõistke levinud põhjuseid, olulisi samme nagu 2FA ja tõrkeotsingu näpunäiteid oma AI platvormile juurdepääsu kaitsmiseks.

·5 min lugemist
Diagramm, mis illustreerib GitHubi turvalabori AI-põhise haavatavuste skaneerimise Taskflow Agendi töövoogu
AI turvalisus

AI-põhine turvalisus: GitHubi avatud lähtekoodiga haavatavuste skaneerimise raamistik

Avasta GitHub Security Labi avatud lähtekoodiga, AI-põhine Taskflow Agent – revolutsiooniline raamistik täiustatud haavatavuste skaneerimiseks. Õpi seda tööriista kasutama, et oma projektides tõhusalt avastada suure mõjuga turvahaavatavusi.

·7 min lugemist
OpenAI privaatsusportaali juhtpaneel, mis näitab kasutajaandmete kontrolli ja AI privaatsuse haldamise valikuid.
AI turvalisus

OpenAI privaatsusportaal: kasutajaandmete haldamine lihtsustatud

OpenAI uus privaatsusportaal annab kasutajatele tugeva andmekontrolli, võimaldades hallata isikuandmeid, kontoseadeid, mudelite treenimise eelistusi ja eemaldada infot ChatGPT vastustest.

·5 min lugemist
Diagramm, mis näitab destilleerimisrünnaku voogu piirimudeli AI-st ebaseaduslike koopiate juurde läbi petturlike kontode võrgustike
AI turvalisus

Anthropic paljastab DeepSeeki ja MiniMaxi destilleerimisrünnakud

Anthropic paljastab, et DeepSeek, Moonshot ja MiniMax viisid läbi 16 miljonit ebaseaduslikku vahetust, et destilleerida Claude'i võimeid. Kuidas rünnakud toimisid ja miks need olulised on.

·4 min lugemist