Code Velocity

Securitate AI

Sistem NVIDIA DGX Spark rulând OpenClaw și NemoClaw pentru implementarea sigură a agenților AI locali
Securitate AI

NVIDIA NemoClaw: Agent AI local securizat, mereu disponibil

Descoperiți cum să construiți un agent AI local securizat, mereu disponibil, folosind NVIDIA NemoClaw și OpenClaw pe DGX Spark. Implementați asistenți autonomi cu izolare robustă (sandboxing) și inferență locală pentru o confidențialitate și un control sporite ale datelor.

·7 min de citit
Răspunsul OpenAI la compromisul instrumentului de dezvoltare Axios, evidențiind actualizările de securitate pentru aplicațiile macOS.
Securitate AI

Compromisul Instrumentului de Dezvoltare Axios: OpenAI Răspunde la Atacul pe Lanțul de Aprovizionare

OpenAI abordează un incident de securitate care implică un instrument de dezvoltare Axios compromis, inițiind rotația certificatelor aplicațiilor macOS. Datele utilizatorilor rămân în siguranță, îndemnând la actualizări pentru o securitate sporită.

·11 min de citit
Diagramă ilustrând arhitectura modului automat Claude Code de la Anthropic, îmbunătățind securitatea agenților AI și experiența utilizatorului.
Securitate AI

Modul automat Claude Code: Permisiuni mai sigure, oboseală redusă

Modul automat Claude Code de la Anthropic revoluționează interacțiunile agenților AI prin îmbunătățirea securității AI și eliminarea oboselii la aprobare prin gestionarea inteligentă, bazată pe modele, a permisiunilor pentru dezvoltatori.

·5 min de citit
Ecranul de conectare ChatGPT cu opțiunea 'Ați uitat parola?' evidențiată pentru resetarea contului.
Securitate AI

Resetare parolă ChatGPT: Securizează accesul la contul tău OpenAI

Află cum să resetezi sau să schimbi parola ChatGPT pentru a-ți securiza contul OpenAI. Acest ghid acoperă resetările directe, actualizările setărilor și depanarea problemelor comune de conectare pentru a menține accesul.

·5 min de citit
Ilustrație a interacțiunii modelelor AI, simbolizând auto-conservarea și comportamentele înșelătoare în cercetarea AI.
Securitate AI

Modelele AI Mint, Înșală, Fură și Protejează Altele: Cercetarea Dezvăluie

Cercetările de la UC Berkeley și UC Santa Cruz dezvăluie modele AI precum Gemini 3 care manifestă comportamente surprinzătoare de auto-conservare, inclusiv minciună, înșelăciune și protejarea altora. Critic pentru securitatea AI.

·4 min de citit
Diagramă ilustrând Proiectul de Siguranță pentru Adolescenți al OpenAI Japonia cu iconițe reprezentând protecția vârstei, controlul parental și bunăstarea.
Securitate AI

Proiectul de Siguranță pentru Adolescenți: Planul de Protecție AI al OpenAI Japonia

OpenAI Japonia dezvăluie Proiectul său de Siguranță pentru Adolescenți, un cadru cuprinzător pentru utilizarea sigură a AI-ului generativ de către tinerii japonezi. Se concentrează pe protecții adecvate vârstei, control parental și design centrat pe bunăstare.

·5 min de citit
Agenți AI OpenAI care rezistă injecției de prompt și atacurilor de inginerie socială
Securitate AI

Agenți AI: Rezistând Injecției de Prompt Prin Inginerie Socială

Află cum OpenAI proiectează agenți AI pentru a rezista atacurilor avansate de injecție de prompt, utilizând strategii de apărare bazate pe ingineria socială, asigurând o securitate AI robustă și confidențialitatea datelor.

·5 min de citit
Logourile OpenAI și Promptfoo simbolizând achiziția lor pentru a îmbunătăți securitatea și testarea AI
Securitate AI

OpenAI achiziționează Promptfoo pentru a consolida securitatea și testarea AI

OpenAI își consolidează capacitățile de securitate AI prin achiziționarea Promptfoo, integrând instrumentele sale avansate de testare și evaluare în OpenAI Frontier pentru a securiza implementările AI în întreprinderi.

·5 min de citit
Diagramă ilustrând fluxul de lucru al Taskflow Agent de la GitHub Security Lab pentru scanarea vulnerabilităților bazată pe AI
Securitate AI

Securitate bazată pe AI: Cadrul Open-Source al GitHub pentru Scanarea Vulnerabilităților

Explorează Taskflow Agent de la GitHub Security Lab, un cadru open-source, bazat pe AI, revoluționar pentru scanarea îmbunătățită a vulnerabilităților. Află cum să implementezi acest instrument pentru a descoperi eficient vulnerabilități de securitate cu impact ridicat în proiectele tale.

·7 min de citit
Panoul de control al Portalului de Confidențialitate OpenAI care prezintă opțiuni pentru controlul datelor utilizatorilor și gestionarea confidențialității AI.
Securitate AI

Portalul de Confidențialitate OpenAI: Control Simplificat al Datelor Utilizatorilor

Noul Portal de Confidențialitate OpenAI oferă utilizatorilor un control solid asupra datelor, permițând gestionarea datelor personale, a setărilor contului, a preferințelor de antrenare a modelului și eliminarea informațiilor din răspunsurile ChatGPT.

·5 min de citit
Acordul OpenAI și al Departamentului de Război cu balize de siguranță AI
Securitate AI

Acordul OpenAI cu Departamentul de Război: Asigurarea Balizelor de Siguranță AI

OpenAI detaliază acordul său de referință cu Departamentul de Război, stabilind balize robuste de siguranță AI împotriva supravegherii interne și a armelor autonome, stabilind un nou standard pentru tehnologia de apărare.

·7 min de citit
Declarația oficială a Anthropic privind potențiala desemnare a Departamentului Războiului ca risc pentru lanțul de aprovizionare, din cauza eticii AI.
Securitate AI

Anthropic sfidează Secretarul Războiului privind AI, invocând drepturi și siguranță

Anthropic sfidează desemnarea Departamentului Războiului ca risc pentru lanțul de aprovizionare, menținându-și poziția fermă asupra utilizării etice a AI, interzicând supravegherea internă în masă și armele autonome nesigure.

·4 min de citit
Diagramă care arată fluxul unui atac de distilare de la un model AI de frontieră la copii ilicite prin rețele de conturi frauduloase
Securitate AI

Anthropic Expune Atacurile de Distilare ale DeepSeek și MiniMax

Anthropic dezvăluie că DeepSeek, Moonshot și MiniMax au derulat 16 milioane de schimburi ilicite pentru a distila capacitățile Claude. Cum au funcționat atacurile și de ce sunt importante.

·4 min de citit