Code Velocity

Securitate AI

Agenți AI OpenAI care rezistă injecției de prompt și atacurilor de inginerie socială
Securitate AI

Agenți AI: Rezistând Injecției de Prompt Prin Inginerie Socială

Află cum OpenAI proiectează agenți AI pentru a rezista atacurilor avansate de injecție de prompt, utilizând strategii de apărare bazate pe ingineria socială, asigurând o securitate AI robustă și confidențialitatea datelor.

·5 min de citit
Logourile OpenAI și Promptfoo simbolizând achiziția lor pentru a îmbunătăți securitatea și testarea AI
Securitate AI

OpenAI achiziționează Promptfoo pentru a consolida securitatea și testarea AI

OpenAI își consolidează capacitățile de securitate AI prin achiziționarea Promptfoo, integrând instrumentele sale avansate de testare și evaluare în OpenAI Frontier pentru a securiza implementările AI în întreprinderi.

·5 min de citit
Diagramă ilustrând fluxul de lucru al Taskflow Agent de la GitHub Security Lab pentru scanarea vulnerabilităților bazată pe AI
Securitate AI

Securitate bazată pe AI: Cadrul Open-Source al GitHub pentru Scanarea Vulnerabilităților

Explorează Taskflow Agent de la GitHub Security Lab, un cadru open-source, bazat pe AI, revoluționar pentru scanarea îmbunătățită a vulnerabilităților. Află cum să implementezi acest instrument pentru a descoperi eficient vulnerabilități de securitate cu impact ridicat în proiectele tale.

·7 min de citit
Panoul de control al Portalului de Confidențialitate OpenAI care prezintă opțiuni pentru controlul datelor utilizatorilor și gestionarea confidențialității AI.
Securitate AI

Portalul de Confidențialitate OpenAI: Control Simplificat al Datelor Utilizatorilor

Noul Portal de Confidențialitate OpenAI oferă utilizatorilor un control solid asupra datelor, permițând gestionarea datelor personale, a setărilor contului, a preferințelor de antrenare a modelului și eliminarea informațiilor din răspunsurile ChatGPT.

·5 min de citit
Acordul OpenAI și al Departamentului de Război cu balize de siguranță AI
Securitate AI

Acordul OpenAI cu Departamentul de Război: Asigurarea Balizelor de Siguranță AI

OpenAI detaliază acordul său de referință cu Departamentul de Război, stabilind balize robuste de siguranță AI împotriva supravegherii interne și a armelor autonome, stabilind un nou standard pentru tehnologia de apărare.

·7 min de citit
Declarația oficială a Anthropic privind potențiala desemnare a Departamentului Războiului ca risc pentru lanțul de aprovizionare, din cauza eticii AI.
Securitate AI

Anthropic sfidează Secretarul Războiului privind AI, invocând drepturi și siguranță

Anthropic sfidează desemnarea Departamentului Războiului ca risc pentru lanțul de aprovizionare, menținându-și poziția fermă asupra utilizării etice a AI, interzicând supravegherea internă în masă și armele autonome nesigure.

·4 min de citit
Diagramă care arată fluxul unui atac de distilare de la un model AI de frontieră la copii ilicite prin rețele de conturi frauduloase
Securitate AI

Anthropic Expune Atacurile de Distilare ale DeepSeek și MiniMax

Anthropic dezvăluie că DeepSeek, Moonshot și MiniMax au derulat 16 milioane de schimburi ilicite pentru a distila capacitățile Claude. Cum au funcționat atacurile și de ce sunt importante.

·4 min de citit