Code Velocity

Seguretat de la IA

Agents d'IA d'OpenAI resistint la injecció de prompts i els atacs d'enginyeria social
Seguretat de la IA

Agents d'IA: Resistir la injecció de prompts amb enginyeria social

Aprèn com OpenAI dissenya agents d'IA per resistir atacs avançats d'injecció de prompts aprofitant estratègies de defensa d'enginyeria social, garantint una seguretat sòlida de la IA i la privadesa de les dades.

·5 min de lectura
Panell del Portal de Privadesa d'OpenAI mostrant opcions per al control de dades de l'usuari i la gestió de la privadesa de la IA.
Seguretat de la IA

Portal de Privadesa d'OpenAI: Control de Dades de l'Usuari Simplificat

El nou Portal de Privadesa d'OpenAI atorga als usuaris un control robust sobre les dades, permetent la gestió de dades personals, configuracions de compte, preferències d'entrenament de models i l'eliminació d'informació de les respostes de ChatGPT.

·5 min de lectura
Acord d'OpenAI i el Departament de Guerra amb salvaguardes de seguretat de la IA
Seguretat de la IA

Acord d'OpenAI amb el Departament de Guerra: Garantint les Salvaguardes de Seguretat de la IA

OpenAI detalla el seu acord històric amb el Departament de Guerra, establint robustes salvaguardes de seguretat de la IA contra la vigilància domèstica i les armes autònomes, marcant un nou estàndard per a la tecnologia de defensa.

·7 min de lectura
Declaració oficial d'Anthropic sobre la potencial designació de risc a la cadena de subministrament del Departament de Guerra per qüestions d'ètica de la IA.
Seguretat de la IA

Anthropic Desafia el Secretari de Guerra sobre la IA, Cita Drets i Seguretat

Anthropic desafia la designació de risc a la cadena de subministrament del Departament de Guerra, mantenint-se ferm en l'ús ètic de la IA, prohibint la vigilància domèstica massiva i les armes autònomes poc fiables.

·4 min de lectura
Escut de ciberseguretat sobre circuits de IA, que representa els esforços d'OpenAI per interrompre els usos maliciosos de la IA
Seguretat de la IA

Seguretat de la IA: Interrompent els Usos Maliciosos de la IA

OpenAI detalla estratègies per interrompre els usos maliciosos de la IA, oferint informació dels informes d'amenaces recents. Descobreix com els actors d'amenaces combinen la IA amb eines tradicionals per a atacs sofisticats.

·4 min de lectura
Diagrama que mostra el flux d'un atac de destil·lació des d'un model d'IA d'avantguarda a còpies il·lícites a través de xarxes de comptes fraudulents
Seguretat de la IA

Anthropic exposa atacs de destil·lació per part de DeepSeek i MiniMax

Anthropic revela que DeepSeek, Moonshot i MiniMax van realitzar 16M intercanvis il·lícits per destil·lar les capacitats de Claude. Com van funcionar els atacs i per què són importants.

·4 min de lectura