Seguretat de la IA

Agents d'IA: Resistir la injecció de prompts amb enginyeria social
Aprèn com OpenAI dissenya agents d'IA per resistir atacs avançats d'injecció de prompts aprofitant estratègies de defensa d'enginyeria social, garantint una seguretat sòlida de la IA i la privadesa de les dades.

Portal de Privadesa d'OpenAI: Control de Dades de l'Usuari Simplificat
El nou Portal de Privadesa d'OpenAI atorga als usuaris un control robust sobre les dades, permetent la gestió de dades personals, configuracions de compte, preferències d'entrenament de models i l'eliminació d'informació de les respostes de ChatGPT.

Acord d'OpenAI amb el Departament de Guerra: Garantint les Salvaguardes de Seguretat de la IA
OpenAI detalla el seu acord històric amb el Departament de Guerra, establint robustes salvaguardes de seguretat de la IA contra la vigilància domèstica i les armes autònomes, marcant un nou estàndard per a la tecnologia de defensa.

Anthropic Desafia el Secretari de Guerra sobre la IA, Cita Drets i Seguretat
Anthropic desafia la designació de risc a la cadena de subministrament del Departament de Guerra, mantenint-se ferm en l'ús ètic de la IA, prohibint la vigilància domèstica massiva i les armes autònomes poc fiables.

Seguretat de la IA: Interrompent els Usos Maliciosos de la IA
OpenAI detalla estratègies per interrompre els usos maliciosos de la IA, oferint informació dels informes d'amenaces recents. Descobreix com els actors d'amenaces combinen la IA amb eines tradicionals per a atacs sofisticats.

Anthropic exposa atacs de destil·lació per part de DeepSeek i MiniMax
Anthropic revela que DeepSeek, Moonshot i MiniMax van realitzar 16M intercanvis il·lícits per destil·lar les capacitats de Claude. Com van funcionar els atacs i per què són importants.