Seguretat de la IA

NVIDIA NemoClaw: Agent d'IA Local Segur i Sempre Actiu
Descobreix com construir un agent d'IA local segur i sempre actiu utilitzant NVIDIA NemoClaw i OpenClaw a DGX Spark. Desplega assistents autònoms amb un robust sandboxing i inferència local per a una privacitat i control de dades millorats.

Seguretat dels agents d'IA: El Secure Code Game de GitHub perfecciona les habilitats agentives
Explora la Temporada 4 del Secure Code Game de GitHub per desenvolupar habilitats essencials en seguretat d'IA agentiva. Aprèn a identificar i corregir vulnerabilitats en agents d'IA autònoms com ProdBot en aquesta formació interactiva i gratuïta.

Compromís de l'eina de desenvolupament Axios: OpenAI respon a un atac a la cadena de subministrament
OpenAI aborda un incident de seguretat que implica una eina de desenvolupament Axios compromesa, iniciant la rotació del certificat de l'aplicació macOS. Les dades dels usuaris es mantenen segures, i s'insta a actualitzar per millorar la seguretat.

Restabliment de la Contrasenya de ChatGPT: Assegura l'Accés al Teu Compte d'OpenAI
Aprèn a restablir o canviar la teva contrasenya de ChatGPT per assegurar el teu compte d'OpenAI. Aquesta guia cobreix els restabliments directes, les actualitzacions de configuració i la resolució de problemes d'inici de sessió comuns per mantenir l'accés.

Els models d'IA menteixen, enganyen, roben i protegeixen altres: la recerca ho revela
Una recerca de la UC Berkeley i la UC Santa Cruz descobreix que models d'IA com Gemini 3 exhibeixen comportaments sorprenents d'autopreservació, incloent mentir, enganyar i protegir altres. Crític per a la seguretat de la IA.

Pla de Seguretat per a Adolescents: El Pla de Protecció d'IA d'OpenAI Japó
OpenAI Japó presenta el seu Pla de Seguretat per a Adolescents, un marc integral per a l'ús segur de la IA generativa entre els joves japonesos. Se centra en proteccions adequades a l'edat, controls parentals i un disseny centrat en el benestar.

Alertes d'activitat sospitosa d'OpenAI: La seguretat del compte explicada
Descobreix per què OpenAI emet alertes d'activitat sospitosa per al teu compte de ChatGPT i com protegir-lo. Entén les causes comunes, els passos essencials com l'autenticació de dos factors (2FA) i consells de resolució de problemes per protegir el teu accés a la plataforma d'IA.

Agents d'IA: Resistir la injecció de prompts amb enginyeria social
Aprèn com OpenAI dissenya agents d'IA per resistir atacs avançats d'injecció de prompts aprofitant estratègies de defensa d'enginyeria social, garantint una seguretat sòlida de la IA i la privadesa de les dades.

Portal de Privadesa d'OpenAI: Control de Dades de l'Usuari Simplificat
El nou Portal de Privadesa d'OpenAI atorga als usuaris un control robust sobre les dades, permetent la gestió de dades personals, configuracions de compte, preferències d'entrenament de models i l'eliminació d'informació de les respostes de ChatGPT.

Acord d'OpenAI amb el Departament de Guerra: Garantint les Salvaguardes de Seguretat de la IA
OpenAI detalla el seu acord històric amb el Departament de Guerra, establint robustes salvaguardes de seguretat de la IA contra la vigilància domèstica i les armes autònomes, marcant un nou estàndard per a la tecnologia de defensa.

Anthropic Desafia el Secretari de Guerra sobre la IA, Cita Drets i Seguretat
Anthropic desafia la designació de risc a la cadena de subministrament del Departament de Guerra, mantenint-se ferm en l'ús ètic de la IA, prohibint la vigilància domèstica massiva i les armes autònomes poc fiables.

Seguretat de la IA: Interrompent els Usos Maliciosos de la IA
OpenAI detalla estratègies per interrompre els usos maliciosos de la IA, oferint informació dels informes d'amenaces recents. Descobreix com els actors d'amenaces combinen la IA amb eines tradicionals per a atacs sofisticats.

Anthropic exposa atacs de destil·lació per part de DeepSeek i MiniMax
Anthropic revela que DeepSeek, Moonshot i MiniMax van realitzar 16M intercanvis il·lícits per destil·lar les capacitats de Claude. Com van funcionar els atacs i per què són importants.