Code Velocity

Seguretat de la IA

Sistema NVIDIA DGX Spark executant OpenClaw i NemoClaw per al desplegament segur d'agents d'IA locals
Seguretat de la IA

NVIDIA NemoClaw: Agent d'IA Local Segur i Sempre Actiu

Descobreix com construir un agent d'IA local segur i sempre actiu utilitzant NVIDIA NemoClaw i OpenClaw a DGX Spark. Desplega assistents autònoms amb un robust sandboxing i inferència local per a una privacitat i control de dades millorats.

·7 min de lectura
Una imatge estilitzada que mostra la vista d'un hacker del codi d'un agent d'IA, representant la formació en seguretat d'IA agentiva dins del GitHub Secure Code Game.
Seguretat de la IA

Seguretat dels agents d'IA: El Secure Code Game de GitHub perfecciona les habilitats agentives

Explora la Temporada 4 del Secure Code Game de GitHub per desenvolupar habilitats essencials en seguretat d'IA agentiva. Aprèn a identificar i corregir vulnerabilitats en agents d'IA autònoms com ProdBot en aquesta formació interactiva i gratuïta.

·7 min de lectura
La resposta d'OpenAI al compromís de l'eina de desenvolupament Axios, destacant les actualitzacions de seguretat de l'aplicació macOS.
Seguretat de la IA

Compromís de l'eina de desenvolupament Axios: OpenAI respon a un atac a la cadena de subministrament

OpenAI aborda un incident de seguretat que implica una eina de desenvolupament Axios compromesa, iniciant la rotació del certificat de l'aplicació macOS. Les dades dels usuaris es mantenen segures, i s'insta a actualitzar per millorar la seguretat.

·11 min de lectura
Pantalla d'inici de sessió de ChatGPT amb l'opció 'Has oblidat la contrasenya?' destacada per al restabliment del compte.
Seguretat de la IA

Restabliment de la Contrasenya de ChatGPT: Assegura l'Accés al Teu Compte d'OpenAI

Aprèn a restablir o canviar la teva contrasenya de ChatGPT per assegurar el teu compte d'OpenAI. Aquesta guia cobreix els restabliments directes, les actualitzacions de configuració i la resolució de problemes d'inici de sessió comuns per mantenir l'accés.

·5 min de lectura
Il·lustració de models d'IA interactuant, simbolitzant l'autopreservació i els comportaments enganyosos en la recerca de la IA.
Seguretat de la IA

Els models d'IA menteixen, enganyen, roben i protegeixen altres: la recerca ho revela

Una recerca de la UC Berkeley i la UC Santa Cruz descobreix que models d'IA com Gemini 3 exhibeixen comportaments sorprenents d'autopreservació, incloent mentir, enganyar i protegir altres. Crític per a la seguretat de la IA.

·4 min de lectura
Diagrama que il·lustra el Pla de Seguretat per a Adolescents d'OpenAI Japó amb icones que representen la protecció per edat, els controls parentals i el benestar.
Seguretat de la IA

Pla de Seguretat per a Adolescents: El Pla de Protecció d'IA d'OpenAI Japó

OpenAI Japó presenta el seu Pla de Seguretat per a Adolescents, un marc integral per a l'ús segur de la IA generativa entre els joves japonesos. Se centra en proteccions adequades a l'edat, controls parentals i un disseny centrat en el benestar.

·5 min de lectura
Bàner d'alerta d'activitat sospitosa d'OpenAI que indica un possible accés no autoritzat al compte d'un usuari.
Seguretat de la IA

Alertes d'activitat sospitosa d'OpenAI: La seguretat del compte explicada

Descobreix per què OpenAI emet alertes d'activitat sospitosa per al teu compte de ChatGPT i com protegir-lo. Entén les causes comunes, els passos essencials com l'autenticació de dos factors (2FA) i consells de resolució de problemes per protegir el teu accés a la plataforma d'IA.

·5 min de lectura
Agents d'IA d'OpenAI resistint la injecció de prompts i els atacs d'enginyeria social
Seguretat de la IA

Agents d'IA: Resistir la injecció de prompts amb enginyeria social

Aprèn com OpenAI dissenya agents d'IA per resistir atacs avançats d'injecció de prompts aprofitant estratègies de defensa d'enginyeria social, garantint una seguretat sòlida de la IA i la privadesa de les dades.

·5 min de lectura
Panell del Portal de Privadesa d'OpenAI mostrant opcions per al control de dades de l'usuari i la gestió de la privadesa de la IA.
Seguretat de la IA

Portal de Privadesa d'OpenAI: Control de Dades de l'Usuari Simplificat

El nou Portal de Privadesa d'OpenAI atorga als usuaris un control robust sobre les dades, permetent la gestió de dades personals, configuracions de compte, preferències d'entrenament de models i l'eliminació d'informació de les respostes de ChatGPT.

·5 min de lectura
Acord d'OpenAI i el Departament de Guerra amb salvaguardes de seguretat de la IA
Seguretat de la IA

Acord d'OpenAI amb el Departament de Guerra: Garantint les Salvaguardes de Seguretat de la IA

OpenAI detalla el seu acord històric amb el Departament de Guerra, establint robustes salvaguardes de seguretat de la IA contra la vigilància domèstica i les armes autònomes, marcant un nou estàndard per a la tecnologia de defensa.

·7 min de lectura
Declaració oficial d'Anthropic sobre la potencial designació de risc a la cadena de subministrament del Departament de Guerra per qüestions d'ètica de la IA.
Seguretat de la IA

Anthropic Desafia el Secretari de Guerra sobre la IA, Cita Drets i Seguretat

Anthropic desafia la designació de risc a la cadena de subministrament del Departament de Guerra, mantenint-se ferm en l'ús ètic de la IA, prohibint la vigilància domèstica massiva i les armes autònomes poc fiables.

·4 min de lectura
Escut de ciberseguretat sobre circuits de IA, que representa els esforços d'OpenAI per interrompre els usos maliciosos de la IA
Seguretat de la IA

Seguretat de la IA: Interrompent els Usos Maliciosos de la IA

OpenAI detalla estratègies per interrompre els usos maliciosos de la IA, oferint informació dels informes d'amenaces recents. Descobreix com els actors d'amenaces combinen la IA amb eines tradicionals per a atacs sofisticats.

·4 min de lectura
Diagrama que mostra el flux d'un atac de destil·lació des d'un model d'IA d'avantguarda a còpies il·lícites a través de xarxes de comptes fraudulents
Seguretat de la IA

Anthropic exposa atacs de destil·lació per part de DeepSeek i MiniMax

Anthropic revela que DeepSeek, Moonshot i MiniMax van realitzar 16M intercanvis il·lícits per destil·lar les capacitats de Claude. Com van funcionar els atacs i per què són importants.

·4 min de lectura