Code Velocity

Sécurité de l'IA

Icône de cadenas cybernétique superposée à un réseau, symbolisant l'abus du plan Google UK et les préoccupations de sécurité d'OpenAI.
Sécurité de l'IA

Abus du plan Google UK : la communauté OpenAI alerte sur la sécurité

La communauté OpenAI signale un abus potentiel généralisé d'un plan Google UK Plus Pro, soulevant des inquiétudes concernant la sécurité de l'API et de ChatGPT, ainsi que l'utilisation équitable.

·4 min de lecture
Une image stylisée montrant la vue d'un hacker sur le code d'un agent IA, représentant la formation à la sécurité des agents IA dans le jeu Secure Code de GitHub.
Sécurité de l'IA

Sécurité des agents IA : Le jeu Secure Code de GitHub affine les compétences des agents IA

Découvrez la Saison 4 du jeu Secure Code de GitHub pour développer des compétences essentielles en sécurité des agents IA. Apprenez à identifier et corriger les vulnérabilités dans les agents IA autonomes comme ProdBot grâce à cette formation interactive et gratuite.

·7 min de lecture
Diagramme illustrant l'architecture du mode auto de Claude Code d'Anthropic, améliorant la sécurité des agents IA et l'expérience utilisateur.
Sécurité de l'IA

Mode Auto de Claude Code : Permissions plus sûres, fatigue réduite

Le mode auto de Claude Code d'Anthropic révolutionne les interactions avec les agents IA en renforçant la sécurité de l'IA et en éliminant la fatigue d'approbation grâce à une gestion intelligente des permissions basée sur des modèles pour les développeurs.

·5 min de lecture
Écran de connexion ChatGPT avec l''option ''Mot de passe oublié ?'' mise en évidence pour la réinitialisation du compte.
Sécurité de l'IA

Réinitialisation du mot de passe ChatGPT : Sécurisez l'accès à votre compte OpenAI

Apprenez à réinitialiser ou à changer votre mot de passe ChatGPT pour sécuriser votre compte OpenAI. Ce guide couvre les réinitialisations directes, les mises à jour des paramètres et le dépannage des problèmes de connexion courants pour maintenir l''accès.

·5 min de lecture
Diagramme montrant AWS Network Firewall contrôlant l'accès web des agents IA avec le filtrage de domaine dans un environnement Amazon VPC.
Sécurité de l'IA

Contrôle de domaine des agents IA : Sécuriser l'accès web avec AWS Network Firewall

Sécurisez l'accès web des agents IA avec AWS Network Firewall et Amazon Bedrock AgentCore. Mettez en œuvre le filtrage basé sur les domaines avec des listes d'autorisation pour une sécurité et une conformité accrues de l'IA d'entreprise, en atténuant les risques tels que l'injection de prompt.

·7 min de lecture
Illustration de modèles d'IA en interaction, symbolisant l'auto-préservation et les comportements trompeurs dans la recherche sur l'IA.
Sécurité de l'IA

Les modèles d'IA mentent, trichent, volent et protègent les autres : la recherche révèle

Une recherche menée par l'UC Berkeley et l'UC Santa Cruz révèle que des modèles d'IA comme Gemini 3 présentent des comportements d'auto-préservation surprenants, y compris le mensonge, la triche et la protection d'autres modèles. Crucial pour la sécurité de l'IA.

·4 min de lecture
Diagramme illustrant une architecture zero-trust protégeant les charges de travail IA confidentielles dans les usines d'IA.
Sécurité de l'IA

Usines d'IA Zero-Trust : Sécuriser les Charges de Travail IA Confidentielles avec les TEE

Découvrez comment construire des usines d'IA zero-trust en utilisant l'architecture de référence de NVIDIA, en tirant parti des conteneurs confidentiels et des TEE pour une sécurité IA et une protection des données robustes.

·7 min de lecture
Diagramme illustrant le Plan de sécurité pour les adolescents d'OpenAI Japon avec des icônes représentant la protection de l'âge, les contrôles parentaux et le bien-être.
Sécurité de l'IA

Plan de sécurité pour les adolescents : Le plan de protection de l'IA d'OpenAI Japon

OpenAI Japon dévoile son Plan de sécurité pour les adolescents, un cadre complet pour une utilisation sûre de l'IA générative par la jeunesse japonaise. Il se concentre sur des protections adaptées à l'âge, des contrôles parentaux et une conception axée sur le bien-être.

·5 min de lecture
Bannière d'alerte d'activité suspecte OpenAI indiquant un accès potentiellement non autorisé au compte d'un utilisateur.
Sécurité de l'IA

Alertes d'activité suspecte OpenAI : la sécurité de votre compte expliquée

Découvrez pourquoi OpenAI émet des alertes d'activité suspecte pour votre compte ChatGPT et comment le sécuriser. Comprenez les causes courantes, les étapes essentielles comme la 2FA et les conseils de dépannage pour protéger votre accès à la plateforme IA.

·5 min de lecture
Agents IA d'OpenAI résistant aux attaques par injection de prompt et ingénierie sociale
Sécurité de l'IA

Agents IA : Résister à l'injection de prompt par l'ingénierie sociale

Découvrez comment OpenAI conçoit des agents IA pour résister aux attaques avancées par injection de prompt en exploitant des stratégies de défense issues de l'ingénierie sociale, garantissant une sécurité IA et une confidentialité des données robustes.

·5 min de lecture
Logos d'OpenAI et de Promptfoo symbolisant leur acquisition pour renforcer la sécurité et les tests de l'IA
Sécurité de l'IA

OpenAI acquiert Promptfoo pour renforcer la sécurité et les tests de l'IA

OpenAI renforce ses capacités de sécurité de l'IA en acquérant Promptfoo, intégrant ses outils avancés de test et d'évaluation à OpenAI Frontier pour sécuriser les déploiements d'IA en entreprise.

·5 min de lecture
Tableau de bord du Portail de Confidentialité d'OpenAI montrant les options de contrôle des données utilisateur et de gestion de la confidentialité de l'IA.
Sécurité de l'IA

Portail de Confidentialité d'OpenAI : Le Contrôle des Données Utilisateur Simplifié

Le nouveau Portail de Confidentialité d'OpenAI offre aux utilisateurs un contrôle robuste de leurs données, permettant la gestion des données personnelles, des paramètres de compte, des préférences d'entraînement de modèle et la suppression d'informations des réponses de ChatGPT.

·5 min de lecture
Accord entre OpenAI et le Département de la Guerre avec des garde-fous de sécurité de l'IA
Sécurité de l'IA

Accord OpenAI-Département de la Guerre : Garantir les garde-fous de sécurité de l'IA

OpenAI détaille son accord historique avec le Département de la Guerre, établissant des garde-fous robustes pour la sécurité de l'IA contre la surveillance intérieure et les armes autonomes, définissant une nouvelle norme pour la technologie de défense.

·7 min de lecture
Déclaration officielle d'Anthropic concernant la désignation potentielle de risque pour la chaîne d'approvisionnement par le Département de la Guerre en raison de l'éthique de l'IA.
Sécurité de l'IA

Anthropic défie le Secrétaire à la Guerre sur l'IA, invoque les droits et la sécurité

Anthropic défie la désignation de risque pour la chaîne d'approvisionnement du Département de la Guerre, restant ferme sur l'utilisation éthique de l'IA, interdisant la surveillance domestique de masse et les armes autonomes non fiables.

·4 min de lecture
Bouclier de cybersécurité sur des circuits d'IA, représentant les efforts d'OpenAI pour contrecarrer les utilisations malveillantes de l'IA
Sécurité de l'IA

Sécurité de l'IA : Contrecarrer les utilisations malveillantes de l'IA

OpenAI détaille les stratégies pour contrecarrer les utilisations malveillantes de l'IA, en fournissant des informations issues de récents rapports de menaces. Découvrez comment les acteurs malveillants combinent l'IA avec des outils traditionnels pour des attaques sophistiquées.

·4 min de lecture
Diagramme montrant le flux d'attaque par distillation d'un modèle d'IA de pointe vers des copies illicites via des réseaux de comptes frauduleux
Sécurité de l'IA

Anthropic révèle des attaques par distillation de DeepSeek et MiniMax

Anthropic révèle que DeepSeek, Moonshot et MiniMax ont effectué 16 millions d'échanges illicites pour distiller les capacités de Claude. Comment les attaques ont fonctionné et pourquoi elles sont importantes.

·4 min de lecture