Code Velocity

Sécurité de l'IA

Agents IA d'OpenAI résistant aux attaques par injection de prompt et ingénierie sociale
Sécurité de l'IA

Agents IA : Résister à l'injection de prompt par l'ingénierie sociale

Découvrez comment OpenAI conçoit des agents IA pour résister aux attaques avancées par injection de prompt en exploitant des stratégies de défense issues de l'ingénierie sociale, garantissant une sécurité IA et une confidentialité des données robustes.

·5 min de lecture
Logos d'OpenAI et de Promptfoo symbolisant leur acquisition pour renforcer la sécurité et les tests de l'IA
Sécurité de l'IA

OpenAI acquiert Promptfoo pour renforcer la sécurité et les tests de l'IA

OpenAI renforce ses capacités de sécurité de l'IA en acquérant Promptfoo, intégrant ses outils avancés de test et d'évaluation à OpenAI Frontier pour sécuriser les déploiements d'IA en entreprise.

·5 min de lecture
Tableau de bord du Portail de Confidentialité d'OpenAI montrant les options de contrôle des données utilisateur et de gestion de la confidentialité de l'IA.
Sécurité de l'IA

Portail de Confidentialité d'OpenAI : Le Contrôle des Données Utilisateur Simplifié

Le nouveau Portail de Confidentialité d'OpenAI offre aux utilisateurs un contrôle robuste de leurs données, permettant la gestion des données personnelles, des paramètres de compte, des préférences d'entraînement de modèle et la suppression d'informations des réponses de ChatGPT.

·5 min de lecture
Accord entre OpenAI et le Département de la Guerre avec des garde-fous de sécurité de l'IA
Sécurité de l'IA

Accord OpenAI-Département de la Guerre : Garantir les garde-fous de sécurité de l'IA

OpenAI détaille son accord historique avec le Département de la Guerre, établissant des garde-fous robustes pour la sécurité de l'IA contre la surveillance intérieure et les armes autonomes, définissant une nouvelle norme pour la technologie de défense.

·7 min de lecture
Déclaration officielle d'Anthropic concernant la désignation potentielle de risque pour la chaîne d'approvisionnement par le Département de la Guerre en raison de l'éthique de l'IA.
Sécurité de l'IA

Anthropic défie le Secrétaire à la Guerre sur l'IA, invoque les droits et la sécurité

Anthropic défie la désignation de risque pour la chaîne d'approvisionnement du Département de la Guerre, restant ferme sur l'utilisation éthique de l'IA, interdisant la surveillance domestique de masse et les armes autonomes non fiables.

·4 min de lecture
Bouclier de cybersécurité sur des circuits d'IA, représentant les efforts d'OpenAI pour contrecarrer les utilisations malveillantes de l'IA
Sécurité de l'IA

Sécurité de l'IA : Contrecarrer les utilisations malveillantes de l'IA

OpenAI détaille les stratégies pour contrecarrer les utilisations malveillantes de l'IA, en fournissant des informations issues de récents rapports de menaces. Découvrez comment les acteurs malveillants combinent l'IA avec des outils traditionnels pour des attaques sophistiquées.

·4 min de lecture
Diagramme montrant le flux d'attaque par distillation d'un modèle d'IA de pointe vers des copies illicites via des réseaux de comptes frauduleux
Sécurité de l'IA

Anthropic révèle des attaques par distillation de DeepSeek et MiniMax

Anthropic révèle que DeepSeek, Moonshot et MiniMax ont effectué 16 millions d'échanges illicites pour distiller les capacités de Claude. Comment les attaques ont fonctionné et pourquoi elles sont importantes.

·4 min de lecture