Code Velocity

Sicurezza AI

Agenti AI di OpenAI che resistono all'iniezione di prompt e agli attacchi di ingegneria sociale
Sicurezza AI

Agenti AI: Resistere all'Iniezione di Prompt con l'Ingegneria Sociale

Scopri come OpenAI progetta agenti AI per resistere ad attacchi avanzati di iniezione di prompt, sfruttando strategie di difesa basate sull'ingegneria sociale, garantendo una robusta sicurezza AI e la privacy dei dati.

·5 min di lettura
Dashboard del Portale per la Privacy di OpenAI che mostra le opzioni per il controllo dei dati utente e la gestione della privacy AI.
Sicurezza AI

Portale per la Privacy di OpenAI: Controllo dei Dati Utente Semplificato

Il nuovo Portale per la Privacy di OpenAI offre agli utenti un solido controllo sui dati, consentendo la gestione dei dati personali, delle impostazioni dell'account, delle preferenze di addestramento del modello e la rimozione di informazioni dalle risposte di ChatGPT.

·5 min di lettura
Dichiarazione ufficiale di Anthropic riguardo la potenziale designazione di rischio della catena di approvvigionamento del Dipartimento della Guerra in merito all'etica dell'AI.
Sicurezza AI

Anthropic sfida il Segretario di Guerra sull'AI, citando diritti e sicurezza

Anthropic sfida la designazione di rischio della catena di approvvigionamento del Dipartimento della Guerra, mantenendo ferma la sua posizione sull'uso etico dell'AI, vietando la sorveglianza domestica di massa e le armi autonome inaffidabili.

·4 min di lettura
Scudo di cybersicurezza su circuiti AI, che rappresenta gli sforzi di OpenAI nel contrastare gli usi maligni dell'AI
Sicurezza AI

Sicurezza AI: Contrastare gli Usi Maligni dell'AI

OpenAI illustra le strategie per contrastare gli usi maligni dell'AI, fornendo approfondimenti dai recenti rapporti sulle minacce. Scopri come gli attori delle minacce combinano l'AI con strumenti tradizionali per attacchi sofisticati.

·4 min di lettura
Diagramma che mostra il flusso di attacco di distillazione da un modello AI di frontiera a copie illecite attraverso reti di account fraudolenti
Sicurezza AI

Anthropic espone gli attacchi di distillazione da parte di DeepSeek e MiniMax

Anthropic rivela che DeepSeek, Moonshot e MiniMax hanno condotto 16 milioni di scambi illeciti per distillare le capacità di Claude. Come hanno funzionato gli attacchi e perché sono importanti.

·4 min di lettura