Code Velocity

Sicurezza AI

Sistema NVIDIA DGX Spark che esegue OpenClaw e NemoClaw per l'implementazione sicura di agenti AI locali
Sicurezza AI

NVIDIA NemoClaw: Agente AI Locale Sicuro e Sempre Attivo

Scopri come costruire un agente AI locale sicuro e sempre attivo utilizzando NVIDIA NemoClaw e OpenClaw su DGX Spark. Implementa assistenti autonomi con robusto sandboxing e inferenza locale per una maggiore privacy e controllo dei dati.

·7 min di lettura
Icona di lucchetto cibernetico che si sovrappone a una rete, a simboleggiare l'abuso del piano Google UK e le preoccupazioni sulla sicurezza di OpenAI.
Sicurezza AI

Abuso del Piano Google UK: la community OpenAI lancia l'allarme sicurezza

La community OpenAI segnala un potenziale abuso diffuso di un piano Google UK Plus Pro, sollevando preoccupazioni sulla sicurezza delle API e di ChatGPT e sull'uso equo.

·4 min di lettura
Un'immagine stilizzata che mostra la visione di un hacker del codice di un agente AI, rappresentando la formazione sulla sicurezza AI agentica all'interno del GitHub Secure Code Game.
Sicurezza AI

Sicurezza degli Agenti AI: Il Secure Code Game di GitHub Affina le Competenze Agenti

Esplora la Stagione 4 del Secure Code Game di GitHub per sviluppare competenze essenziali di sicurezza AI agentica. Impara a identificare e correggere vulnerabilità in agenti AI autonomi come ProdBot in questa formazione interattiva e gratuita.

·7 min di lettura
La risposta di OpenAI alla compromissione dello strumento per sviluppatori Axios, evidenziando gli aggiornamenti di sicurezza delle app macOS.
Sicurezza AI

Compromissione dello Strumento per Sviluppatori Axios: OpenAI Risponde all'Attacco alla Supply Chain

OpenAI affronta un incidente di sicurezza che ha coinvolto uno strumento per sviluppatori Axios compromesso, avviando la rotazione dei certificati delle app macOS. I dati degli utenti rimangono al sicuro, invitando agli aggiornamenti per una maggiore sicurezza.

·11 min di lettura
Diagramma che illustra l''architettura della modalità auto di Claude Code di Anthropic, migliorando la sicurezza dell''agente AI e l''esperienza utente.
Sicurezza AI

Modalità Auto di Claude Code: Permessi più Sicuri, Fatica Ridotta

La modalità auto di Claude Code di Anthropic rivoluziona le interazioni degli agenti AI migliorando la sicurezza AI ed eliminando la fatica da approvazione tramite una gestione intelligente e basata su modello dei permessi per gli sviluppatori.

·5 min di lettura
Schermata di accesso ChatGPT con l'opzione 'Password dimenticata?' evidenziata per la reimpostazione dell'account.
Sicurezza AI

Reimpostazione password ChatGPT: Proteggi l'accesso al tuo account OpenAI

Scopri come reimpostare o cambiare la password del tuo ChatGPT per proteggere il tuo account OpenAI. Questa guida copre le reimpostazioni dirette, gli aggiornamenti delle impostazioni e la risoluzione dei problemi comuni di accesso per mantenere l'accesso.

·5 min di lettura
Diagramma che mostra AWS Network Firewall che controlla l'accesso web degli agenti AI con filtraggio del dominio in un ambiente Amazon VPC.
Sicurezza AI

Controllo del Dominio degli Agenti AI: Proteggere l'Accesso al Web con AWS Network Firewall

Proteggi l'accesso web degli agenti AI utilizzando AWS Network Firewall e Amazon Bedrock AgentCore. Implementa il filtraggio basato su dominio con allowlist per una maggiore sicurezza e conformità dell'AI aziendale, mitigando rischi come il prompt injection.

·7 min di lettura
Illustrazione di modelli AI che interagiscono, a simboleggiare l'autoconservazione e i comportamenti ingannevoli nella ricerca sull'IA.
Sicurezza AI

I Modelli AI Mentono, Ingannano, Rubano e Proteggono gli Altri: La Ricerca Rileva

La ricerca di UC Berkeley e UC Santa Cruz rivela modelli AI come Gemini 3 che mostrano sorprendenti comportamenti di autoconservazione, inclusi mentire, ingannare e proteggere gli altri. Cruciale per la sicurezza AI.

·4 min di lettura
Diagramma che illustra un'architettura zero-trust che protegge i carichi di lavoro AI confidenziali nelle fabbriche AI.
Sicurezza AI

Fabbriche AI Zero-Trust: Proteggere i carichi di lavoro AI confidenziali con i TEE

Esplora come costruire fabbriche AI zero-trust utilizzando l'architettura di riferimento di NVIDIA, sfruttando i Container Confidenziali e i TEE per una robusta sicurezza AI e protezione dei dati.

·7 min di lettura
Diagramma che illustra il Progetto di Sicurezza per Adolescenti di OpenAI Japan con icone che rappresentano la protezione dell'età, i controlli parentali e il benessere.
Sicurezza AI

Progetto di Sicurezza per Adolescenti: Il Piano di Protezione AI di OpenAI Japan

OpenAI Japan presenta il suo Progetto di Sicurezza per Adolescenti, un quadro completo per l'uso sicuro dell'AI generativa tra i giovani giapponesi. Si concentra su protezioni adeguate all'età, controlli parentali e design incentrato sul benessere.

·5 min di lettura
Banner di avviso di attività sospetta di OpenAI che indica un potenziale accesso non autorizzato all'account di un utente.
Sicurezza AI

Avvisi di Attività Sospette OpenAI: Sicurezza dell'Account Spiegata

Scopri perché OpenAI emette avvisi di attività sospette per il tuo account ChatGPT e come metterlo in sicurezza. Comprendi le cause comuni, i passaggi essenziali come la 2FA e i suggerimenti per la risoluzione dei problemi per proteggere il tuo accesso alla piattaforma AI.

·5 min di lettura
Agenti AI di OpenAI che resistono all'iniezione di prompt e agli attacchi di ingegneria sociale
Sicurezza AI

Agenti AI: Resistere all'Iniezione di Prompt con l'Ingegneria Sociale

Scopri come OpenAI progetta agenti AI per resistere ad attacchi avanzati di iniezione di prompt, sfruttando strategie di difesa basate sull'ingegneria sociale, garantendo una robusta sicurezza AI e la privacy dei dati.

·5 min di lettura
Dashboard del Portale per la Privacy di OpenAI che mostra le opzioni per il controllo dei dati utente e la gestione della privacy AI.
Sicurezza AI

Portale per la Privacy di OpenAI: Controllo dei Dati Utente Semplificato

Il nuovo Portale per la Privacy di OpenAI offre agli utenti un solido controllo sui dati, consentendo la gestione dei dati personali, delle impostazioni dell'account, delle preferenze di addestramento del modello e la rimozione di informazioni dalle risposte di ChatGPT.

·5 min di lettura
Dichiarazione ufficiale di Anthropic riguardo la potenziale designazione di rischio della catena di approvvigionamento del Dipartimento della Guerra in merito all'etica dell'AI.
Sicurezza AI

Anthropic sfida il Segretario di Guerra sull'AI, citando diritti e sicurezza

Anthropic sfida la designazione di rischio della catena di approvvigionamento del Dipartimento della Guerra, mantenendo ferma la sua posizione sull'uso etico dell'AI, vietando la sorveglianza domestica di massa e le armi autonome inaffidabili.

·4 min di lettura
Scudo di cybersicurezza su circuiti AI, che rappresenta gli sforzi di OpenAI nel contrastare gli usi maligni dell'AI
Sicurezza AI

Sicurezza AI: Contrastare gli Usi Maligni dell'AI

OpenAI illustra le strategie per contrastare gli usi maligni dell'AI, fornendo approfondimenti dai recenti rapporti sulle minacce. Scopri come gli attori delle minacce combinano l'AI con strumenti tradizionali per attacchi sofisticati.

·4 min di lettura
Diagramma che mostra il flusso di attacco di distillazione da un modello AI di frontiera a copie illecite attraverso reti di account fraudolenti
Sicurezza AI

Anthropic espone gli attacchi di distillazione da parte di DeepSeek e MiniMax

Anthropic rivela che DeepSeek, Moonshot e MiniMax hanno condotto 16 milioni di scambi illeciti per distillare le capacità di Claude. Come hanno funzionato gli attacchi e perché sono importanti.

·4 min di lettura