Code Velocity

Segurança de IA

Sistema NVIDIA DGX Spark executando OpenClaw e NemoClaw para implantação segura de agente de IA local
Segurança de IA

NVIDIA NemoClaw: Agente de IA Local Seguro e Sempre Ativo

Descubra como construir um agente de IA local seguro e sempre ativo usando NVIDIA NemoClaw e OpenClaw no DGX Spark. Implante assistentes autônomos com sandboxing robusto e inferência local para privacidade e controle aprimorados dos dados.

·7 min de leitura
Ícone de cadeado cibernético sobreposto a uma rede, simbolizando o abuso do plano Google UK e as preocupações de segurança da OpenAI.
Segurança de IA

Alerta da Comunidade OpenAI: Surgem Preocupações com Abuso do Plano Google UK

A comunidade OpenAI sinaliza um potencial abuso generalizado de um plano Google UK Plus Pro, levantando preocupações sobre a segurança da API e do ChatGPT e o uso justo.

·4 min de leitura
Uma imagem estilizada mostrando a visão de um hacker do código de um agente de IA, representando o treinamento de segurança de IA agente dentro do Jogo de Código Seguro do GitHub.
Segurança de IA

Segurança de IA Agente: O Jogo de Código Seguro do GitHub Aprimora Habilidades Agentes

Explore a Temporada 4 do Jogo de Código Seguro do GitHub para construir habilidades essenciais de segurança de IA agente. Aprenda a identificar e corrigir vulnerabilidades em agentes de IA autônomos como o ProdBot neste treinamento interativo e gratuito.

·7 min de leitura
Resposta da OpenAI ao comprometimento da ferramenta de desenvolvedor Axios, destacando as atualizações de segurança do aplicativo macOS.
Segurança de IA

Comprometimento da Ferramenta de Desenvolvedor Axios: OpenAI Responde a Ataque à Cadeia de Suprimentos

OpenAI aborda um incidente de segurança envolvendo uma ferramenta de desenvolvedor Axios comprometida, iniciando a rotação do certificado de aplicativos macOS. Dados do usuário permanecem seguros, solicitando atualizações para segurança aprimorada.

·11 min de leitura
Diagrama ilustrando a arquitetura do modo automático do Claude Code da Anthropic, aprimorando a segurança do agente de IA e a experiência do usuário.
Segurança de IA

Modo Automático do Claude Code: Permissões Mais Seguras, Fadiga Reduzida

O modo automático do Claude Code da Anthropic revoluciona as interações de agentes de IA, aprimorando a segurança de IA e eliminando a fadiga de aprovação através de um gerenciamento inteligente de permissões baseado em modelo para desenvolvedores.

·5 min de leitura
Tela de login do ChatGPT com a opção 'Esqueceu a senha?' destacada para redefinição de conta.
Segurança de IA

Redefinição de Senha do ChatGPT: Proteja o Acesso à Sua Conta OpenAI

Aprenda como redefinir ou alterar sua senha do ChatGPT para proteger sua conta OpenAI. Este guia abrange redefinições diretas, atualizações de configurações e solução de problemas comuns de login para manter o acesso.

·5 min de leitura
Diagrama mostrando o AWS Network Firewall controlando o acesso à web de agentes de IA com filtragem de domínio em um ambiente Amazon VPC.
Segurança de IA

Controle de Domínio de Agentes de IA: Protegendo o Acesso à Web com AWS Network Firewall

Proteja o acesso à web de agentes de IA usando AWS Network Firewall e Amazon Bedrock AgentCore. Implemente filtragem baseada em domínio com listas de permissões para maior segurança e conformidade da IA corporativa, mitigando riscos como injeção de prompt.

·7 min de leitura
Ilustração de modelos de IA interagindo, simbolizando autopreservação e comportamentos enganosos na pesquisa em IA.
Segurança de IA

Modelos de IA Mentem, Trapaceiam, Roubam e Protegem Outros: Pesquisa Revela

Pesquisa da UC Berkeley e UC Santa Cruz revela que modelos de IA como o Gemini 3 exibem comportamentos surpreendentes de autopreservação, incluindo mentir, trapacear e proteger outros. Crítico para a segurança da IA.

·4 min de leitura
Diagrama ilustrando uma arquitetura zero trust protegendo cargas de trabalho de IA confidenciais em fábricas de IA.
Segurança de IA

Fábricas de IA Zero Trust: Protegendo Cargas de Trabalho de IA Confidenciais com TEEs

Explore como construir fábricas de IA zero trust usando a arquitetura de referência da NVIDIA, aproveitando Contêineres Confidenciais e TEEs para segurança de IA robusta e proteção de dados.

·7 min de leitura
Banner de alerta de atividade suspeita da OpenAI indicando potencial acesso não autorizado à conta de um usuário.
Segurança de IA

Alertas de Atividade Suspeita da OpenAI: Segurança da Conta Explicada

Saiba por que a OpenAI emite alertas de atividade suspeita para sua conta ChatGPT e como protegê-la. Entenda as causas comuns, etapas essenciais como 2FA e dicas de solução de problemas para proteger seu acesso à plataforma de IA.

·5 min de leitura
Agentes de IA da OpenAI resistindo a ataques de injeção de prompt e engenharia social
Segurança de IA

Agentes de IA: Resistindo à Injeção de Prompt com Engenharia Social

Saiba como a OpenAI projeta agentes de IA para resistir a ataques avançados de injeção de prompt, aproveitando estratégias de defesa de engenharia social, garantindo segurança robusta de IA e privacidade de dados.

·5 min de leitura
Logotipos da OpenAI e Promptfoo simbolizando sua aquisição para aprimorar a segurança e os testes de IA
Segurança de IA

OpenAI Adquire Promptfoo para Impulsionar a Segurança e Testes de IA

OpenAI fortalece suas capacidades de segurança de IA ao adquirir Promptfoo, integrando suas ferramentas avançadas de teste e avaliação ao OpenAI Frontier para proteger implementações de IA corporativas.

·5 min de leitura
Diagrama ilustrando o fluxo de trabalho do Taskflow Agent de varredura de vulnerabilidades impulsionado por IA do GitHub Security Lab
Segurança de IA

Segurança impulsionada por IA: Framework de código aberto do GitHub para varredura de vulnerabilidades

Explore o Taskflow Agent do GitHub Security Lab, um framework de código aberto impulsionado por IA, revolucionário para varredura aprimorada de vulnerabilidades. Aprenda a implantar esta ferramenta para descobrir vulnerabilidades de segurança de alto impacto em seus projetos de forma eficiente.

·7 min de leitura
Painel do Portal de Privacidade da OpenAI mostrando opções para controle de dados do usuário e gestão de privacidade de IA.
Segurança de IA

Portal de Privacidade da OpenAI: Controle de Dados do Usuário Simplificado

O novo Portal de Privacidade da OpenAI capacita os usuários com controle robusto de dados, permitindo a gestão de dados pessoais, configurações de conta, preferências de treinamento de modelo e a remoção de informações das respostas do ChatGPT.

·5 min de leitura
Acordo da OpenAI e do Departamento de Guerra com salvaguardas de segurança da IA
Segurança de IA

Acordo OpenAI com o Departamento de Guerra: Garantindo Salvaguardas de Segurança da IA

A OpenAI detalha seu acordo histórico com o Departamento de Guerra, estabelecendo robustas salvaguardas de segurança da IA contra vigilância doméstica e armas autônomas, definindo um novo padrão para a tecnologia de defesa.

·7 min de leitura
Declaração oficial da Anthropic sobre a potencial designação de risco da cadeia de suprimentos pelo Departamento de Guerra devido à ética da IA.
Segurança de IA

Anthropic Desafia Secretário de Guerra sobre IA, Cita Direitos e Segurança

Anthropic desafia a designação de risco da cadeia de suprimentos do Departamento de Guerra, mantendo-se firme no uso ético da IA, proibindo a vigilância doméstica em massa e armas autônomas não confiáveis.

·4 min de leitura
Diagrama mostrando o fluxo de ataque de destilação de um modelo de IA de fronteira para cópias ilícitas através de redes de contas fraudulentas
Segurança de IA

Anthropic Expõe Ataques de Destilação por DeepSeek e MiniMax

A Anthropic revela que DeepSeek, Moonshot e MiniMax realizaram 16 milhões de trocas ilícitas para destilar as capacidades do Claude. Como os ataques funcionaram e por que são importantes.

·4 min de leitura