Code Velocity

Segurança de IA

Agentes de IA da OpenAI resistindo a ataques de injeção de prompt e engenharia social
Segurança de IA

Agentes de IA: Resistindo à Injeção de Prompt com Engenharia Social

Saiba como a OpenAI projeta agentes de IA para resistir a ataques avançados de injeção de prompt, aproveitando estratégias de defesa de engenharia social, garantindo segurança robusta de IA e privacidade de dados.

·5 min de leitura
Logotipos da OpenAI e Promptfoo simbolizando sua aquisição para aprimorar a segurança e os testes de IA
Segurança de IA

OpenAI Adquire Promptfoo para Impulsionar a Segurança e Testes de IA

OpenAI fortalece suas capacidades de segurança de IA ao adquirir Promptfoo, integrando suas ferramentas avançadas de teste e avaliação ao OpenAI Frontier para proteger implementações de IA corporativas.

·5 min de leitura
Diagrama ilustrando o fluxo de trabalho do Taskflow Agent de varredura de vulnerabilidades impulsionado por IA do GitHub Security Lab
Segurança de IA

Segurança impulsionada por IA: Framework de código aberto do GitHub para varredura de vulnerabilidades

Explore o Taskflow Agent do GitHub Security Lab, um framework de código aberto impulsionado por IA, revolucionário para varredura aprimorada de vulnerabilidades. Aprenda a implantar esta ferramenta para descobrir vulnerabilidades de segurança de alto impacto em seus projetos de forma eficiente.

·7 min de leitura
Painel do Portal de Privacidade da OpenAI mostrando opções para controle de dados do usuário e gestão de privacidade de IA.
Segurança de IA

Portal de Privacidade da OpenAI: Controle de Dados do Usuário Simplificado

O novo Portal de Privacidade da OpenAI capacita os usuários com controle robusto de dados, permitindo a gestão de dados pessoais, configurações de conta, preferências de treinamento de modelo e a remoção de informações das respostas do ChatGPT.

·5 min de leitura
Acordo da OpenAI e do Departamento de Guerra com salvaguardas de segurança da IA
Segurança de IA

Acordo OpenAI com o Departamento de Guerra: Garantindo Salvaguardas de Segurança da IA

A OpenAI detalha seu acordo histórico com o Departamento de Guerra, estabelecendo robustas salvaguardas de segurança da IA contra vigilância doméstica e armas autônomas, definindo um novo padrão para a tecnologia de defesa.

·7 min de leitura
Declaração oficial da Anthropic sobre a potencial designação de risco da cadeia de suprimentos pelo Departamento de Guerra devido à ética da IA.
Segurança de IA

Anthropic Desafia Secretário de Guerra sobre IA, Cita Direitos e Segurança

Anthropic desafia a designação de risco da cadeia de suprimentos do Departamento de Guerra, mantendo-se firme no uso ético da IA, proibindo a vigilância doméstica em massa e armas autônomas não confiáveis.

·4 min de leitura
Diagrama mostrando o fluxo de ataque de destilação de um modelo de IA de fronteira para cópias ilícitas através de redes de contas fraudulentas
Segurança de IA

Anthropic Expõe Ataques de Destilação por DeepSeek e MiniMax

A Anthropic revela que DeepSeek, Moonshot e MiniMax realizaram 16 milhões de trocas ilícitas para destilar as capacidades do Claude. Como os ataques funcionaram e por que são importantes.

·4 min de leitura