Code Velocity
Segurança de IA

Acordo OpenAI com o Departamento de Guerra: Garantindo Salvaguardas de Segurança da IA

·7 min de leitura·OpenAI·Fonte original
Compartilhar
Acordo da OpenAI e do Departamento de Guerra com salvaguardas de segurança da IA

title: "Acordo OpenAI com o Departamento de Guerra: Garantindo Salvaguardas de Segurança da IA" slug: "our-agreement-with-the-department-of-war" date: "2026-03-03" lang: "pt" source: "https://openai.com/index/our-agreement-with-the-department-of-war/" category: "Segurança de IA" keywords:

  • OpenAI
  • Departamento de Guerra
  • ética da IA
  • segurança nacional
  • vigilância por IA
  • armas autônomas
  • salvaguardas de IA
  • IA classificada
  • contratos de defesa
  • política de IA
  • militares dos EUA
  • implantação em nuvem meta_description: "A OpenAI detalha seu acordo histórico com o Departamento de Guerra, estabelecendo robustas salvaguardas de segurança da IA contra vigilância doméstica e armas autônomas, definindo um novo padrão para a tecnologia de defesa." image: "/images/articles/our-agreement-with-the-department-of-war.png" image_alt: "Acordo da OpenAI e do Departamento de Guerra com salvaguardas de segurança da IA" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • OpenAI schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Por que a OpenAI se envolveu com o Departamento de Guerra?" answer: "A OpenAI se envolveu para equipar os militares dos EUA com capacidades avançadas de IA, reconhecendo a crescente integração da IA por potenciais adversários. Esta parceria depende do estabelecimento de salvaguardas robustas, que a OpenAI desenvolveu meticulosamente para garantir a implantação responsável em ambientes classificados. O objetivo é fornecer ferramentas de ponta, mantendo princípios éticos rigorosos, demonstrando que a IA sofisticada pode ser aproveitada para a segurança nacional sem comprometer os padrões fundamentais de segurança e privacidade. Além disso, a OpenAI visava desescalar as tensões entre o DoD e os laboratórios de IA, defendendo um acesso mais amplo a esses termos cuidadosamente estruturados para outras empresas."
  • question: "Que salvaguardas específicas estão em vigor para prevenir a vigilância doméstica?" answer: "O acordo proíbe explicitamente o uso intencional dos sistemas de IA da OpenAI para vigilância doméstica de pessoas ou nacionais dos EUA, alinhando-se com a Quarta Emenda, a Lei de Segurança Nacional de 1947 e a Lei FISA de 1978. Isso inclui uma proibição rigorosa de rastreamento, monitoramento ou uso deliberado de informações pessoais ou identificáveis adquiridas comercialmente para tais fins. Crucialmente, o Departamento de Guerra afirmou que as agências de inteligência, como a NSA, exigiriam um acordo separado para qualquer serviço, reforçando essas limitações e fornecendo múltiplas camadas legais e contratuais de proteção contra o uso indevido."
  • question: "Como este acordo impede o uso dos modelos da OpenAI para armas autônomas?" answer: "A prevenção é multifacetada. Em primeiro lugar, a arquitetura de implantação é apenas em nuvem, o que significa que os modelos não podem ser implantados em 'dispositivos de borda' críticos para armas letais autônomas. Em segundo lugar, a linguagem do contrato afirma especificamente que o sistema de IA não será usado para dirigir independentemente armas autônomas onde o controle humano é necessário. Também exige verificação, validação e testes rigorosos, conforme a Diretriz 3000.09 do DoD. Por fim, o pessoal credenciado da OpenAI, incluindo pesquisadores de segurança e alinhamento, permanece envolvido, fornecendo uma camada adicional de supervisão humana e garantia de que essas rigorosas linhas vermelhas não serão cruzadas."
  • question: "O que torna o acordo da OpenAI diferente ou mais forte do que outros, como o da Anthropic?" answer: "A OpenAI acredita que seu acordo oferece garantias e salvaguardas mais fortes devido à sua abordagem multicamadas. Ao contrário de alguns outros acordos que podem depender apenas de políticas de uso, o contrato da OpenAI garante que sua pilha de segurança proprietária permaneça totalmente operacional e sob seu controle. A arquitetura de implantação apenas em nuvem restringe inerentemente certas aplicações de alto risco, como armas totalmente autônomas, que normalmente exigem implantação na borda. Além disso, o envolvimento contínuo de pessoal credenciado da OpenAI fornece supervisão humana ativa e verificação, criando uma estrutura mais robusta contra usos inaceitáveis, o que, eles argumentam, supera acordos anteriores."
  • question: "Que papel o pessoal da OpenAI desempenha na garantia da conformidade?" answer: "O pessoal credenciado da OpenAI, incluindo engenheiros destacados e pesquisadores de segurança e alinhamento, desempenha um papel crítico 'no ciclo'. Eles ajudam o governo a integrar a tecnologia de forma responsável, ao mesmo tempo em que monitoram ativamente a adesão às linhas vermelhas estabelecidas. Esse envolvimento direto permite que a OpenAI verifique independentemente se o sistema não está sendo usado para atividades proibidas, como vigilância doméstica ou controle de armas autônomas. Sua presença contínua garante que as salvaguardas de segurança sejam mantidas, e os modelos sejam continuamente aprimorados com segurança e alinhamento como prioridades centrais, fornecendo uma camada adicional de garantia técnica e ética."
  • question: "O que acontece se o Departamento de Guerra violar o acordo?" answer: "Em caso de violação, como em qualquer acordo contratual, a OpenAI reserva-se o direito de rescindir o contrato. Isso serve como um impedimento significativo, garantindo que o Departamento de Guerra adira estritamente aos termos e condições acordados. A cláusula de rescisão sublinha a seriedade das salvaguardas de segurança e das linhas vermelhas estabelecidas no acordo, demonstrando o compromisso da OpenAI em defender seus princípios éticos, mesmo em contextos de segurança nacional de alto risco. Embora a OpenAI não antecipe tal violação, a disposição contratual oferece um claro recurso."
  • question: "Futuras mudanças na lei ou política afetarão as proteções do acordo?" answer: "Não, o acordo foi projetado para ser resiliente a futuras mudanças na lei ou política. Ele referencia explicitamente as atuais leis e políticas de vigilância e armas autônomas, como a Quarta Emenda, a Lei de Segurança Nacional, a Lei FISA e a Diretriz 3000.09 do DoD, tal como existem hoje. Isso significa que, mesmo que essas leis ou políticas fossem alteradas no futuro, o uso dos sistemas da OpenAI sob este contrato ainda deve cumprir os padrões rigorosos refletidos no acordo original. Esta cláusula prospectiva oferece uma camada forte e duradoura de proteção contra a potencial erosão das salvaguardas."

OpenAI e Departamento de Guerra Fortificam a Segurança da IA com Salvaguardas Explícitas

San Francisco, CA – 3 de março de 2026 – A OpenAI anunciou uma atualização significativa de seu acordo com o Departamento de Guerra (DoW), reforçando rigorosas salvaguardas de segurança em torno da implantação de sistemas avançados de IA em ambientes classificados. Esta colaboração histórica sublinha um compromisso compartilhado com o uso responsável da IA, particularmente no que diz respeito a aplicações sensíveis de segurança nacional. O acordo atualizado, finalizado em 2 de março de 2026, proíbe explicitamente a vigilância doméstica de pessoas dos EUA e restringe o uso de IA em sistemas de armas autônomas, estabelecendo um novo marco para a integração ética da inteligência artificial na defesa.

O cerne deste acordo aprimorado reside em tornar explícito o que antes era entendido, garantindo que não haja ambiguidade quanto às limitações éticas da tecnologia de IA. A OpenAI enfatiza que esta estrutura é projetada para fornecer aos militares dos EUA ferramentas de última geração, mantendo rigorosamente os princípios de privacidade e segurança.

Redefinindo Salvaguardas para Implantações de IA Classificadas

Em uma medida proativa para abordar potenciais preocupações, a OpenAI e o Departamento de Guerra incorporaram linguagem adicional ao seu acordo, clarificando especificamente os limites da implantação da IA. Esta nova cláusula afirma inequivocamente que as ferramentas da OpenAI não serão usadas para vigilância doméstica de pessoas dos EUA, incluindo através da aquisição ou uso de informações pessoais obtidas comercialmente. Além disso, o DoW confirmou que suas agências de inteligência, como a NSA, estão excluídas deste acordo e exigiriam termos inteiramente novos para qualquer prestação de serviço.

A linguagem atualizada no acordo detalha:

  • "Consistente com as leis aplicáveis, incluindo a Quarta Emenda à Constituição dos Estados Unidos, a Lei de Segurança Nacional de 1947, a Lei FISA de 1978, o sistema de IA não será intencionalmente usado para vigilância doméstica de pessoas e nacionais dos EUA."
  • "Para evitar dúvidas, o Departamento entende que esta limitação proíbe o rastreamento, vigilância ou monitoramento deliberado de pessoas ou nacionais dos EUA, incluindo através da aquisição ou uso de informações pessoais ou identificáveis obtidas comercialmente."

Esta abordagem prospectiva visa estabelecer um caminho claro para outros laboratórios de IA de fronteira se engajarem com o Departamento de Guerra, fomentando a colaboração enquanto mantêm padrões éticos inabaláveis.

Pilares Éticos Fundamentais da OpenAI: As Três Linhas Vermelhas

A OpenAI opera sob três "linhas vermelhas" fundamentais que regem suas colaborações em domínios sensíveis como a segurança nacional. Esses princípios, amplamente compartilhados por outras instituições líderes de pesquisa em IA, são centrais para o acordo com o Departamento de Guerra:

  1. Nenhuma vigilância doméstica em massa: A tecnologia OpenAI não será usada para monitoramento generalizado de cidadãos dos EUA.
  2. Nenhum sistema de armas autônomas: A tecnologia é proibida de dirigir armas autônomas sem controle humano.
  3. Nenhuma decisão automatizada de alto risco: As ferramentas da OpenAI não serão empregadas para decisões automatizadas críticas (por exemplo, sistemas de "crédito social") que exigem supervisão humana.

A OpenAI afirma que sua estratégia multicamadas oferece proteção mais robusta contra usos inaceitáveis em comparação com abordagens que dependem principalmente apenas de políticas de uso. Essa ênfase em salvaguardas técnicas e contratuais rigorosas distingue seu acordo no cenário em evolução da IA de defesa.

Proteção Multicamadas: Arquitetura, Contrato e Expertise Humana

A força do acordo da OpenAI com o Departamento de Guerra reside em sua abordagem abrangente e multicamadas para proteção. Isso inclui:

  1. Arquitetura de Implantação: O acordo exige uma implantação apenas em nuvem, garantindo que a OpenAI mantenha total discrição sobre sua pilha de segurança e prevenindo a implantação de modelos "sem salvaguardas". Esta arquitetura restringe inerentemente casos de uso como armas letais autônomas, que tipicamente exigem implantação na borda. Mecanismos de verificação independentes, incluindo classificadores, estão em vigor para garantir que essas linhas vermelhas não sejam cruzadas.
  2. Linguagem Contratual Robusta: O contrato detalha explicitamente os usos permitidos, exigindo a adesão a "todos os propósitos legais, consistentes com a lei aplicável, requisitos operacionais e protocolos de segurança e supervisão bem estabelecidos". Ele faz referência específica a leis dos EUA como a Quarta Emenda, a Lei de Segurança Nacional de 1947, a Lei FISA de 1978 e a Diretriz 3000.09 do DoD. Crucialmente, proíbe a direção independente de armas autônomas e o monitoramento irrestrito de informações privadas de pessoas dos EUA.
  3. Envolvimento de Especialistas em IA: Engenheiros credenciados da OpenAI e pesquisadores de segurança e alinhamento serão destacados e "no ciclo". Essa supervisão humana direta fornece uma camada adicional de garantia, ajudando a melhorar os sistemas ao longo do tempo e verificando ativamente a conformidade com os termos rigorosos do acordo.

Esta abordagem integrada garante que as salvaguardas tecnológicas, legais e humanas estejam todas trabalhando em conjunto para prevenir o uso indevido.

Categoria de Linha VermelhaMedidas Protetoras da OpenAI
Vigilância Doméstica em MassaProibição contratual explícita, alinhamento com a Quarta Emenda, FISA, Lei de Segurança Nacional; exclusão da NSA/agências de inteligência do escopo; limites de implantação em nuvem no acesso a dados; verificação de pessoal da OpenAI 'in-the-loop'.
Sistemas de Armas AutônomasImplantação apenas em nuvem (sem implantação em borda para autonomia letal); proibição contratual explícita contra a direção independente de armas autônomas; adesão à Diretriz 3000.09 do DoD para verificação/validação; pessoal da OpenAI 'in-the-loop' para supervisão.
Decisões Automatizadas de Alto RiscoLinguagem contratual explícita exigindo aprovação humana para decisões de alto risco; a OpenAI mantém controle total sobre sua pilha de segurança, prevenindo modelos 'sem salvaguardas'; pessoal da OpenAI 'in-the-loop' para garantir que a supervisão humana seja mantida onde decisões críticas estão envolvidas.

Abordando Preocupações e Forjando a Futura Colaboração em IA

A OpenAI reconhece os riscos inerentes da IA avançada e considera a colaboração profunda entre o governo e os laboratórios de IA essencial para navegar no futuro. O envolvimento com o Departamento de Guerra permite que os militares dos EUA acessem ferramentas de ponta, garantindo que essas tecnologias sejam implantadas de forma responsável.

“Acreditamos que os militares dos EUA absolutamente precisam de modelos de IA robustos para apoiar sua missão, especialmente diante das crescentes ameaças de potenciais adversários que estão integrando cada vez mais tecnologias de IA em seus sistemas”, afirmou a OpenAI. Este compromisso é equilibrado com uma recusa inabalável em comprometer as salvaguardas técnicas em prol do desempenho, enfatizando que uma abordagem responsável é primordial.

O acordo também visa desescalar tensões e promover uma colaboração mais ampla dentro da comunidade de IA. A OpenAI solicitou que os mesmos termos de proteção fossem disponibilizados a todas as empresas de IA, esperando facilitar parcerias responsáveis semelhantes em toda a indústria. Isso faz parte da estratégia mais ampla da OpenAI, conforme demonstrado por sua parceria contínua com a Microsoft e esforços para escalar a IA para todos.

Estabelecendo um Novo Padrão para o Engajamento da IA na Defesa

A OpenAI acredita que seu acordo estabelece um padrão mais elevado para implantações de IA classificadas em comparação com arranjos anteriores, incluindo aqueles discutidos por outros laboratórios como a Anthropic. A confiança deriva das proteções fundamentais incorporadas: a implantação apenas em nuvem que mantém a integridade da pilha de segurança da OpenAI, as garantias contratuais explícitas e o envolvimento ativo de pessoal credenciado da OpenAI.

Este quadro abrangente assegura que as linhas vermelhas especificadas — prevenção de vigilância doméstica em massa e controle de armas autônomas — sejam vigorosamente aplicadas. A linguagem contratual que referencia explicitamente as leis existentes garante que, mesmo que as políticas mudem no futuro, o uso dos sistemas da OpenAI ainda deve estar em conformidade com os padrões originais mais rigorosos. Esta postura proativa sublinha o compromisso da OpenAI em desenvolver e implantar tecnologias poderosas de IA de uma maneira que priorize a segurança, a ética e os valores democráticos, mesmo nos contextos de segurança nacional mais exigentes.

Perguntas Frequentes

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Fique Atualizado

Receba as últimas novidades de IA no seu e-mail.

Compartilhar