Code Velocity
Seguridad en IA

Acuerdo del Departamento de Guerra con OpenAI: Garantizando Salvaguardas de Seguridad en IA

·7 min de lectura·OpenAI·Fuente original
Compartir
Acuerdo entre OpenAI y el Departamento de Guerra con salvaguardas de seguridad en IA

OpenAI y el Departamento de Guerra Fortalecen la Seguridad de la IA con Salvaguardas Explícitas

San Francisco, CA – 3 de marzo de 2026 – OpenAI ha anunciado una actualización significativa de su acuerdo con el Departamento de Guerra (DoW), reforzando estrictas salvaguardas de seguridad en torno al despliegue de sistemas avanzados de IA en entornos clasificados. Esta colaboración histórica subraya un compromiso compartido con el uso responsable de la IA, particularmente en lo que respecta a aplicaciones sensibles de seguridad nacional. El acuerdo actualizado, finalizado el 2 de marzo de 2026, prohíbe explícitamente la vigilancia doméstica de personas estadounidenses y restringe el uso de IA en sistemas de armas autónomas, estableciendo un nuevo punto de referencia para la integración ética de la inteligencia artificial en la defensa.

El núcleo de este acuerdo mejorado radica en hacer explícito lo que antes se entendía, asegurando que no haya ambigüedad con respecto a las limitaciones éticas de la tecnología de IA. OpenAI enfatiza que este marco está diseñado para proporcionar al ejército de EE. UU. herramientas de vanguardia mientras se mantienen rigurosamente los principios de privacidad y seguridad.

Redefiniendo las Salvaguardas para Despliegues de IA Clasificada

En una medida proactiva para abordar posibles preocupaciones, OpenAI y el Departamento de Guerra han incorporado lenguaje adicional en su acuerdo, aclarando específicamente los límites del despliegue de IA. Esta nueva cláusula establece inequívocamente que las herramientas de OpenAI no se utilizarán para la vigilancia doméstica de personas estadounidenses, incluso a través de la adquisición o el uso de información personal obtenida comercialmente. Además, el DoW ha confirmado que sus agencias de inteligencia, como la NSA, están excluidas de este acuerdo y requerirían términos completamente nuevos para cualquier provisión de servicio.

El lenguaje actualizado en el acuerdo detalla:

  • "De conformidad con las leyes aplicables, incluida la Cuarta Enmienda a la Constitución de los Estados Unidos, la Ley de Seguridad Nacional de 1947, la Ley FISA de 1978, el sistema de IA no se utilizará intencionalmente para la vigilancia doméstica de personas y nacionales de EE. UU."
  • "Para evitar dudas, el Departamento entiende que esta limitación prohíbe el seguimiento, la vigilancia o el monitoreo deliberados de personas o nacionales de EE. UU., incluso a través de la adquisición o el uso de información personal o identificable obtenida comercialmente."

Este enfoque con visión de futuro tiene como objetivo establecer un camino claro para que otros laboratorios de IA de vanguardia colaboren con el Departamento de Guerra, fomentando la cooperación mientras se mantienen inquebrantables estándares éticos.

Los Pilares Éticos Fundamentales de OpenAI: Las Tres Líneas Rojas

OpenAI opera bajo tres "líneas rojas" fundamentales que rigen sus colaboraciones en dominios sensibles como la seguridad nacional. Estos principios, en gran parte compartidos por otras instituciones líderes en investigación de IA, son centrales para el acuerdo con el Departamento de Guerra:

  1. No a la vigilancia doméstica masiva: La tecnología de OpenAI no se utilizará para la vigilancia generalizada de ciudadanos estadounidenses.
  2. No a los sistemas de armas autónomas: La tecnología tiene prohibido dirigir armas autónomas sin control humano.
  3. No a las decisiones automatizadas de alto riesgo: Las herramientas de OpenAI no se emplearán para decisiones automatizadas críticas (por ejemplo, sistemas de "crédito social") que requieran supervisión humana.

OpenAI afirma que su estrategia multicapa proporciona una protección más robusta contra usos inaceptables en comparación con enfoques que dependen principalmente solo de políticas de uso. Este énfasis en salvaguardas técnicas y contractuales estrictas distingue su acuerdo en el panorama evolutivo de la IA de defensa.

Protección Multicapa: Arquitectura, Contrato y Experiencia Humana

La fortaleza del acuerdo de OpenAI con el Departamento de Guerra reside en su enfoque integral y multicapa para la protección. Esto incluye:

  1. Arquitectura de Despliegue: El acuerdo exige un despliegue solo en la nube, asegurando que OpenAI mantenga total discreción sobre su pila de seguridad y evitando el despliegue de modelos "sin salvaguardas". Esta arquitectura restringe inherentemente casos de uso como las armas letales autónomas, que típicamente requieren un despliegue en el borde. Existen mecanismos de verificación independientes, incluidos clasificadores, para asegurar que estas líneas rojas no se crucen.
  2. Lenguaje Contractual Robusto: El contrato detalla explícitamente los usos permitidos, exigiendo la adhesión a "todos los propósitos legales, consistentes con la ley aplicable, los requisitos operativos y los protocolos de seguridad y supervisión bien establecidos". Hace referencia específicamente a leyes de EE. UU. como la Cuarta Enmienda, la Ley de Seguridad Nacional de 1947, la Ley FISA de 1978 y la Directiva 3000.09 del DoD. Fundamentalmente, prohíbe la dirección independiente de armas autónomas y el monitoreo sin restricciones de la información privada de personas estadounidenses.
  3. Participación de Expertos en IA: Ingenieros de OpenAI autorizados e investigadores de seguridad y alineación se desplegarán en el campo y estarán "en el circuito". Esta supervisión humana directa proporciona una capa adicional de garantía, ayudando a mejorar los sistemas con el tiempo y verificando activamente el cumplimiento de los términos estrictos del acuerdo.

Este enfoque integrado asegura que las salvaguardas tecnológicas, legales y humanas trabajen en conjunto para prevenir el mal uso.

Categoría de Línea RojaMedidas de Protección de OpenAI
Vigilancia Doméstica MasivaProhibición contractual explícita, alineación con la Cuarta Enmienda, FISA, Ley de Seguridad Nacional; exclusión de la NSA/agencias de inteligencia del alcance; límites de despliegue solo en la nube en el acceso a datos; verificación del personal de OpenAI 'en el circuito'.
Sistemas de Armas AutónomasDespliegue solo en la nube (sin despliegue en el borde para autonomía letal); prohibición contractual explícita contra la dirección independiente de armas autónomas; adhesión a la Directiva 3000.09 del DoD para verificación/validación; personal de OpenAI 'en el circuito' para supervisión.
Decisiones Automatizadas de Alto RiesgoLenguaje contractual explícito que requiere aprobación humana para decisiones de alto riesgo; OpenAI mantiene control total sobre su pila de seguridad, evitando modelos 'sin salvaguardas'; personal de OpenAI 'en el circuito' para asegurar que se mantenga la supervisión humana donde se involucran decisiones críticas.

Abordando Preocupaciones y Forjando la Futura Colaboración en IA

OpenAI reconoce los riesgos inherentes de la IA avanzada y considera que la colaboración profunda entre el gobierno y los laboratorios de IA es esencial para navegar el futuro. Comprometerse con el Departamento de Guerra permite al ejército de EE. UU. acceder a herramientas de vanguardia mientras se asegura que estas tecnologías se desplieguen de manera responsable.

"Creemos que el ejército de EE. UU. necesita absolutamente modelos de IA robustos para apoyar su misión, especialmente frente a las crecientes amenazas de posibles adversarios que están integrando cada vez más tecnologías de IA en sus sistemas", declaró OpenAI. Este compromiso se equilibra con una negativa inquebrantable a comprometer las salvaguardas técnicas por el rendimiento, enfatizando que un enfoque responsable es primordial.

El acuerdo también tiene como objetivo reducir las tensiones y fomentar una colaboración más amplia dentro de la comunidad de IA. OpenAI ha solicitado que los mismos términos de protección estén disponibles para todas las empresas de IA, esperando facilitar asociaciones responsables similares en toda la industria. Esto es parte de la estrategia más amplia de OpenAI, como lo demuestran su asociación continua con Microsoft y los esfuerzos hacia escalar la IA para todos.

Estableciendo un Nuevo Estándar para el Compromiso de la IA en Defensa

OpenAI cree que su acuerdo establece un estándar más alto para los despliegues de IA clasificada en comparación con acuerdos anteriores, incluidos los discutidos por otros laboratorios como Anthropic. La confianza proviene de las protecciones fundamentales incorporadas: el despliegue solo en la nube que mantiene la integridad de la pila de seguridad de OpenAI, las garantías contractuales explícitas y la participación activa del personal autorizado de OpenAI.

Este marco integral asegura que las líneas rojas especificadas —prevenir la vigilancia doméstica masiva y el control de armas autónomas— se apliquen de manera robusta. El lenguaje contractual que hace referencia explícita a las leyes existentes garantiza que, incluso si las políticas cambian en el futuro, el uso de los sistemas de OpenAI aún debe ajustarse a los estándares originales y más estrictos. Esta postura proactiva subraya el compromiso de OpenAI con el desarrollo y despliegue de potentes tecnologías de IA de una manera que prioriza la seguridad, la ética y los valores democráticos, incluso en los contextos de seguridad nacional más exigentes.

Preguntas Frecuentes

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Mantente Actualizado

Recibe las últimas noticias de IA en tu correo.

Compartir