Code Velocity
Seguretat de la IA

Acord d'OpenAI amb el Departament de Guerra: Garantint les Salvaguardes de Seguretat de la IA

·7 min de lectura·OpenAI·Font original
Compartir
Acord d'OpenAI i el Departament de Guerra amb salvaguardes de seguretat de la IA

OpenAI i el Departament de Guerra reforcen la Seguretat de la IA amb Salvaguardes Explícites

San Francisco, CA – 3 de març de 2026 – OpenAI ha anunciat una actualització significativa del seu acord amb el Departament de Guerra (DoW), reforçant estrictes salvaguardes de seguretat al voltant del desplegament de sistemes avançats d'IA en entorns classificats. Aquesta col·laboració històrica subratlla un compromís compartit amb l'ús responsable de la IA, particularment en relació amb aplicacions sensibles de seguretat nacional. L'acord actualitzat, finalitzat el 2 de març de 2026, prohibeix explícitament la vigilància domèstica de persones dels EUA i restringeix l'ús de la IA en sistemes d'armes autònomes, establint un nou referent per a la integració ètica de la intel·ligència artificial en la defensa.

El nucli d'aquest acord millorat rau en fer explícit el que abans s'entenia, garantint que no hi hagi ambigüitat respecte a les limitacions ètiques de la tecnologia d'IA. OpenAI subratlla que aquest marc està dissenyat per proporcionar a l'exèrcit dels EUA eines d'última generació alhora que manté rigorosament els principis de privadesa i seguretat.

Redefinint les Salvaguardes per a Desplegaments d'IA Classificats

En un moviment proactiu per abordar les possibles preocupacions, OpenAI i el Departament de Guerra han incorporat llenguatge addicional al seu acord, aclarint específicament els límits del desplegament de la IA. Aquesta nova clàusula estableix de manera inequívoca que les eines d'OpenAI no s'utilitzaran per a la vigilància domèstica de persones dels EUA, incloent-hi l'adquisició o ús d'informació personal obtinguda comercialment. A més, el DoW ha confirmat que les seves agències d'intel·ligència, com la NSA, estan excloses d'aquest acord i requeririen termes completament nous per a qualsevol prestació de serveis.

El llenguatge actualitzat de l'acord detalla:

  • "D'acord amb les lleis aplicables, incloent la Quarta Esmena de la Constitució dels Estats Units, la Llei de Seguretat Nacional de 1947, la Llei FISA de 1978, el sistema d'IA no s'utilitzarà intencionadament per a la vigilància domèstica de persones i ciutadans dels EUA."
  • "Per evitar dubtes, el Departament entén que aquesta limitació prohibeix el seguiment, la vigilància o el monitoratge deliberat de persones o ciutadans dels EUA, incloent-hi la compra o l'ús d'informació personal o identificable adquirida comercialment."

Aquest enfocament prospectiu té com a objectiu establir un camí clar perquè altres laboratoris d'IA de frontera col·laborin amb el Departament de Guerra, fomentant la col·laboració alhora que es mantenen estàndards ètics inquebrantables.

Els Pilars Ètics Fonamentals d'OpenAI: Les Tres Línies Vermelles

OpenAI opera sota tres "línies vermelles" fonamentals que regeixen les seves col·laboracions en àmbits sensibles com la seguretat nacional. Aquests principis, àmpliament compartits per altres institucions líders de recerca en IA, són fonamentals per a l'acord amb el Departament de Guerra:

  1. Sense vigilància domèstica massiva: La tecnologia d'OpenAI no s'utilitzarà per al monitoratge generalitzat de ciutadans dels EUA.
  2. Sense sistemes d'armes autònomes: La tecnologia té prohibit dirigir armes autònomes sense control humà.
  3. Sense decisions automatitzades d'alt risc: Les eines d'OpenAI no s'utilitzaran per a decisions automatitzades crítiques (per exemple, sistemes de 'crèdit social') que requereixen supervisió humana.

OpenAI afirma que la seva estratègia multicapa proporciona una protecció més robusta contra usos inacceptables en comparació amb enfocaments que es basen principalment només en polítiques d'ús. Aquest èmfasi en salvaguardes tècniques i contractuals rigoroses distingeix el seu acord en el paisatge evolutiu de la IA de defensa.

Protecció Multicapa: Arquitectura, Contracte i Experiència Humana

La força de l'acord d'OpenAI amb el Departament de Guerra rau en el seu enfocament integral i multicapa de protecció. Això inclou:

  1. Arquitectura de Desplegament: L'acord exigeix un desplegament només al núvol, assegurant que OpenAI mantingui plena discreció sobre la seva pila de seguretat i prevenint el desplegament de models 'sense salvaguardes'. Aquesta arquitectura restringeix inherentment casos d'ús com les armes letals autònomes, que típicament requereixen un desplegament a la vora. Hi ha mecanismes de verificació independents, inclosos classificadors, per assegurar que aquestes línies vermelles no es superen.
  2. Llenguatge Contractual Robust: El contracte detalla explícitament els usos permesos, exigint l'adherència a "tots els propòsits legals, coherents amb la llei aplicable, els requisits operatius i els protocols de seguretat i supervisió ben establerts". Fa referència específica a les lleis dels EUA com la Quarta Esmena, la Llei de Seguretat Nacional de 1947, la Llei FISA de 1978 i la Directiva 3000.09 del DoD. De manera crucial, prohibeix la direcció independent d'armes autònomes i la monitorització sense restriccions de la informació privada de les persones dels EUA.
  3. Implicació d'Experts en IA: Enginyers d'OpenAI autoritzats i investigadors de seguretat i alineament seran desplegats i estaran 'en el bucle'. Aquesta supervisió humana directa proporciona una capa addicional de garantia, ajudant a millorar els sistemes amb el temps i verificant activament el compliment dels termes estrictes de l'acord.

Aquest enfocament integrat garanteix que les salvaguardes tecnològiques, legals i humanes treballin totes en concert per prevenir l'abús.

Categoria de Línia VermellaMesures de Protecció d'OpenAI
Vigilància Domèstica MassivaProhibició contractual explícita, alineació amb la Quarta Esmena, FISA, Llei de Seguretat Nacional; exclusió de la NSA/agències d'intel·ligència de l'àmbit; límits de desplegament només al núvol a l'accés a dades; verificació del personal d'OpenAI 'en el bucle'.
Sistemes d'Armes AutònomesDesplegament només al núvol (sense desplegament a la vora per a autonomia letal); prohibició contractual explícita contra la direcció independent d'armes autònomes; adherència a la Directiva 3000.09 del DoD per a verificació/validació; personal d'OpenAI 'en el bucle' per a supervisió.
Decisions Automatitzades d'Alt RiscLlenguatge contractual explícit que exigeix l'aprovació humana per a decisions d'alt risc; OpenAI manté el control total sobre la seva pila de seguretat, prevenint models 'sense salvaguardes'; personal d'OpenAI 'en el bucle' per garantir que es mantingui la supervisió humana quan hi ha decisions crítiques involucrades.

Abordant les Preocupacions i Forjant la Futura Col·laboració en IA

OpenAI reconeix els riscos inherents de la IA avançada i considera que una col·laboració profunda entre el govern i els laboratoris d'IA és essencial per navegar el futur. La col·laboració amb el Departament de Guerra permet a l'exèrcit dels EUA accedir a eines d'avantguarda alhora que garanteix que aquestes tecnologies es despleguen de manera responsable.

"Creiem que l'exèrcit dels EUA necessita absolutament models d'IA potents per donar suport a la seva missió, especialment davant les creixents amenaces de potencials adversaris que estan integrant cada vegada més tecnologies d'IA als seus sistemes," va declarar OpenAI. Aquest compromís s'equilibra amb una negativa inquebrantable a comprometre les salvaguardes tècniques per al rendiment, subratllant que un enfocament responsable és primordial.

L'acord també té com a objectiu desescalar les tensions i fomentar una col·laboració més àmplia dins de la comunitat de la IA. OpenAI ha sol·licitat que els mateixos termes de protecció estiguin disponibles per a totes les empreses d'IA, esperant facilitar associacions responsables similars a tota la indústria. Això forma part de l'estratègia més àmplia d'OpenAI, com ho demostra la seva associació continuada amb Microsoft i els seus esforços per escalar la IA per a tothom.

Establert un Nou Estàndard per a la Col·laboració en IA de Defensa

OpenAI creu que el seu acord estableix un estàndard més alt per als desplegaments d'IA classificats en comparació amb acords anteriors, inclosos els discutits per altres laboratoris com Anthropic. La confiança prové de les proteccions fonamentals incrustades: el desplegament només al núvol que manté la integritat de la pila de seguretat d'OpenAI, les garanties contractuals explícites i la participació activa del personal autoritzat d'OpenAI.

Aquest marc integral assegura que les línies vermelles especificades —prevenir la vigilància domèstica massiva i el control d'armes autònomes— es facin complir de manera robusta. El llenguatge contractual que fa referència explícita a les lleis existents garanteix que, fins i tot si les polítiques canvien en el futur, l'ús dels sistemes d'OpenAI haurà de conformar-se als estàndards originals i més estrictes. Aquesta postura proactiva subratlla el compromís d'OpenAI amb el desenvolupament i desplegament de potents tecnologies d'IA d'una manera que prioritzi la seguretat, l'ètica i els valors democràtics, fins i tot en els contextos de seguretat nacional més exigents.

Preguntes freqüents

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Manteniu-vos al dia

Rebeu les últimes notícies d'IA al correu.

Compartir