OpenAI i el Departament de Guerra reforcen la Seguretat de la IA amb Salvaguardes Explícites
San Francisco, CA – 3 de març de 2026 – OpenAI ha anunciat una actualització significativa del seu acord amb el Departament de Guerra (DoW), reforçant estrictes salvaguardes de seguretat al voltant del desplegament de sistemes avançats d'IA en entorns classificats. Aquesta col·laboració històrica subratlla un compromís compartit amb l'ús responsable de la IA, particularment en relació amb aplicacions sensibles de seguretat nacional. L'acord actualitzat, finalitzat el 2 de març de 2026, prohibeix explícitament la vigilància domèstica de persones dels EUA i restringeix l'ús de la IA en sistemes d'armes autònomes, establint un nou referent per a la integració ètica de la intel·ligència artificial en la defensa.
El nucli d'aquest acord millorat rau en fer explícit el que abans s'entenia, garantint que no hi hagi ambigüitat respecte a les limitacions ètiques de la tecnologia d'IA. OpenAI subratlla que aquest marc està dissenyat per proporcionar a l'exèrcit dels EUA eines d'última generació alhora que manté rigorosament els principis de privadesa i seguretat.
Redefinint les Salvaguardes per a Desplegaments d'IA Classificats
En un moviment proactiu per abordar les possibles preocupacions, OpenAI i el Departament de Guerra han incorporat llenguatge addicional al seu acord, aclarint específicament els límits del desplegament de la IA. Aquesta nova clàusula estableix de manera inequívoca que les eines d'OpenAI no s'utilitzaran per a la vigilància domèstica de persones dels EUA, incloent-hi l'adquisició o ús d'informació personal obtinguda comercialment. A més, el DoW ha confirmat que les seves agències d'intel·ligència, com la NSA, estan excloses d'aquest acord i requeririen termes completament nous per a qualsevol prestació de serveis.
El llenguatge actualitzat de l'acord detalla:
- "D'acord amb les lleis aplicables, incloent la Quarta Esmena de la Constitució dels Estats Units, la Llei de Seguretat Nacional de 1947, la Llei FISA de 1978, el sistema d'IA no s'utilitzarà intencionadament per a la vigilància domèstica de persones i ciutadans dels EUA."
- "Per evitar dubtes, el Departament entén que aquesta limitació prohibeix el seguiment, la vigilància o el monitoratge deliberat de persones o ciutadans dels EUA, incloent-hi la compra o l'ús d'informació personal o identificable adquirida comercialment."
Aquest enfocament prospectiu té com a objectiu establir un camí clar perquè altres laboratoris d'IA de frontera col·laborin amb el Departament de Guerra, fomentant la col·laboració alhora que es mantenen estàndards ètics inquebrantables.
Els Pilars Ètics Fonamentals d'OpenAI: Les Tres Línies Vermelles
OpenAI opera sota tres "línies vermelles" fonamentals que regeixen les seves col·laboracions en àmbits sensibles com la seguretat nacional. Aquests principis, àmpliament compartits per altres institucions líders de recerca en IA, són fonamentals per a l'acord amb el Departament de Guerra:
- Sense vigilància domèstica massiva: La tecnologia d'OpenAI no s'utilitzarà per al monitoratge generalitzat de ciutadans dels EUA.
- Sense sistemes d'armes autònomes: La tecnologia té prohibit dirigir armes autònomes sense control humà.
- Sense decisions automatitzades d'alt risc: Les eines d'OpenAI no s'utilitzaran per a decisions automatitzades crítiques (per exemple, sistemes de 'crèdit social') que requereixen supervisió humana.
OpenAI afirma que la seva estratègia multicapa proporciona una protecció més robusta contra usos inacceptables en comparació amb enfocaments que es basen principalment només en polítiques d'ús. Aquest èmfasi en salvaguardes tècniques i contractuals rigoroses distingeix el seu acord en el paisatge evolutiu de la IA de defensa.
Protecció Multicapa: Arquitectura, Contracte i Experiència Humana
La força de l'acord d'OpenAI amb el Departament de Guerra rau en el seu enfocament integral i multicapa de protecció. Això inclou:
- Arquitectura de Desplegament: L'acord exigeix un desplegament només al núvol, assegurant que OpenAI mantingui plena discreció sobre la seva pila de seguretat i prevenint el desplegament de models 'sense salvaguardes'. Aquesta arquitectura restringeix inherentment casos d'ús com les armes letals autònomes, que típicament requereixen un desplegament a la vora. Hi ha mecanismes de verificació independents, inclosos classificadors, per assegurar que aquestes línies vermelles no es superen.
- Llenguatge Contractual Robust: El contracte detalla explícitament els usos permesos, exigint l'adherència a "tots els propòsits legals, coherents amb la llei aplicable, els requisits operatius i els protocols de seguretat i supervisió ben establerts". Fa referència específica a les lleis dels EUA com la Quarta Esmena, la Llei de Seguretat Nacional de 1947, la Llei FISA de 1978 i la Directiva 3000.09 del DoD. De manera crucial, prohibeix la direcció independent d'armes autònomes i la monitorització sense restriccions de la informació privada de les persones dels EUA.
- Implicació d'Experts en IA: Enginyers d'OpenAI autoritzats i investigadors de seguretat i alineament seran desplegats i estaran 'en el bucle'. Aquesta supervisió humana directa proporciona una capa addicional de garantia, ajudant a millorar els sistemes amb el temps i verificant activament el compliment dels termes estrictes de l'acord.
Aquest enfocament integrat garanteix que les salvaguardes tecnològiques, legals i humanes treballin totes en concert per prevenir l'abús.
| Categoria de Línia Vermella | Mesures de Protecció d'OpenAI |
|---|---|
| Vigilància Domèstica Massiva | Prohibició contractual explícita, alineació amb la Quarta Esmena, FISA, Llei de Seguretat Nacional; exclusió de la NSA/agències d'intel·ligència de l'àmbit; límits de desplegament només al núvol a l'accés a dades; verificació del personal d'OpenAI 'en el bucle'. |
| Sistemes d'Armes Autònomes | Desplegament només al núvol (sense desplegament a la vora per a autonomia letal); prohibició contractual explícita contra la direcció independent d'armes autònomes; adherència a la Directiva 3000.09 del DoD per a verificació/validació; personal d'OpenAI 'en el bucle' per a supervisió. |
| Decisions Automatitzades d'Alt Risc | Llenguatge contractual explícit que exigeix l'aprovació humana per a decisions d'alt risc; OpenAI manté el control total sobre la seva pila de seguretat, prevenint models 'sense salvaguardes'; personal d'OpenAI 'en el bucle' per garantir que es mantingui la supervisió humana quan hi ha decisions crítiques involucrades. |
Abordant les Preocupacions i Forjant la Futura Col·laboració en IA
OpenAI reconeix els riscos inherents de la IA avançada i considera que una col·laboració profunda entre el govern i els laboratoris d'IA és essencial per navegar el futur. La col·laboració amb el Departament de Guerra permet a l'exèrcit dels EUA accedir a eines d'avantguarda alhora que garanteix que aquestes tecnologies es despleguen de manera responsable.
"Creiem que l'exèrcit dels EUA necessita absolutament models d'IA potents per donar suport a la seva missió, especialment davant les creixents amenaces de potencials adversaris que estan integrant cada vegada més tecnologies d'IA als seus sistemes," va declarar OpenAI. Aquest compromís s'equilibra amb una negativa inquebrantable a comprometre les salvaguardes tècniques per al rendiment, subratllant que un enfocament responsable és primordial.
L'acord també té com a objectiu desescalar les tensions i fomentar una col·laboració més àmplia dins de la comunitat de la IA. OpenAI ha sol·licitat que els mateixos termes de protecció estiguin disponibles per a totes les empreses d'IA, esperant facilitar associacions responsables similars a tota la indústria. Això forma part de l'estratègia més àmplia d'OpenAI, com ho demostra la seva associació continuada amb Microsoft i els seus esforços per escalar la IA per a tothom.
Establert un Nou Estàndard per a la Col·laboració en IA de Defensa
OpenAI creu que el seu acord estableix un estàndard més alt per als desplegaments d'IA classificats en comparació amb acords anteriors, inclosos els discutits per altres laboratoris com Anthropic. La confiança prové de les proteccions fonamentals incrustades: el desplegament només al núvol que manté la integritat de la pila de seguretat d'OpenAI, les garanties contractuals explícites i la participació activa del personal autoritzat d'OpenAI.
Aquest marc integral assegura que les línies vermelles especificades —prevenir la vigilància domèstica massiva i el control d'armes autònomes— es facin complir de manera robusta. El llenguatge contractual que fa referència explícita a les lleis existents garanteix que, fins i tot si les polítiques canvien en el futur, l'ús dels sistemes d'OpenAI haurà de conformar-se als estàndards originals i més estrictes. Aquesta postura proactiva subratlla el compromís d'OpenAI amb el desenvolupament i desplegament de potents tecnologies d'IA d'una manera que prioritzi la seguretat, l'ètica i els valors democràtics, fins i tot en els contextos de seguretat nacional més exigents.
Preguntes freqüents
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
Manteniu-vos al dia
Rebeu les últimes notícies d'IA al correu.
