Anthropic es manté ferm davant el Departament de Guerra per l'Ètica de la IA
En un moviment sense precedents que ha provocat onades als sectors tecnològic i de defensa, el líder en IA Anthropic ha desafiat públicament el Departament de Guerra (DdG) per una possible designació de "risc a la cadena de subministrament". El conflicte sorgeix de la negativa inquebrantable d'Anthropic a permetre l'ús del seu model avançat d'IA, Claude, per a dues aplicacions específiques: la vigilància domèstica massiva de nord-americans i el desplegament en armes totalment autònomes. Aquest enfrontament, que el Secretari de Guerra Pete Hegseth va anunciar a través de X el 27 de febrer de 2026, marca un punt d'inflexió crític en el debat en curs sobre l'ètica de la IA, la seguretat nacional i la responsabilitat corporativa.
Anthropic sosté que la seva posició no només és ètica, sinó també vital per a la confiança i la seguretat públiques, i es compromet a impugnar legalment qualsevol designació d'aquest tipus. La transparència de la companyia en aquesta qüestió posa de manifest la creixent urgència de directrius clares i un diàleg robust al voltant de les aplicacions militars i de vigilància de la IA de frontera.
La Línia Vermella Ètica: Vigilància i Armes Autònomes
Al centre de la disputa hi ha les dues excepcions específiques d'Anthropic a l'ús lícit dels seus models d'IA per a la seguretat nacional. Aquestes excepcions, que segons es diu han paralitzat mesos de negociacions amb el Departament de Guerra, són:
- Vigilància Domèstica Massiva de Nord-americans: Anthropic creu que l'ús de la IA per a la vigilància generalitzada dels seus propis ciutadans constitueix una violació greu dels drets fonamentals i dels principis democràtics. La companyia considera la privadesa com una pedra angular de les llibertats civils, i el desplegament de la IA d'aquesta manera erosionaria aquesta base.
- Armes Totalment Autònomes: La companyia afirma fermament que els models actuals d'IA de frontera, inclòs Claude, encara no són prou fiables per al seu desplegament en sistemes que prenen decisions de vida o mort sense intervenció humana. Aquesta poca fiabilitat, adverteix Anthropic, podria posar en perill tràgicament tant els combatents nord-americans com els civils innocents. Aquesta postura s'alinea amb les creixents preocupacions de la comunitat de la IA sobre la naturalesa imprevisible dels models avançats en entorns complexos i d'alt risc.
Anthropic subratlla que aquestes excepcions tan concretes, segons el seu coneixement, no han obstaculitzat cap missió governamental existent. La companyia té un historial demostrat de suport als esforços de seguretat nacional nord-americans, havent desplegat els seus models en xarxes governamentals classificades dels EUA des de juny de 2024. El seu compromís continua sent donar suport a tots els usos lícits de la IA per a la seguretat nacional que no superin aquests llindars ètics i de seguretat crítics.
Una Designació Sense Precedents: La Batalla Legal S'Aproxima
L'amenaça del Secretari Hegseth de designar Anthropic com un risc a la cadena de subministrament és una acció molt inusual i potencialment disruptiva. Històricament, aquestes designacions sota 10 USC 3252 s'han reservat per a adversaris estrangers o entitats considerades una amenaça directa a la integritat de les cadenes de subministrament militars. Aplicar aquesta etiqueta a una empresa nord-americana, especialment una que ha estat contractista del govern i innovadora, no té precedents i estableix un precedent perillós.
Anthropic afirma de manera inequívoca en la seva resposta que impugnarà qualsevol designació de risc a la cadena de subministrament als tribunals. La companyia argumenta que una designació d'aquest tipus seria "jurídicament infundada" i un intent d'intimidar les empreses que negocien amb el govern. Aquesta batalla legal, si es materialitza, podria redefinir la dinàmica de poder entre els innovadors tecnològics i els aparells de seguretat nacional, especialment pel que fa al desenvolupament i desplegament ètic de la IA. Les implicacions s'estenen més enllà de només Anthropic, afectant potencialment la manera com altres empreses d'IA s'impliquen en contractes de defensa i naveguen per dilemes ètics.
Comprenent l'Impacte en els Clients
Enmig de l'escalada de tensions, Anthropic s'ha mogut per tranquil·litzar la seva diversa base de clients sobre les implicacions pràctiques d'una possible designació de risc a la cadena de subministrament. La companyia destaca que les àmplies restriccions implicades per les declaracions del Secretari Hegseth sobre qualsevol persona que faci negocis amb l'exèrcit no estan recolzades per l'autoritat legal.
Segons Anthropic, l'abast legal d'una designació de 10 USC 3252 es limita específicament a l'ús de Claude com a part dels contractes del Departament de Guerra. Això significa:
| Segment de Client | Impacte de la Designació de Risc a la Cadena de Subministrament del DdG (si s'adopta formalment) |
|---|---|
| Clients Individuals | Completament inalterat. L'accés a Claude a través de claude.ai es manté. |
| Contractes Comercials amb Anthropic | Completament inalterats. L'ús de Claude a través de l'API o productes es manté. |
| Contractistes del Departament de Guerra | Només afecta l'ús de Claude en el treball contractual del Departament de Guerra. |
| Contractistes del DdG (per a altres clients/usos) | Inalterat. L'ús de Claude per a contractes no relacionats amb el DdG o per a ús intern està permès. |
Anthropic subratlla que el Secretari de Guerra no posseeix l'autoritat legal per estendre aquestes restriccions més enllà dels contractes directes del DdG. Aquesta aclaració pretén mitigar qualsevol incertesa o interrupció per al seu vast ecosistema d'usuaris i socis. Els equips de vendes i suport de la companyia estan a l'espera per resoldre qualsevol pregunta addicional.
Implicacions Més Àmplies per a la Governança de la IA i el Diàleg Industrial
La confrontació pública entre Anthropic i el Departament de Guerra assenyala una fase de maduració en la relació de la indústria de la IA amb el govern i la seguretat nacional. Subratlla la necessitat crítica de polítiques integrals sobre la governança de la IA, particularment pel que fa a les tecnologies de doble ús. La voluntat d'Anthropic de "impugnar qualsevol designació de risc a la cadena de subministrament als tribunals" demostra un fort compromís corporatiu amb els principis ètics, fins i tot davant una pressió significativa.
Aquesta situació també destaca la creixent pressió sobre els desenvolupadors d'IA per assumir un paper més actiu en la definició dels límits ètics de les seves creacions, anant més enllà del desenvolupament tècnic per a una defensa proactiva de polítiques. La indústria s'enfronta cada vegada més a les complexes qüestions ètiques que envolten el desplegament de models potents com Claude. Les empreses treballen activament en mètodes per interrompre usos maliciosos de la IA i garantir que les seves tecnologies s'utilitzin amb finalitats beneficioses.
El resultat d'aquest enfrontament podria influir significativament en com altres empreses d'IA de frontera interactuen amb les agències de defensa a nivell mundial. Podria fomentar un diàleg més robust i transparent entre tecnòlegs, ètics, responsables polítics i líders militars per establir una base comuna per a la innovació responsable de la IA que serveixi els interessos nacionals sense comprometre els valors fonamentals o la seguretat. La resolució d'Anthropic per protegir els seus clients i treballar per a una transició fluida, fins i tot sota aquests "esdeveniments extraordinaris", reflecteix una dedicació tant a la integritat ètica com a la continuïtat pràctica.
Preguntes freqüents
Quina és la disputa central entre Anthropic i el Departament de Guerra?
Quines són les dues excepcions ètiques específiques d'Anthropic per a l'ús de la IA?
Per què Anthropic s'oposa a aquests usos específics de la IA?
Què és una 'designació de risc a la cadena de subministrament' i quines són les seves possibles implicacions?
Com afectaria aquesta designació els clients d'Anthropic?
Quin és el següent pas d'Anthropic en resposta a aquesta possible designació?
Quin precedent més ampli estableix aquesta situació per a la indústria de la IA?
Manteniu-vos al dia
Rebeu les últimes notícies d'IA al correu.
