Code Velocity
Seguretat de la IA

Anthropic Desafia el Secretari de Guerra sobre la IA, Cita Drets i Seguretat

·4 min de lectura·Anthropic·Font original
Compartir
Declaració oficial d'Anthropic sobre la potencial designació de risc a la cadena de subministrament del Departament de Guerra per qüestions d'ètica de la IA.

Anthropic es manté ferm davant el Departament de Guerra per l'Ètica de la IA

En un moviment sense precedents que ha provocat onades als sectors tecnològic i de defensa, el líder en IA Anthropic ha desafiat públicament el Departament de Guerra (DdG) per una possible designació de "risc a la cadena de subministrament". El conflicte sorgeix de la negativa inquebrantable d'Anthropic a permetre l'ús del seu model avançat d'IA, Claude, per a dues aplicacions específiques: la vigilància domèstica massiva de nord-americans i el desplegament en armes totalment autònomes. Aquest enfrontament, que el Secretari de Guerra Pete Hegseth va anunciar a través de X el 27 de febrer de 2026, marca un punt d'inflexió crític en el debat en curs sobre l'ètica de la IA, la seguretat nacional i la responsabilitat corporativa.

Anthropic sosté que la seva posició no només és ètica, sinó també vital per a la confiança i la seguretat públiques, i es compromet a impugnar legalment qualsevol designació d'aquest tipus. La transparència de la companyia en aquesta qüestió posa de manifest la creixent urgència de directrius clares i un diàleg robust al voltant de les aplicacions militars i de vigilància de la IA de frontera.

La Línia Vermella Ètica: Vigilància i Armes Autònomes

Al centre de la disputa hi ha les dues excepcions específiques d'Anthropic a l'ús lícit dels seus models d'IA per a la seguretat nacional. Aquestes excepcions, que segons es diu han paralitzat mesos de negociacions amb el Departament de Guerra, són:

  1. Vigilància Domèstica Massiva de Nord-americans: Anthropic creu que l'ús de la IA per a la vigilància generalitzada dels seus propis ciutadans constitueix una violació greu dels drets fonamentals i dels principis democràtics. La companyia considera la privadesa com una pedra angular de les llibertats civils, i el desplegament de la IA d'aquesta manera erosionaria aquesta base.
  2. Armes Totalment Autònomes: La companyia afirma fermament que els models actuals d'IA de frontera, inclòs Claude, encara no són prou fiables per al seu desplegament en sistemes que prenen decisions de vida o mort sense intervenció humana. Aquesta poca fiabilitat, adverteix Anthropic, podria posar en perill tràgicament tant els combatents nord-americans com els civils innocents. Aquesta postura s'alinea amb les creixents preocupacions de la comunitat de la IA sobre la naturalesa imprevisible dels models avançats en entorns complexos i d'alt risc.

Anthropic subratlla que aquestes excepcions tan concretes, segons el seu coneixement, no han obstaculitzat cap missió governamental existent. La companyia té un historial demostrat de suport als esforços de seguretat nacional nord-americans, havent desplegat els seus models en xarxes governamentals classificades dels EUA des de juny de 2024. El seu compromís continua sent donar suport a tots els usos lícits de la IA per a la seguretat nacional que no superin aquests llindars ètics i de seguretat crítics.

L'amenaça del Secretari Hegseth de designar Anthropic com un risc a la cadena de subministrament és una acció molt inusual i potencialment disruptiva. Històricament, aquestes designacions sota 10 USC 3252 s'han reservat per a adversaris estrangers o entitats considerades una amenaça directa a la integritat de les cadenes de subministrament militars. Aplicar aquesta etiqueta a una empresa nord-americana, especialment una que ha estat contractista del govern i innovadora, no té precedents i estableix un precedent perillós.

Anthropic afirma de manera inequívoca en la seva resposta que impugnarà qualsevol designació de risc a la cadena de subministrament als tribunals. La companyia argumenta que una designació d'aquest tipus seria "jurídicament infundada" i un intent d'intimidar les empreses que negocien amb el govern. Aquesta batalla legal, si es materialitza, podria redefinir la dinàmica de poder entre els innovadors tecnològics i els aparells de seguretat nacional, especialment pel que fa al desenvolupament i desplegament ètic de la IA. Les implicacions s'estenen més enllà de només Anthropic, afectant potencialment la manera com altres empreses d'IA s'impliquen en contractes de defensa i naveguen per dilemes ètics.

Comprenent l'Impacte en els Clients

Enmig de l'escalada de tensions, Anthropic s'ha mogut per tranquil·litzar la seva diversa base de clients sobre les implicacions pràctiques d'una possible designació de risc a la cadena de subministrament. La companyia destaca que les àmplies restriccions implicades per les declaracions del Secretari Hegseth sobre qualsevol persona que faci negocis amb l'exèrcit no estan recolzades per l'autoritat legal.

Segons Anthropic, l'abast legal d'una designació de 10 USC 3252 es limita específicament a l'ús de Claude com a part dels contractes del Departament de Guerra. Això significa:

Segment de ClientImpacte de la Designació de Risc a la Cadena de Subministrament del DdG (si s'adopta formalment)
Clients IndividualsCompletament inalterat. L'accés a Claude a través de claude.ai es manté.
Contractes Comercials amb AnthropicCompletament inalterats. L'ús de Claude a través de l'API o productes es manté.
Contractistes del Departament de GuerraNomés afecta l'ús de Claude en el treball contractual del Departament de Guerra.
Contractistes del DdG (per a altres clients/usos)Inalterat. L'ús de Claude per a contractes no relacionats amb el DdG o per a ús intern està permès.

Anthropic subratlla que el Secretari de Guerra no posseeix l'autoritat legal per estendre aquestes restriccions més enllà dels contractes directes del DdG. Aquesta aclaració pretén mitigar qualsevol incertesa o interrupció per al seu vast ecosistema d'usuaris i socis. Els equips de vendes i suport de la companyia estan a l'espera per resoldre qualsevol pregunta addicional.

Implicacions Més Àmplies per a la Governança de la IA i el Diàleg Industrial

La confrontació pública entre Anthropic i el Departament de Guerra assenyala una fase de maduració en la relació de la indústria de la IA amb el govern i la seguretat nacional. Subratlla la necessitat crítica de polítiques integrals sobre la governança de la IA, particularment pel que fa a les tecnologies de doble ús. La voluntat d'Anthropic de "impugnar qualsevol designació de risc a la cadena de subministrament als tribunals" demostra un fort compromís corporatiu amb els principis ètics, fins i tot davant una pressió significativa.

Aquesta situació també destaca la creixent pressió sobre els desenvolupadors d'IA per assumir un paper més actiu en la definició dels límits ètics de les seves creacions, anant més enllà del desenvolupament tècnic per a una defensa proactiva de polítiques. La indústria s'enfronta cada vegada més a les complexes qüestions ètiques que envolten el desplegament de models potents com Claude. Les empreses treballen activament en mètodes per interrompre usos maliciosos de la IA i garantir que les seves tecnologies s'utilitzin amb finalitats beneficioses.

El resultat d'aquest enfrontament podria influir significativament en com altres empreses d'IA de frontera interactuen amb les agències de defensa a nivell mundial. Podria fomentar un diàleg més robust i transparent entre tecnòlegs, ètics, responsables polítics i líders militars per establir una base comuna per a la innovació responsable de la IA que serveixi els interessos nacionals sense comprometre els valors fonamentals o la seguretat. La resolució d'Anthropic per protegir els seus clients i treballar per a una transició fluida, fins i tot sota aquests "esdeveniments extraordinaris", reflecteix una dedicació tant a la integritat ètica com a la continuïtat pràctica.

Preguntes freqüents

Quina és la disputa central entre Anthropic i el Departament de Guerra?
El desacord fonamental prové de la negativa d'Anthropic a permetre l'ús del seu model avançat d'IA, Claude, per a dos propòsits específics: la vigilància domèstica massiva de ciutadans nord-americans i el seu desplegament en sistemes d'armes totalment autònomes. Aquestes dues excepcions han portat a un impàs en les negociacions, impulsant el Secretari de Guerra Pete Hegseth a considerar la designació d'Anthropic com un risc a la cadena de subministrament. Anthropic sosté que la seva posició es basa en principis ètics fonamentals relatius als drets bàsics i a les limitacions actuals de la fiabilitat de la IA de frontera.
Quines són les dues excepcions ètiques específiques d'Anthropic per a l'ús de la IA?
Anthropic ha articulat de manera coherent dues excepcions crucials per a l'ús lícit dels seus models d'IA, inclòs Claude. La primera excepció prohibeix l'ús de la seva IA per a la vigilància domèstica massiva de ciutadans nord-americans, citant violacions de drets fonamentals. La segona excepció impedeix l'ús de la seva IA en armes totalment autònomes, argumentant que els models actuals d'IA de frontera no tenen la fiabilitat i les garanties de seguretat necessàries per ser desplegats en escenaris tan crítics, de vida o mort, sense supervisió humana. Aquestes excepcions constitueixen la base de la seva disputa actual amb el Departament de Guerra.
Per què Anthropic s'oposa a aquests usos específics de la IA?
Les objeccions d'Anthropic tenen les seves arrels tant en preocupacions ètiques com pràctiques. Pel que fa a les armes totalment autònomes, la companyia creu que els models actuals d'IA de frontera no són prou fiables per garantir la seguretat tant dels combatents com dels civils. La imprevisibilitat i el potencial d'error en aplicacions tan crítiques podrien portar a resultats catastròfics. Per a la vigilància domèstica massiva, Anthropic ho considera una violació directa dels drets fonamentals, inconsistent amb els principis democràtics i les expectatives de privadesa dels ciutadans nord-americans. La seva postura subratlla un compromís amb un desenvolupament responsable de la IA que respecti els valors humans i la seguretat.
Què és una 'designació de risc a la cadena de subministrament' i quines són les seves possibles implicacions?
Una 'designació de risc a la cadena de subministrament' sota 10 USC 3252 és una mesura típicament reservada per a entitats que representen una amenaça per a la seguretat nacional o la integritat de les cadenes de subministrament militars, sovint associada amb adversaris estrangers. Si s'adoptés formalment contra Anthropic, restringiria legalment l'ús de Claude específicament dins dels contractes del Departament de Guerra. Tot i que el Secretari Hegseth va insinuar restriccions més àmplies sobre les empreses que fan negocis amb l'exèrcit, Anthropic argumenta que l'autoritat estatutària limita el seu abast a les implicacions directes del Departament de Guerra, no als contractes comercials o altres treballs governamentals. Aquesta designació no té precedents històrics per a una empresa nord-americana.
Com afectaria aquesta designació els clients d'Anthropic?
Anthropic aclareix que la designació, si s'adoptés formalment, tindria un impacte limitat. Per als clients individuals i aquells amb contractes comercials, l'accés a Claude mitjançant API, claude.ai o altres productes romandria completament inalterat. Per als contractistes del Departament de Guerra, la designació només s'aplicaria al seu ús de Claude en el treball contractual del Departament de Guerra. El seu ús de Claude per a qualsevol altre propòsit o amb altres clients romandria sense restriccions. Anthropic subratlla que el Secretari de Guerra no té l'autoritat legal per imposar restriccions més àmplies més enllà dels contractes militars directes.
Quin és el següent pas d'Anthropic en resposta a aquesta possible designació?
Anthropic ha declarat públicament la seva ferma intenció de impugnar qualsevol designació formal de risc a la cadena de subministrament als tribunals. La companyia creu que una designació d'aquest tipus seria 'jurídicament infundada' i establiria un 'precedent perillós' per a qualsevol empresa nord-americana implicada en negociacions amb el govern. Aquest desafiament legal subratlla el seu compromís inquebrantable amb els seus principis ètics i la seva determinació de protegir les seves operacions i relacions amb els clients del que perceben com un abús d'autoritat.
Quin precedent més ampli estableix aquesta situació per a la indústria de la IA?
Aquesta situació estableix un precedent significatiu per a tota la indústria de la IA, particularment pel que fa als límits ètics del desenvolupament i desplegament de la IA en contextos de seguretat nacional. Destaca la creixent tensió entre les capacitats tecnològiques, la responsabilitat ètica i les demandes governamentals. La postura desafiant d'Anthropic podria encoratjar altres empreses d'IA a traçar les seves pròpies línies vermelles sobre usos permesos, potencialment configurant futures regulacions i normes industrials al voltant de l'ètica de la IA, els drets humans i el desenvolupament de sistemes autònoms. Eleva el debat sobre on recau la responsabilitat final de l'impacte social de la IA.

Manteniu-vos al dia

Rebeu les últimes notícies d'IA al correu.

Compartir