Code Velocity
AI 安全

Anthropic 挑战战争部长关于AI的立场,强调权利与安全

·4 分钟阅读·Anthropic·原始来源
分享
Anthropic 关于战争部可能因 AI 伦理问题而对其进行供应链风险认定的官方声明。

Anthropic 坚决反对战争部在 AI 伦理问题上的立场

人工智能领导者 Anthropic 在一次前所未有的举动中公开挑战战争部(DoW),此举在科技和国防领域引起了波澜。争议源于 Anthropic 坚定不移地拒绝允许将其先进的人工智能模型 Claude 用于两个特定应用:对美国人的大规模国内监控,以及部署在完全自主的武器中。这场僵局,由战争部长 Pete Hegseth 于 2026 年 2 月 27 日通过 X 宣布,标志着围绕人工智能伦理、国家安全和企业责任的持续辩论进入了一个关键时刻。

Anthropic 坚持认为,其立场不仅符合伦理,而且对公众信任和安全至关重要,并誓言将通过法律途径对抗任何此类认定。该公司在此事上的透明度凸显了围绕前沿人工智能的军事和监控应用制定明确指导方针和进行有力对话的日益增长的紧迫性。

伦理红线:监控与自主武器

这场争议的核心是 Anthropic 对其人工智能模型在国家安全领域的合法使用提出的两个具体例外。据报道,这些例外已导致与战争部数月的谈判陷入停滞,它们是:

  1. 对美国人的大规模国内监控: Anthropic 认为,将人工智能用于对其本国公民进行大规模监控,严重侵犯了基本权利和民主原则。该公司将隐私视为公民自由的基石,以这种方式部署人工智能将侵蚀这一基础。
  2. 完全自主武器: 该公司坚决主张,包括 Claude 在内的当前前沿人工智能模型,尚未达到足够可靠的程度,无法部署到在没有人为干预下做出攸关生死的决定的系统中。Anthropic 警告称,这种不可靠性可能悲剧性地危及美国作战人员和无辜平民。这一立场与人工智能界日益增长的担忧相符,即先进模型在复杂、高风险环境中的不可预测性。

Anthropic 强调,据其所知,这些狭隘的例外并未阻碍任何现有的政府任务。该公司在支持美国国家安全方面有着悠久的历史,自 2024 年 6 月起已在美国政府的机密网络中部署其模型。他们仍然致力于支持所有不越过这些关键伦理和安全门槛的、用于国家安全的合法人工智能用途。

前所未有的认定:法律战迫在眉睫

Hegseth 部长威胁将 Anthropic 列为供应链风险,这是一项非常不寻常且可能具有破坏性的行动。历史上,根据 《美国法典》第 10 卷第 3252 条 进行的此类认定,通常保留给外国对手或被认为对军事供应链完整性构成直接威胁的实体。将这一标签应用于一家美国公司,尤其是一家曾是政府承包商和创新者的公司,是前所未有的,并开创了一个危险的先例。

Anthropic 的回应毫不含糊:它将在法庭上挑战任何供应链风险认定。该公司认为,这种认定将是“法律上站不住脚的”,并且是企图恐吓与政府进行谈判的公司的行为。这场法律战,如果最终发生,可能会重新定义技术创新者与国家安全机构之间的权力动态,特别是在人工智能的伦理开发和部署方面。其影响不仅限于 Anthropic,还可能影响其他人工智能公司如何参与国防合同以及如何应对伦理困境。

对客户的影响:明确范围

在日益紧张的局势中,Anthropic 已采取行动,向其多元化的客户群澄清潜在供应链风险认定的实际影响。该公司强调,Hegseth 部长暗示的对任何与军方开展业务的人施加的广泛限制,没有法定权力支持。

根据 Anthropic 的说法,根据《美国法典》第 10 卷第 3252 条进行的认定的法律范围,明确限于将 Claude 作为战争部合同的一部分使用。这意味着:

客户群体战争部供应链风险认定(如正式通过)的影响
个人客户完全不受影响。通过 claude.ai 访问 Claude 保持不变。
与 Anthropic 的商业合同完全不受影响。通过 API 或产品使用 Claude 保持不变。
战争部承包商影响在战争部合同工作中使用 Claude。
战争部承包商(用于其他客户/用途)不受影响。允许将 Claude 用于非战争部合同或内部用途。

Anthropic 强调,战争部长不具备法定权力将这些限制扩展到直接的战争部合同之外。这一澄清旨在减轻其庞大的用户和合作伙伴生态系统中的任何不确定性或中断。该公司的销售和支持团队随时待命,以解答任何进一步的问题。

对人工智能治理和行业对话的更广泛影响

Anthropic 与战争部之间的公开对抗,标志着人工智能行业与政府和国家安全关系进入了一个成熟阶段。它强调了制定全面人工智能治理政策的迫切需求,特别是针对军民两用技术。Anthropic 愿意“在法庭上挑战任何供应链风险认定”,这表明了该公司在巨大压力下,仍对伦理原则抱有坚定的企业承诺。

这种情况还突显了人工智能开发者面临的越来越大的压力,要求他们在定义其创造物的伦理界限方面发挥更积极的作用,从技术开发转向积极的政策倡导。该行业正日益努力解决围绕部署像 Claude 这样强大模型所带来的复杂伦理问题。公司正在积极研究 破坏恶意人工智能使用 的方法,并确保其技术用于有益目的。

这场对峙的结果可能显著影响其他前沿人工智能公司如何与全球国防机构互动。它可能促使技术专家、伦理学家、政策制定者和军事领导人之间进行更稳健和透明的对话,以建立负责任人工智能创新的共同基础,在不损害基本价值观或安全的前提下服务国家利益。Anthropic 即使在这些“特殊事件”下也决心保护其客户并努力实现平稳过渡,这反映了其对伦理诚信和实际连续性的奉献。

常见问题

Anthropic 和战争部的核心争议是什么?
根本分歧源于 Anthropic 拒绝允许将其先进的 AI 模型 Claude 用于两个特定目的:对美国公民进行大规模国内监控,以及部署在完全自主的武器系统中。这两个例外导致谈判陷入僵局,促使战争部长 Pete Hegseth 考虑将 Anthropic 列为供应链风险。Anthropic 坚持其立场是基于关于基本权利的核心道德原则,以及当前前沿 AI 可靠性的局限性。
Anthropic 在 AI 使用方面有哪些两个具体的伦理例外?
Anthropic 一直明确提出其 AI 模型(包括 Claude)合法使用的两个关键例外。第一个例外禁止将他们的 AI 用于对美国公民进行大规模国内监控,理由是这侵犯了基本权利。第二个例外阻止将他们的 AI 用于完全自主武器,他们认为当前的前沿 AI 模型缺乏必要的可靠性和安全保证,无法在没有人类监督的情况下部署到这种关键的、生死攸关的场景中。这些例外构成了他们与战争部当前争议的基石。
Anthropic 为何反对 AI 的这些特定用途?
Anthropic 的反对源于伦理和实际考量。关于完全自主武器,该公司认为当今的前沿 AI 模型不足以可靠地确保作战人员和平民的安全。在这种关键应用中,不可预测性和潜在错误可能导致灾难性后果。对于大规模国内监控,Anthropic 认为这直接侵犯了基本权利,不符合民主原则和美国公民的隐私期望。他们的立场强调了对尊重人类价值观和安全的负责任 AI 开发的承诺。
'供应链风险认定' 是什么?它可能意味着什么?
根据《美国法典》第 10 卷第 3252 条,'供应链风险认定' 通常保留给对国家安全或军事供应链完整性构成威胁的实体,通常与外国对手相关。如果正式对 Anthropic 采用,它将在法律上限制 Claude 在战争部合同内的使用。虽然战争部长 Hegseth 暗示对与军方开展业务的公司施加更广泛的限制,但 Anthropic 认为法定权力将其范围限制在直接的战争部参与,而非商业合同或其他政府工作。对于一家美国公司而言,这种认定在历史上是前所未有的。
这项认定将如何影响 Anthropic 的客户?
Anthropic 澄清,如果这项认定正式通过,其影响将是有限的。对于个人客户和持有商业合同的客户,通过 API、claude.ai 或其他产品访问 Claude 将完全不受影响。对于战争部的承包商,这项认定仅适用于他们在战争部合同工作中使用 Claude。他们将 Claude 用于任何其他目的或与任何其他客户的合作将不受限制。Anthropic 强调,战争部长缺乏法定权力对超出直接军事合同范围的事务施加更广泛的限制。
Anthropic 对这项潜在认定将采取什么下一步行动?
Anthropic 已公开声明,其坚定意图将在法庭上挑战任何正式的供应链风险认定。该公司认为,这种认定将是'法律上站不住脚的',并为任何与政府进行谈判的美国公司开创一个'危险的先例'。这项法律挑战强调了他们对其伦理原则的坚定承诺,以及保护其运营和客户关系免受他们认为的权力越界的决心。
这种情况为 AI 行业树立了怎样的更广泛先例?
这种情况为整个 AI 行业树立了一个重要先例,尤其是在国家安全背景下 AI 开发和部署的伦理界限方面。它突显了技术能力、伦理责任和政府需求之间日益增长的紧张关系。Anthropic 这种不屈不挠的立场可能会鼓励其他 AI 公司划定自己在允许使用方面的红线,从而可能塑造未来关于 AI 伦理、人权和自主系统开发方面的法规和行业规范。这提升了关于 AI 对社会影响的最终责任归属的辩论。

保持更新

将最新AI新闻发送到您的收件箱。

分享