Anthropic 调整服务区域限制,中国地区用户可能无法使用
Claude AI 的母公司 Anthropic 修改了地区使用规则,中国地区和中国公司将无法使用其服务。
Anthropic 的服务条款禁止在特定区域使用其服务,原因是存在法律、监管和安全风险。然而,来自这些受限区域(包括像中国这样的敌对国)的公司仍在通过各种方式访问我们的服务,例如通过在其他国家注册的子公司。
受中国等权威地区控制的公司面临法律要求,可能被强制共享数据、配合情报机构或采取其他行动,从而产生国家安全风险。无论这些公司在何处运营,也无论个人偏好如何,都难以抵抗这些压力。当这些实体通过子公司访问我们的服务时,可能会利用我们的能力开发最终服务于敌对军事和情报机构以及更广泛权威目标的应用和服务。他们还可能利用模型推进自身的 AI 开发(如蒸馏技术),并与总部位于美国和盟国的可信科技公司进行全球竞争。
为了应对这一现实并更好地履行我们确保变革性 AI 能力促进民主利益的承诺,我们正在加强区域限制。此更新禁止所有权结构使其受不支持区域(如中国)管辖的公司或组织使用服务,无论其运营地点在哪里。这包括直接或间接由总部位于不支持区域的公司持有超过 50% 股权的实体。这一变化确保我们的服务条款反映现实风险,并忠实于政策精神。
出于上述担忧,我们继续倡导强有力的出口管制等政策,以防止权威国家开发威胁国家安全的尖端 AI 能力;加速美国本土能源项目,为 AI 扩展构建大规模基础设施;并 严格评估AI 模型的国家安全相关能力,包括那些可能被美国对手利用的能力。
AI 开发的安全与安保需要集体承诺,防止其被权威对手滥用。负责任的 AI 公司可以也应该采取果断行动,确保变革性技术服务于美国及盟友的战略利益,支持我们的民主价值观。


