Claude AI 母公司调整地区使用规则
Claude AI 的母公司 Anthropic 修改了地区使用的规则;中国地区和中国公司将无法使用其服务。
Anthropic 的服务条款禁止在特定区域使用我们的服务,这是由于法律、监管和安全风险所致。然而,来自这些受限区域的公司——包括像中国这样的敌对国家——继续通过各种方式访问我们的服务,例如通过在其他国家注册的子公司。
受中国等威权地区控制的公司面临法律要求,可能被强制共享数据、配合情报机构或采取其他行动,从而产生国家安全风险。无论这些公司在何处运营,也无论公司内部人员的个人偏好如何,都很难抵制这些压力。当这些实体通过子公司访问我们的服务时,他们可能利用我们的能力开发最终服务于敌对军事和情报机构以及更广泛的威权目标的应用和服务。他们还可能利用我们的模型通过蒸馏等技术推进自身的 AI 发展,并与总部位于美国及盟国的可信科技公司进行全球竞争。
为了应对这一现实并更好地确保变革性人工智能能力促进民主利益,我们正在加强地区限制。此次更新禁止那些所有权结构使其受制于不允许我们产品销售的司法管辖区(如中国)的公司或组织,无论其运营地点在哪里。这包括直接或者间接持有超过 50% 股权的实体。此变更确保我们的服务条款反映现实风险,并符合政策精神。
出于同样的担忧,我们继续倡导诸如强有力的出口管制等政策,以防止威权国家开发可能威胁国家安全的尖端人工智能能力;加速美国本土的能源项目,以建立用于 AI 扩展的大规模基础设施;并 严格评估 人工智能模型的国家安全相关能力,包括那些可能被美国对手利用的能力。
人工智能发展的安全性和安全性需要集体承诺,防止其被威权对手滥用。负责任的人工智能公司可以也应该采取果断行动,确保变革性技术服务于美国及盟友的战略利益,并支持我们的民主价值观。


