警惕AI军事化应用带来风险 美初创企业被列风险名单

美国国防部首席技术官埃米尔·迈克尔表示,初创AI企业Anthropic公司上周被列入“国家安全供应链风险”实体名单,原因是该公司的“克劳德”人工智能模型可能对美国国防部的供应链造成“污染”,其不同的政策偏好可能导致美军作战人员陷入危险。

警惕AI军事化应用带来风险

这一认定源于Anthropic公司与美国国防部就人工智能模型“克劳德”的使用范围产生分歧。五角大楼认为,军方必须能够在所有合法用途中使用相关技术,而不接受供应商对关键能力设置限制。此前,Anthropic公司证实已被美国政府正式列入“国家安全供应链风险”实体名单,并表示将对该决定提起法律诉讼。

Anthropic公司在两家法院针对美国国防部等部门提起诉讼,指控五角大楼将其列为“供应链风险”的决定违法,侵犯其言论自由等宪法权利。该公司称,五角大楼此举史无前例,是利用巨大权力对其进行惩罚。主要矛盾在于Anthropic希望对国防部使用其AI技术作出限制,反对用于由AI控制的全自主武器系统和大规模国内监控;而国防部则坚称有权合法使用人工智能技术。

值得注意的是,Anthropic是首个被公开列入该名单的美国企业,此前此类认定通常针对外国实体。根据这一认定,未来美国防部供应商和承包商需证明在与五角大楼合作时不会使用该公司的模型。在美国对委内瑞拉及伊朗的军事行动中,美国中央司令部曾使用“克劳德”进行关键作战场景支持。

北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括在接受媒体采访时表示,美国政府动用国家权力将这些AI工具工具化,揭开了所谓“技术中立”的遮羞布。这一案件折射出AI军事化应用中存在失控的风险。美国政府的做法超越了法律和国际规则的边界,运用国家权力突破制度性约束,这可能导致全球AI军备竞赛进一步加剧。

返回顶部