英国为何选择 Anthropic:这家人工智能公司对军事应用的立场

Anthropic 英国的扩张计划代表了全球人工智能格局的重大转变,凸显了当政府就企业伦理原则提出质疑时会发生什么。2 月下旬, 美国国防部长皮特·赫格塞斯向人本主义组织首席执行官达里奥·阿莫迪发出严厉的最后通牒:取消防止 Claude 被用于完全自主武器和国内大规模监控的保障措施,否则将面临严重后果。
阿莫迪立场坚定。他 公开声明 人智公司表示,他们“凭良心”无法批准五角大楼的请求,并坚持认为某些人工智能应用“可能会破坏而不是捍卫民主价值观”。 华盛顿的反应迅速而严厉。。
特朗普指示所有联邦机构立即停止使用 Anthropic 的所有技术,五角大楼将该公司列为供应链风险——这一标签通常只保留给华为等敌对外国实体。
这 五角大楼价值2亿美元的合同被终止国防科技公司指示员工停止使用Claude系统,转而使用其他平台。伦敦方面注意到这些事态发展,并从中看到了机会。
🇬🇧 英国的战略提案
英国科学、创新和技术部 (DSIT) 的官员已经制定了全面的提案,以…… 市值3800亿美元的公司, 包括:
- 在伦敦证券交易所进行双重股票上市
- 扩大在首都的办公规模
- 英国增强型运营基础设施
据多位熟悉该计划的消息人士透露, 英国首相基尔·斯塔默的办公室已对这项倡议表示支持。将在阿莫迪五月下旬的预定访问期间呈送给他。
Anthropic目前在英国拥有约200名员工,并于去年任命前首相里希·苏纳克为高级顾问。该公司在英国建立实质性业务的基础已经具备。英国政府现在提供的是…… 明确认可Anthropic在人工智能领域秉持的伦理方法代表着竞争优势并非负债。
如果能在伦敦实现双重上市,Anthropic 将在其国内监管地位仍处于法律审查之际,获得欧洲机构投资者的青睐。五角大楼就法院下令阻止其获得供应链认定的禁令提出的上诉目前正在第九巡回上诉法院审理,结果尚不明朗。
⚖️ 道德作为市场差异化因素
这 持续的争议 这场冲突主要被描述为一场法律和政治对抗。然而,它对全球人工智能治理的影响远不止于此。 人为因素公司的法律团队在法庭文件中辩称,Claude的设计初衷并非用于在无人监管的情况下制造致命的自主武器。也不打算将其用于国内公民监控,此类应用将构成对其技术的滥用。
今年 3 月,美国地区法官丽塔·林 (Rita Lin) 颁布了初步禁令,阻止了黑名单的实施。她形容政府的行为“令人不安”,并得出结论,这些行为可能违反了联邦法律。
这项司法裁决在英国具有重要意义。 英国正战略性地将自身定位为介于华盛顿当前做法之间的监管环境。——要求不受限制的军事准入——以及布鲁塞尔,欧盟人工智能法案在那里施加了不同的限制。
英国政府标榜自己提供了一种 为人工智能公司构建更平衡的监管框架 比美国或欧盟都更甚。重要的是,这项提议并不要求安人智放弃其在法庭上捍卫的道德保障措施。
此次合作与英国发展国内人工智能能力的更广泛举措相一致,其中包括最近宣布的一项计划。 耗资 4000 万英镑的国有研究实验室在官方承认美国本土缺乏能与领先的前沿实验室相匹敌的竞争对手之后。
🏙️ 伦敦的竞争性人工智能格局
英国对安特罗皮克公司的追求是在一个竞争日益激烈的环境中进行的:
- OpenAI已承诺将伦敦打造为其在美国以外最大的研究中心。
- 自2014年收购DeepMind以来,Google在国王十字区一直保持着重要的业务规模。
- 争夺伦敦前沿人工智能运营中心的竞争日益激烈
Anthropic一直是 国际扩张 尽管面临国内法律挑战,包括在悉尼开设办事处(这是其在亚太地区的第四个分支机构),但其全球增长战略仍在继续推进。 伦敦在此次扩张中究竟占多大份额,仍有待确定。。
💡 要点总结: 这家因坚持人工智能伦理政策而被华盛顿列入黑名单的公司,如今正受到另一个七国集团成员国政府的积极拉拢,因为该政府恰恰重视这种做法。五月下旬与阿莫迪的会晤将对安人智公司在欧洲的发展轨迹起到决定性作用。


登录









