人类人工智能模型在发现数千个安全漏洞后仍保持私密状态

Anthropic 最强大的 AI 模型已经发现 数千个人工智能网络安全漏洞 在所有主流操作系统和网络浏览器上都存在这个问题。该公司的回应并非公开泄露,而是悄悄地将其移交给负责维护互联网运行的机构。
该模型是 Claude·米索斯预览这项倡议被称为 玻璃翼计划。
此次启动的合作伙伴包括 亚马逊网络服务、苹果、博通、思科、CrowdStrike、Google、摩根大通、Linux基金会、微软、英伟达和Palo Alto Networks。
除了核心群体之外,Anthropic 还扩大了其服务范围,覆盖了超过 另有40个组织 负责构建或维护关键软件基础设施。Anthropic 承诺最多可 1亿美元的使用额度 在整个 Mythos Preview 项目中,以及 直接捐款400万美元 致开源安全组织。
🔍 超越自身基准的典范
Mythos Preview 并非专门针对网络安全工作进行训练的。Anthropic 公司表示,这些能力“是代码、推理和自主性方面整体改进的自然结果”,而且,正是这些改进使得模型在修复漏洞方面更加出色,同时也使其在利用漏洞方面更加得心应手。
最后一点很重要。《神话预览》有 改进 以至于它几乎完全涵盖了现有的安全基准,迫使 Anthropic 将重点转移到新的现实世界任务上——具体来说, 零日漏洞这些缺陷此前是软件开发人员所不知道的。
研究结果之一是: OpenBSD 中一个存在了 27 年的漏洞一个以其强大的安全性而闻名的操作系统。在另一个案例中,该模型完全自主地识别并利用了…… FreeBSD 中存在一个 17 年前的远程代码执行漏洞–CVE-2026-4747——这使得互联网上任何未经身份验证的用户都能完全控制运行NFS的服务器。在最初发现漏洞的提示之后,没有人为因素参与了漏洞的发现和利用。
来自 Anthropic 研究团队的 Nicholas Carlini 描述了该模型将各种脆弱性联系起来的能力: “这种模型可以利用三到四个,有时甚至五个漏洞,按顺序利用这些漏洞,最终导致非常复杂的攻击结果。过去几周我发现的漏洞比我之前所有经历加起来都多。”
🚫 为什么迟迟不发布?
“由于其网络安全问题,我们不打算将 Claude Mythos Preview 公开发布。” Anthropic公司前沿红队网络安全负责人Newton Cheng表示。
“鉴于人工智能的发展速度,此类能力很快就会扩散,甚至可能超出那些致力于安全部署这些能力的机构的掌控。这将对经济、公共安全和国家安全造成严重后果。”
这并非假设。此前,Anthropic公司曾披露过其所描述的…… 首例有记录的、主要由人工智能执行的网络攻击案例——一个中国政府支持的组织,利用人工智能代理自主渗透了大约 30个全球目标其中,人工智能将独立处理大部分战术行动。
该公司还私下向美国政府高级官员介绍了Mythos Preview的全部功能。情报界现在 积极 权衡该模型将如何重塑进攻性和防御性黑客行动。
💻 开源问题
“玻璃翼计划”除了头条新闻所报道的联盟之外,还有一个更深层次的意义: 开源软件Linux 基金会首席执行官吉姆·泽姆林直言不讳地指出: “过去,安全专业知识一直是拥有庞大安全团队的组织的专属奢侈品。开源软件维护者,他们的软件支撑着世界上许多关键基础设施,但历史上他们只能自己解决安全问题。”
人格 捐赠 通过 Linux 基金会向 Alpha-Omega 和 OpenSSF 提供 250 万美元,向 Apache 软件基金会提供 150 万美元——使关键开源代码库的维护者能够以以前无法企及的规模获得 AI 网络安全漏洞扫描。
🔮接下来会发生什么
人为因素表示,其最终目标是部署 大规模的神话级模型但前提是必须采取新的保障措施。该公司计划在即将推出的财报中公布新的保障措施。 Claude·奥普斯模型 首先,允许它使用与 Mythos Preview 风险级别不同的模型来完善它们。
围绕它的竞争格局已经开始发生变化。当 OpenAI 发布 GPT-5.3-Codex 今年2月,该公司称其为首款根据其“网络安全准备框架”归类为高能力网络安全任务的机型。Anthropic公司与Glasswing的合作表明,前沿实验室也看到了这一点。 受控部署——而非公开发布——作为该能力级别车型的新兴标准。
随着这些能力的进一步普及,这一标准是否仍然适用,目前仍是一个悬而未决的问题,没有任何一项单一举措能够回答这个问题。


登录









