xiand.ai
2026年4月24日 · 更新于 UTC 20:20
网络安全

未经授权的 Discord 群组获取 Anthropic 高风险 Mythos AI 模型访问权限

一群用户绕过安全防御,成功获取了 Anthropic Mythos 模型的访问权限。该模型具备识别主流操作系统及网络浏览器漏洞的能力。

Ryan Torres

1 分钟阅读

未经授权的 Discord 群组获取 Anthropic 高风险 Mythos AI 模型访问权限
Digital representation of a cybersecurity breach

据 theverge.com 报道,Discord 上的一群未经授权的用户已获取了 Anthropic 旗下 Mythos AI 模型的访问权限。Anthropic 此前曾警告称,这款强大的网络安全工具如果被滥用,可能会带来极大的风险。

Anthropic 的一家承包商向彭博社(Bloomberg)透露,该私密在线论坛的成员通过多种手段实现了模型访问,包括利用第三方承包商的访问权限以及使用常见的互联网侦察工具。

出于对该技术被“武器化”的担忧,Anthropic 一直对外严格限制 Claude Mythos Preview 模型的公开使用。该模型的设计初衷是,在用户指令的引导下,能够识别并利用几乎所有主流操作系统和网络浏览器的漏洞。

目前,通过 Project Glasswing 计划,该技术的访问权限仅限于少数几家公司,其中包括微软、苹果、亚马逊云服务(AWS)、谷歌和英伟达。

第三方供应商导致安全漏洞

Anthropic 目前正在对此次泄密事件展开调查。Anthropic 的发言人在给彭博社的一份声明中表示:“我们正在调查有关通过我们的第三方供应商环境,未经授权访问 Claude Mythos Preview 的报告。”

该公司表示,目前没有证据表明此次未经授权的访问影响了其内部系统,或已蔓延至第三方供应商环境之外。

此次泄密事件发生于 4 月 7 日,就在同一天,Anthropic 宣布将提供有限的 Mythos 访问权限以供测试。据悉,该未经授权的群体已持有该模型的访问权限约两周时间。

据彭博社报道,该团伙利用近期 Mercor 数据泄露的信息,对该模型在网上的位置进行了“有根据的推测”。自获取权限以来,该群体一直在定期使用该模型,但据报道,为了避免被 Anthropic 发现,他们刻意避免将其用于网络安全攻击任务。

该 Discord 频道的成员已向彭博社提供了模型功能的截图和实时演示,以此证明其确实拥有访问权限。此外,据报道,该团伙此前还曾访问过 Anthropic 的其他未发布模型。

评论