理解当下,塑造未来。

搜索
UTC 04:56 · 2026年5月7日星期四 XIANDAI · Xiandai
2026年5月7日 · 更新于 UTC 04:56
人工智能

英国AI安全研究所正评估Anthropic旗下Claude模型的安全风险

英国AI安全研究所正在调查Anthropic的Claude模型究竟构成了实质性的安全威胁,还是仅仅存在过度炒作的风险。

Alex Chen

1 分钟阅读

英国AI安全研究所正评估Anthropic旗下Claude模型的安全风险
图片来源: gov.uk

英国AI安全研究所(AI Safety Institute)目前正在进行一项评估,旨在确定Anthropic旗下的Claude大语言模型是否构成了真实的安全性威胁。此次调查的核心在于,该技术的实际能力是否已经超出了现有的安全监管框架。

研究人员正在评估这些模型在协助大规模网络攻击或生物武器研发方面的潜在风险。该研究所希望通过此次评估,将实际的技术漏洞与纯粹的推测性风险区分开来。

模型能力评估

目前,技术审计正在测试这些模型自主执行复杂且有害任务的能力。研究所正在分析在模拟高风险场景时,Claude是否能够绕过现有的安全协议。

分析师还在研究围绕该模型智能水平的“神话”现象。其目标是查明,人们对该AI感知的危险程度,究竟是源于其真实的功能能力,还是仅仅源于其庞大的训练数据规模。

业界专家正密切关注调查结果,以确定前沿模型需要多大程度的监管。此次评估的结果可能会对全球AI开发者的未来监管标准产生深远影响。

评论