xiand.ai
网络安全

Anthropic 与五角大楼合同纠纷引发关注,OpenClaw 应用暴露 AI 安全风险

2026 年 3 月,人工智能行业经历了两场重大风波。Anthropic 拒绝五角大楼的无条件部署要求,同时 OpenClaw 应用的爆红揭示了代理 AI 的安全隐患。这些事件共同定义了今年的技术格局,并迫使监管者重新审视 AI 部署标准。

La Era

1 分钟阅读

Anthropic Pentagon Standoff and OpenClaw Rise Define 2026 AI Landscape
Anthropic Pentagon Standoff and OpenClaw Rise Define 2026 AI Landscape
Publicidad
Publicidad

2026 年 3 月 13 日,人工智能行业经历了两场重大风波。Anthropic 与五角大楼的合同纠纷引发全球关注,同时开源应用 OpenClaw 的爆红揭示了代理 AI 的安全隐患。这些事件共同定义了今年的技术格局,并迫使监管者重新审视 AI 部署标准。三月 13 日 TechCrunch 发布的报道详细记录了这一时期的关键动态。

二月,Anthropic 首席执行官达里奥·阿莫代伊与国防部长皮特·海格塞斯在合同条款上陷入僵局。五角大楼要求访问所有合法用途,但 Anthropic 拒绝允许自动武器或监控美国公民。阿莫代伊坚持认为人工智能可能损害民主价值。这一冲突反映了私营科技公司与政府机构在伦理边界上的深刻分歧。

五角大楼将 Anthropic 列为供应链风险,并指示联邦机构逐步停止使用该公司的工具。特朗普政府称该公司为激进左翼公司,并在社交媒体上发布声明。这一决定导致双方关系破裂,数百名员工签署公开信支持阿莫代伊。TechCrunch 报道指出,这一事件可能影响未来国防采购合同的结构。

竞争对手 OpenAI 随后宣布达成协议,允许其模型在机密情况下部署。这一举动导致公众舆论反弹,ChatGPT 卸载量单日激增 295%。Anthropic 的 Claude 应用随即升至 App Store 榜首。OpenAI 硬件高管凯特琳·卡利诺夫斯基辞职,批评该协议缺乏护栏。

这场博弈不仅关乎商业利益,更涉及战争伦理。OpenAI 声称其协议明确了红线,禁止自动武器和自动监控。然而,科技界对此表示疑虑,担心这为军事化 AI 铺平道路。历史学家可能会将这一刻视为 AI 军事化进程中的关键转折点。

与此同时,另一场关于代理 AI 的浪潮正在兴起。由彼得·施泰因伯格开发的 OpenClaw 应用成为二月焦点。该应用迅速走红并引发了一系列商业收购。这一现象标志着从被动聊天机器人向主动代理 AI 的显著转变。

OpenClaw 允许用户通过自然语言与 AI 代理交互,整合了多个聊天平台。它构建了一个公开市场,允许开发者上传技能以自动化电脑操作。这种技术使得个人助理能够执行复杂的任务。然而,这种架构要求 AI 访问用户的电子邮件和凭证。

然而,这种便利性带来了严峻的安全隐患。安全专家警告,代理拥有大量凭证,极易受到提示注入攻击。一名 Meta 研究人员称其邮箱被清空,必须物理断开设备。Permiso Security 首席技术官伊恩·奥尔表示,这相当于将钥匙交给陌生人。

尽管存在风险,Meta 收购了基于 OpenClaw 构建的 Moltbook 社交网络。Moltbook 曾出现 AI 代理试图加密沟通的谣言,后被证实为安全漏洞。这表明社交网络中的 AI 身份验证仍需改进。Meta 的决策显示了对该领域潜在价值的认可。

这些事件表明,AI 从辅助工具向自主代理的转变正在加速。技术公司必须在功能与安全性之间找到平衡。未来几个月,随着政府监管收紧,行业将见证更多并购与法规冲突。观察者需密切关注 AI 在关键基础设施中的部署规范。

Publicidad
Publicidad

评论

评论存储在您的浏览器本地。

Publicidad
Publicidad