理解当下,塑造未来。

搜索
UTC 22:00 · 2026年5月11日星期一 XIANDAI · Xiandai
2026年5月11日 · 更新于 UTC 22:00
人工智能

中国要求代理式人工智能开发必须引入人工监管

中国发布了新的监管准则,要求代理式人工智能系统的开发者建立“人在回路”机制,以降低自主任务执行过程中可能带来的风险。

Alex Chen

1 分钟阅读

中国要求代理式人工智能开发必须引入人工监管
A professional working on AI development with human oversight.

中国要求代理式人工智能开发必须引入人工监管

中国监管机构出台了一项新的政策框架,明确要求代理式人工智能(Agentic AI)系统的开发者必须保持人工监管。据《The Register》2026年5月11日的报道,此项强制性规定旨在确保那些日益具备独立执行复杂多步骤任务能力的自动化代理,始终处于人类的控制之下。

这一政策转向反映了北京方面审慎的态度:在推动自主技术快速部署的同时,必须保障关键信息基础设施的安全。通过强制推行“人在回路”(human-in-the-loop)机制,监管部门试图解决特定的安全漏洞,特别是针对那些被授予敏感数据和企业内部资源广泛访问权限的AI代理。

此次监管收紧正值中国科技格局发生重大变革之际。在百度等公司通过分拆芯片业务以抓住AI发展机遇的同时,政府也在同步加强对软件开发生命周期的审查。监管机构尤为关注“毒性流”(toxic flows)概念,即担心AI代理被安装的技能或访问权限可能遭到滥用,从而使生产力工具变成供应链攻击的载体。

行业观察人士指出,此项政策符合当前对AI代理如何与受保护数据交互进行更严格监管的整体趋势。该规定是一项预防性措施,旨在防止代理擅自行动,进而威胁数字安全或国家资产。此次监管行动与亚洲科技领域的其他重大动态同步发生,包括TikTok在泰国投资250亿美元,以及硬件供应链持续动荡,迫使基础设施团队不得不采用新的IT策略来应对不断上涨的成本和延长的交付周期。

评论