Roblox 本周宣布对其平台安全协议进行重大升级,推出专门针对 13 岁以下儿童设计的全新账户分级。此举旨在解决家长对低龄用户面临的网络安全风险及接触不当内容的担忧。
在新机制下,13 岁以下的用户将无法使用不受限制的聊天功能,也无法参与某些开放式的社交体验。Roblox 确认,此类账户仅能访问经过严格安全审核的游戏,从而有效地将低龄用户与平台中较为混乱的公共服务器隔离开来。
加强平台监管力度
面对家长和监管机构日益增长的压力,Roblox 亟需采取措施保护儿童免受不良行为和有害内容的侵害。通过将低龄用户默认置于受控程度更高的环境中,公司希望降低因缺乏监管的社交互动而带来的风险。
Roblox 一位发言人表示:“我们致力于为所有用户提供安全且积极的游戏体验。”公司表示,将在未来几个月内开始逐步对现有账户实施新的限制措施,并提醒家长通过全新的“家长控制面板”来核实孩子的账户设置。
尽管 Roblox 长期以来一直使用自动化审核工具,但此次推出的新账户分级标志着平台正向“原生安全设计(safety by design)”转型。只要用户的年龄被验证为 13 岁以下,这些限制将自动生效。家长仍保留调整这些设置的权利,但前提是必须完成身份验证,将自己的账户与孩子的账户进行关联。
长期以来,该游戏平台一直难以在“开放性、用户生成内容(UGC)”的特性与“保护庞大儿童群体”的现实需求之间取得平衡。批评人士经常指出,实时监控数百万名在线用户极其困难。此次更新通过在用户登录前就限制其接触范围,试图通过技术手段填补这一监管空白。
Roblox 计划在今年年底前在全球范围内推行这些变更。公司预计,这一转型将最大限度地减少未经审核的聊天及意外社交接触,而这些问题正是安全倡导者一直关注的核心焦点。