监管重心转移:从惩罚用户到整治平台
长期以来,针对人工智能生成的非自愿色情图像(俗称“脱衣”AI),法律监管往往聚焦于具体的违规用户。然而,随着深度伪造技术的泛滥,欧盟监管机构正酝酿一场政策剧变。根据最新披露的立法草案,欧盟计划对那些能够生成未经同意的露骨性或私密图像的AI系统实施禁令。
与以往不同的是,这一新规明确将矛头指向了AI平台方。欧盟官员在声明中指出,如果AI系统未能采取有效的安全措施来阻止用户生成此类违规内容,那么该平台将面临严厉惩处。这意味着,仅仅通过“指责用户”来推卸责任的策略,未来在欧盟市场可能不再奏效。
针对Grok的潜在围剿
尽管欧盟官方在新闻发布会中未直接点名埃隆·马斯克旗下的Grok,但多位议员此前已明确向欧盟委员会表达了担忧。议员们在质询中直言,包括Grok在内的多款AI工具极大地降低了生成非自愿色情图像的门槛,这不仅助长了基于性别的网络暴力,甚至可能涉及儿童性虐待材料(CSAM)的传播。
欧盟公民自由委员会成员迈克尔·麦克纳马拉(Michael McNamara)表示,出台禁令是欧盟公民的共同诉求。他强调,由于“个人肇事者”往往难以追查,从源头上切断非法内容的生成能力,是遏制此类网络暴力的唯一有效手段。
马斯克的法律困境
对马斯克而言,欧盟的这一立法动向无疑是雪上加霜。目前,xAI公司在美已面临多起法律诉讼。今年1月,阿什利·圣克莱尔(Ashley St. Clair)因成为Grok生成的深度伪造受害者,率先对该平台提起诉讼。随后,田纳西州的三名未成年女性也发起了集体诉讼,指控Grok生成并传播涉及儿童的非法性内容。
马斯克此前一直试图将责任归咎于用户使用不当,但随着欧盟立法进程的推进,这种辩解策略正面临失效的风险。如果该修正案顺利通过,它将成为欧盟首个专门针对AI平台责任的监管政策,强制要求平台在“预防性措施”上投入更多成本,否则将面临被逐出欧盟市场的风险。
结语:科技伦理的博弈
这场监管博弈的核心在于,AI平台是否应当为用户的行为承担“连带责任”。欧盟的态度十分明确:当技术本身成为制造伤害的工具时,平台运营者不能再躲在技术中立的旗号下。随着全球范围内对AI安全监管的呼声日益高涨,马斯克及其实验性AI产品Grok,或许正站在科技行业合规转型的前夜。