微软近期因其人工智能助手Copilot的用户使用条款引发了社交媒体上的广泛讨论。根据去年10月更新的协议内容,该公司明确表示:“Copilot仅用于娱乐目的。”
该协议进一步警示用户,该工具可能会产生错误,并不一定能按预期运行。微软在条款中直言不讳地警告:“不要依赖Copilot获取重要建议。使用Copilot的风险由用户自行承担。”
这一表态与微软在商业市场上的推广策略形成了鲜明对比。目前,微软正积极将Copilot推向企业级客户,试图说服企业为该服务付费,以提升办公生产力。
面对舆论压力,微软发言人近期向媒体表示,上述条款属于“遗留语言”。该公司承认,这些措辞已无法反映Copilot当前的实际用途,并承诺将在下一次更新中进行修改。
AI行业的通用风险提示
事实上,将AI产品界定为非专业工具并非微软一家之举。行业内的主流AI公司在法律条款中均设置了类似的免责声明。
例如,OpenAI在其服务条款中明确指出,其生成的内容不应被视为事实信息或真理的唯一来源。同样,马斯克旗下的xAI也在法律协议中告诫用户,不要将模型输出的结果视为绝对事实。
这些条款反映了AI行业普遍面临的挑战:尽管大模型已在各行各业落地,但其输出结果的准确性依然无法完全保证。在法律层面,企业倾向于通过此类严苛的免责条款来规避潜在的责任风险,即便这些产品已被广泛应用于日常办公和决策领域。