xiand.ai
2026年4月13日 · 更新于 UTC 11:40
人工智能

AI 生成虚假判例泛滥,法律界深陷信任危机

巴黎高等商学院(HEC Paris)的数据显示,全球范围内已出现超过 1200 起律师提交包含 AI“幻觉”判例的法律文件的案例。

Alex Chen

1 分钟阅读

AI 生成虚假判例泛滥,法律界深陷信任危机
A lawyer reviewing digital legal documents.

全球各地的律师正越来越多地在其提交的法庭文件中引用由人工智能生成的虚假法律判例。巴黎高等商学院(HEC Paris)的最新统计数据显示,全球已记录了超过 1200 起因 AI“幻觉”导致的法律文件失误,其中仅美国就占了 800 起。

尽管法院已祭出高额罚款及严厉制裁,但此类文件的提交频率仍在持续上升。早在 2023 年,纽约律师因提交引用虚构案例的 AI 生成文书而首次受到惩处,引发舆论哗然,但这一趋势并未因此得到遏制。

自动化捷径带来的代价

法律专家指出,效率压力与大语言模型“一本正经胡说八道”的倾向相结合,正酿成严重后果。虽然 AI 能迅速生成结构化的文档,但这些系统往往会编造出并不存在的法律引用,这不仅误导了法庭,更严重损害了司法公正。

一些律所加剧了这一问题:它们强制初级员工使用 AI 工具,却不提供必要的权威法律数据库供其核实事实。这种将速度置于准确性之上的压榨式工作流程,导致 AI 错误激增,目前已波及至少十个司法管辖区。

负责任的法律从业者认为,只有在审慎使用并辅以大量人工核实的前提下,AI 工具才有价值。这些律师表示,对 AI 生成内容进行交叉核对所花费的时间,往往与起草初稿时节省的时间相当。

尽管行业支持者认为,随着基础设施的完善,AI 终将进化,但目前的模型尚无迹象表明能够消除“幻觉”问题。对这些工具的持续依赖表明,对于法律界的许多人来说,追求生产力提升的诱惑,目前仍盖过了面临职业惩戒的风险。

评论

评论存储在您的浏览器本地。