技术分析师Erik Johannes Husom在其最新文章中,深入剖析了当前利用生成式语言模型(LLM)进行“思考外包”所引发的认知技能退化风险。该分析基于对LLM在日常生活中日益增加的使用场景的审视,旨在区分哪些应用场景是有益的,哪些可能对认知发展产生负面影响。
常见的担忧集中于“用进废退”的认知规律,即外包某些认知任务可能导致相关心智能力的“精神萎缩”。Husom肯定了这种直觉上的合理性,并引用了Andy Masley关于“认知存量谬误”的讨论,后者认为思考并非有限资源,而是会催生更多思考的领域。
然而,Husom认为问题远比“思考会催生更多思考”这一论点复杂,并提出了需要警惕的特定活动类别。他同意Masley列出的几项不应外包的领域,例如构建复杂隐性知识或涉及个人关怀的表达,但对这些类别的适用范围持有不同看法。
个人交流和写作被视为最需要警惕的领域之一,因为它触及了“欺骗性伪造”的范畴。Husom指出,在人际交往中,我们选择的词汇和句式承载了大量关系构建的意义,机器的介入会破坏这种交流的期望和真实性。
在挪威媒体近期关于未披露使用LLM进行公共写作的辩论,凸显了社会对书面交流期望的调整需求。作者强调,如果内容是“代笔”而非“共创”,接收者对文本的解读将发生根本性变化,因此透明度至关重要。
Husom对LLM被视为表达辅助工具的观点提出异议,他认为在生成文本中,表达形式几乎等同于意义本身,改变措辞即是改变信息。此外,将措辞权交给AI会截断个体在发展思想和发现自身声音过程中的关键训练环节。
当前聊天机器人界面设计使得在基础的拼写语法帮助与完全由模型代写之间存在一条极易跨越的界限。Husom认为,现有的LLM工具设计未能提供一个经过深思熟虑的接口,难以仅仅作为辅助工具,而往往成为替代品,阻碍用户的认知成长。
最终,尽管许多用户追求效率以完成报告或邮件等任务,但这种功利主义的倾向必须权衡其对个人表达能力和认知深度的长期侵蚀。作者呼吁对LLM在交流中的应用保持更高程度的审慎和自我约束。