El analista Erik Johannes Husom abordó en una publicación reciente la creciente preocupación sobre cómo la externalización del pensamiento a los modelos de lenguaje grandes (LLM) podría erosionar las habilidades cognitivas humanas. La discusión central gira en torno al concepto de que las habilidades no utilizadas pueden atrofiarse, un punto que resuena intuitivamente en el ámbito de la neurociencia y la psicología.
Husom utiliza como punto de partida el argumento de Andy Masley, quien refuta la idea de una "falacia del bulto de la cognición", sugiriendo que pensar genera más temas para pensar, en lugar de agotar un recurso finito. Sin embargo, Husom sostiene que la realidad es más matizada, enfocándose en cuándo y cómo el uso de LLM resulta perjudicial, más allá de la simple cantidad de pensamiento disponible.
El autor concuerda con Masley en varios puntos donde delegar la cognición es evidentemente perjudicial, incluyendo la creación de conocimiento tácito complejo y situaciones que requieren expresión genuina de cuidado o presencia. La divergencia principal surge en la amplitud de actividades que caen dentro de estas categorías sensibles, especialmente en la comunicación personal y la escritura.
Específicamente, Husom se centra en el engaño inherente a falsificar la propia voz en la comunicación directa, argumentando que las expectativas sociales en el intercambio de mensajes se rompen cuando un modelo interviene. La elección de palabras y la formulación llevan un significado intrínseco que se pierde o se altera cuando un algoritmo transforma la expresión, afectando la relación entre los interlocutores.
La reciente controversia en los medios noruegos sobre el uso no revelado de LLM en la escritura pública subraya la necesidad de clarificar las expectativas comunicativas. Si la coautoría con IA se vuelve la norma, Husom insiste en que la revelación es fundamental, pues el receptor evalúa el texto de manera distinta al saber si existe una transformación algorítmica.
El autor objeta la visión utilitaria de que los LLM simplemente ayudan a personas con barreras idiomáticas a expresar su significado, citando dos problemas principales. Primero, la expresión y el significado son inseparables en el lenguaje; alterar la fraseología modifica intrínsecamente el mensaje. Segundo, se amputa el proceso de desarrollo de ideas, impidiendo el aprendizaje y el descubrimiento de la propia voz sin "ruedas de entrenamiento".
La dificultad radica en la interfaz actual de los chatbots, donde la línea entre una corrección gramatical menor y una reescritura sustancial por parte del modelo es peligrosamente delgada. Para que los LLM sean verdaderas herramientas de mejora, según Husom, se requiere una interfaz diseñada con mucho más cuidado que las soluciones generativas actuales, que facilitan la sustitución en lugar de la asistencia genuina.
El análisis de Husom, basado en su publicación en erikjohannes.no, invita a una reflexión profunda sobre el costo no cuantificable de la eficiencia inmediata. La automatización de la formulación lingüística plantea interrogantes sobre la autenticidad y el desarrollo continuo de las capacidades comunicativas individuales a largo plazo.