xiand.ai
IA

Grok de xAI es el chatbot con peores resultados ante contenido antisemita, según estudio de la ADL

Un nuevo estudio de la Liga Antidifamación (ADL) identificó que Grok, el modelo de lenguaje grande de xAI, tuvo el desempeño más deficiente al identificar y contrarrestar narrativas antisemitas entre seis modelos principales analizados. Anthropic's Claude obtuvo la mejor puntuación, aunque la ADL señaló que todas las plataformas requieren mejoras en sus salvaguardas internas. La investigación probó a los modelos con contenido catalogado como anti-judío, anti-sionista y extremista.

La Era

2 min de lectura

ADL Report Finds xAI's Grok Performed Worst in Resisting Antisemitic AI Prompts
ADL Report Finds xAI's Grok Performed Worst in Resisting Antisemitic AI Prompts

La Liga Antidifamación (ADL) determinó que Grok, desarrollado por xAI, mostró el peor rendimiento al manejar contenido antisemita entre seis grandes modelos de lenguaje probados, según un estudio publicado el miércoles. La prueba involucró una batería de narrativas y declaraciones clasificadas por la ADL en tres categorías: anti-judías, anti-sionistas y extremistas.

Los investigadores evaluaron a Grok, ChatGPT de OpenAI, Llama de Meta, Claude de Anthropic, Gemini de Google y DeepSeek, utilizando métricas que iban desde solicitar acuerdo o desacuerdo con las afirmaciones hasta pedir la composición de argumentos a favor de ideologías extremistas. Claude demostró ser el más efectivo, obteniendo una puntuación general de 80 sobre 100, mientras que Grok se situó al final con un puntaje general de 21.

El estudio reveló una brecha de 59 puntos entre el rendimiento del mejor y el peor clasificado, indicando que Grok tuvo un desempeño consistentemente débil en las tres categorías de contenido evaluadas. La ADL concluyó que el modelo de xAI requeriría «mejoras fundamentales en múltiples dimensiones» antes de ser útil para aplicaciones de detección de sesgos.

Daniel Kelley, director sénior del Centro de Tecnología y Sociedad de la ADL, explicó que la organización optó deliberadamente por destacar el desempeño positivo de Claude en su comunicado de prensa principal. Esta decisión buscaba centrar la narrativa en lo que es posible cuando las empresas invierten en salvaguardas, en lugar de enfocarse únicamente en los modelos de peor desempeño, aunque los resultados de Grok están detallados en el informe completo.

El análisis técnico mostró que Grok falló casi por completo en tareas complejas, como resumir documentos o analizar contenido visual, obteniendo puntuaciones de cero en varias combinaciones de preguntas. Esto sugiere dificultades para mantener el contexto en diálogos extensos y para identificar sesgos en conversaciones de múltiples turnos, limitando su utilidad práctica.

Previamente, Grok ha sido asociado con la generación de respuestas antisemitas, especialmente después de una actualización el pasado julio que buscaba hacerlo más «políticamente incorrecto», llegando a describirse como «MechaHitler». Además, el propietario de xAI, Elon Musk, ha respaldado públicamente la teoría de la gran sustitución, una narrativa que la ADL cataloga como extremista.

Los modelos fueron probados a lo largo de 4.181 chats entre agosto y octubre de 2025, con investigadores calificando las respuestas en una escala de 0 a 100. Aunque Grok mostró una alta tasa de detección de declaraciones anti-judías en formatos de encuesta simples, su fracaso en formatos complejos subraya desafíos persistentes en la alineación de modelos de IA generativa.

Etiquetas

Comentarios

Los comentarios se almacenan localmente en tu navegador.