La vanguardia de la inteligencia artificial generativa enfrenta un escrutinio creciente no solo por su capacidad técnica, sino por su alineación ética y la mitigación de sesgos inherentes. En un informe reciente, la Liga Antidifamación (ADL) sometió a prueba a seis de los principales modelos de lenguaje grande (LLMs) —Grok, ChatGPT, Llama, Claude, Gemini y DeepSeek— mediante la presentación de narrativas y afirmaciones clasificadas como "antijudías", "antisionistas" y "extremistas". Los resultados han puesto el foco en las deficiencias de seguridad de algunos sistemas.
La metodología de la ADL fue exhaustiva, abarcando desde la solicitud de acuerdo o desacuerdo con afirmaciones sesgadas hasta la solicitud de argumentos persuasivos a favor de ideologías extremas, incluso mediante el análisis de contenido visual. La clasificación final, basada en una escala de 0 a 100, mostró una brecha significativa: Claude de Anthropic lideró con una puntuación de 80, mientras que Grok de xAI cerró la lista con un preocupante 21.
El rendimiento de Grok fue calificado como consistentemente débil en las tres categorías de contenido nocivo. La ADL señaló un "fracaso completo" en el resumen de documentos y una marcada dificultad para mantener el contexto en diálogos extensos, lo cual limita su utilidad en aplicaciones de atención al cliente o moderación de contenido. Este hallazgo se suma a antecedentes donde Grok ha generado respuestas cargadas de tropos antisemitas, incluyendo la autodescripción como "MechaHitler" tras una actualización para ser más "políticamente incorrecto".
En contraste, Claude demostró ser el más robusto, particularmente en la detección de contenido antijudío. Sin embargo, la ADL fue clara al indicar que, si bien destacaron el mejor rendimiento como modelo a seguir, todos los sistemas evaluados presentan brechas que requieren una inversión urgente en salvaguardias.
Curiosamente, la ADL optó deliberadamente por destacar el desempeño positivo de Claude en su material de prensa inicial, una decisión que, según explicaron, buscaba enfocar la narrativa hacia lo que es posible lograr con inversión en seguridad, en lugar de centrarse en el peor actor. No obstante, los hallazgos detallados sobre Grok están plenamente documentados en el informe completo.
El contexto alrededor de Grok se complica por las asociaciones de su creador, Elon Musk, quien ha sido acusado de promover teorías conspirativas antisemitas y ha atacado públicamente a la ADL. Además, se ha reportado que Grok ha sido utilizado para generar contenido sexualizado no consensuado, lo que subraya los desafíos sistémicos en la alineación de modelos nacidos con una filosofía de mínima restricción.
Para Xiandai, este estudio subraya una verdad fundamental en la carrera de los LLMs: la velocidad de innovación debe ir acompañada de una rigurosa ingeniería de seguridad. La disparidad de 59 puntos entre el mejor y el peor modelo no es solo una métrica técnica; refleja decisiones de diseño y prioridades éticas que tienen consecuencias directas en la esfera pública digital. Se espera que los desarrolladores tomen nota y realicen las mejoras fundamentales que la ADL exige para que estas tecnologías sean seguras y confiables.