Comprendiendo el presente, definiendo el futuro.

07:35 UTC · JUEVES, 7 DE MAYO DE 2026 XIANDAI · Xiandai
7 may 2026 · Actualizado 07:35 UTC
IA

Un informe de Stanford advierte que la seguridad de la IA no sigue el ritmo de su rápida adopción global

El Informe del Índice de IA 2026 revela un aumento drástico en los incidentes de IA documentados, mientras la tasa de adopción se acerca al 53 % de la población mundial.

Alex Chen

2 min de lectura

Un informe de Stanford advierte que la seguridad de la IA no sigue el ritmo de su rápida adopción global
AI safety and adoption trends

El Instituto de Inteligencia Artificial Centrada en el Humano (HAI) de la Universidad de Stanford publicó hoy su Informe del Índice de IA 2026, en el cual advierte que el desarrollo de una IA responsable no está logrando seguir el ritmo del avance de sus capacidades.

El informe destaca un aumento significativo de los daños en el mundo real: los incidentes de IA documentados pasaron de 233 en 2024 a 362 en 2025. Este repunte se produce tras un periodo de crecimiento sin precedentes, en el que el uso de la IA alcanzó al 53 % de la población mundial en apenas tres años.

Los investigadores señalaron que, aunque las organizaciones reportan una tasa de adopción del 88 %, los estándares de seguridad se están quedando atrás. "La IA responsable no está siguiendo el ritmo de las capacidades de la IA; los parámetros de seguridad presentan un retraso y los incidentes están aumentando drásticamente", señala el informe.

Brechas de rendimiento y problemas de fiabilidad

A pesar de las mejoras en la capacidad de programación —donde las tasas de éxito en la prueba SWE-bench saltaron del 60 % a casi el 100 % en un solo año—, la fiabilidad sigue siendo inconsistente. El Índice AA-Omniscient muestra que las tasas de alucinación en los 26 modelos estudiados oscilan entre el 22 % y un impactante 94 %.

Estos errores ya han tenido repercusiones legales. El informe cita un caso en el que varios abogados utilizaron modelos de IA para generar más de dos docenas de citas falsas y distorsiones de los hechos, lo que derivó en una amonestación por parte del Tribunal de Apelaciones del Sexto Circuito de los Estados Unidos.

Incluso los modelos más avanzados presentan dificultades en tareas de razonamiento básico. En las pruebas de ClockBench, el modelo GPT-5.4 High de OpenAI identificó correctamente relojes analógicos solo el 50,6 % de las veces, una cifra significativamente inferior al 90 % de precisión que logran los humanos sin especialización previa.

La automatización física también enfrenta grandes obstáculos. Según el estándar de simulación BEHAVIOR-1K, los robots lograron completar con éxito solo el 12 % de las tareas domésticas evaluadas.

Comentarios