Modelos de inteligencia artificial de importantes empresas tecnológicas, incluidos Gemini de Google, AI Overviews, AI Mode y Microsoft Copilot, han comenzado a citar a Grokipedia, la enciclopedia generada por la IA de Elon Musk. Esta tendencia se observa después de que se notara que ChatGPT también utilizaba esta fuente, lo que intensifica el debate sobre la fiabilidad de las referencias cruzadas entre sistemas de IA.
Datos recopilados por firmas de análisis sugieren que Grokipedia, lanzada a finales de octubre, está ganando tracción como fuente de información, aunque sigue siendo minoritaria en comparación con plataformas establecidas. Glen Allsopp de Ahrefs informó que Grokipedia apareció en más de 263.000 respuestas de ChatGPT a partir de 13,6 millones de peticiones, una cifra significativa para una fuente tan reciente, aunque muy inferior a los 2,9 millones de referencias a la Wikipedia en inglés.
El crecimiento de las citas de Grokipedia ha sido constante desde mediados de noviembre, según Sartaj Rajpal, investigador de Profound, quien notó que representaba entre el 0,01 y el 0,02 por ciento de todas las citas diarias de ChatGPT. Aunque Semrush confirmó un aumento en la visibilidad en productos de Google desde diciembre, la plataforma sigue siendo una fuente secundaria frente a Wikipedia.
Los analistas señalan que las IA tienden a recurrir a Grokipedia para consultas muy específicas u oscuras, según reportó The Guardian. Jim Yu, CEO de BrightEdge, indicó que mientras AI Overviews suele incluirla como referencia suplementaria, ChatGPT tiende a darle más autoridad, citándola frecuentemente entre las primeras fuentes.
Expertos advierten que el uso de Grokipedia conlleva riesgos inherentes de desinformación, dado que su contenido es producido y editado por el chatbot Grok, sin la supervisión humana transparente de Wikipedia. Artículos iniciales reflejaron contenido racista y distorsiones históricas, como la minimización de la riqueza familiar de Musk o afirmaciones falsas sobre el VIH/SIDA.
OpenAI afirmó que ChatGPT busca una amplia gama de fuentes públicas y que las citas permiten a los usuarios evaluar su fiabilidad, aplicando filtros de seguridad. Por su parte, Perplexity se centró en su enfoque en la precisión, mientras que Google, Anthropic y xAI declinaron hacer comentarios sobre el tema.
La preocupación central radica en el riesgo de "envenenamiento de datos" o *LLM grooming*, donde la fluidez del contenido generado por IA puede confundirse con veracidad. Taha Yasseri, de Trinity College Dublin, advirtió que citar fuentes no verificables refuerza sesgos y errores, mientras que Leigh McKenzie de Semrush describió Grokipedia como una "cosplay de credibilidad".