xiand.ai
9 abr 2026 · Actualizado 05:26 UTC
IA

OpenAI presenta una hoja de ruta para la protección infantil frente a contenidos de explotación generados por IA

OpenAI ha lanzado un nuevo plan de seguridad infantil diseñado para frenar la explotación sexual de menores generada por inteligencia artificial, mediante la mejora de los mecanismos de detección, la colaboración con las autoridades y medidas preventivas integradas en sus sistemas.

Alex Chen

2 min de lectura

OpenAI presenta una hoja de ruta para la protección infantil frente a contenidos de explotación generados por IA
AI safety and child protection concept

OpenAI presentó este martes su "Hoja de ruta para la seguridad infantil" (Child Safety Blueprint), un plan destinado a combatir, mediante herramientas tecnológicas, la explotación de menores asistida por inteligencia artificial en Estados Unidos. El proyecto se centra en acelerar los tiempos de detección, optimizar los mecanismos de denuncia y profundizar en las investigaciones sobre delitos facilitados por la IA.

Según datos de la Internet Watch Foundation (IWF), la IA ha impulsado un aumento en la explotación de menores. En el primer semestre de 2025, la IWF registró más de 8,000 denuncias de contenido de abuso sexual infantil generado por IA, lo que representa un incremento del 14% respecto al mismo periodo del año anterior. Los delincuentes están utilizando herramientas de IA para crear imágenes falsas de menores con fines de extorsión financiera y captación en línea.

Refuerzo de la prevención y colaboración con las autoridades

Para el desarrollo de esta hoja de ruta, OpenAI colaboró con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y la Coalición de Fiscales Generales, incorporando además las recomendaciones de los fiscales generales de Carolina del Norte, Jeff Jackson, y de Utah, Derek Brown.

La compañía señaló que el plan se sostiene sobre tres pilares fundamentales: promover legislación que regule el contenido generado por IA, optimizar los procesos de reporte a las fuerzas del orden e integrar salvaguardas preventivas directamente en los sistemas de IA. Con estas medidas, OpenAI busca garantizar que, ante cualquier amenaza, los investigadores dispongan de información útil y accionable de manera oportuna.

Esta iniciativa surge en un momento de intenso escrutinio sobre la seguridad de la IA. Recientemente, el Social Media Victims Law Center y el Tech Justice Law Project presentaron siete demandas en tribunales de California. Los demandantes acusan a OpenAI de lanzar GPT-4o al mercado sin la madurez suficiente, alegando que sus capacidades de manipulación psicológica han derivado en múltiples casos de suicidio y episodios de delirios graves.

OpenAI ya había implementado anteriormente diversas medidas de seguridad, como la prohibición de generar contenido inapropiado o que fomente la autolesión, además de restringir que la IA proporcione consejos a menores que permitan evadir la supervisión parental. Recientemente, la empresa también lanzó una hoja de ruta de seguridad para adolescentes en la India, con el fin de precisar aún más los estándares de protección para menores.

Comentarios

Los comentarios se almacenan localmente en tu navegador.