La administración Trump está sopesando una orden ejecutiva para crear un grupo de trabajo especializado en inteligencia artificial, cuyo objetivo sería implementar un proceso formal de revisión gubernamental para los nuevos y potentes modelos de IA, según informa platformer.news.
Funcionarios estadounidenses, que hablaron bajo condición de anonimato debido a la sensibilidad de las deliberaciones políticas, declararon al New York Times que el grupo reunirá a ejecutivos tecnológicos y representantes del gobierno para examinar los procedimientos de supervisión. El proceso de revisión propuesto podría replicar el sistema que se está desarrollando actualmente en Gran Bretaña, el cual utiliza organismos gubernamentales para garantizar que los modelos de IA cumplan con estándares de seguridad específicos.
Este giro representa un cambio de postura respecto a la posición reciente de la administración sobre la regulación de la IA. En febrero de 2025, el vicepresidente JD Vance advirtió en la Cumbre de Acción sobre IA en París que las regulaciones excesivas podrían "matar una industria transformadora justo cuando está despegando". Vance también sugirió que las empresas que piden regulación podrían estar intentando aplastar a futuros competidores.
Por su parte, David Sacks, el zar de IA y criptomonedas de la Casa Blanca, calificó anteriormente los temores sobre las capacidades de la IA como un "complejo industrial catastrofista" que utiliza una "sofisticada estrategia de captura regulatoria basada en el alarmismo". En una línea similar, Michael Kratsios, director de la Oficina de Política Científica y Tecnológica, ha criticado los esfuerzos de gobernanza internacional por mantener una "atmósfera general de miedo".
El impacto de Mythos, de Anthropic
El cambio de dirección de la administración parece estar impulsado por las capacidades de Mythos, el modelo de lenguaje de gran tamaño más reciente de Anthropic. Según platformer.news, el modelo ha demostrado capacidad para desarrollar vulnerabilidades de ciberseguridad que el gobierno considera un riesgo para la seguridad nacional.
Actualmente, la Casa Blanca se opone al plan de Anthropic de ampliar el acceso a Mythos de unas 50 empresas a 12 de 120. Aunque la administración también alega preocupaciones respecto a la capacidad de cómputo disponible de Anthropic, la compañía ha negado dichas afirmaciones.
La situación se complica aún más debido a los esfuerzos simultáneos de la administración para designar a Anthropic como un "riesgo para la cadena de suministro". Esta designación surge de la negativa de la empresa a modificar un contrato con el Pentágono para permitir el "uso legal completo" de su tecnología. A pesar de esto, algunos funcionarios de la Casa Blanca están trabajando para ampliar el acceso de las agencias al modelo, mientras que otros buscan retirar gradualmente la tecnología de Anthropic en los próximos seis meses.
Los líderes de la industria ya están reaccionando ante este nuevo panorama regulatorio. Google, Microsoft y xAI anunciaron el martes que proporcionarán acceso anticipado a sus modelos para su revisión al Centro de Estándares e Innovación de IA del Departamento de Comercio de los EE. UU.
Este movimiento se produce tras la reciente reestructuración por parte de la administración del Instituto de Seguridad de IA de los EE. UU. para convertirlo en el Centro de Estándares e Innovación de IA. El secretario de Comercio, Howard Lutnick, afirmó previamente que los innovadores ya no estarían limitados por los estándares utilizados bajo administraciones anteriores.