Comprendiendo el presente, definiendo el futuro.

04:29 UTC · DOMINGO, 3 DE MAYO DE 2026 XIANDAI · Xiandai
3 may 2026 · Actualizado 04:29 UTC
Ciberseguridad

El GPT-5.5 de OpenAI iguala a Claude en potencial de ciberataques, según el Instituto de Seguridad de IA

El Instituto de Seguridad de IA del Reino Unido ha detectado que el próximo modelo de OpenAI presenta capacidades avanzadas para ejecutar ciberataques, al nivel de Claude de Anthropic.

Ryan Torres

2 min de lectura

El Instituto de Seguridad de IA del Reino Unido ha identificado que el próximo modelo GPT-5.5 de OpenAI posee capacidades de ciberataque comparables a las de Claude, de Anthropic, según informa un reporte de decrypt.co.

Las pruebas realizadas por el instituto sugieren que este modelo de lenguaje de gran tamaño (LL লLL) puede llevar a cabo tareas complejas relacionadas con la infiltración y la explotación digital. Los hallazgos ponen de relieve un salto significativo en el potencial ofensivo de los sistemas de IA de próxima generación.

Capacidades ofensivas avanzadas

Los investigadores se centraron en la capacidad del modelo para asistir en la creación y el despliegue de código malicioso. El informe indica que el GPT-5.5 puede sortear obstáculos técnicos en el ciclo de vida de un ciberataque que resultaban más difíciles de superar para versiones anteriores de la IA.

Si bien la información se centra en la paridad entre los productos de OpenAI y Anthropic, los hallazgos del instituto sugieren que la brecha en la utilidad ofensiva entre los modelos de vanguardia más avanzados se está cerrando. La evaluación del instituto analiza específicamente cómo estos modelos pueden aprovecharse para automatizar o aumentar la escala de las ciberamenazas.

A medida que estos modelos se vuelven más expertos en la identificación de vulnerabilidades de software, la industria de la seguridad se enfrenta a un cambio en el panorama de la explotación automatizada. La investigación del instituto establece un punto de referencia sobre el estado actual de las ciberamenazas impulsadas por la IA.

Comentarios