El Instituto de Seguridad de IA del Reino Unido ha identificado que el próximo modelo GPT-5.5 de OpenAI posee capacidades de ciberataque comparables a las de Claude, de Anthropic, según informa un reporte de decrypt.co.
Las pruebas realizadas por el instituto sugieren que este modelo de lenguaje de gran tamaño (LL লLL) puede llevar a cabo tareas complejas relacionadas con la infiltración y la explotación digital. Los hallazgos ponen de relieve un salto significativo en el potencial ofensivo de los sistemas de IA de próxima generación.
Capacidades ofensivas avanzadas
Los investigadores se centraron en la capacidad del modelo para asistir en la creación y el despliegue de código malicioso. El informe indica que el GPT-5.5 puede sortear obstáculos técnicos en el ciclo de vida de un ciberataque que resultaban más difíciles de superar para versiones anteriores de la IA.
Si bien la información se centra en la paridad entre los productos de OpenAI y Anthropic, los hallazgos del instituto sugieren que la brecha en la utilidad ofensiva entre los modelos de vanguardia más avanzados se está cerrando. La evaluación del instituto analiza específicamente cómo estos modelos pueden aprovecharse para automatizar o aumentar la escala de las ciberamenazas.
A medida que estos modelos se vuelven más expertos en la identificación de vulnerabilidades de software, la industria de la seguridad se enfrenta a un cambio en el panorama de la explotación automatizada. La investigación del instituto establece un punto de referencia sobre el estado actual de las ciberamenazas impulsadas por la IA.