xiand.ai
Tecnología

OpenAI presenta GPT-5.4 mini y nano para optimizar costos y velocidad

OpenAI ha anunciado el lanzamiento de dos nuevos modelos ligeros, GPT-5.4 mini y nano, diseñados para cargas de trabajo de alto volumen. Estos modelos prometen una velocidad superior y menores costos sin sacrificar significativamente la capacidad de razonamiento. La compañía busca mejorar la experiencia en aplicaciones de código y agentes autónomos.

La Era

3 min de lectura

OpenAI Releases GPT-5.4 Mini and Nano for Efficient Coding and Subagents
OpenAI Releases GPT-5.4 Mini and Nano for Efficient Coding and Subagents
Publicidad
Publicidad

OpenAI anunció oficialmente el lanzamiento de GPT-5.4 mini y nano, sus modelos pequeños más capaces hasta la fecha. Estos nuevos sistemas están optimizados para cargas de trabajo de alto volumen y tareas que requieren baja latencia en producción. La compañía afirma que traen muchas de las fortalezas de GPT-5.4 en versiones más rápidas y eficientes para la industria tecnológica global.

GPT-5.4 mini mejora significativamente sobre GPT-5 mini en codificación, razonamiento y comprensión multimodal compleja. Según los datos técnicos de la empresa, el modelo corre más de dos veces más rápido que su predecesor directo en pruebas controladas. Además, se acerca al rendimiento del modelo más grande GPT-5.4 en evaluaciones rigurosas como SWE-Bench Pro y OSWorld-Verified.

Por otro lado, GPT-5.4 nano es la versión más pequeña y económica disponible para tareas críticas en costo y velocidad. OpenAI recomienda este modelo para clasificación, extracción de datos y agentes de subprocesamiento de tareas simples y repetitivas. Se posiciona como una actualización significativa sobre GPT-5 nano en eficiencia operativa para desarrolladores.

Estos modelos están diseñados para situaciones donde la latencia moldea directamente la experiencia del usuario final en tiempo real. Los asistentes de codificación necesitan sentirse responsivos, y los sistemas de uso de computadoras deben interpretar capturas de pantalla rápidamente. En estos entornos, la velocidad suele ser más importante que el tamaño del modelo base para la satisfacción del cliente.

Los clientes que probaron los modelos en sus flujos de trabajo reportaron una efectividad notable en tareas de codificación intensiva. Los sistemas manejan ediciones dirigidas y navegación de código base con baja latencia para permitir iteraciones más rápidas. Esto permite costos reducidos para desarrolladores que necesitan velocidad sin sacrificar la calidad del código generado.

Una arquitectura de subagentes permite combinar modelos de diferentes tamaños en un solo sistema inteligente y escalable. En Codex, un modelo más grande puede coordinar mientras delega tareas más estrechas a GPT-5.4 mini para procesamiento paralelo. Este patrón se vuelve más útil a medida que los modelos pequeños ganan capacidad y velocidad de respuesta para la automatización de flujos de trabajo.

GPT-5.4 mini también destaca en tareas multimodales relacionadas con el uso de computadoras y navegación de interfaces. En la prueba OSWorld-Verified, el modelo supera sustancialmente a GPT-5 mini y se acerca a GPT-5.4 en métricas de éxito. Esto permite completar tareas de interfaz de usuario densa con mayor rapidez y precisión en entornos reales.

La disponibilidad de GPT-5.4 mini abarca la API, Codex y ChatGPT para diferentes tipos de usuarios y casos de uso específicos. En la API, soporta entrada de texto e imagen, uso de herramientas y búsqueda web con una ventana de contexto de 400k. Los usuarios de ChatGPT pueden acceder a través de la función de pensamiento o como límite de tasa para mantener la fluidez.

Los precios reflejan la eficiencia de estos modelos ligeros para reducir gastos operativos significativos para las empresas. GPT-5.4 nano cuesta 0,20 dólares por millón de tokens de entrada en la API pública de OpenAI. GPT-5.4 mini tiene un costo de 0,75 dólares por millón de tokens de entrada para equilibrar rendimiento y presupuesto.

El lanzamiento marca un paso hacia sistemas compuestos donde modelos grandes planean y pequeños ejecutan tareas específicas. Los desarrolladores pueden ahora elegir el equilibrio correcto entre costo y rendimiento para sus aplicaciones de inteligencia artificial. OpenAI espera que esto transforme cómo se construyen las aplicaciones de inteligencia artificial en el futuro cercano del mercado tecnológico.

Publicidad
Publicidad

Comentarios

Los comentarios se almacenan localmente en tu navegador.

Publicidad
Publicidad