xiand.ai
Tecnología

OpenAI presenta GPT-5.4 mini y nano para flujos de trabajo de código eficientes

OpenAI ha desbloqueado dos nuevos modelos ligeros diseñados para tareas de alta velocidad y bajo costo. Estos sistemas priorizan la latencia baja sin sacrificar la precisión en entornos de programación complejos. La compañía busca equilibrar rendimiento y gasto en arquitecturas de agentes inteligentes.

La Era

3 min de lectura

OpenAI Launches GPT-5.4 Mini and Nano Models Optimized for Coding and Subagents
OpenAI Launches GPT-5.4 Mini and Nano Models Optimized for Coding and Subagents
Publicidad
Publicidad

OpenAI anunció hoy el lanzamiento de los modelos GPT-5.4 mini y nano, ampliando su cartera de inteligencia artificial. Estas versiones pequeñas están optimizadas para cargas de trabajo de alto volumen y requieren una respuesta rápida. La compañía afirma que estos modelos acercan las capacidades del GPT-5.4 original a entornos donde la velocidad es crítica.

El modelo GPT-5.4 mini mejora significativamente sobre su predecesor en codificación, razonamiento y uso de herramientas. Según los datos internos, funciona más de dos veces más rápido que el GPT-5 mini mientras mantiene un rendimiento superior. Este rendimiento se aproxima al del modelo grande en varias evaluaciones técnicas importantes.

La versión nano representa la opción más económica para tareas donde el costo es el factor determinante. Se recomienda para clasificación de datos, extracción y agentes subordinados que manejan tareas de soporte simples. Los desarrolladores pueden utilizarlo para procesar información sin incurrir en gastos elevados de computación.

Estos sistemas están diseñados para aplicaciones donde la latencia moldea directamente la experiencia del usuario final. Asistentes de codificación que necesitan sentirse receptivos y sistemas basados en computadora que interpretan capturas de pantalla son ejemplos clave. En estos escenarios, el modelo más grande no siempre es la mejor elección para el flujo de trabajo diario.

OpenAI destaca la utilidad de estos modelos en arquitecturas de agentes compuestos donde múltiples sistemas colaboran. Un modelo más grande puede gestionar la planificación mientras delega tareas específicas a subagentes más pequeños y rápidos. Este patrón permite a los desarrolladores escalar operaciones sin depender de un único modelo potente para todo.

Las pruebas de rendimiento muestran que GPT-5.4 mini supera consistentemente a GPT-5 mini en latencias similares. En benchmarks como SWE-Bench Pro y OSWorld-Verified, el modelo se acerca al rendimiento del GPT-5.4 original. Los costos se estiman basándose en la API pública al momento del lanzamiento y pueden cambiar en el futuro.

El modelo mini está disponible ahora en la API, Codex y ChatGPT con opciones de entrada de texto e imagen. Los precios se fijan en 0.75 dólares por un millón de tokens de entrada y 4.50 dólares por salida en la versión mini. La versión nano se ofrece solo en la API con costos reducidos de 0.20 dólares para entrada y 1.25 dólares para salida.

La disponibilidad en Codex permite a los usuarios manejar tareas de codificación más simples por un tercio del costo habitual. Los usuarios de ChatGPT pueden acceder a la versión mini a través de la función de pensamiento para ciertos niveles de suscripción. Esta estrategia refleja un cambio hacia la eficiencia en la infraestructura de inteligencia artificial de la compañía.

El lanzamiento sugiere que el futuro de la IA empresarial dependerá de la orquestación de modelos en lugar de un único gigante. Los ingenieros podrán componer sistemas donde la lógica compleja y la ejecución rápida coexisten sin fricción. Se espera que esta flexibilidad impulse nuevas aplicaciones en automatización de software y análisis de datos.

Publicidad
Publicidad

Comentarios

Los comentarios se almacenan localmente en tu navegador.

Publicidad
Publicidad