OpenAI 于今日正式宣布发布 GPT-5.4 mini 和 nano 两款新模型。这两款产品旨在提供更快的推理速度和更高的成本效益,针对高吞吐量工作负载进行了优化。它们将作为 API、Codex 和 ChatGPT 的一部分向全球开发者开放。这一举措标志着公司在模型效率优化上的最新进展。公司强调这些模型是为特定场景设计的,以平衡速度与能力。
GPT-5.4 mini 在编码、推理和多模态理解方面显著优于 GPT-5 mini。根据官方数据,其运行速度比前代产品快两倍,同时保持了高水平的准确性。该模型在 SWE-Bench Pro 等基准测试中接近 GPT-5.4 的表现,展示了强大的推理能力。这意味着开发者可以在保持高性能的同时减少等待时间。多模态能力的提升使其能够处理复杂的图像理解任务,进一步扩展了应用场景。
GPT-5.4 nano 是体积最小且最便宜的版本,适合对成本极度敏感的任务。它适用于分类、数据提取和简单的编码子任务。对于延迟敏感的场景,该模型提供了极高的性价比。OpenAI 推荐将其用于处理支持性的简单工作负载。这种设计允许企业在控制成本的同时享受模型技术,无需为所有任务付费。
这些模型特别适用于需要快速迭代的编码工作流,能够显著提升开发效率。它们能够处理代码库导航和调试循环等任务,响应速度非常快。低延迟特性使得代码助手在用户交互中更加直观和自然。开发人员反馈称这种速度提升对日常开发效率至关重要。代码生成和修复的循环时间因此被大幅缩短,加快了产品发布。
OpenAI 建议开发者采用混合模型架构,结合不同规模模型的优势。大型模型负责规划和协调,小型模型执行具体的子任务。这种模式允许系统以并行方式处理更广泛的请求,提高整体效率。Codex 已经展示了这种架构在实际应用中的潜力。通过这种方式,系统可以在不牺牲质量的情况下最大化吞吐量,优化资源分配。
在定价方面,GPT-5.4 mini 的输入成本为每百万 tokens 0.75 美元。输出成本则设定为每百万 tokens 4.50 美元,符合当前市场标准。相比之下,GPT-5.4 nano 的输入价格仅为 0.20 美元,极具竞争力。这种定价策略旨在降低大规模部署的门槛,吸引更多开发者。企业需要根据具体任务需求选择合适的模型规模以控制预算。
在 Codex 应用中,GPT-5.4 mini 仅消耗 GPT-5.4 配额 30% 的资源。这使得开发者能够以三分之一成本处理较简单的编码任务,节省了大量开支。ChatGPT 免费用户也可以通过思考功能访问该模型,提升使用体验。其他用户则可在遇到速率限制时自动降级使用,保障服务连续性。该功能目前已在多个平台正式上线,供用户选择。
此次发布标志着 OpenAI 在模型效率上的重大进展,反映了行业技术趋势。行业趋势正转向更细粒度的模型组合策略,不再依赖单一模型。未来系统将更多依赖大小模型协同工作,实现资源的最优配置。这种分工模式有助于平衡性能与资源消耗,提高整体系统稳定性。随着小模型能力的增强,这种策略将变得更加普遍,改变开发模式。
开发者现在可以开始测试这些模型在实际生产环境中的表现,收集反馈。后续关注点将集中在多模态任务的处理能力上,特别是屏幕理解方面。计算机使用场景的优化将是下一阶段的重点,提升自动化水平。OpenAI 表示将持续监控这些模型的安全性和稳定性,确保合规。系统安全卡片将提供额外的部署安全信息,供技术人员参考。