xiand.ai
科技

OpenAI 发布 GPT-5.4 mini 和 nano,优化编码与子代理工作流

OpenAI 今日推出 GPT-5.4 mini 和 nano 两款新模型,专为高容量工作负载设计。这两款模型在编码和推理任务中速度提升显著,并接近大型模型性能。该发布旨在降低开发者成本并提升响应速度,推动 AI 应用架构向高效分层发展。

La Era

1 分钟阅读

OpenAI Launches GPT-5.4 Mini and Nano Models Optimized for Coding and Subagents
OpenAI Launches GPT-5.4 Mini and Nano Models Optimized for Coding and Subagents
Publicidad
Publicidad

美国人工智能公司 OpenAI 于今日正式推出了 GPT-5.4 mini 和 nano 两款新模型。这两款产品旨在提供比现有 GPT-5 系列更快、更高效的解决方案。它们专为高容量工作负载设计,特别是在编码和子代理任务中表现突出。该发布体现了公司在模型效率优化方面的持续投入,并回应了市场对低延迟推理的需求。

GPT-5.4 mini 在编码、推理和多模态理解方面显著优于 GPT-5 mini 版本。该模型运行速度是前代版本的两倍以上,同时接近 GPT-5.4 大型模型的性能水平。在 SWE-Bench Pro 和 OSWorld-Verified 等评估中,其表现十分接近。这意味着开发者可以在保持速度的同时获得更高质量的代码输出,无需牺牲性能。

GPT-5.4 nano 是该系列中最小且最经济的版本。它适用于对速度和成本最为敏感的任务,如分类和数据提取。相比 GPT-5 nano,它在简单支持任务的处理能力上有了显著提升。OpenAI 建议将其用于处理较简单的辅助工作,以节省资源并降低成本。

这些模型适用于延迟直接影响产品体验的场景。代码助手需要快速响应,计算机使用系统需要实时解读截图。在这种情况下,响应速度往往比模型大小更重要。低延迟对于构建流畅的用户交互界面至关重要,尤其是在实时互动应用中。新模型能够处理多模态数据,确保推理过程中的即时反馈。

在 Codex 等系统中,大型模型负责规划,小型模型执行子任务。这种分层工作流允许开发者并行处理搜索或文件审查等狭窄子任务。随着小型模型能力的增强,这种模式将变得更加实用。开发者可以使用更大模型决定做什么,而让小模型快速执行,从而实现资源的最优配置。这种架构模式有助于分散计算压力。

在编码工作流中,GPT-5.4 mini 表现出强大的迭代能力。它能够处理针对性编辑、代码库导航和调试循环,且延迟较低。基准测试显示,它在相似延迟下持续超越 GPT-5 mini。这为需要快速迭代的开发环境提供了有力支持,有助于加速软件开发周期。前端生成任务因此变得更加高效。

GPT-5.4 mini 在 API 端支持文本和图像输入,并提供工具调用功能。其上下文窗口达到 40 万,能够处理复杂的文件搜索和网页搜索任务。在 Codex 中,该模型仅使用 30% 的 GPT-5.4 配额,使开发者能以更低成本处理简单编码任务。这种设计使得大规模代码生成变得更加经济可行。API 定价策略进一步明确了成本结构。

这一发布标志着 AI 应用开发向更高效架构的转变。开发者不再依赖单一大型模型处理所有任务,而是构建组合系统。这种趋势有助于平衡性能成本与功能复杂性,推动行业向更务实的方向发展。企业需要重新评估其技术栈以利用这种分层策略。成本效益分析将成为关键决策因素。

对于 ChatGPT 用户而言,GPT-5.4 mini 的引入丰富了免费和 Go 版的体验。系统会在 GPT-5.4 Thinking 遇到速率限制时自动降级使用该模型。这确保了所有用户都能在合理成本下获得高质量的智能服务支持。同时,它也缓解了高端模型的计算压力。免费用户因此获得了更强的推理能力。

未来,随着模型在特定任务上更加专精,系统效率将进一步提升。开发者需要关注如何在复杂工作流中合理分配不同规模的模型资源。这将决定下一代 AI 产品的实际落地能力和市场竞争力。OpenAI 将继续监控这些模型在实际应用中的表现。安全合规性也将是后续关注的重点。

Publicidad
Publicidad

评论

评论存储在您的浏览器本地。

Publicidad
Publicidad