OpenAI持续加码轻量级AI:Mini与Nano模型正式亮相
继GPT-5.4发布仅两周后,OpenAI再度推出两款专为高效率场景设计的新型模型——GPT-5.4 Mini与GPT-5.4 Nano。这两款产品并非传统意义上的精简版,而是针对低延迟、低成本任务深度优化的独立架构,旨在解决实时交互中对响应速度的严苛要求。
聚焦低延迟场景的专用模型设计
公司强调,此类模型并非牺牲智能换取速度,而是基于特定工作流进行定向训练。例如,在客服自动化、实时文档解析或高频表单处理等场景中,毫秒级响应已远超准确率需求。开发者不再需要为简单任务调用资源密集型旗舰模型。
性能表现逼近主流水平
在编码能力评估基准SWE-Bench Pro中,GPT-5.4 Mini取得54.4%的准确率,显著优于旧版的45.7%,且仅略低于完整版GPT-5.4的57.7%。其在桌面操作能力测试OSWorld-Verified中达到72.1%,虽稍逊于旗舰模型的75.0%,但均已超越人类平均水平(72.4%)。与此同时,GPT-5.4 Nano在相同测试中分别获得52.4%与39.0%的成绩,相较前代实现跨越式提升。
多模型协同架构开启新范式
内部技术评审指出,当前系统已可实现“大模型统筹规划、小模型并行执行”的高效分工模式。大型模型负责复杂任务分解与策略制定,而多个轻量级模型则同步承担代码检索、信息提取、格式转换等具体操作,形成弹性协作网络。
商业化定价策略凸显普惠价值
API调用方面,GPT-5.4 Mini每百万输入token收费0.75美元,输出为4.5美元;而更轻量的GPT-5.4 Nano输入成本仅为0.2美元,输出1.25美元,输入费用约为Mini的四分之一。该价格体系使中小型团队每日处理海量请求具备经济可行性。目前,基础用户可通过“思考”功能体验Mini版本,付费用户在限额后将自动降级使用;而Nano仅开放给开发者通过API接入,定位明确为工具而非终端产品。