OpenAI发布GPT-4.1系列模型:百万token处理成本降26%
【环球网科技综合报道】4月15日消息,OpenAI正式推出GPT-4.1系列模型,涵盖GPT-4.1、GPT-4.1 mini和GPT-4.1 nano三款子模型,所有版本均需通过API接口调用。此次升级被视为GPT-4o的“进化版”,在多模态处理、上下文容量及成本效率上实现全面突破。
GPT-4.1系列的核心亮点在于其多模态处理能力的显著增强。相较于GPT-4o,新模型在图像-语音-文本实时转换延迟降低63%,尤其在医疗影像标注、工业图纸协同编辑等专业场景中表现突出。此外,GPT-4.1的上下文窗口扩展至100万个token,是GPT-4o的8倍,能够处理超大型代码库或长文档,支持“大海捞针”式精准信息检索。
在性能提升的同时,GPT-4.1系列通过推理栈优化与提示缓存技术,大幅降低使用成本。据OpenAI官方数据,GPT-4.1的输入费用为每100万token 2美元,输出费用为8美元,相较于GPT-4o,中等规模查询成本降低26%。对于重复使用相同上下文的查询,OpenAI还将提示缓存折扣从50%提高至75%,进一步压缩开发者支出。
除标准版GPT-4.1外,OpenAI同步推出两款轻量化模型:GPT-4.1 mini:性能接近GPT-4o,延迟降低近50%,成本减少83%,适合资源受限的边缘设备;GPT-4.1 nano:体积缩小80%,MMLU基准测试得分80.1%,成为分类与自动补全任务的“性价比之王”,特别适配智能手表、物联网设备等场景。两款轻量模型均支持离线运行,满足开发者对低延迟、低能耗的需求。
OpenAI同步更新了API经济模型,GPT-4.1系列现已对所有开发者开放。此外,o4-mini生态已完成阿里云、华为云等平台适配,推理速度提升40%,中小企业月费最低99美元起。这一举措旨在推动AI技术的普惠化,降低企业级应用的部署门槛。
OpenAI首席执行官Sam Altman表示,GPT-4.1系列的发布标志着模型策略从“大而全”向“精细化、多层次”演进。大模型仍是基础,但围绕具体场景的轻量模型将成为未来生态的核心。这一转变或将重塑AI行业竞争格局,推动技术从云端向边缘设备渗透。(青山)