4月18日消息,为了更积极地与谷歌等竞争对手的人工智能公司竞争,OpenAI推出了名为“Flex处理模式”的新API服务。这一服务的主要特点是通过降低模型使用成本来吸引用户,但以牺牲响应速度和资源稳定性为代价。
具体来说,用户在使用Flex处理模式时,API费用将直接减半,但可能会面临响应时间变慢以及“偶尔资源不可用”的问题。OpenAI表示,Flex处理是OpenAI最近发布的o3和o4-mini推理模型的测试版,旨在处理模型评估、数据丰富和异步工作负载等低优先级和“非生产”任务。
Flex处理模式目前处于测试阶段,主要针对OpenAI最近发布的o3和o4-mini推理模型开放。这种策略表明OpenAI正试图通过灵活且经济的解决方案来扩大其市场影响力,尤其是在预算有限的用户群体中。
o3和o4-mini模型本身也具有显著的技术优势。其中,o3被认为是OpenAI发布过的最强大的推理模型之一,尤其在数学、编程和科学领域表现出色。而o4-mini则以其小巧高效的特点,在价格和性能之间实现了平衡。这些模型的推出为Flex处理模式提供了技术支持,并进一步增强了其吸引力。
值得注意的是,尽管Flex处理模式在成本方面具有明显优势,但其在响应速度和资源分配上的不确定性可能会影响用户体验。因此,该服务更适合那些对实时性要求不高、可以接受一定延迟的用户。
据悉,Flex处理模式将API成本降低了整整一半。对于o3,Flex处理价格为每百万输入令牌(Token)(约75万字)5美元,每百万输出令牌20美元,而标准价格为每百万输入令牌10美元,每百万输出令牌40美元。对于o4-mini,Flex将价格从每百万输入令牌1.10美元和每百万输出令牌4.40美元降至每百万输入令牌0.55美元和每百万输出令牌2.20美元。
OpenAI推出Flex处理模式是其应对人工智能市场竞争的重要举措。通过降低使用成本并专注于非生产性任务,OpenAI不仅能够吸引更多用户尝试其模型,还能进一步探索AI技术在更广泛领域的应用潜力。然而,这种模式是否能够长期吸引用户并推动OpenAI的发展,还需视其后续优化和市场反馈而定。
实际上,除了OpenAI之外,谷歌也推出了更便宜、更高效的预算导向型模型。4月17日,谷歌推出了Gemini 2.5 Flash ,据传这款推理模型的性能与DeepSeek R1相当,而且输入令牌成本更低。
