今天,OpenAI正式发布了更新版的GPT-4 Turbo——gpt-4-0125-preview。
不仅大幅改善了模型「偷懒」的情况,而且还极大地提升了代码生成的能力。
与此同时,OpenAI还发布了一系列模型和API更新,总体来说就是「更强的性能,更低的价格」。
- GPT-3.5 Turbo更新——gpt-3.5-turbo-0125。输入价格大降50%,输出价格下降25%。性能上也有升级。
- 「迄今为止最强」的审核模型text-moderation-007,帮助开发者有效地识别有害文本。
两个新一代embedding模型:
- text-embedding-3-small,体积更小效率更高,价格直接砍到了原模型20%!支持512维和1536维两种大小。
- text-embedding-3-large,性能相比之前模型大幅提升,高达3072维的嵌入向量,价格是小模型的6.5倍。
最后,OpenAI还强调称,用户通过API传送的数据,都不会被用于训练新的模型。
GPT-4更强了,变懒bug修复
自从去年11月份开发者大会发布GPT-4-Turbo以来,超过70%的GPT-4 API用户已经转用了GPT-4-Turbo预览版,从而能够享受最新的知识戒指日期、更大的128k上下文窗口和更低的价格。
最新更新的GPT-4-Turbo 预览模型——gpt-4-0125-preview在执行任务(如代码生成)方面比之前的预览版要更强,能够减少模型有可能出现的「偷懒」现象。
新模型还修复了一个影响非英文UTF-8生成的漏洞。
对于那些希望自动升级到最新GPT-4-Turbo预览版的用户,OpenAI还推出了一个新的模型名别名gpt-4-turbo-preview,它将始终指向最新的GPT-4-Turbo预览版模型。
在未来几个月内,OpenAI还会推出具备视觉功能的GPT-4-Turbo正式版。
GPT-3.5-Turbo喜迎「降价增效」
下周,OpenAI即将推出新版的GPT-3.5-Turbo,型号为gpt-3.5-turbo-0125。
在过去的一年里,OpenAI已经第三次下调GPT-3.5-Turbo的价格。
新模型的输入价格下降了50%,现为0.0005美元/1k token;输出价格下降了 25%,现为0.0015美元/1k token。
此外,模型还进行了多项改进,比如提高了按要求格式响应的准确性,并修复了一个导致非英文语言函数调用出现文本编码问题的漏洞。
在API中使用固定gpt-3.5-turbo模型名称的用户,将在这款新模型推出两周后,自动从gpt-3.5-turbo-0613升级至gpt-3.5-turbo-0125版本。
全新嵌入模型2连发:性能大涨价格狂降
OpenAI推出了两款新的嵌入模型:体积更小、效率更高的text-embedding-3-small模型,以及更大、性能更强的text-embedding-3-large模型。
所谓嵌入(Embedding),就是将内容(如文字或代码)中的概念转化为一串数字序列。
通过这种方式,机器学习模型和其他算法可以轻松理解不同内容之间的关系,执行聚类、检索等操作。
嵌入技术为 ChatGPT 和 Assistants API 中的知识检索功能,以及许多检索增强生成(RAG)开发工具提供了强大动力。
「小」文本嵌入模型:text-embedding-3-small
text-embedding-3-small是OpenAI的新型高效嵌入模型,与2022年12月推出的前代产品text-embedding-ada-002相比,性能有了大幅提升。
-性能更强
在多语言检索(MIRACL)的常用基准测试中,text-embedding-3-small的平均得分从31.4%提高到44.0%,在英语任务(MTEB)的常用基准测试中,平均得分从61.0%提高到 62.3%。
- 价格实惠
text-embedding-3-small远比OpenAI之前的text-embedding-ada-002模型效率高,因此价格也大幅降低了5倍,从每千token的0.0001美元降至0.00002美元。
OpenAI不会停用text-embedding-ada-002,尽管OpenAI更推荐用户使用新模型,客户仍可选择继续使用上一代产品。
「大」文本嵌入模型:text-embedding-3-large
text-embedding-3-large是OpenAI的新一代大型嵌入模型,能够生成高达3072维的嵌入向量。
text-embedding-3-large是OpenAI目前性能最强的模型——
与text-embedding-ada-002相比,它在MIRACL上的平均得分从31.4%提升至54.9%,在MTEB上的平均得分从61.0%提升至 64.6%。
text-embedding-3-large的价格定为0.00013美元/1k token。
灵活调整嵌入向量
相比于小型嵌入,大型嵌入的存储和检索,如放置于向量存储库中,往往需要更高的成本,也消耗更多的计算资源、内存和存储空间。
OpenAI的两款新嵌入模型均采用了一种特殊的训练技术,使得开发者可以在嵌入的使用成本和性能之间做出权衡。
具体来说,开发者可以通过设定dimensions API参数来有效缩短嵌入向量的长度(也就是去掉数列末端的一些数字),而这样做不会影响嵌入向量代表概念的核心特性。
例如,在MTEB基准测试中,即使将text-embedding-3-large嵌入向量的长度缩减到 256,它的性能仍然超过了长度为1536的未经缩减的text-embedding-ada-002嵌入向量。
这种做法极大地增加了使用上的灵活性。
比如说,当开发者需要使用一个只支持最大1024维度嵌入向量的向量数据存储时,可以选择OpenAI性能最佳的嵌入模型text-embedding-3-large,并通过设置dimensions API参数为1024,从而将原本3072维的嵌入向量缩减下来,以较小的向量尺寸为代价换取了准确度。
迄今最强的内容审核模型
OpenAI提供的免费内容审核API可以帮助开发者识别可能有害的文本。
作为OpenAI持续安全工作的一部分,OpenAI发布了迄今为止最强大的内容审核模型text-moderation-007。
此前的text-moderation-latest和text-moderation-stable,也将重新指向这个新模型。
API后台更新,更好的API密钥管理
OpenAI正在推出两项重要的平台升级,旨在为开发者提供对他们的API使用情况更清晰的洞察,并加强对API密钥的管理。
首先,开发者可以直接在API密钥页面设置不同的密钥权限。
举个例子,用户可以为一个密钥配置只读权限,以便用于内部的跟踪数据面板,或者设置为仅限访问某些特定的接口。
其次,一旦开启了密钥使用跟踪功能,使用仪表盘和数据导出功能就能够提供基于每个API 密钥的详细使用指标。这样一来,只需为不同的功能、团队、产品或项目分配独立的 API 密钥,就可以轻松地监控到各自的使用情况。
在接下来的几个月里,OpenAI计划为开发者提供更多便利,让他们能够更好地监控 API 使用情况并管理 API 密钥,这一点对于大型组织来说尤其重要。
参考资料:
https://openai.com/blog/new-embedding-models-and-api-updates
本文来源:新智元,原文标题:《GPT-4「变懒」bug被修复,价格暴降80%!OpenAI连更5款新模型,性能狂飙》