ChatGPT大升级!更便宜,更快,允许更长文本,最重磅的是“调用函数”

有了函数调用能力,GPT不再需要开发者描述复杂的提示语,它自己能够决定是否动用外部工具来解决问题,不仅显著提高了反应速度,还大大降低了出错的可能性。

隔夜,OpenAI迎来重磅更新和降价!

当地时间6月13日,OpenAI官网宣布“更新更可调的API模型、函数调用功能(Function calling)、更长的上下文和更低的价格”,发布更高效更低成本的版本。

其中最重磅的更新是函数调用能力。

据OpenAI介绍,开发者现在可以向gpt-4-0613和gpt-3.5-turbo-0613两个模型描述函数,并让模型智能地选择输出一个包含参数的JSON(JavaScript Object Notation,一种数据交换的文本格式)对象,来调用这些函数。若将GPT功能与外部工具或API进行连接,这种方法更加可靠。

在英伟达首席科学家Jim Fan看来,函数调用=更好利用API工具=更强大的LLM与数字执行器(Digital Actuator)。

简单来说,GPT不再需要开发者描述复杂的提示语,它自己能够决定是否动用外部工具来解决问题,不仅显著提高了反应速度,还大大降低了出错的可能性。

比如,如果用户问GPT:今天的天气如何,它会自动调用第三方天气API,检索相关数据并做出准确回答。

大幅降价也令开发员为之欢呼。

官网公告显示,不同版本降价幅度不同,OpenAI最先进、用户最多的嵌入模型Text-embedding-ada-002降价75%;用户最多的聊天模型gpt-3.5-turbo降价25%。

此外,OpenAI还推出了gpt4-16k平替版——gpt-3.5-turbo-16k,价格为每输入1000 tokens 0.003美元,相当于降价95%!

值得注意的是,gpt-3.5-turbo-16k能够实现16000 tokens的上下文长度,相当于普通版gpt-3.5-turbo的4倍。而在价格方面,gpt-3.5-turbo-16k只是gpt-3.5-turbo的两倍。

不过,该模型一次只能读取大约20页的文本,明显低于AI初创公司Anthropic的旗舰模型,该模型可以处理数百页文本。

也与此同时,OpenAI宣布,未来几周内将邀请更多人试用GPT-4。

众所周知,开发像ChatGPT这样的大语言模型成本巨大,如今OpenAI在升级模型的同时大幅降价,底气何在?

当地时间周二,OpenAI 首席执行官 Sam Altman在新加坡管理大学演讲时表示,OpenAI 每三个月左右就能将推理成本降低90%。

我们希望不断降低情报成本。我们希望让这些东西变得非常便宜,便宜到你根本不需要犹豫。

“我们计划在未来继续大幅削减成本。我们必须不断取得研究突破,才能做到这一点,”他补充说。

Altman还表示:

我们拥有足够复杂的语言(模型)和足够强大的计算机,我们可以让AI越来越大。

我们将使模型更有效率。我们要创造更多筹码。我认为这显然是世界想要的,市场也会提供。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。