微软Copilot史诗级更新!代码解释器、DALL·E 3,ChatGPT有的它都有

量子位
微软这次是把GPT有的功能几乎全搬进了Copilot,例如代码解释器,DALL·E 3绘图功能,搜索与多模态结合,深度搜索,Edge专属功能等。
Copilot发布一周年之际,将迎来一系列重磅更新!
 
聊天将支持128k上下文,ChatGPT的代码解释器也将被引入……
 
可以说,微软这次是把GPT有的功能几乎全搬进了Copilot。
 
不仅功能完备,Copilot的入口更加丰富多样,响应速度也更快捷,关键是还免费。

就在宣布更新几天前,Copilot刚刚结束近一年的预览阶段,转而成为正式版本。

同时微软还宣布,Copilot在这一年中已经产生了数十亿次聊天。
 
 
那么,此次Copilot都更新了什么内容呢?

新增代码解释器

首先来看从GPT中搬来的功能,包括新功能的引入和既有功能的强化。

模型层面,微软计划在Copilot中使用GPT4-Turbo模型进行响应,这意味着将支持128k长度的上下文窗口。

微软执行副总裁Yusuf Medhi说,GPT-4 Turbo将在未来几周内广泛集成到 Copilot 中。
 
 
而ChatGPT中最好用的高级数据分析(原代码解释器)功能也确定将在Copilot中被复刻。

与ChatGPT相似,Copliot中的代码解释器将支持在沙盒环境中运行Python代码

沙盒中预装了许多流行的数据科学工具和库,例如numpy、matplotlib等,以解决复杂的问题。

同时,Copilot还可将用户上传文件和网络搜索结果与代码解释器结合,得到交互式输出。

目前这项功能正在进行小范围测试,并将很快向公众提供。
 
 
除了新功能之外,Copilot中已经集成的DALL·E 3绘图功能也将迎来升级。

和原版相比,搭载新版DALL·E 3的新Copilot在细节的处理上更为细腻。

微软在通告中具体展示了一组对比:
photorealistic stegosaurus having its bony plates attended to by a nail salon
而关于Bing的老本行——搜索,此次也有两项更新。

首先是搜索与多模态的结合,Copilot将可以通过视觉模型识别到的内容,自动搜索关联信息,生成更为准确详细的回答。

微软展示的案例中,用户上传了一张火箭发射的照片,并提问发射时间,Copilot在识别火箭型号后再网络中对答案进行了搜索。
 
 
另一项则是深度搜索,在GPT-4的加持下,Copilot可以更好地理解用户意图,在有歧义时还会进一步询问,以消除歧义。

比如我们问及了关于“subway”的问题,它既可以指地铁,也可以指一家快餐店,这时Copilot就会确认意图,使结果更有针对性。

GPT-4还会根据搜索结果与综合描述的匹配程度对它们进行排名,让答案变得更好。

还有Edge专属功能

此外,此次更新中还推出了一些Edge浏览器中的限定功能,目前已经可以体验。(如果没有,可以尝试使用Dev版本)

此前Edge侧边栏中的Copilot已经可以对网页内容进行总,现在这项功能也已经升级,可以对YouTube中的视频进行理解。

比如下面这段OpenAI开发者日的开场视频,Copilot不仅总结出了整体内容,还提炼出了关键时间点,就连奥特曼登场的时间都能标记出来。
 
 
同样在侧边栏中,文本生成功能也迎来一项改进——Copilot中生成的文本,可以一键填写到网页输入框中。

比如我们想给马斯克写邮件订购一辆Cybertruck,只要在侧边栏的生成菜单中输入需求并选择风格和长度,生成只要点击“Add to site”就可以放到输入框中,省去了选中再复制粘贴的过程。
 
 
你期待Copilot这波更新吗?
 
本文来源:量子位,原文标题:《微软Copilot进化完全体,代码解释器、DALL·E 3,ChatGPT有的它都有》
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。