吴恩达:AI智能体工作流今年将有巨大进展,可能是下一个突破方向

Datawhale
通过智能体工作流,我们可以要求 LLM 多次迭代文档。

下一步是智能体?

随着 ChatGPT、GPT-4、Sora 的陆续问世,人工智能的发展趋势引起了广泛关注,特别是 Sora 让生成式 AI 模型在多模态方面取得显著进展。人们不禁会问:人工智能领域下一个突破方向将会是什么?

今天,人工智能著名学者、斯坦福大学教授吴恩达指出:AI 智能体工作流将在今年推动人工智能取得巨大进步,甚至可能超过下一代基础模型。他呼吁所有从事人工智能工作的人都关注 AI 智能体工作流,并撰写一篇博客简单阐述了原因。

我们对博客内容进行了不改变原意的编译、整理,以下是博客内容:

当前,我们主要在零样本模式下使用 LLM,提供 prompt,逐个 token 地生成最终输出,没有进行调整。

这类似于要求某人从头到尾写一篇文章,直接打字,不允许退格,并期望得到高质量的结果。尽管有困难,LLM 在这项任务上仍然表现得非常好!

然而,通过智能体工作流,我们可以要求 LLM 多次迭代文档。例如,它可能需要执行一系列步骤:

规划大纲;

决定需要进行哪些网络搜索(如果需要),来收集更多信息;

写初稿;

通读初稿,找出不合理的论点或无关信息;

修改草稿;

......

这个迭代过程对于大多数人类作家写出好的文本至关重要。对于人工智能来说,这种迭代工作流会比单次编写产生更好的结果。

Cognition AI 团队发布的首个 AI 软件工程师 Devin 最近在社交媒体上引起了广泛关注。吴恩达的团队一直密切关注 AI 编写代码的发展,并分析了多个研究团队的结果,重点关注算法在广泛使用的 HumanEval 编码基准上的表现。

如下图所示,吴恩达的团队发现:GPT-3.5(零样本)的正确率为 48.1%,GPT-4(零样本)的表现更好,为 67.0%。然而,相比于迭代智能体工作流,从 GPT-3.5 到 GPT-4 的改进不大。事实上,在智能体循环(agent loop)中,GPT-3.5 的正确率高达 95.1%。

开源智能体工具和有关智能体的学术文献正在激增。这是一个令人兴奋的时刻,也是一个令人困惑的时刻。为了帮助人们正确看待这项工作,吴恩达分享了一个对构建智能体的设计模式进行分类的框架。

简单来说,这个框架包括:

反思:LLM 检查自己的工作,以提出改进方法。

工具使用:LLM 拥有网络搜索、代码执行或任何其他功能来帮助其收集信息、采取行动或处理数据。

规划:LLM 提出并执行一个多步骤计划来实现目标(例如,撰写论文大纲,然后进行在线研究,然后撰写草稿......)。

多智能体协作:多个 AI 智能体一起工作,分配任务并讨论和辩论想法,以提出比单个智能体更好的解决方案。

吴恩达表示 AI Fund 已在许多应用程序中成功使用这些模式,后续他将详细阐述这些设计模式。

文章来源:Datawhale,原文标题:《吴恩达:AI智能体工作流今年将有巨大进展,可能是下一个突破方向》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章