最近,似乎全世界都在围剿ChatGPT。
前一阵由马斯克、图灵奖得主Bengio等大佬联名发起的暂停高级AI研发的公开信,现在签名已经上升到9000多人。
即使全世界都对超级AI如临大敌,想赶紧悬崖勒马,恐怕也为时已晚。
因为,如今的AI,已经学会自我进化了!
前段时间,前谷歌大脑研究工程师Eric Jang发现:GPT-4能够以合理的方式批评自己的成果。
与其为大型语言模型(LLM)寻找完美的提示(让我们一步一步思考),不如让LLM评估自己的输出并立即纠正自己的错误。
甚至连特斯拉前AI总监,OpenAI研究科学家Andrej Karpathy大赞,这是一个很好的例子,说明我们还没有看到GPT-4的最大能力。
在Eric Jang给出的例子中,曾看到微软研究员发推说GPT-4根本无法写出「不押韵」的诗歌。
然而,当再去询问GPT-4是否完成了任务。这时,它道歉后,生成了一个不押韵的诗!可以说是满分。
这恰恰印证了GPT-4是有「反思」能力的。
最近,来自美国东北大学、MIT等机构研究者提出了Reflexion(反思)。这一方法赋予智能体动态记忆,以及自我反思的能力。
研究人员诺亚·希恩和阿什温·戈皮纳特写道:“人类利用曾经被认为是人类智力独有的决策过程,开发出新的技术来达到最先进的标准,这种情况并不是每天都会发生的。”“但是,这正是我们所做的。”
Reflexion 利用GPT-4的各种能力来进行不同的测试,并引入了一个框架,允许AI模拟类似人类的自我反思行为并评估其表现。在这个过程中,它引入了额外的步骤,在这些步骤中,GPT-4设计测试来质疑自己的答案,寻找错误和失误,然后根据发现的结果重写答案。
Reflexion智能体的整体架构
为了验证方法的有效性,研究人员评估了智能体在AlfWorld环境中完成决策任务的能力,以及在HotPotQA环境中完成知识密集型、基于搜索问答任务的能力。
在Alfworld测试中,Reflexion(反思机制)将GPT-4的成功率从73%左右提高到接近完美的97%,在134项任务中只有4项失败。
在另一项名为HotPotQA的测试中,GPT-4的准确率仅为34%,但应用反思机制的GPT-4的准确率显著提高,达到54%。
在HumanEval测试中,也就是测试模型编写代码的能力时,GPT-4准确率是67%,但通过反思机制,它的准确率跃升至令人印象深刻的88%。该测试包含了模型从未见过的164个Python编程问题。
有网友便表示,你可以通过要求 GPT-4 反思「你为什么错了?」,并为自己生成一个新的提示,将这个错误原因考虑在内,直到结果正确,从而将GPT-4的性能提高惊人的30%。
这样看来,就像Eric Jang所说,
我们现在可以考虑一种「后缀提示工程」,而不是巧妙的「前缀提示工程」。这将鼓励LLM在先前生成的解决方案中找到更正和不一致的地方。
本文综合自新智元,原文标题为《GPT-4超强进化,近万人联名封杀!白宫紧急开会,ChatGPT概念股暴跌》,以及AI Explained的视频,《GPT 4 Can Improve Itself - (ft. Reflexion, HuggingGPT, Bard Upgrade and much more)》