①奥特曼认为AI在提升生产力方面已显现积极作用,但网络安全等问题也随之而来。
②GPT-4o能覆盖97%人群的母语,奥特曼承诺将持续改进,解决语言公平性问题。
③面对AI治理的挑战,OpenAI成立安全委员会,奥特曼强调安全与效率并重。
④奥特曼预测在众多大语言模型,少数将会胜出;中国将会拥有自己独特的大语言模型。
⑤奥特曼认为AI可能使人类更谦卑,促使我们重新认识自身在宇宙中的位置。
在近日在瑞士举行的2024年的人工智能向善全球峰会(AI for Good Global Summit)上,OpenAI首席执行官山姆·奥特曼(Sam Altman)通过视频连线,与《大西洋月刊》的CEO尼古拉斯·汤普森(Nicholas Thompson)展开了深入的交流。该峰会由联合国国际电信联盟发起。
这场对话不仅触及了人工智能技术的前沿发展,更深入探讨了人工智能对全球社会、经济以及文化格局的深远影响。
在全球化的浪潮中,人工智能作为一项革命性技术,其发展速度和影响力前所未有。奥特曼在对话中特别提到,中国将在这个领域扮演重要角色,孕育出具有本土特色的大语言模型。这一预见不仅彰显了中国在全球人工智能领域中日益增长的影响力,也预示着未来技术发展的多元化趋势。
奥特曼预计,在未来将有10到20个大语言模型在全球范围内“存活”并发挥重要作用。这些模型将成为推动各行各业发展的关键力量,同时也将引发对技术伦理、数据安全和国际合作的全新思考。奥特曼的洞察提醒我们,面对人工智能技术的快速发展,我们需要建立一个更加包容和协作的全球治理体系,确保技术进步能够惠及全人类,而不是成为新的分化力量。
以下为此次对话的全文:
大语言模型的未来与技术伦理
主持人:非常荣幸你能够参加今天的活动。在今天的访谈中,我期望探讨多个领域,包括人工智能的现状、未来趋势、关键议题以及治理问题。让我们先设定一个背景:我们正处在一个人工智能的有趣时期,人们普遍认识到其巨大潜力,尽管它尚未彻底改变世界或我们讨论的各个领域。我的问题不是这一变革何时到来,而是想问当人工智能开始真正产生影响时,我们首先会看到哪些积极和消极的影响?
奥特曼:目前,人工智能在提升生产力方面已经产生了影响。软件开发人员是最常见的例子,也是最能说明问题的例子。人们能够以更快、更有效的方式完成工作,更多地专注于他们所喜欢的工作。随着这些工具成为工作流程的一部分,人们很快就会发现,没有它们,工作将难以想象。我预计这种模式将在更多领域出现,我们会看到各行各业因为能够利用这些工具而变得更加高效,这将对编写代码、教育、学习、医疗保健等各个方面产生积极影响。效率的提升将是第一个明显可感知的积极成果。
至于消极影响,随着这些工具的出现,已经有一些负面效应。网络安全是我特别想提醒大家注意的问题,我认为这可能是一个相当严重的问题,不过我不确定它是否会是第一个出现的问题。
主持人:确实,这是一个极具吸引力的话题。在深入探讨这个问题的深层原因之前,我想先询问一下你正在训练的新模型。你刚刚宣布已开始开发下一代模型,无论是GPT-5还是其他名称。现场观众的主要担忧是,GPT-4和其他大语言模型在英语、西班牙语和法语上的表现要优于斯瓦希里语(一种在非洲广泛使用的语言)等语言。在训练产品的下一个重大迭代时,你如何看待语言公平性的重要性?
奥特曼:我不确定这是否是一个准备好的问题,但我欣然接受。我们对几周前发布的GPT-4o感到非常满意,因为它在更多种类的语言上都表现出色,我们将继续让未来的版本更加优秀。我们公布的统计数据显示,GPT-4o能够很好地覆盖97%人群的母语,这确实是一个巨大的进步。公众对此表示高度认可,我们亦将持续致力于此领域的进一步改进与发展。
主持人:我们把话题转向贵公司正在研发的下一代模型的后续进展。在它进行训练的过程中,你认为我们将看到怎样程度的提升?我们是否会经历线性增长,还是会迎来指数增长的显著飞跃,或者是否会有令人震惊的指数级提升?
奥特曼:这是一个极具洞察力的问题。我们并不认为我们正处于任何指数增长的临界点。然而,这是一个在全球范围内广泛讨论的话题。对我们而言,最好的策略是展示成果而非仅仅预言。众多人士正在提出各种预测,而我们的策略是致力于进行尽可能深入的研究,并随后决定如何负责任地发布我们所能创造的成果。我预期在某些领域将实现巨大的进步,在其他一些领域可能提升并不如预期显著,这与我们之前每次模型更新时的情况相似。当我们从3.0版本升级到3.5版本,再到4.0版本时,关于是否真的会有显著改进,将在哪些方面改进,都存在许多讨论。答案似乎是,我们仍然有很大的发展空间,我预计我们会在一些人们未曾预料到的领域取得进展。
人工智能的可解释性与安全性
主持人:现在网络中充斥着大量由其他大语言模型生成的合成数据,而这将是OpenAI首次在很大程度上使用合成数据来训练模型。你对使用这些由大语言模型创建的数据来训练大语言模型,可能引发的系统出错问题有多担忧?
奥特曼:我认为关键在于获取高质量的数据。无论是合成数据还是人类生成的数据,都存在质量良莠不齐的问题。只要我们能够收集到足够高质量的数据来训练模型,或者能够开发出提高数据效率的方法,从较少的数据量中学习更多,或者采用其他各种技术手段,我认为这个问题是可以解决的。我们有信心,我们拥有为开发下一代模型所需的一切资源。
主持人:OpenAI是否为了训练模型而创建了大量的合成数据?OpenAI是否自行生成了用于训练的数据?
奥特曼:我们自然已经进行了各种实验,包括大量生成合成数据。我期望的是,如果训练模型的最佳途径仅仅是创造数以万亿计的合成数据Tokens并将其重新输入系统,那显得非常不合常理。你可能会认为,这种方法在某种程度上显得效率不高,应该存在一种机制,让模型在训练过程中能够更有效地从数据中学习。我认为我们还有许多问题需要解决,但当然,我们已经生成了大量合成数据,用以进行训练方面的实验。然而,我认为你提问的核心是如何实现用更少的数据获得更多的学习成果。
主持人:这确实引人入胜,我之前并不知情。让我们探讨一个关键议题,我认为这将决定这些技术如何在世界范围内应用。去年,我有幸与Stripe的创始人帕特里克·科里森(Patrick Collison)进行了一次精彩的对话。他当时提出了一个深刻的问题:在人工智能领域,如果有某些变化,是否会让人类对人工智能可能给世界带来的巨大负面影响的担忧大为减少?
你曾经说,如果我们能够深入理解背后真正发生的事情、能够洞察单个神经元的活动,就像你希望人工智能模型能够传授某人化学知识,但不希望它教授如何制造化学武器一样,你期望这种控制能力是内嵌在模型的核心,而不仅仅是界面层。这样的理解是否正确?这个问题是否已经得到解决?
奥特曼:我认为,确保安全性需要一种全面的方法,而模型的可解释性显然是一个值得探究的领域,它可能在多个层面上发挥作用。尽管我们尚未解决可解释性问题,但我对正在发生的许多事情感到非常兴奋,尽管这还没有达到我可以宣布“大家可以放心,我们已经完全理解了”的地步。在我看来,我们对这些模型内部运作的理解越深入,我们就越能做出更好的决策。我相信,这可以成为我们构建和验证安全性声明的综合性方案的一部分。
主持人:如果你不完全理解正在发生的事情,这是否成为不继续推出更新、更强大模型的理由?
奥特曼:尽管我们无法在单个神经元层面上完全理解大脑的运作,但我们确信它能够遵循规则。除了在神经元层面的深入理解之外,还有许多其他方式可以帮助我们理解整个系统。这些系统的特质和行为已经被非常精确地界定。事实上,包括我自己在内的许多领域内的专家都对这一点感到惊讶:在新技术发展的历程中,我们能够如此迅速地让这些系统被普遍认为既安全又稳定。
主持人:我的妻子坦言,她有时难以完全理解我内心深处的思考过程,看来我们在这方面有着共鸣。在探究这种无法深刻理解的问题上,我们取得了哪些进展,或者是否有什么真正的突破?
奥特曼:最近,Anthropic的研究人员进行了一项实验,使人工智能模型Claude相信自己就是金门大桥。这展示出一些引人入胜的特性,这是我想特别指出的一个近期发展。
主持人:现在,让我谈谈今天早上我们在讨论安全性时,人道科技中心联合创始人兼执行主管特里斯坦·哈里斯(Tristan Harris)提出的一个建议。哈里斯在这个舞台上表示,大语言模型公司每投入100万美元用于增强模型的能力,也应同等投入100万美元于安全性研究,一比一的比例,你怎么看待这个建议?
奥特曼:我不确定这具体意味着什么。我认为,人们往往倾向于把世界简单地划分为性能与安全两个部分,并制定一些听起来很有道理的政策。但如果你审视我们为确保像GPT-4这样的模型安全所做的工作--该模型已经被数亿人用于日益频繁、重要且有价值的任务--你会发现,要界定许多工作的性质是非常困难的。因为如果你在生产中使用一个模型,你希望它能够完成既定任务,同时不会产生任何负面影响。
作为用户,你可能会感到困惑:究竟是我的需求得到了满足,还是模型的能力或安全性得到了提升,才导致了这项工作的完成?或者,这是否是两者的结合?例如,让模型在既定的界限内,按照用户的期望去运行。这是一个综合性的问题。尽管我已经提到过一个不太恰当的例子,但我仍将坚持使用它作为说明:就像你登上飞机,期望它能安全地将您送达目的地,同时你也希望在整个飞行过程中不会出现任何故障。在飞机设计中,有些部分可以明确区分为能力提升或安全措施,但总体而言,我们是在努力设计一个综合系统,旨在安全、迅速地将您带到目的地,并确保飞行中不会出现任何部件脱落的问题。这种界限,实际上并没有表面上看起来那么清晰。
人工智能与社会结构的演变
主持人:理解了,看来在某种程度上,你们多年的引擎研发工作都围绕着提升安全性展开。不过,让我换个角度来探讨这个问题。
奥特曼:我差点说出“安全是每个人的责任”,但那听起来像是典型的企业口号,所以我没有那样说。
主持人:这个问题之所以引起我的深思,部分原因在于,众所周知,OpanAI负责安全事务的联合创始人、首席科学家伊尔亚·苏茨克维(Ilya Sutskever)在最近离职,而另一位在安全领域作出重大贡献的成员杨·莱克(Jan Leike)也离开公司转投Anthropic,并在社交媒体X上表达了对公司未把安全性作为优先考虑的担忧。这无疑让在场的每个人感到忧虑,毕竟我们都在搭乘你们的“飞机”。山姆,我们需要你让我们相信,在这些关键人才离开之后,“飞机的机翼”依然稳固。
奥特曼:我认为,评价我们应基于我们的行动--我们发布的模型、所开展的工作、进行的科学研究。正如我之前所强调,如果回望GPT-3时代,人们对我们能否开发出既安全又可靠的系统持怀疑态度,然而几年后,我们所推出的产品已经达到了一个新的标准,这是众多团队共同努力的结果。我们进行了对齐研究、建立了安全系统、实施了监控措施。最近我们还采取了一系列有影响力的行动,我们能够做到这一点。虽然我们并不完美,但我们不断从实践中学习,能够在当前水平上取得这样的成就,这是我们深感自豪的。我还认为,把超级对齐团队与进行这些研究的团队更紧密地结合起来,正如我之前提到的,这将是一个积极的发展,有助于我们更有效地整合资源,推动研究向前发展。
主持人:我知道通用人工智能(AGI)一直是OpenAI的研究焦点,也是你经常讨论的话题。如果我在OpenAI工作,我可能会敲你的门,要求简短的会面。我会说,我明白为什么通用人工智能一直是研究的核心,它是所有人工智能研究者梦寐以求的目标,它在科幻小说中占有一席之地--构建一个能够像人类一样思考的机器,这代表着我们在地球上创造出的最卓越的智能体。但我对此感到担忧,因为许多人工智能的负面影响似乎源于其模仿人类的能力。你之前提到了网络安全,我们看到的许多问题都是因为人们可以轻易地冒充他人。我认为OpenAI的一些决策似乎在使机器更接近人类。例如,机器的打字方式有时模仿人类,使用“第一人称单数”,我们即将讨论的声音问题听起来非常人性化。为什么我们一直在让机器更像人类,而不是在认识到这些风险后改变方向呢?
奥特曼:我认为,设计与人类兼容的系统至关重要,但假设它们在思考方式、能力或局限性上与人类相似则是错误的。尽管我们通过人类文本数据进行行为克隆,但它们已经能够做到一些超乎人类的事情,而在某些方面又显得非常非人类。我总是试图将其视为一种外星智能,而不是将自己的拟人化偏见投射到它上面。我们之所以做出某些界面选择,而放弃其他选择,是因为我们相信要为一个与人类高度兼容的世界进行设计。
这些系统使用自然语言进行操作对我们来说非常重要,这似乎是正确的方向,并且从长远来看,我们可以预见到许多积极的安全特性。让人工智能尽可能地与人类相容,为人类设计,并以一种它们能够与我们用语言沟通的方式工作,这是一个非常重要的目标。也许它们之间也会用语言进行交流。我还认为,世界应该更倾向于人形机器人而不是其他形状或结构的机器人,以鼓励世界保持最大程度的人类导向。因此,我认为易于人类使用,包括将语言作为主要的交互方式,但不要在这些方面之外赋予它们太多的人类特征。例如,我们没有给我们的人工智能起一个人类的名字。我认为ChatGPT虽然名字听起来有些笨拙,但它很好地解释了自己的功能,并且由三个听起来像机器人的字母组成,这非常清楚地表明它不是人类。
主持人:是否规定ChatGPT永远不能使用第一人称“我”?
奥特曼:这实际上关乎于系统的人机相容性。我们曾尝试过这样的设计,但结果往往让用户感到更加挫败而非受益。在日常语言交流中,我们习惯使用某些习语。
主持人:在语音模型的使用上,比如在语音输出前加入一个提示音,明确告知这不是人类发声,我认为这是一个值得考虑的点。我们都知道,随着美国大选的临近,大家对深度伪造和错误信息的担忧与日俱增。在这样的背景下,我们如何验证信息的真实性?在产品设计的核心层面,我们可以采取哪些措施来减少这类问题的发生?
奥特曼:的确,像加入提示音这样的音频提示是可行的,但用户肯定不希望听到机械感过强的语音输出。这又回到了人机相容的问题,以及我们人类的本能反应。我必须说,自从使用了语音模型,我对它的喜爱超出了预期。它让我意识到,一个自然流畅的语音接口所具有的巨大价值,远超过我之前的认识。如果语音输出不接近人类的声音,我认为它不会那么吸引我,也不会有同样自然和流畅的体验。不过,提示音或其他形式的提示,都是可以考虑的方案。
我认为我们需要进一步研究用户对这些设计的反应,并计划在不久的将来推出相关功能。我对用户对ChatGPT的反馈感到鼓舞,用户很快就理解了:a) 它是人工智能;b) 它的局限性;c) 何时使用它,何时不使用它,以及如何将其融入日常使用。尽管语音模式是一个新事物,我对它将遵循与ChatGPT相似的发展轨迹持乐观态度。我们将设立一个紧密的反馈机制,对用户的反应进行仔细的观察和分析。
主持人:我满怀希望地期待实时翻译能够奏效,因为我目前身在瑞士,当我在山间跑步时,有人用法语对我大喊,我本想借此机会提升我的法语水平,便假装听懂了。但显然我并没有听懂,因为我正朝着一个危险区域前进,差点跌落悬崖。因此,一旦翻译问题得到解决,我的法语水平定会有所提高。
奥特曼:这种情况非常适合使用翻译工具。
主持人:现在,让我们讨论一下好莱坞知名女星斯嘉丽·约翰逊(Scarlet Johansson)的事件,有一些事情我不太理解。你们展示了这些语音,之后她发表了一份引起广泛关注的声明,声称自己被询问过是否可以使用她的声音,她拒绝了,而在产品发布前两天,她再次拒绝了,但产品还是发布了。OpenAI随后发表声明称情况并非如此,贵公司邀请了许多演员来试音,最终选定了五种声音,之后询问她是否愿意成为其中之一,她本可以成为第六种声音。我不明白的是,这五种声音中有一种听起来非常像斯嘉丽的声音,给人的感觉就像是你们打算有六种声音,其中两种听起来像她。我很好奇,你能否对我解释一下这个问题。
奥特曼:是的,那并非她的声音,我们也无意让它听起来像她。对于造成的混淆我深表歉意,显然你认为它是,但关于声音相似度的问题,人们的看法各不相同。然而我们确信那不是她的声音,我们也不确定还能补充些什么。
主持人:好的。我们来谈谈真实性,这与我们的话题密切相关。你在视频中,而我在现实中,我是真实存在的。我向GPT-4询问了一个问题:当你通过视频屏幕采访某人时,如何验证他们的真实性。它建议可以通过询问他们近几小时内发生的事件,并观察他们是否能够回答来进行验证。恰好,Magnus Carlson的事件就是一个例子。
奥特曼:我对此不太了解……
主持人:好吧。我这里有几个问题,我们会找到答案的。其中一个问题是,目前哪一家科技公司的财报成为了社交媒体X上的热议?
奥特曼:我想是Salesforce,正是如此。
AI的全球化与中国大语言模型的崛起
主持人:接下来,让我们讨论一下人工智能的全球化问题,这在本次会议中已经多次被提出。显然,对OpenAI而言,拥有一个或少数几个大语言模型是符合自身利益的。但你如何看待未来的发展?你认为三年后,会有许多基础的大语言模型存在,还是只有极少数?更为关键的是,是否会存在一个在中国独立使用的大语言模型,以及一个在尼日利亚以不同方式使用,一个在印度以另一种不同方式使用的大语言模型?我们将何去何从?
奥特曼:坦白地说,我们并不比任何人更了解这个问题的答案。目前,显然有许多模型正在接受训练,而且这种趋势将会持续。尽管我们无法预知具体的情况,但我预测中国将会拥有自己独特的大语言模型,与世界其他地区的模型不同。我猜想,将有成千上万的大语言模型被开发出来。我预计,其中只有少数,比如10个、20个或类似的数量,会获得大量的使用和最密集的资源投入。但我认为我们仍处在这一领域的初级阶段,还有许多未知等待我们去探索,还有许多科学上的突破即将到来,因此在这一点上做出任何自信的预测都是非常困难的。
主持人:我想就我非常担忧的另一个重要问题咨询你。随着人工智能步入下一个发展阶段,我最担忧的一个问题是网络可能变得难以理解。因为内容的发布变得如此容易--创建网页易如反掌,编造故事不费吹灰之力,一切活动都变得轻而易举,以至于网络几乎变得难以导航和穿透。你是否也有这样的担忧?如果认为这是一个切实可能发生的问题,我们能做些什么来降低这种风险?
奥特曼:我认为我们使用互联网的方式很可能会经历一些变化,尽管这将是一个漫长的过程。但我并不担心网络会变得无法理解。你已经可以在某些情况下看到这一点,例如人们使用ChatGPT的方式,有时它能让你比传统搜索、浏览网页更高效地获取信息。我认为,互联网能够主动为你提供信息的这种理念,正是人工智能发展中令人兴奋的方向。因此,我认为我们使用互联网的方式可能会发生类似的变化,但我并不担心网络会变得像被垃圾邮件或自动生成的文章所淹没,从而变得无法理解。
主持人:我理解你所描述的是一个网络几近崩溃的世界,只剩下为数不多的几个大语言模型作为我们与信息世界的接口,这是否是你所预见的未来景象?
奥特曼:不是这样。我能想象在某些情境下,整个网络被拆分为组件,然后由人工智能来组装。在未来,每次人们需要某些信息时,都能即时为他们渲染出完美的网页,但我无法想象一切都汇聚到一个单一的网站上,这与我的直觉相悖。
主持人:让我们来谈谈我自去年以来一直在记录的一些问题,或者是在人工智能领域中非常聪明的人们之间的分歧,其中最引人入胜的是人工智能是否可能加剧收入不平等,或者相反,有助于减少不平等。我在你的多个播客中听到了这个问题,你本人也提到了人工智能可能加剧不平等,以至于可能需要全民基本收入(Universal Basic Income)来抵消这种影响。但今天早上,有人在这里引用了一些经济研究,表明当人工智能工具在呼叫中心等地方实施时,实际上对最低收入工人的帮助大于对最高收入工人的帮助。这是否改变了你对全球收入不平等现象的看法,无论是在国内还是在国际上?
奥特曼:首先,让我举一个例子。今天,我们为非营利组织推出了OpenAI的服务,这是一个新的计划,旨在使我们的工具对非营利组织更加便宜和易于获取,包括折扣和分享最佳实践的方式。人们已经用这些工具做出了惊人的工作。例如,国际救援委员会使用我们的工具,取得了非常好的成果,支持了在真正的危机区域中过度劳累的教师和学习者。我认为这是一个例子,这些工具能够自动化一些以前困难的任务,使智能--无论你如何称呼它--更加普及,从而真正帮助那些最需要帮助的人,而不是在已经富裕的环境中的人。我们对这个计划的推出感到非常兴奋,它是你所谈论内容的一个例子。
在许多方面,人工智能帮助最贫穷的人比帮助最富有的人更多。我们真的相信这一点,并且对此充满热情,这是我们想要构建这些工具的一个重要原因。我认为这是技术发展历史的一个重要部分,也是一直以来发生的事情的必然趋势。这肯定会发生。我相信技术在很大程度上提升了世界的丰富度、提升到更高的水平、实现更好的繁荣。无论你如何称呼它,我都持乐观态度。我不认为这需要任何特别的干预。尽管我不清楚,这是在很长一段时间内的事情,不是明年或者接下来的几年,但在很长一段时间内,我仍然期望需要对预期这项技术的强大力量进行一些社会契约的调整。我不相信会没有工作,我们总是找到新的事情去做,但我确实认为整个社会结构本身将会受到一定程度的辩论和重新配置。
主持人:重配置将由大语言模型公司来主导。
奥特曼:不是这样。整个经济的运作方式,以及我们--社会决定我们想要做什么,这是一个长期发展的过程。随着世界变得更加富裕,社会安全网就是一个很好的例子。我预计我们会决定在这方面投入更多。
主持人:让我换个方式问你这个问题:在座的有很多政府领导人,来自世界各地不同国家的代表。在过去一年半中,有哪些法规的讨论,你认为将有助于为人工智能大规模采用的未来重新配置社会契约?你听说过哪些法规的例子,你认为可能会损害这个过程?
奥特曼:我不这么认为。我认为目前关于监管的讨论大多并不集中在这些主题上。我们面临大选,我们该如何应对?同时,人工智能还伴随着其他一些非常重要的短期问题。我不认为监管的焦点应该是将要开发出通用人工智能,它将像科幻小说中那样,我们该如何应对?我认为现在就进行这样的讨论还为时过早,因为我们还不知道社会和技术将如何共同演化。我认为这个话题确实值得讨论,但它不应该成为当前的焦点,而且到目前为止确实还没有成为焦点。
主持人:是否存在一些监管框架,人们常常讨论如何监管核武器,虽然没有什么可以与之完全相提并论,但在我们步入这个新世界之际,是否有一些现有的监管框架,你认为值得我们借鉴和思考?
奥特曼:你所指的,是长期来看,当人工智能可能成为一股巨大的经济力量时,它将带来何种影响,还是说我们正在讨论的短期问题?
主持人:从长期角度来说。
奥特曼:如果我们有一个坚定的建议,我们当然会意识到这并非我们所能决定的,但我们会提出坚定的建议,我们会说,基于我们认为最有可能发生的情况,鉴于我们对未来发展路径的预期,以下是我们认为应该得到更多考量的事项。我认为,要提前在理论上做好这些事情是非常困难的。我们必须观察事物的发展变化。我们之所以坚信迭代部署策略,将系统安全地放入世界中,认识到它们将不断改进,并且我们会在这个过程中学到很多东西,其中的一个原因是,社会不是在白板上凭空理论化的,而且随着技术的推广,社会和技术都在发生变化,这是一个真正的共同演化过程。
因此,我认为我们共同探索未来的道路应该是基于实践的,自从发布ChatGPT以来,我们已经看到了许多它开始以小步快跑的方式,但确实开始转变经济的某些部分和人们工作方式的例子。我认为这种方法不是我们坐下来某一天说,好的,我们将一次性设计全新的社会契约,以及现在世界如何运作,那将是非常糟糕的。我认为极其难以一次性做到位,但通过逐步迭代的方式,似乎更有可能取得成功。
主持人:好的,让我们来讨论一下OpenAI的治理问题。我有一句非常喜欢的话,由于存在一些禁止事项,我无法完整地引用,但这是你8年前在接受《纽约客》采访时所说的话,当时我还在这家媒体公司工作。当时你在讨论OpenAI的治理问题时说:“我们正在计划一种机制,让全球各地的人们能够选举代表加入公司的新治理董事会,因为如果我不参与其中,我会质疑为什么这些人能够决定我的命运。”请谈谈那句引言,以及你现在对它有何看法。
奥特曼:我依然认为类似的事情是值得去做的,我们持续探讨如何实现治理,我现在可能不宜透露太多,但我对朝那个方向努力的事物仍然感到兴奋。
主持人:能否请你多谈一些细节?
奥特曼:很抱歉,我选择不多说了。
主持人:好的,让我们来讨论一下治理方面的批评。贵公司两位前董事会成员海伦·托纳(Helen Toner)和塔莎·麦考利(Tasha McCauley)最近在《经济学人》上发表了一篇评论文章,她们提到在OpenAI的不尽人意的经历后,这其中包括曾投票让你本人离职后又恢复CEO职位的“宫斗”事件。她们说,不能信赖贵公司的自我监管。然后在最近,托纳在接受TED播客的采访时态度相当严厉,她表示公司监管完全失效,实际上她是从推特上了解到OpenAI发布ChatGPT的情况。这是否准确?
奥特曼:我对她的事件回忆持有尊重但严重不同意的看法。但我必须说,我认为托纳确实真诚关心实现良好的通用人工智能结果,我对此表示赞赏。我祝愿她一切顺利,我可能不想在这里回应。当我们发布ChatGPT时,它被称为低调的研究预览版,我们没有预料到后来发生的情况,但我们朝着推进的发布计划与董事会进行了很多讨论。等到基于3.5版本的ChatGPT发布大约8个月左右,我们已经完成了GPT-4的训练,并正在制定一个逐步推出计划。我对她对事件的回忆持有不同意见。
主持人:这就是你的立场?
奥特曼:我想是的。
人工智能的长期愿景与人类角色
主持人:我想问你一些关于人工智能的更宏观的问题。我刚刚参加了一场活动,那里许多人在探讨人工智能与人文主义。其中一位参与者提出了一个非常有意思的观点:人类创造出超越自身的力量,可能实际上并不会让我们变得更加自负,反而可能使我们更加谦卑。我们会如同明镜般照见自我,对机器心生敬畏,对生活心怀谦逊,这将引导我们学习一种全新的生活方式。你认为这种情况会发生吗?在你个人的经历中,是否曾经因为看着机器而对改造世界产生了更深的谦卑感?
奥特曼:我确实这么认为,而且我相信这将在更广泛的范围内发生。我相信,虽然不是每个人都会这样,总会有人对此产生自负的极端反应,但总体而言,人们对于世界、对于人类在宇宙中的位置将会有更广泛的敬畏与谦卑感,我认为这将是非常积极的变化。我最近在思考,科学史在某种程度上反映了人类逐渐从中心地位撤离的过程。你可以从许多例子中看出这一点,比如我们曾相信地心说,即太阳绕地球转,这是一种非常以人类为中心的思考模式。后来我们认识到,实际上是地球绕太阳转,而且天上的小白点其实是无数的星星,还有许多星系存在于我们的视野之外。如果你愿意进一步延伸这个比喻,甚至可以说到多元宇宙的概念,这非常奇异,我们实际上是非常渺小的。人工智能可能成为另一个让我们获得额外视角的例子,使我们更加谦卑地意识到自己是更广阔宇宙的一部分,我认为这是一个持续的、真正积极的发展。
主持人:这会让我家10岁的孩子感到高兴。我和他在开车回家的路上,他刚参加了一场足球比赛。我一直在听你的许多播客,他听了其中一期,他说那个主持人较少谈论自然和动物,所以我很高兴在你的问题中包含了这样的内容。在此,也代我儿子向你表示感谢。
我想问你一个我曾听过的相当激进的观点,那是在乔·罗根(Joe Rogan)的播客中提到的。你提到你可以想象一个未来,治理实际上是每个人都能发表意见,那时可能是80亿人,或者让我们设想一个未来,当人口达到120亿的时候,你几乎可以输入你的偏好,关于你希望做出哪些决策,然后一些能理解你偏好的人工智能可以帮助实现更好的决策制定。你认为这是一个真正的可能性吗?联合国是否应该考虑这样做?
奥特曼:首先,我希望那时的人口是120亿,而不是40亿。我确实对目前的趋势有些担忧。但是,是的,我认为这将是联合国开始探讨如何收集全人类的一致性偏好集合的好项目,同时在这个过程中,还要考虑默认设置在哪里,界限在哪里,以及人们如何在这个范围内调整自己的立场。我认为这对联合国来说是一项非常有价值的工作。
主持人:你真的认为我们能够想象到达那里的可能性吗?要实现一个由人工智能辅助的、更具协作性、更接近雅典式民主的治理系统,而非相反,我们需要采取哪些中间步骤呢?
奥特曼:我们大约在一个月前推出了最新的模型规范Model Spec,这是朝着这个目标迈出的第一步。我们提出,基于我们的学习成果,这是我们将尝试设定规则的方式,也是模型将尝试执行的任务。它之所以重要,是因为它至少阐明了何时是系统出错与按设计运行的区别,这样我们就可以修复错误或就原则进行辩论。目前,我们正努力就这个规范进行广泛的讨论,探讨我们为什么要做某些事情,这些讨论涉及到非常具体的细节。例如,如果要求模型执行一些可疑的操作,模型是否应该在回应中表达什么,但如果要求它将文本从英语翻译成法语,它应该遵循翻译请求。达到这种具体化程度是很重要的。但我认为,现在需要做的另一件事是将这一点扩展到更广泛的层面。你可以想象,在未来,人们可以与ChatGPT讨论他们的个人偏好,而这些偏好将被纳入更大的系统考虑之中。
还有一件事是系统消息,人们已经在这方面做了非常有创造性的工作,让模型按照他们期望的方式运作。
主持人:人类大脑中是否有任何无法被机器复制的东西?
奥特曼:可能是主观体验。我不想深入人工智能与意识的辩论,因为我认为在这方面我没有什么新的观点要补充。
主持人:在最后,我想向你提出这个问题,因为在人工智能或意识的问题上,基本上只能以是非问题作答。让我再问您一个我觉得非常有趣的问题,它来自我的孩子。孩子们有时展现出惊人的智慧。我有3个儿子,我与大儿子讨论了他对于人工智能的担忧。他的回答相当引人深思,他用人工智能来准备辩论,也尝试将其作为学校的辅导工具,我一直在向他展示不同的人工智能模型。他表达了一种担忧:我们可能走向一个未来,在那里重新学习将变得极其重要。我想我们都认同,世界将以戏剧性的方式变化,为了成功,我们必须不断学习。他担心我们会变得过于依赖技术,以至于我们不再知道如何去学习,这让他感到忧虑。
奥特曼:你是否也有这样的担忧?在一个快速变化的世界中,有许多事情让我感到忧虑,我们必须找出如何适应这个迅速发展中的新事物。学会学习似乎是一项深刻的人类技能。显然,或者不如说是显而易见的,这项技能在人生的早期比晚期更为强大,但它永远不会消失。我认为,培养这项技能将变得非常有价值,未来我们可能会比现在更有动力去精通它。这项技能似乎是与生俱来的,我们的大脑非常适合学习。因此,我同意他的观点,学会学习将变得越来越重要,但我对我们能够很好地掌握这项技能持乐观态度。
主持人:好的,我会告诉他,使用ChatGPT来撰写他的下一篇论文是完全可以的。会场中聚集了许多杰出的智者,他们中的许多人将参与到对人工智能的规范和未来形态的塑造中。你认为他们最应关注的重要信息是什么,或者在这次对话结束后,你希望他们带走的最关键的一点是什么,能够指导他们在未来利用、规范人工智能,并将其用于正义的事业?
奥特曼:一方面,我们有不可估量的积极前景和向世界提供这些成果的道德责任;另一方面,我们必须认真对待安全和社会层面的重大关切。我们近期成立了新的董事会安全与安保委员会,并动员了我们的部分团队,为我们即将推出的下一个模型做好准备。在全球范围内,已经有许多关于人工智能安全问题的讨论,目前也有很多关于准备框架的讨论。如果我们的判断是正确的,即技术进步保持快速发展,那么我们需要找出公司、国家乃至整个国际社会应该采取哪些结构和政策,以确保世界能够获得这一巨大的利益。
世界对此有着迫切的需求,并认为这是道德上的正确之举--同时避免在不同时间尺度上出现的风险。因此,不要被短期或长期的问题所分散注意力,这一点非常重要。我想说,全面地考虑问题是非常具有挑战性的。我认为,从已经发生的事情中我们可以学到很多,同时我们也需要弄清楚许多新问题,但我最后想强调的是,不要忽视长期问题,也不要假设我们会在这里突然迎来一个智能爆炸的时刻。
主持人:好的,当我向GPT-4询问如何判断某人是否是人类时,它实际上给出了三个正确的答案:手臂测试、新闻测试,以及提出一个开放式问题,看他们是否能够在不预设答案的情况下给出一个好的复杂回答。非常感谢你再次证明了这一点。非常感谢你!
奥特曼:谢谢。
来源:腾讯科技,原文标题:《奥特曼谈AI的机遇、挑战与人类自我反思:中国将拥有独特的大语言模型》