AMD CFO:AI走向端侧是未来,2024年MI300收入将达35亿美元

硬AI
AMD认为,2027年AI芯片的市场规模达到4000亿美元是根据客户对其长期需求计算所得,越来越多的用户在开源生态系统上编写模型,与英伟达的差距缩小。

作者:葛佳明

来源:硬AI

AMD在这场AI芯片热潮中一路狂奔,华尔街仍用空前的热情为“英伟达最强劲的挑战者”买单。3月6日,AMD收涨近2.7%再度刷新本周创下的历史高位,今年迄今AMD的涨幅达到近52%,1年间的涨幅更是达到了156%。

市调机构Jon Peddie Research ( JPR ) 在报告中直言,2023年第四季度,AMD抢走了英伟达的独立显卡市场份额,市场份额环比上升了2个百分点,达到了19%,独立显卡出货量环比增加17%,同比则暴涨117%。虽然英伟达仍然占据着市场主导地位,但市场份额为80%,环比下降2%。

近日,AMD CFO 胡锦参加了摩根士丹利TMT会议,我们对此做了简单的总结和整理,与大家分享AMD在芯片领域的最新进展。

在胡锦看来,2027年AI芯片市场规模达到4000亿美元并非凭空出现,而是自下而上计算所得。根据客户对其长期需求的反馈,以及对满足需求所需要的芯片规模的判断,团队也考虑对全球GDP意味着什么,如果节省了大量劳动力成本的话,意味着什么?

AI始于数据中心,并将走向端侧,走向PC等个人设备,对AMD而言,最重要的事情之一就是部署AI PC, AI PC将推动不同的替换周期,一旦将NPU集成到电脑中,它就能在本地完成很多应用,不再需要去云端,可以真正的提高生产效率。

英伟达1年1迭代,AMD怎么对于竞争怎么看?胡锦认为很明显,自从AMD推出MI300以来,英伟达就不断加快推出产品的步伐,这对市场来说肯定是好事,科技行业需要竞争,市场应该期待AMD也能有这样的更新速度。

胡锦直言,AMD对自己的路线图很有信心,供应链可以支撑起市场35亿美元的需求,但任何新技术的关键不仅在于供给,还需要客户采用,这就需要AMD的路线图与客户的需求保持一致。

服务器市场在2023年有所下滑,一是库存消化,二是AI支出挤压,客户优先考虑AI,并延长传统服务折旧,几乎所有的云计算客户都延长了折旧期限。新的工作负载推动客户扩大数据中心的空间和功率,如果继续使用老式服务器,运营成本实际上相当高,折旧时间是无法一直延长的服务器必须升级,今服务器市场会好转,AMD会继续获得市场份额,并在服务器市场上获得更高的增速。

同时,建立AI生态系统并非朝夕之事,胡锦称,AMD关注开源生态系统,AMD的ROCm 6(开源软件栈)已经取得了重大进展,支持 PyTorch、JAX、Trident 和defender框架,客户基于这些框架编写模型,就可以运行MI300X。

以下是胡锦在2024年摩根士丹利TMT大会上的精彩观点:

AMD对2027年AI芯片市场规模将达4000亿美元的预测是基于客户,我们真正想要讨论的不是4000亿这个数字,而是这种不寻常的技术趋势,以及AMD改如何在大潮中获得更多的市场份额。

AI始于数据中心,并将走向边缘,走向PC等个人设备,对AMD而言最重要的事情之一就是布局AI PC,AI PC将推动不同的替换周期。一旦NPU集成到电脑中,就能在本地完成很多应用,真正提升效率。

自从AMD推出MI300以来,英伟达不断加快推出产品的步伐,你应该期待AMD也能提高更新速度,科技行业的竞争是有利的。

与台积电长期建立牢固的合作关系,供应链稳定可以支撑起市场35亿美元的需求,但任何新技术的关键不仅在于供给,还需要客户采用。这就需要我们路线图与客户的需求保持一致。

在高科技领域没有什么投资是确定的,但你需要判断市场的轨迹,这样可以合理分配内部资源来投资热点。

MI300成为AMD有史以来增长最快的产品之一,预计到2024年,收入将超过35亿美元,每季度都增显著.

服务器市场实际上有所下滑,一是库存消化,二是AI支出挤压。但如果继续使用老式服务器,运营成本实际上相当高。2024年服务器市场会出现好转。

ROCm 6已经取得了重大进展,支持 PyTorch、JAX、Trident和defender框架,客户假如基于这些框架编写模型,就可以运行 MI300X,我们已经缩小了差距。

胡锦在2024年摩根士丹利TMT大会上的采访全文

胡锦(Jean Hu)AMD执行副总裁兼首席财务官

Joseph Lawrence Moore 摩根士丹利公司研究部、执行董事

Moore:欢迎大家回来,我是来自摩根士丹利的半导体研究员Joseph Lawrence Moore,今天非常高兴AMD首席财务官Jean Hu跟我们一起交流。

Moore:我们从AI话题开始吧,最近总是离不开AI,你们预测2027年AI芯片市场规模将达4000亿美元,这个数字引起了市场的广泛探讨,因为AMD对市场的看法一向偏保守,所以这样的预期显得分外显眼,请谈谈这个预测的依据和你们对此的信心。

胡锦:多谢邀请。没错,去年12月我们对AI芯片市场的预期出现了变化,将AI芯片市场规模从2027年的1500亿美元上调至2027年的4000亿美元。当时这个数字确实让一些人感到意外,但现在看来,这种惊讶似乎没有必要。

如果你关注近期生成式AI的更新速度,就会发现对AI芯片的需求十分庞大,我们见证了新模型和新应用的涌现,以及个大公司对AI基础设施的资本支出。

现在,很多人谈论投资高达一万亿美元在AI基础设施上,来促进我们未来的工作效率,改变我们的生活方式所需的潜能。从长期市场机遇角度考量,我们所规划的,实际是对市场走向的一种框架性理解,这是一波令人难以置信的技术趋势。

当我们与云计算客户交谈时,他们告诉我们需要运行大型语言模型,他们需要使模型变得更好、更准确、减少幻觉。因而他们需要模型更好地回答问题并提高生产力。这些都需要一个非常大的计算集群。

在企业中,我们也开始看到生产力逐步提高的证据。我们听到有人谈论非常具体的数字,生产率有时提高30%、40%,甚至达到100%。对于这些应用,你需要不同的模型、不同的应用程序,这又需要不同的计算集群。

另一件事是,AMD是AI的坚定拥护者,我们认为人工智能开始于数据中心,它将走向端侧,如AI PC。当你考虑到所有这些不同的AI应用领域和大模型时,可以看到模型应用的创新步伐速度正在加快,但这个创新速度其实还是受制于GPU计算资源的短缺。

所以当我们把这一切加在一起时,市场的发展轨迹实际上与我们的观点是一致的,对吧?

如果你看看加速人工智能市场,2022年它还非常小。而在2023年,它真的可能已经超过400亿美元。今年,它将继续翻番或增长更多。我认为我们真正想要讨论的不是4000亿美元还是3000亿美元,而是这种技术趋势的发展轨迹是不寻常的

Moore:了解了,这很有帮助。或许你可以谈谈AMD为抓住这一机遇所做的努力,给我们讲讲今天的MI300,它具有哪些能力,以及可以影响哪些市场?

胡锦:去年12月,我们发布了MI300,而仅仅三个月的时间,我们就获得了云计算客户的大力支持。包括微软、Meta、甲骨文以及OEM合作伙伴如戴尔、超微、惠普等,整个生态系统都对我们的产品给予了极高评价。

去年第四季度,我们的GPU收入超预期涨至4亿美元,离不开是因为MI300的增速。MI300成为AMD有史以来增长最快的产品之一,我们还拥有广泛的客户群,不仅有云客户,还有企业客户。因此,如何使用MI300未来也非常有趣,当前这些产品的应用场景非常丰富,覆盖了推理和训练两大领域。

我们的云计算客户不只是将产品应用于内部工作负载,如GPT-4,还包括第三方工作负载。自发布MI300以来,我们就持续扩大和深化客户的参与度,对客户的反馈和产品的采纳情况十分满意,预计到2024年,我们的收入将超过35亿美元,每季度都实现显著增长,这确实令人兴奋。

Moore:谈到这些数字,从20亿美元增长到35亿美元,是非常亮眼的增速,生态系统发展需要时间,包括软件的支持,您是如何看待这种快速增长的?

胡锦:确实,连我们自己也对这种增长感到惊讶。2006年收购了加拿大图形芯片制造商ATI Technologies以来,AMD已经投入GPU领域十多年,发展了强大的CPU和GPU平台。

当Lisa Su加入AMD时,我们的投资重点是建立CPU平台和GPU平台。实际上,AMD与英伟达投资GPU的经验有相似之处,如果看看MI300,它实际上并非凭空而来。从2020年到2023年,我们先后推出了MI100、MI200、MI210、MI250,然后是MI300。

另一方面,这不仅仅是GPU硬件,软件同样非常重要。多年来,AMD一直在投资ROCm软件,支持高性能计算(HPC)和云计算应用。当然,最初它是用于HPC应用程序。在过去几年里,团队加快了进度,专注于云应用。这并非突然发生,而是经历了漫长的过程,但这个过程现在加速了,我们通过与主要的云计算客户的紧密合作,加速了MI300的采纳过程。。

Moore:您能从几个不同的角度谈谈这款产品的供应链情况吗?首先这一款复杂的产品,需要非常复杂的先进封装设备。另外,我记得您曾经提到过8个月的制造前置期,这是相当长的时间,但您却能够相当快地实现35亿美元以上的销售额,您能为我们解释一下这种情况吗?

另外,我们行业里有很多人都在关注您的出货量数据,给予一个价格假设,并认为这就是今年的全部收入,因此得出了今年收入的非常高的数字。您能谈谈这种看待AMD的机会的方式是否正确吗?

胡锦:关于MI300,也许我可以简单介绍一下背景,MI300A采用了三个八核心的Zen 4小芯片和多个CDNA3小芯片,适用于人工智能(AI)和高性能运算(HPC)等工作执行。而十年前AMD就已经能够大规模生产采用三芯片设计的产品,可能是第一家做到这一点的公司,同样,在芯片封装技术上,AMD最初就与台积电合作,共同开发了先进封装技术,当然还离不开赛灵思。

所以当你回顾一下AMD与台积电长期合作历史时会发现这对我们帮助是巨大的。我们的三芯片设计产品已经在台积电的生产线上大规模量产了一段时间。当然,MI300是我们设计的最复杂的芯片。我们与台积电以及整个供应链系统密切合作,推进产品生产。

你可能知道,台积电和AMD的合作关系非常紧密。我认为对于我们的团队来说,他们可以供应环境非常紧张的条件下完成出色的工作,供应水平确实可以提供超35亿美元的产品。

Lisa Su考虑业务时的视角是长期的,因为MI300产品的制造周期长达7个月,且有大量客户参与因此需要确保AMD在未来取得成功。

不同客户有不同的产品认证流程,因此MI300的推广速度可能不太可预测,我觉得会是一个逐步推进的过程,无法一蹴而就。但MI300不仅是与今年的表现相关,更重要的是抓住了一个巨大的长期市场机会。作为这个AI市场的参与者,AMD需要把握住机会和供应方面的一致性。

Moore:那么,今年真的是在为它打基础吗?

胡锦:是的,现在还处于起步阶段。如果你看一下庞大的市场机会,我们已经做好了长期的准备。

Moore:关于人们利用供应链数据来推算你们的营收数字这一点。你们今年生产的产品都会在今年卖出去吗?我们应该如何看待这个问题?

胡锦:半导体生态系统的供应链制造周期是相当长的,这需要时间。你有产能,并不意味着你可以将所有产品立即交给客户。这是一个过程,对吧?所以我认为,试图利用供应链数据来推导营收数字是相当天真的,这是两回事。

Moore:那么你的想法是,如果这个AI市场从今年的1000多亿美元增长到3年后的4000亿美元,你的目标是至少匹配上这个速度?

胡锦:我认为,我们确实拥有极具竞争力的产品。我们现在拥有软件和网络合作伙伴。这是一个巨大的市场,而我们是这一市场的头部玩家。我们认为这是一个很好的机会,这成为AMD未来几年最大的增长动力。

Moore:我的意思是,35亿美元是一个足够大的数字,英伟达可能已经注意到你们正在达到这种规模。他们即将推出B100,且他们已经谈到下半年毛利率将会下降。你是否预计,随着你们变得越来越重要,你们如何应对来自竞争对手的反击?

胡锦:我认为在任何一个大型科技市场中,你都会面临竞争。尤其是在这个市场,不仅规模非常大且需求也非常广泛。不同的客户需求都不一样,特别是随着开源生态系统的不断发展,并不是每个人都在CUDA上编写他们的模型,但越来越多的人在开源生态系统上进行开发。

所以我们认为,对于一个大型市场,有非常多样化的细分需求,你需要不止一个参与者。而GPU并不容易做。我们和英伟达都在GPU上长期投入,所以在市场上有竞争是件好事。

Moore:你提到了生态系统支持,最初发布时,你们请来了Hugging Face和Python等领域的人,这是最有说服力的举措之一。你们现在在生态系统支持方面进展如何?

胡锦:AMD在推出MI300时提到的三大战略支柱包括拥有最具竞争力的GPU、强大的软件生态系统以及完善的网络。这意味着AMD致力于在GPU领域推出具有竞争力的产品,同时注重软件生态系统的建设和网络的发展,以提供综合性的解决方案。这种战略定位旨在加强AMD在人工智能(AI)和高性能计算(HPC)等领域的竞争力,为客户提供更全面、高效的解决方案。

这其实是有原因的,我们意识到我们是市场上的第二大玩家,我们想要做的是降低进入门槛,让客户更容易使用。通过专注于开源生态系统,所有的框架、模型和库都为我们的客户提供更好的GPU支持。

如果你想一想,自从ChatGPT推出以来,我们已经看到开源生态系统发展得非常迅速。所有的大型语言模型和许多框架,我们认为越来越多的人在开源生态系统上进行开发。对我们来说,ROCm 6已经取得了非常显著的进展,支持 PyTorch、JAX、Trident 和 defender 框架,客户假如基于这些框架编写模型,就可以运行 MI300X。现在 Hugging Face 上大概有 50 万个模型,它们都可以在 MI300X 上运行,我们认为我们已经缩小了差距。

我们还将继续取得进展,使ROCm变得更有竞争力。在因为在过去十年的GPU市场上,我们和英伟达有着相同的历史,所以我们已经能够将ROCm更新到具有强大功能的水平。所以有时你想将CUDA拉到MI300,实际上效率相当高,我们将继续在这方面取得进展。

Moore:我想把时间留给另外230亿美元的收入,你提到过几次训练芯片,我认为人们认为,AMD最初定位的最大应用是推理。但显然,你在训练方面看到的可能比预期的要多。你能谈谈这个吗?

胡锦:我们谈论MI300X,因为它的内存带宽和容量至今仍然是最大的。所以在推理方面我们绝对有显著优势。但即便在训练方面,它也相当有竞争力。当我们观察客户时,我们确实看到在推理端和训练端都有需求。

你可以想象,训练发生得更早而推理才刚刚开始增长。所以我们推出产品是为了应对市场的增长,但实际上可能更侧重于推理。但我们的客户,即企业客户,他们使用MI300X进行训练,这很令人兴奋。我认为,我们可以继续与客户紧密合作,我们将看到越来越多的机会。

Moore:我确实想谈谈你的其他业务,也许从服务器开始。你去年度过了一个困难的一年,特别是随着资金转向AI,许多服务器升级的服务被推迟了。有一些迹象表明,这种情况仍在继续,对吧?

你看到亚马逊延长了服务器的折旧周期,市场正在回暖,因为我们需要服务器似乎有增长的迹象。但就那些大型可自由决定的升级而言,至少我仍然没有真正看到--AMD的基础业务一直表现良好。但你能谈谈你所看到的情况,你对2024年的期望吗?你认为我们会在某个时候看到那些大型升级开始回归吗?

胡锦:你说得对,2023年总体服务器市场实际上出现了下滑。原因就是你所说的那样:一是库存消化,二是AI支出。客户将AI放在优先位置并延长了折旧期。

我认为几乎所有的云客户都延长了折旧期。但我认为我们看到的最重要的是,当你看计算时,服务器继续成为许多传统计算,包括关键任务应用程序最高效、性价比最好的平台。

而这些工作负载实际上继续扩大数据中心,目前实际上空间和电力都不足。如果你继续使用旧服务器,运营成本实际上相当高。我认为你绝对可以将其延长到某个寿命,但你必须进行升级。

我们确实认为2024年的市场背景要好得多,当你考虑潜在的更新周期时,云和企业客户正在考虑更新,因为他们需要更多空间和更多电力,而且他们还希望确保数据中心的运营成本是高效的。

所以对于我们的服务器业务,Genoa系列目前在市场上拥有最佳的总拥有成本,而我们将在下半年推出的Turin在每瓦性能和每美元性能方面将更进一步。因此,我们确实认为通过升级,我们实际上可以抓住机会获得更多市场份额。这对我们来说是非常重要的一年。去年,即使服务器市场大幅下滑,我们的服务器收入实际上还是增长了。今年,我们认为市场会好转,我们绝对会继续获得份额,并在服务器市场上增长得更快。

Moore:我可能想问一下Genoa和Turin这两个服务器。一开始采用速度相对较慢,每个人在PCI Gen 5和DDR5等方面都遇到了问题,且资金也被重新分配到了其他地方,但是如果你看数据,Genoa现在发展得非常好,Bergamo也是如此。你能谈谈是什么扭转了局面吗?

胡锦:是的,与上一代相比,Genoa实际上是一个新的插槽,意味着它引入了新的技术标准和接口,包括支持DDR5内存和PCI Express Gen 5接口,所以对客户来说他们必须升级内存和接口。

但一旦我们通过了这个阶段,Genoa实际上是在过去4代中最快达到50%的单位数量和价值的产品,其增长相当显著。如果你看我们去年第三、第四季度,下半年我们的服务器收入几乎比上半年高出50%以上。

同时带动了我们的收入增长,年末市场份额超过31%,是我们历史上最高的。我认为最重要的是,客户真的很喜欢它们。对于云客户来说,我们的市场份额相当高。现在,我们看到二线云客户的势头更大,我们过去在这方面的份额较低,但他们通常会比美国的超大规模公司晚1到2年采用新一代技术。所以我们看到那里的增长势头。在企业方面,情况也一样。我们看到Genoa,性价比很高,客户对此感到非常兴奋。

Moore:你能谈谈Bergamo的发展吗?它是一种拥有更多核心数量、更适合云原生的处理器吗?是你将继续专注的服务器路线图的一部分吗?

胡锦:我认为Bergamo有一个独特的特点,它与Genoa不同:它是真正的云原生产品。我们看到Meta实际上在其所有平台上都采用了Bergamo,从Instagram、WhatsApp到Facebook。

我认为如果应用程序与之类似,我们确实看到其他云客户,二线云客户真的很喜欢Bergamo,当他们将其用于某些工作负载时可能具有更好的性价比成本。这绝对是我们的重点。实际上,这在未来相当重要。

Moore:我们需要给马克·扎克伯格送一张卡,感谢他谈论他使用的所有这些半导体,公开谈论确实很有帮助。关于下一代市场份额,存在一些争议。我记得你在10月份说过,都灵(Turin)已经开始向云客户提供样品。我不认为你的竞争对手的产品已经开始送样,而且它与插槽兼容,而你的竞争对手需要进行转换。所以如果我们保持这样的环境,你在下一代市场份额方面处于相当有利的地位,这似乎很不错?

胡锦:是的。Turin不仅插槽兼容,而且总拥有成本的改进也相当显著。我们将继续推动核心数量变得更高。到目前为止,客户的反馈非常积极。因此,当你考虑到Genoa仍处于快速采用阶段时,我们仍在销售Milan,因为某些客户确实需要Milan。我们可以看到Turin在未来被采用的机会,这将有助于我们获得更多市场份额。从市场份额的角度来看,我们对我们能为客户提供的总拥有成本充满信心。

Moore:你对2024年的AI PC有什么看法?从长远来看,围绕AI PC等进行了大量讨论,AMD在其中做到了哪些?有什么能力?

胡锦:是的,去年PC市场充满挑战,下半年有所好转。我认为我们看到的是库存更加正常化,销售更加平衡,这是一个终端市场需求,我们确实认为下半年的季节性通常会更好。

我认为对AMD来说,最重要的一点是AI PC,我们相信AI PC将推动未来的替换周期。去年,我们实际上是第一个推出AI PC的公司,推出了Ryzen 7040并销售了数百万台AI PC。AI PC的作用是,一旦将NPU集成到PC中,它就可以在本地执行许多AI应用程序,不需要去云端,真正提高工作效率和用户体验。

AMD正在加强其Hawk Point处理器的功能,并计划在下半年推出名为Streak的产品。一旦AI应用程序越来越多,尤其是明年,我们期待 AI PC 的采用率会上升,这非常令人兴奋。我认为这不仅有助于我们的份额增长,而且有助于提升毛利润,有助于整个客户端业务的营业利润率。

Moore:你能谈谈 PC 的盈利能力吗?我的意思是,你遇到了这个 Intel 相当公开的促销活动,对你产生了负面影响。现在看来他们已经过去了。你是否预计这种情况会再次出现?或者你如何看待这个细分市场的盈利能力?

胡锦:PC 市场或客户端业务的盈利能力对 AMD 非常重要。我们的工作方式是,在下行周期中,我们实际上优化了投资,真正专注于管理运营费用,并实际减少了客户端业务的运营费用。所以从投资水平来看,我们现在准备得非常充分。

一旦我们能够提高收入,我们认为我们可以将其用于提高利润,因为在下行周期中,毛利率受到了影响,但它已经稳定下来。未来,通常对于 PC 市场,一旦你有更高的收入,一旦你消化了渠道库存,毛利率往往会更加稳定并上升。

我认为,当你考虑整个客户端业务时,我们认为这是一个我们应该推动一个非常高营业利润率的成功模式的市场或业务。毛利率可能没有公司平均水平那么高,因为它总是在一定程度上由消费者驱动的。但营业利润率应该高得多。所以我认为这就是我们关注的重点,即提高营业利润率。

Moore:Xilinx的嵌入式业务下滑了约40%,按历史标准来看,这非常严重,你觉得这项业务是否可能接近底部?

胡锦:我们的看法是,我们正在经历今年上半年的触底过程。下半年,我们预计会出现复苏,但会是更加缓慢的复苏,因为一些市场,如通信领域,持续疲软,不仅因为库存,而且因为它是资本支出和产品周期,5G正处于周期的后期阶段。

而工业市场,在一定程度上,也在消化库存和疲软。所以我认为我们嵌入式业务的关键是 Xilinx 是一个伟大的特许经营权。在这个下行周期中,我们实际上继续赢得更多设计,特别是当与 AMD 的嵌入式处理器结合时,我们实际上大幅扩大了设计赢单。我认为我们正在推动的许多收入协同效应将在长期内显现出来。

问:当AMD提出4000亿美元的市场规模时,是由你的客户驱动的,他们来告诉你他们的需求增长?客户 A 想要 10 万个单位。客户 B 想要 5 万个单位,把它们聚合起来,然后乘以某个平均售价?或者它是基于,好吧,英伟达可能会提供 2000 亿美元。这是一个供应驱动的估计吗?得出这个估计的过程是什么?

胡锦:我们对潜在市场规模的预估方式实际上是自下而上的。这是基于客户对其长期需求的反馈以及我们对满足客户需求所需的芯片内容、内存内容的理解来与客户合作的方式。

所以实际上,所有的预测都有一系列假设。我们的思考方式是基于客户反馈的单位数量、旧成本以及我们自己的预测和估计。请记住,为我们制定轨迹非常重要,因为在高科技领域,没有什么是确定的。

但是如果你知道市场的轨迹,你就可以分配内部资源来投资这些市场。这是我们真正的基本信念,即我们如何能够大致捕捉市场的轨迹。 因此,全球单位销量不仅包括大型云客户、企业,还包括国家。此外,由于我们相信客户对计算或GPU、技术、封装、高带宽内存的需求,平均销售价格(ASP)也会增加。 因此,ASP也会增加。同时,我们还包括客户ASIC。

我们听说Google GPU和TPU以及其他客户在谈论内部芯片。我们也对这类机会有相当大的预测。 所以这是一个自下而上的过程,但我们的团队也做了一些工作来检查,一旦你有了那4000亿美元,它对全球GDP意味着什么,对生产力提高意味着什么。即使我们在谈论人工智能,真的节省了大量的人工成本,它对人工成本意味着什么。所以我们确实做了多方面的三角测量,以确保我们所想的轨迹不会偏离正轨。

问:也许您可以谈谈您在中国的人工智能前景。有关于一些为中国定制的芯片可能无法获得批准,所以只是好奇你如何看待这个机会?

胡锦:我认为目前我们谈论的收入以及2024年的收入在很大程度上是非中国客户。我们确实向中国运送符合出口管制的MI210。我们正在与客户合作看看我们是否可以提供MI300的衍生产品来支持中国客户。

问:我有两个问题。第一个问题是,你能谈谈明年MI300的数量会是多少吗?你还能多谈一点竞争吗?因此,英伟达正在谈论每年节奏。他们都将推出新技术。那么我们将如何竞争?是的,我们在这方面的策略是什么?

胡锦:谢谢你的提问。我认为竞争对市场真的很好。自从我们推出MI300以来,我们已经看到英伟达继续加快产品推出的节奏,你应该也期待我们做同样的事情。

如果你看看AMD的历史,从MI100到MI300实际上是3到4年左右。我们推出了多个产品。我们是三层技术的领导者。我们在封装方面也与台积电有着强有力的合作伙伴关系。 因此,我们对路线图充满信心,我们也在与客户合作。

任何新技术的关键不仅仅是你需要介绍,你还需要客户的采用。他们也需要有资源来确保他们可以使用新技术。因此,对我们来说,这是关于与客户合作,使我们的路线图与客户的需求保持一致。 你应该期待我们继续在这方面推动竞争。我认为我们AI业务的成功不仅在于2024年。我们真的着眼于基于设计获胜和客户参与的长期成功和收入轨迹,我们对长期成功感到非常满意。因此,我认为你应该期待我们继续推动我们路线图的竞争力。我们确实认为AI,尤其是数据中心GPU,将成为AMD未来最大的增长动力。

本文来自微信公众号“硬AI”,关注更多AI前沿资讯请移步这里

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章