OpenAI年底前将上线100万张GPU,直观感受就是新一轮芯片战争打响了。
7月21日,奥特曼在推特上预告,OpenAI到年底前将上线超过100万张GPU。他还补充道,“对团队感到自豪,但现在他们最好想想,怎么在这个数量规模上再扩容100倍。”

奥特曼官宣OpenAI“百万GPU”目标
这句看似简单的预告,实则暗藏多重信号:
首先,规模碾压对手。OpenAI的目标不再是10万卡,20万卡,要做就做100万卡,这一规模将达到马斯克旗下xAI训练Grok 4所用20万GPU的5倍;
其次,战略自主。算力基础设施的跃进,意味着OpenAI正逐步摆脱对微软Azure的依赖——过去其算力高度绑定微软,如今通过自建数据中心(如星门计划)掌握主动权;
最后,OpenAI的行业野心也一览无余。“扩容100倍”直指AGI所需的终极算力目标,一场以算力为基石的AI军备竞赛已进入白热化。
这里还有个小插曲——就在奥特曼定下冲刺100万卡目标之后,华尔街日报就下场拆台,称星门计划进度不顺利,软银迟迟掏不出钱。但OpenAI随即“灭火”:不仅官宣与甲骨文加码投资,将星门计划扩容4.5吉瓦,还强调一期项目已部分投入运营,多方合作进展顺利。
随后,马斯克更是直接“放卫星”,5年内,xAI要部署到5000万张H100 GPU的等效算力。

马斯克提出xAI五年内5000万卡目标
按照单卡平均4万美元粗略计算,100万卡规模,仅GPU部分价值就高达400亿美元,这种烧钱量级和速度,在科技行业也是前所未有,基本接近一线巨头们的年资本支出。
英伟达对此自然是乐见其成,问题是,行业数以万计的计算卡需求,会将英伟达的市值推向什么高度?
我们把视线再拉回算力上,OpenAI最近一次受算力影响最大的案例是3月份上线的“吉卜力风格”生图功能,官方一度对产品做了限流处理,包括对生图的速率进行暂时性限制,将免费用户的生成额度限制在每日3次。奥特曼还在推特上高喊“我们的GPU快要融化了”,表面是宣传产品,也可以看做是给犹豫不决的投资人“上眼药”。
显然,星门计划还在筹资阶段,OpenAI、软银、甲骨文们虽然能凑出500多亿美元,但还有一半的缺口要通过债务融资完成,想要刺激投资人们掏钱,就得释放一些星门计划合理性的信号。
奥特曼“脚踏三只船”
OpenAI对算力的追逐由来已久,其算力来源包括自研、星门计划、微软三个主要渠道。
关于自研芯片这件事,一度传出奥特曼要筹集7万亿美元下场造芯的消息。不过,去年2月份,奥特曼委婉的否认了此事,在他与英特尔前任CEO帕特·基辛格的炉边谈话中曾说过:“我们确实认为世界需要在AI计算(芯片)领域投入大量资金”。
根据行业的跟踪和研究数据,OpenAI自研芯片一直在有序推进,其首款产品最快2026年问世。
科技公司自研芯片路线图,标红为已发布,*代表待确认,来源HSBC
汇丰银行研究团队6月下旬披露了一份科技公司自研ASIC的进度表,包括谷歌、Meta、亚马逊、微软、xAI等等在内的硅谷公司,清一色下场自研AI芯片。
研报显示,OpenAI首款3纳米自研芯片由博通代工设计,代号为Titan V.1,将于2026年发布,更先进的Titan V.2芯片将于2028年问世,但不确定为2nm工艺还是A16(1.6nm)工艺。

一位长期跟踪半导体产业的分析师Paul则在推特上披露了OpenAI自研芯片的详细规格和发布时间(如上图),强调Titan V.1将在2026年第三季度问世,核心配置包括N3工艺、144GB HBM3e显存、两颗计算芯片,采用CoWoS-S封装等,但他认为,Titan V.2将于2027年第三季度问世,比汇丰银行的分析师团队预测的2028年稍稍提前。
自研属于长线规划,在这条路跑通之前,OpenAI的脚开始伸向微软之外的“另一条船”,牵头搭建算力基础设施。
今年1月份,OpenAI联合软银、甲骨文推出星门项目,计划四年在美国投资5000亿美元,搭建算力基础设施,首期投资1000亿美元,其中软银承担财务责任,OpenAI负运营责任。
这里的重点是,运营权才是奥特曼在星门计划中想得到的——想怎么分配怎么分配,打不打价格战全都自己说了算。
美国得州阿比林星门项目工地航拍,来源:OpenAI
4个月之后,OpenAI又攒了一个“阿联酋版”星门计划,计划联合G42、甲骨文、英伟达、软银等合作伙伴,在当地构建一个1吉瓦的数据中心,预计2026年投入使用。
这些宏大的基础设施项目兑现之前,OpenAI的算力供给仍然依赖微软——两家自2019年开始合作,微软向其提供了超过130亿美元的直接投资,同时成为OpenAI独家算力提供商,微软则在OpenAI的模型、收入分成等方面获得优先权,比如可获得OpenAI 49%的利润分配权,最多可达到1200亿美元。
依赖微软,也要避免被微软“卡脖子”。从7万亿美元造芯传闻,到5000亿的星门计划,再到阿联酋版星门,OpenAI核心逻辑是构建一个由自己主导,不断堆高的宏大算力叙事。
没有规模化的算力,就会随时被谷歌的价格战碾压,而规模化是谷歌的先天优势。产品层面,缺算力就如同“巧妇难为无米之炊”,就会出现更多“吉卜力风格”生图能力受限的问题,所以之前才会就有小道消息说,伊利亚因为算力需求被砍愤而离职、GPT-5、DALL-E等就是因为算力短缺而被迫延迟发布等等。
巧合的是,在OpenAI“猛踩油门”的时候,微软却轻点了一下刹车。
今年4月份,美国券商TD Cowen分析师称,微软放弃了在美国和欧洲的2吉瓦新数据中心项目,微软官方的回复称数据中心容量都是多年前规划,现在各地布局都已完善,所以做了一些灵活性的战略调整。
微软的战略收缩,其实从去年底纳德拉接受BG2播客访谈中就能找到信号,他当时毫不避讳的强调和奥特曼的分歧,“我们需要用严谨的方式来思考如何有效利用现有设备。同时也要考虑设备的使用寿命,不能一味地购买新设备。除非GPU的性能和成本能带来显著改善,让利润率达到或超过大型云服务商的水平,否则我们不会轻举妄动。”
大家都在追逐算力的安全感,纳德拉认为存量算力已经足够,需要精细化运营,奥特曼担心的是算力不够成为新模型、产品的掣肘。
于是,双方越走越远。
今年1月,微软选择了放手,与 OpenAI 修订了合作条款,允许其使用第三方供应商的计算资源,很快甲骨文、CoreWeave这些云厂,逐个都跟OpenAI签订了租赁协议。当然,为了体面,微软依旧拥有提供算力的优先合作权。
The Information援引投资人会议的消息称,OpenAI计划到2030年,将75%的算力来源转移至星门项目上。
算力战争“烧掉”2.5万亿
OpenAI追逐算力,内部要实现“算力自主可控”,外部则是应对硅谷巨头们的“算力战争”。
7月16日,The Information上线了专访Meta CEO扎克伯格的内容,扎克伯格称Meta正在建设多个数据中心集群。
“我们的人员正在夜以继日地工作于普罗米修斯(Prometheus)和亥伯龙(Hyperion)项目中,这是我们的前两个泰坦(Titan)集群,都将超过1吉瓦。亥伯龙将在未来几年扩展到5吉瓦。我分享过它的图片,从占地面积来看,这个数据中心的规模占了曼哈顿的相当一部分。它太庞大了。”扎克伯格说。
Meta位于曼哈顿的亥伯龙数据中心项目示意图 来源:扎克伯格
1吉瓦的数据中心是个什么概念?
假设Meta在建的1吉瓦亥伯龙数据中心全部部署GB200 NVL72机架,按照单机架140KW的功耗计算,总计可容纳7100+个机架,由于每个机架内置72张GPU,总计大约51万张GPU,按照单机架300万美元来折算,7100多个机架的总成本就超过210亿美元。
而如果OpenAI和甲骨文新扩容的4.5吉瓦项目兑现,那么未来OpenAI借助星门计划掌握的GPU就有可能冲到接近250万张GPU的规模。

到2026年的超大规模训练集群,来源:SemiAnalysis
7月21日,知名研究机构SemiAnalysis基于其数据中心和加速器模型,披露了到2026年底,Anthropic、OpenAI和Meta的训练集群数据。SemiAnalysis列举了Meta的另一个1吉瓦容量的普罗米修斯数据中心项目,其采用GB200/300混搭,GPU总量达到50万张,与我们对亥伯龙数据中心的预估结果基本一致。
能耗方面,1吉瓦的GB200 NVL72数据中心,全年365天24小时满负荷运行,预计需要87.6亿度电。作为对比,日本东京2023年全年的用电量也就1300亿度。
SemiAnalysis的跟踪数据中未包含xAI,但作为OpenAI的头号对手,xAI同样在“疯狂”投资基础设施。
7月10日,xAI公布了旗下Grok 4模型,马斯克在直播中透露该模型是在一个拥有超过20万张H100 GPU的超级计算机集群。这句话的重点不止于这个20万卡的集群,还在于xAI数据集群建设速度上——距离上一个节点“10万卡”集群建成仅仅过去了9个月。
更夸张的是,xAI旗下首个10万卡级别的Colossus AI 超级计算机集群,从建设到投入运营,耗时122天,建设效率“卷上天”。
关于为什么要这么卷基础设施建设,马斯克在直播中透露过自己的逻辑,他强调如果依赖云厂的算力,协调一个10万卡的集群,预计需要18到24个月。“我们想,18到24个月,这意味着失败是必然的。”马斯克说。
自建122天,协调云厂的算力最快需要18个月,这也一定程度上可以解释为什么OpenAI不打算和微软一起玩了——靠外部合作伙伴来协调算力效率太低,租赁算力只能作为短期过渡方案,只有自己主导才能可控。
可以想象这样一幅画面:当OpenAI推出吉卜力风格图片生成时,奥特曼说“我们的GPU快要融化了”,转身向微软协调算力支持却碰了软钉子——得到的回复竟是“你再等等”。此刻的奥特曼,内心恐怕只剩下一声无奈的叹息。

2023-2025年,AI基础设施建设资本支出趋势变化 来源:The Business Engineer
回到xAI的20万卡集群上来,按H100单卡2.5万美元-3万美元的价格,大致可以估算一下成本,整个GPU部分的成本就需要50亿美元-60亿美元,这还不包括基建和运营、维护的成本。
OpenAI、xAI、Meta在数据中心上的投入,是行业AI资本支出扩张的一个缩影。
The Business Engineer分析师Gennaro Cuofano今年5月份发布一份研究报告,内容援引硅谷公司的业绩、行业预测数据,梳理了2023、2024、2025三个年度硅谷大公司在AI上的资本支出,对应数值分别为1700亿美元、2560亿美元、3600亿美元。
全年3600亿美元,折合人民币超过2.5万亿元,这个规模相比2023年增长超过110%。更重要的是,大公司的AI支出占据了全行业85%以上,这也意味着AI基础设施建设的“马太效应”不断强化——未来头部云厂将掌握着行业的核心资源。
巨头们纷纷卷入这场2.5万亿美元算力战争,也还有一个值得关注的背景——OBBB(大漂亮法案)签署通过。
根据法案,科技巨头们的大型数据中心基础设施建设、研发等都可获得税收抵免。以设备全额折旧为例,比如企业购买价值 1 亿美元的服务器等数据中心硬件。 按传统折旧规则需要分5年进行,每年只能抵扣2000万美元。 根据法案,企业可在购置当年一次性抵扣1亿美元应纳税所得额。
业务上有需求,竞争对手都在卷,政策又变相的起到了催化剂作用,都刺激着奥特曼、扎克伯格和马斯克们,迫不及待的再打一场硅谷芯片战争。
如果非要问一个问题,有了百万级的GPU,人类能打开AGI时代的大门吗?
本文来源于:腾讯科技,作者:苏扬 编辑丨郑可君,原文标题:《芯片战争来了!100万卡 vs 5000万卡,奥特曼、马斯克“神仙打架”》
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
OpenAI年底前将上线100万张GPU,直观感受就是新一轮芯片战争打响了。
7月21日,奥特曼在推特上预告,OpenAI到年底前将上线超过100万张GPU。他还补充道,“对团队感到自豪,但现在他们最好想想,怎么在这个数量规模上再扩容100倍。”

奥特曼官宣OpenAI“百万GPU”目标
这句看似简单的预告,实则暗藏多重信号:
首先,规模碾压对手。OpenAI的目标不再是10万卡,20万卡,要做就做100万卡,这一规模将达到马斯克旗下xAI训练Grok 4所用20万GPU的5倍;
其次,战略自主。算力基础设施的跃进,意味着OpenAI正逐步摆脱对微软Azure的依赖——过去其算力高度绑定微软,如今通过自建数据中心(如星门计划)掌握主动权;
最后,OpenAI的行业野心也一览无余。“扩容100倍”直指AGI所需的终极算力目标,一场以算力为基石的AI军备竞赛已进入白热化。
这里还有个小插曲——就在奥特曼定下冲刺100万卡目标之后,华尔街日报就下场拆台,称星门计划进度不顺利,软银迟迟掏不出钱。但OpenAI随即“灭火”:不仅官宣与甲骨文加码投资,将星门计划扩容4.5吉瓦,还强调一期项目已部分投入运营,多方合作进展顺利。
随后,马斯克更是直接“放卫星”,5年内,xAI要部署到5000万张H100 GPU的等效算力。

马斯克提出xAI五年内5000万卡目标
按照单卡平均4万美元粗略计算,100万卡规模,仅GPU部分价值就高达400亿美元,这种烧钱量级和速度,在科技行业也是前所未有,基本接近一线巨头们的年资本支出。
英伟达对此自然是乐见其成,问题是,行业数以万计的计算卡需求,会将英伟达的市值推向什么高度?
我们把视线再拉回算力上,OpenAI最近一次受算力影响最大的案例是3月份上线的“吉卜力风格”生图功能,官方一度对产品做了限流处理,包括对生图的速率进行暂时性限制,将免费用户的生成额度限制在每日3次。奥特曼还在推特上高喊“我们的GPU快要融化了”,表面是宣传产品,也可以看做是给犹豫不决的投资人“上眼药”。
显然,星门计划还在筹资阶段,OpenAI、软银、甲骨文们虽然能凑出500多亿美元,但还有一半的缺口要通过债务融资完成,想要刺激投资人们掏钱,就得释放一些星门计划合理性的信号。
奥特曼“脚踏三只船”
OpenAI对算力的追逐由来已久,其算力来源包括自研、星门计划、微软三个主要渠道。
关于自研芯片这件事,一度传出奥特曼要筹集7万亿美元下场造芯的消息。不过,去年2月份,奥特曼委婉的否认了此事,在他与英特尔前任CEO帕特·基辛格的炉边谈话中曾说过:“我们确实认为世界需要在AI计算(芯片)领域投入大量资金”。
根据行业的跟踪和研究数据,OpenAI自研芯片一直在有序推进,其首款产品最快2026年问世。
科技公司自研芯片路线图,标红为已发布,*代表待确认,来源HSBC
汇丰银行研究团队6月下旬披露了一份科技公司自研ASIC的进度表,包括谷歌、Meta、亚马逊、微软、xAI等等在内的硅谷公司,清一色下场自研AI芯片。
研报显示,OpenAI首款3纳米自研芯片由博通代工设计,代号为Titan V.1,将于2026年发布,更先进的Titan V.2芯片将于2028年问世,但不确定为2nm工艺还是A16(1.6nm)工艺。

一位长期跟踪半导体产业的分析师Paul则在推特上披露了OpenAI自研芯片的详细规格和发布时间(如上图),强调Titan V.1将在2026年第三季度问世,核心配置包括N3工艺、144GB HBM3e显存、两颗计算芯片,采用CoWoS-S封装等,但他认为,Titan V.2将于2027年第三季度问世,比汇丰银行的分析师团队预测的2028年稍稍提前。
自研属于长线规划,在这条路跑通之前,OpenAI的脚开始伸向微软之外的“另一条船”,牵头搭建算力基础设施。
今年1月份,OpenAI联合软银、甲骨文推出星门项目,计划四年在美国投资5000亿美元,搭建算力基础设施,首期投资1000亿美元,其中软银承担财务责任,OpenAI负运营责任。
这里的重点是,运营权才是奥特曼在星门计划中想得到的——想怎么分配怎么分配,打不打价格战全都自己说了算。
美国得州阿比林星门项目工地航拍,来源:OpenAI
4个月之后,OpenAI又攒了一个“阿联酋版”星门计划,计划联合G42、甲骨文、英伟达、软银等合作伙伴,在当地构建一个1吉瓦的数据中心,预计2026年投入使用。
这些宏大的基础设施项目兑现之前,OpenAI的算力供给仍然依赖微软——两家自2019年开始合作,微软向其提供了超过130亿美元的直接投资,同时成为OpenAI独家算力提供商,微软则在OpenAI的模型、收入分成等方面获得优先权,比如可获得OpenAI 49%的利润分配权,最多可达到1200亿美元。
依赖微软,也要避免被微软“卡脖子”。从7万亿美元造芯传闻,到5000亿的星门计划,再到阿联酋版星门,OpenAI核心逻辑是构建一个由自己主导,不断堆高的宏大算力叙事。
没有规模化的算力,就会随时被谷歌的价格战碾压,而规模化是谷歌的先天优势。产品层面,缺算力就如同“巧妇难为无米之炊”,就会出现更多“吉卜力风格”生图能力受限的问题,所以之前才会就有小道消息说,伊利亚因为算力需求被砍愤而离职、GPT-5、DALL-E等就是因为算力短缺而被迫延迟发布等等。
巧合的是,在OpenAI“猛踩油门”的时候,微软却轻点了一下刹车。
今年4月份,美国券商TD Cowen分析师称,微软放弃了在美国和欧洲的2吉瓦新数据中心项目,微软官方的回复称数据中心容量都是多年前规划,现在各地布局都已完善,所以做了一些灵活性的战略调整。
微软的战略收缩,其实从去年底纳德拉接受BG2播客访谈中就能找到信号,他当时毫不避讳的强调和奥特曼的分歧,“我们需要用严谨的方式来思考如何有效利用现有设备。同时也要考虑设备的使用寿命,不能一味地购买新设备。除非GPU的性能和成本能带来显著改善,让利润率达到或超过大型云服务商的水平,否则我们不会轻举妄动。”
大家都在追逐算力的安全感,纳德拉认为存量算力已经足够,需要精细化运营,奥特曼担心的是算力不够成为新模型、产品的掣肘。
于是,双方越走越远。
今年1月,微软选择了放手,与 OpenAI 修订了合作条款,允许其使用第三方供应商的计算资源,很快甲骨文、CoreWeave这些云厂,逐个都跟OpenAI签订了租赁协议。当然,为了体面,微软依旧拥有提供算力的优先合作权。
The Information援引投资人会议的消息称,OpenAI计划到2030年,将75%的算力来源转移至星门项目上。
算力战争“烧掉”2.5万亿
OpenAI追逐算力,内部要实现“算力自主可控”,外部则是应对硅谷巨头们的“算力战争”。
7月16日,The Information上线了专访Meta CEO扎克伯格的内容,扎克伯格称Meta正在建设多个数据中心集群。
“我们的人员正在夜以继日地工作于普罗米修斯(Prometheus)和亥伯龙(Hyperion)项目中,这是我们的前两个泰坦(Titan)集群,都将超过1吉瓦。亥伯龙将在未来几年扩展到5吉瓦。我分享过它的图片,从占地面积来看,这个数据中心的规模占了曼哈顿的相当一部分。它太庞大了。”扎克伯格说。
Meta位于曼哈顿的亥伯龙数据中心项目示意图 来源:扎克伯格
1吉瓦的数据中心是个什么概念?
假设Meta在建的1吉瓦亥伯龙数据中心全部部署GB200 NVL72机架,按照单机架140KW的功耗计算,总计可容纳7100+个机架,由于每个机架内置72张GPU,总计大约51万张GPU,按照单机架300万美元来折算,7100多个机架的总成本就超过210亿美元。
而如果OpenAI和甲骨文新扩容的4.5吉瓦项目兑现,那么未来OpenAI借助星门计划掌握的GPU就有可能冲到接近250万张GPU的规模。

到2026年的超大规模训练集群,来源:SemiAnalysis
7月21日,知名研究机构SemiAnalysis基于其数据中心和加速器模型,披露了到2026年底,Anthropic、OpenAI和Meta的训练集群数据。SemiAnalysis列举了Meta的另一个1吉瓦容量的普罗米修斯数据中心项目,其采用GB200/300混搭,GPU总量达到50万张,与我们对亥伯龙数据中心的预估结果基本一致。
能耗方面,1吉瓦的GB200 NVL72数据中心,全年365天24小时满负荷运行,预计需要87.6亿度电。作为对比,日本东京2023年全年的用电量也就1300亿度。
SemiAnalysis的跟踪数据中未包含xAI,但作为OpenAI的头号对手,xAI同样在“疯狂”投资基础设施。
7月10日,xAI公布了旗下Grok 4模型,马斯克在直播中透露该模型是在一个拥有超过20万张H100 GPU的超级计算机集群。这句话的重点不止于这个20万卡的集群,还在于xAI数据集群建设速度上——距离上一个节点“10万卡”集群建成仅仅过去了9个月。
更夸张的是,xAI旗下首个10万卡级别的Colossus AI 超级计算机集群,从建设到投入运营,耗时122天,建设效率“卷上天”。
关于为什么要这么卷基础设施建设,马斯克在直播中透露过自己的逻辑,他强调如果依赖云厂的算力,协调一个10万卡的集群,预计需要18到24个月。“我们想,18到24个月,这意味着失败是必然的。”马斯克说。
自建122天,协调云厂的算力最快需要18个月,这也一定程度上可以解释为什么OpenAI不打算和微软一起玩了——靠外部合作伙伴来协调算力效率太低,租赁算力只能作为短期过渡方案,只有自己主导才能可控。
可以想象这样一幅画面:当OpenAI推出吉卜力风格图片生成时,奥特曼说“我们的GPU快要融化了”,转身向微软协调算力支持却碰了软钉子——得到的回复竟是“你再等等”。此刻的奥特曼,内心恐怕只剩下一声无奈的叹息。

2023-2025年,AI基础设施建设资本支出趋势变化 来源:The Business Engineer
回到xAI的20万卡集群上来,按H100单卡2.5万美元-3万美元的价格,大致可以估算一下成本,整个GPU部分的成本就需要50亿美元-60亿美元,这还不包括基建和运营、维护的成本。
OpenAI、xAI、Meta在数据中心上的投入,是行业AI资本支出扩张的一个缩影。
The Business Engineer分析师Gennaro Cuofano今年5月份发布一份研究报告,内容援引硅谷公司的业绩、行业预测数据,梳理了2023、2024、2025三个年度硅谷大公司在AI上的资本支出,对应数值分别为1700亿美元、2560亿美元、3600亿美元。
全年3600亿美元,折合人民币超过2.5万亿元,这个规模相比2023年增长超过110%。更重要的是,大公司的AI支出占据了全行业85%以上,这也意味着AI基础设施建设的“马太效应”不断强化——未来头部云厂将掌握着行业的核心资源。
巨头们纷纷卷入这场2.5万亿美元算力战争,也还有一个值得关注的背景——OBBB(大漂亮法案)签署通过。
根据法案,科技巨头们的大型数据中心基础设施建设、研发等都可获得税收抵免。以设备全额折旧为例,比如企业购买价值 1 亿美元的服务器等数据中心硬件。 按传统折旧规则需要分5年进行,每年只能抵扣2000万美元。 根据法案,企业可在购置当年一次性抵扣1亿美元应纳税所得额。
业务上有需求,竞争对手都在卷,政策又变相的起到了催化剂作用,都刺激着奥特曼、扎克伯格和马斯克们,迫不及待的再打一场硅谷芯片战争。
如果非要问一个问题,有了百万级的GPU,人类能打开AGI时代的大门吗?
本文来源于:腾讯科技,作者:苏扬 编辑丨郑可君,原文标题:《芯片战争来了!100万卡 vs 5000万卡,奥特曼、马斯克“神仙打架”》
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。