“百模大战”中存在感不高的亚马逊如今正在酝酿他的“秘密武器”。
11月8日,媒体报道称,亚马逊正在训练他的第二个大语言模型——内部代号为“Olympus”,很有可能在今年12月份上线。
这一名为Olympus大语言模型规模达到2万亿(2000B)参数,超过GPT-4的参数规模(此前报道称GPT-4的参数约为1万亿)。
亚马逊计划将“Olympus”接入在线零售商店、Echo等设备上的Alexa语音助手,并为AWS平台提供新的功能。
媒体分析认为,亚马逊作为第一大云服务厂商,多年来在基础设施方面的建设,以及技术层面的积累,使其拥有巨大的竞争优势。“Olympus”的出现将成为一个明确的信号:亚马逊希望在AI时代开发属于自己的LLM,不在关键技术上依赖他人。
据悉,因技术问题以及ChatGPT的出现,亚马逊名为“Titan”(泰坦)的AI大语言模型在去年推迟了上线,当时高管们普遍认为ChatGPT远远优于Titan。
从那时开始,亚马逊一直默默追赶,想以最快的速度缩小差距。
今年4月,亚马逊云服务部门(AWS)宣布,推出Bedrock生成式人工智能服务,以及自有的大型语言模型“Titan”但并未掀起太大波澜。
今年9月的重磅新品发布会上,亚马逊称,新版Alexa的新功能将得到生成式AI技术加持。Alexa的AI助手将会像其他生成式AI助手一样,帮助用户起草邮件,完成生活中的各种任务。
亚马逊设备和服务高级副总裁Dave Limp表示,等到那个时候,Alexa语音助手也将会独立于Amazon Prime收费。
亚马逊豪掷40亿美元投资OpenAI最大劲敌
在这笔投资之后,Anthropic的模型也成为了AWS服务中的一部分,用户可以通过Amazon Bedrock访问Claude,让AWS能够向客户提供最先进的大语言模型服务。
亚马逊开发人员和工程师将能够通过Bedrock 使用 Anthropic 模型进行构建,并将其整合到自身业务中,为亚马逊AI发展提供强有力的支持。
两家公司在一份声明中表示,亚马逊将持有 Anthropic 的少数股权,估值尚未确定。
同时,与Anthropic的合作,亚马逊意在“花钱买客户”,加速开发自研AI芯片。
一方面,大多数人工智能应用都依赖于英伟达的昂贵芯片,而AWS推出的加速芯片Trainium 和 Inferentia,也能够降低训练模型和运行推理的成本,Anthropic表示将使用AWS芯片来构建和训练模型。
另一方面,AWS倾向于构建自己的产品,而不是依赖于从其他公司购买的技术或业务。亚马逊表示,该公司工程师,包括在 AWS 以外工作的工程师,将可以使用Anthropic的模型。
亚马逊高管表示,所谓的生成式AI还处于早期阶段,迄今已有10万多名客户在使用AWS的机器学习服务。Claude将作为亚马逊“Bedrock”服务的一部分,向客户提供亚马逊和第三方模型,无疑将给AWS服务增加竞争优势。