亚马逊向OpenAI的最大敌人投资40亿美元(约280亿元人民币)

9月25日下午,亚马逊在公司官网宣布,向大模型公司Anthropic投资40亿美元,该公司因开发与ChatGPT相媲美的聊天机器人Claude而闻名。

亚马逊向OpenAI的最大敌人投资40亿美元(约280亿元人民币)

云计算公司对大模型公司进行了大量投资。 微软今年2月份就取得了开门红,以100亿美元收购了微软云Azure的大客户OpenAI以及ChatGPT的优先使用权。 现在看来,这笔交易对于微软来说是稳赚不赔的。 自2月份以来,微软市值已增长40%。

但如今,半年过去了,大模型领域的上下游关系正变得复杂起来。 亚马逊对Anthropic的投资不仅仅是为了为AWS“锁定”客户,甚至不一定是为了大模型。

官方合作细节显示:Anthropic将使用AWS Trainium和Inferentia芯片来构建、训练和部署其未来的基础模型。 此外,两家公司还将合作开发未来的Trainium和Inferentia技术。 值得注意的是,AWS Trainium是AWS于2020年底推出的定制ML(机器学习)训练芯片,Inferentia芯片是AWS于2019年推出的高性能机器学习推理芯片。

亚马逊通过投资Anthropic深化合作,旨在加速自主研发AI芯片的研发。

日前,The Information独家爆料,NVIDIA要向三大云厂商“收取手续费”——NVIDIA要向云厂商租用NVIDIA服务器,这样就可以通过云厂商向AI用户提供AI应用。 云而不是服务器或芯片。 直接提供服务的,这些应用还包括三大云厂商。

然而,只有亚马逊拒绝了这一提议。

现在看来,亚马逊拒绝英伟达的理由就是想办法加快自研AI芯片的升级。 在大模型时代,亚马逊稳定云计算市场第一的核心竞争力在于AI芯片。

第一云平台出手,成为OpenAI最大敌人
对于此次合作,亚马逊表示,初期将投资12.5亿美元购买Anthropic的少数股权。 作为交易的一部分,亚马逊表示可以选择将对 Anthropic 的投资增加至 40 亿美元。

作为扩大合作的一部分:

Anthropic 将使用 AWS Trainium 和 Inferentia 芯片来构建、训练和部署其未来的基础模型,并受益于 AWS 的价格、性能、规模和安全性。 两家公司还将在未来的 Trainium 和 Inferentia 技术上进行合作。

AWS 将成为 Anthropic 的关键任务工作负载(包括安全研究和未来基础模型开发)的主要云提供商。 Anthropic 计划在 AWS 上运行大部分工作负载,进一步为 Anthropic 提供来自世界领先云提供商的先进技术。

Anthropic 做出了长期承诺,通过 Amazon Bedrock 为全球 AWS 客户提供对其下一代基础模型的访问,Amazon Bedrock 是 AWS 上的一项完全托管服务,可提供对业界顶级基础模型的安全访问。 此外,Anthropic还将为AWS客户提供早期访问模型定制和微调功能的独特能力。

亚马逊开发人员和工程师将能够通过 Amazon Bedrock 使用 Anthropic 模型进行构建,这样他们就可以将生成式 AI 功能融入到他们的工作中,增强现有应用程序,并在整个亚马逊业务中创造新的客户体验。

两家公司没有透露亚马逊投资 Anthropic 的估值。

亚马逊向OpenAI的最大敌人投资40亿美元(约280亿元人民币)

Dario and Daniela Amodei|图片来源:时代

Anthropic 由前 OpenAI 员工 Daniela Amodei 和 Dario Amodei 创立,他们是 OpenAI GPT2 和 GPT3 的核心开发人员。 目前,Anthropic 拥有最受欢迎的聊天机器人之一,Claude。

作为 ChatGPT 制造商 OpenAI 的挑战者,Anthropic 今年早些时候获得了谷歌 4 亿美元的投资,并在 3 月份获得 Spark Capital 的一轮融资后估值超过 40 亿美元。

亚马逊想干啥?
亚马逊向 Anthropic 投资高达 40 亿美元,到底想做什么?

一个显而易见的原因是“抢”客户。 作为云计算(未来)最大的客户,大模型厂商和AI应用公司已经成为各大云厂商的必争之地。

今年以来,谷歌、微软、AWS、甲骨文和英伟达都心照不宣地一致做了一件事——通过战略投资(花钱买客户)“锁定”客户,尽管这一操作在财务上存在争议。

但事实上,Anthropic 自 2021 年以来一直是 AWS 的客户。AWS 通过 40 亿美元深化与 Anthropic 的合作,旨在获得更深层次的合作利益:大模型,以及最重要的是自研 AI 芯片。

亚马逊向OpenAI的最大敌人投资40亿美元(约280亿元人民币)

换句话说,通过战略性地投入这笔学费,亚马逊学会了如何构建大模型。 它还通过与OpenAI竞争的对手讨论,开发出了甚至可以颠覆NVIDIA GPU的AI芯片。 毕竟,GPU 并不是为训练神经网络而设计的。 依靠CUDA和各种技术逐个场景“神奇修改”是一种选择,但并不是最优方案。

亚马逊首席执行官安迪·贾西的演讲证实了这一点,他表示:“我们相信,通过更深层次的合作,我们可以帮助改善许多短期和长期的客户体验。”

短期和长期的客户体验对应的是亚马逊的大模型和自研的AI芯片。

他进一步补充道:“客户对 Amazon Bedrock 和 AWS Trainium 感到非常兴奋,Amazon Bedrock 是 AWS 的新托管服务,使公司能够使用各种底层模型构建生成式 AI 应用程序,而 AWS Trainium 是 AWS 的 AI 训练芯片。 AWS的AI训练芯片以及我们与Anthropic的合作应该可以帮助客户从这两项功能中获得更多价值。”

事实上,今年上半年,亚马逊就推出了自己的大机型Titan,并公布了这款大机型的典型客户。 然而,几天后,这位典型的客户跳了出来,并向媒体透露,亚马逊的大型号不太好用。

可见亚马逊对于自研大机型的准备还不够充分。 因此,亚马逊转向市场,大力推广大模型平台Amazon Bedrock,客户可以在其中调用包括Anthropic在内的其他主流大模型厂商的服务。

另一方面,亚马逊需要稳定其在云计算领域的基本面。

大模型时代,云计算面临不同的工作负载,需要探索新技术以实现更快的推理能力。 在这方面,亚马逊实际上是先驱。 自研数据中心芯片和服务器一度被视为AWS为“区别于微软和谷歌”所做的“最重要的事情之一”。 其服务器速度更快并且更省电。

在AI专有芯片和服务器方面,亚马逊也是三大云厂商(微软云、谷歌云)中最早的。 但其AI芯片的进展和性能并未单独发布。 相反,它们捆绑在服务器中并通过云服务提供给客户。 因此,客户直接感知到的只是云计算的性能,而不是云计算中芯片的性能。

现在,亚马逊需要了解哪些工作负载最适合哪些处理器,与 Anthropic 合作是实现这一目标的一种方法。

目前,The Information 的生成式 AI 数据库中有 69 家公司,其中 32 家使用亚马逊,26 家使用谷歌,13 家使用微软作为云提供商。 当然,有些公司使用多个云提供商。

大模型时代,云计算、大模型、人工智能应用的合作与竞争变得更加复杂。 许久没有经历大变革的云计算行业,终于迎来了变革的契机。

本文由@指点号原创发布于今日指点,转载请附带链接。

本文链接:https://www.jinrizhidian.com/news/1043.html

发表评论