来源:字母榜(ID:wujicaijing) 作者:赵晋杰
微软、OpenAI做梦都想有自己的芯片。
OpenAI也在骑驴找马,想要尽快摆脱对英伟达的依赖。
据路透社,至少从去年开始,OpenAI就已经讨论了各种方案,希望能解决芯片又贵又短缺的问题。其中,自研芯片是方案之一,目前这个方案仍然没有被完全否定。
另一个方案是直接收购一家芯片公司。知情人士称OpenAI已经有潜在的收购目标,并曾考虑对其进行尽职调查。但报道中未能确定具体是哪家芯片公司。
巧合的是,另一个消息与之相伴而出——微软将在下个月的年度开发者大会上,推出其首款为AI设计的芯片“雅典娜(Athena)”。
据The Information援引知情人士,雅典娜将用于数据中心服务器,为训练大语言模型等设计,同时支持推理,能为ChatGPT背后的所有AI软件提供动力。
云已经成为大模型的重要战场,而微软在该领域的两个竞争对手谷歌和亚马逊,都早已拥有了自己的AI芯片。雅典娜的推出将让微软补全短板。
微软和OpenAI在芯片问题上的进展颇有代表意义:论角色,正是微软、OpenAI和英伟达的三方联手,让ChatGPT变为现实,继而引发了一场全球性的AIGC新浪潮;论时间,下个月正是ChatGPT推出整一年的节点。
大模型竞争的下一个焦点似乎是“谁能先‘甩’了英伟达”,在芯片领域具备统治力的英伟达,已经成了一种亟需摆脱的束缚。
A
2016年,成立仅一年的OpenAI迎来一位贵客,英伟达CEO黄仁勋。他亲自将首个轻量化小型超算DGX-1送给了OpenAI,OpenAI一年的计算量可以靠DGX-1在一个月内完成。
如今,后知后觉的人们回头看黄仁勋在DGX-1上的签字“为了计算和人类的未来”,惊呼“皮衣教主”的毒辣眼光。
到了2019年,微软牵手OpenAI,为其打造的超级计算机用上了上万个英伟达A100 GPU。就这样,OpenAI出力、微软出钱、英伟达出基建,用惊人的算力支撑着OpenAI大模型的研发,并最终大力出奇迹,ChatGPT于2022年11月推出,惊艳世界。
OpenAI成为明星企业,微软以AI战略与谷歌等展开激烈厮杀,而英伟达公司市值更是从去年11月的3000多亿美元,飙升到如今的超万亿美元。全球掀起大模型热,英伟达作为“卖水翁”,芯片不愁卖。
今年7月,花旗研究分析师Christopher Danely在一份报告中指出,英伟达将占据AI芯片市场“至少90%”的市场份额。
然而,这场“三赢”的游戏中,却可能只有黄仁勋是全然快乐的。对于微软和OpenAI为代表的“买水人”来说,依赖英伟达的芯片至少有两个问题。
第一个问题是贵。对于为OpenAI搭建的超算,据彭博社报道,微软在该项目上的花费了数亿美元。伯恩斯坦研究公司分析师Stacy Rasgon分析,ChatGPT每次查询都要花费约4美分。如果ChatGPT的查询量规模增长到谷歌搜索的十分之一,则需要大约481亿美元的GPU,并且每年还需要160亿美元的芯片才能维持运行。
第二个问题是稀缺。就在今年6月,OpenAI CEO阿尔特曼(Sam Altman)在一场会议上称,芯片的短缺阻碍了ChatGPT的发展。面对客户对API可靠性和速度的抱怨,阿尔特曼解释大部分问题都是由于芯片短缺造成的。
今年新发布的英伟达H100是目前最热门的AI芯片,但只能满足一半的市场需求。英伟达H100和A100均由台积电生产,台积电董事长刘德音上个月曾解释称,供应限制不是由于缺物理芯片,而是先进芯片封装服务(CoWos)的产能有限,而这是制造过程的关键步骤。
刘德音还预计,一年半后技术产能将足以满足客户需求,也就是2024年底AI芯片供应紧张可能会得到缓解。
虽然雅典娜可能在今年才会推出,但微软已经为此准备多年。在豪掷数亿美元为OpenAI打造超算的2019年,微软的雅典娜项目已经启动。根据爆料,雅典娜会使用台积电5nm工艺打造,直接对标英伟达A100,预计每颗成本降低三分之一。
B
对于英伟达来说,微软和OpenAI的私心是一个红色信号。
微软是英伟达最大的客户之一,甚至传出过“包圆”H100全年产能的消息,OpenAI则是AIGC领域最重要的风向标。二者自研芯片的心,是英伟达头顶的一抹乌云。
谷歌曾是最早大规模采购GPU来进行AI计算的公司,但后来研发自己的AI专用芯片。在2016年就已经发布了第一代TPU(张量处理单元),随后在2017年作为Google Cloud基础设施Google TPU推出。这些年来谷歌一直在持续迭代,今年4月其公布了TPU v4的细节,称其比英伟达的A100强1.7倍。
虽然谷歌仍然在批量采购英伟达GPU,但其云服务已经用上了自家的TPU。在这次的AIGC大战中,AI绘图公司Midjourney、有ChatGPT竞品Cloude的独角兽公司Anthropic,都不是像OpenAI一样从英伟达采购芯片搭建超算,而是使用了谷歌的算力。
另一个科技巨头亚马逊也动作颇早,在2015年收购以色列芯片初创公司Annapurna Labs,为其云基础设施开发定制芯片,三年后推出了基于Arm的服务器芯片 Graviton。后来,亚马逊推出以人工智能为重点的芯片Inferentia, Trainium。
上个月,消息称亚马逊将向Anthropic投资40亿美元,作为交易的一部分,Anthropic 将使用 AWS Trainium 和 Inferentia 芯片来构建、训练和部署其未来的基础模型。
除此之外,英伟达的其他竞争对手也在向AI芯片领域发起进攻。AMD、英特尔、IBM等正陆续推出AI芯片,试图与英伟达的产品抗衡。今年6月,AMD就发布了Instinct MI300,直接对标英伟达H100,是专门面向AIGC的加速器。其集成的晶体管数量达到1530亿,高于H100的800亿,是AMD投产以来最大的芯片。AMD甚至用兼容英伟达CUDA的策略,降低客户的迁移门槛。
不可否认的是,目前英伟达仍然几乎垄断AI芯片市场,没有竞争对手撼动其地位,也没有一家科技巨头可以完全摆脱对它的依赖。
但“降低英伟达的控制力”似乎成为一种共识,外部挑战一浪接着一浪。微软和OpenAI自研芯片的消息,就是新的一浪。英伟达能稳站岸头吗?