英伟达独霸时代要结束了?近日,媒体援引知情人士消息称,微软计划在下个月的年度开发者大会上推出首款为人工智能设计的芯片,来降低成本并减少对英伟达的依赖。
与此同时,OpenAI正在探索制造自主研发的人工智能芯片,并已开始评估潜在的收购目标。
减少对英伟达依赖
英伟达A100、H100系列芯片占据金字塔顶尖位置,是大型语言模型背后的动力来源。但用户面对英伟达的独霸天下,吃尽了成本高昂的苦头。
不管是为了降低成本,还是减少对英伟达的依赖、提高议价能力,科技巨头们已开始自研AI芯片。
微软的数据中心服务器目前使用英伟达的GPU为云客户提供先进的大型语言模型。4月18日,科技媒体The Information报道称,微软正在秘密研发自己的AI芯片,代号“雅典娜”;该芯片由台积电代工,采用5纳米先进制程。报道称,微软自2019年以来就一直在开发一款定制的专用芯片,用于为大型语言模型提供动力,目前已在测试阶段。“雅典娜”的首个目标是为OpenAI提供算力引擎,以替代昂贵的英伟达A100/H100。
OpenAI也正在探索制造自研人工智能芯片,并已开始评估潜在的收购目标。报道称,从去年开始,OpenAI就已讨论各种方案,以解决AI芯片短缺问题。OpenAI已将获取更多AI芯片列为公司首要任务,讨论方案包括自研AI芯片,与包括英伟达在内的其他芯片制造商更密切地合作,以及在英伟达之外实现供应商多元化。
特斯拉立足于智能驾驶,目前已经推出了两种自研芯片:全自动驾驶(FSD)芯片和Dojo D1芯片。FSD芯片是用于特斯拉汽车上的自动驾驶系统的芯片,Dojo D1芯片则是用于特斯拉超级计算机Dojo的芯片,它是一种高吞吐量、通用的CPU,不是一种加速器。它的目的是为了加速特斯拉自动驾驶系统的训练和改进。
早在2013年,谷歌就已秘密研发一款专注于AI机器学习算法的芯片,并将其用在内部的云计算数据中心中,以取代英伟达的GPU。2016年5月,这款自研芯片公诸于世,即TPU。TPU可以为深度学习模型执行大规模矩阵运算,例如用于自然语言处理、计算机视觉和推荐系统的模型,其最初专为谷歌的超级业务云计算数据中心而生。
从2013年推出首颗Nitro1芯片至今,亚马逊AWS是最先涉足自研芯片的云厂商,已拥有网络芯片、服务器芯片、人工智能机器学习自研芯片3条产品线。2020年底,AWS推出专用于训练机器学习模型的Trainium。2023年初,专为人工智能打造的Inferentia 2发布,将计算性能提高了三倍,加速器总内存提高了四分之一,吞吐量提高了四分之一,延迟提高了十分之一。Inferentia 2实例(可通过芯片之间的直接超高速连接支持分布式推理)最多可支持1750亿个参数,这使其成为大规模模型推理的有力竞争者。
撼动英伟达并不容易
显而易见,英伟达已经垄断了全球算力。到目前为止,大多数的AI负载还是跑在GPU上的,而英伟达生产了其中的大部分芯片。
数据显示,英伟达独立GPU市场份额达80%,在高端GPU市场份额高达90%。2020年,全世界跑AI的云计算与数据中心,80.6%都由英伟达GPU驱动。2021年,英伟达表示,全球前500个超算中,大约七成是由英伟达芯片驱动的。
根据从业者的说法,相比于通用芯片,亚马逊、谷歌和微软一直在研发的专用集成电路(ASIC)芯片,在执行机器学习任务的速度更快,功耗更低。综合


