AI芯片供应不足,英伟达产品一度脱销
8月8日,世界计算机图形学会议SIGGRAPH在全球计算机行业内举行,这是一场非常重要的圆桌会议。
NVIDIA的创始人兼CEO黄仁勋亲临会议,并宣布推出新一代英伟达超级AI芯片GH200。黄仁勋对这款新旗舰产品充满信心,称其为"世界上速度最快的内存"。
在如今的AI市场上,英伟达可以被称为"驱动整个AI世界的核心"。无论是OpenAI、谷歌、META、百度、腾讯还是阿里巴巴,所有生成式AI系统都极度依赖英伟达的AI芯片进行训练。
据媒体报道,英伟达的AI芯片H100在2023年8月市场总需求可能达到约43.2万张,而目前该芯片在Ebay上的售价甚至高达4.5万美元,折合人民币超过30万元。
这就意味着缺口约为40多万张芯片,单价高达4.5万美元,总价轻而易举地超过数百万美元。
英伟达正在经历比"挖矿时代"更加疯狂的市场浪潮。
AI芯片需求火爆,一时间难以满足。
所谓的AI芯片,实际上指的是图形处理器(GPU),主要用于支持进行人工智能算法训练和部署时需要进行的大量计算任务。
换句话说,生成式AI的智能表现来自于大量GPU的协同运算。使用的芯片数量越多,生成式AI的智能性就越高。根据媒体的猜测,为了进行GPT-4的训练,至少需要8192张H100芯片。按照每小时2美元的价格,在约55天内可以完成预训练,总花费大约为2150万美元(1.5亿人民币)。
微软高管透露,提供算力支持的AI超级计算机是在2019年投资10亿美元建造的,该计算机配备了数万个英伟达A100GPU,并在60多个数据中心共部署了几十万个英伟达GPU辅助。
GPT-4需要的AI芯片并不是固定的,而是逐次递增的。GPT-4越智能,所需的算力就越大。据摩根士丹利预测,到了GPT-5阶段,大约需要使用2.5万个GPU,约为GPT-4的三倍。
为了满足OpenAI、谷歌等一系列AI产品的需求,英伟达需要为全世界的AI产品提供芯片,这对英伟达的产能是一个巨大的考验。
尽管英伟达正在努力生产AI芯片,但据媒体报道,小型和大型云提供商的大规模H100集群容量即将耗尽,H100的“严重缺货问题”至少会持续到2024年底。
目前,英伟达在AI市场的芯片主要分为H100和A100两种。H100是旗舰款产品,比起A100,在16位推理速度上快大约3.5倍,训练速度上快大约2.3倍。
不论是H100还是A100,它们都是与台积电合作生产的,这导致H100的生产受到限制。有媒体称,一张H100芯片从生产到出厂需要大约半年的时间,生产效率非常缓慢。
英伟达曾表示他们在2023年下半年将提高对AI芯片的供应能力,但没有提供具体的数量信息。
许多公司和买家都呼吁英伟达增加晶圆厂的生产数量,不仅仅与台积电合作,还要将更多订单交给三星和英特尔。提升训练速度的方法有很多种,其中一种是推出性能更高的芯片。由于生成式AI计算需求不断增长,英伟达在今年3月发布了H100NVL GPU、L4Tensor Core GPU、L40GPU和NVIDIA Grace Hopper等四款AI芯片,以提升AI训练能力。
为了进一步满足市场需求,英伟达在8月8日的SIGGRAPH世界计算机图形学会议上,黄仁勋发布了H100的升级版,即GH200。GH200采用了72核Grace CPU,配备480GB ECC LPDDR5X内存和GH100计算GPU,并搭配141GB HBM3E内存,使用了6144位存储器接口。
GH200的一个重大突破就是成为世界上第一款配备HBM3e内存的芯片,这样可以将本地GPU内存增加50%。这项技术升级对于生成式AI尤为重要,因为其模型尺寸往往巨大但内存容量有限。
SK海力士是生产HBM3e内存的公司,其第五代高带宽内存技术可以在较小的空间内提供更高的数据传输速率。HBM3e内存的容量为141GB,每秒带宽达到5TB,分别比H100的容量提高了1.7倍和带宽提高了1.55倍。
自从7月份发布以来,SK海力士已经成为了GPU市场的佼佼者,超过了直接竞争对手英特尔Optane DC和三星的Z-NAND闪存芯片。
值得一提的是,SK海力士一直是英伟达的合作伙伴,英伟达在大部分产品中都采用了SK海力士的内存产品。尽管英伟达多次要求SK海力士提高内存产能,但后者一直面临产能压力。
NVIDIA官方表示,相比当前一代产品H100,GH200的内存容量和带宽分别提高了3.5倍。另外,HBM3e内存还使得下一代GH200运行AI模型的速度比当前模型快3.5倍。
虽然运行AI模型的速度提升了3.5倍,但是否意味着一张GH200相当于3.5张H100,还需要进一步实践操作才能确定。
目前可以确定的是,作为AI市场的最大供应商,英伟达进一步巩固了自己的领先地位,并与AMD和英特尔拉开了差距。
ai工具箱
ai导航
免费aigc导航
aigc工具
免费ai工具