nebula nbl-b200 北京时间3月19日凌晨,英伟达GTC大会公布B200芯片?

作者:球迷网       时间:2025年09月22日 19:05

3月19日凌晨,在英伟达GTC(GPU技术大会)期间,英伟达首席执行官黄仁勋宣布了架构芯片的下一代产品——架构的B200芯片。当前英伟达架构的芯片H100和GH200 Grace超级芯片需求旺盛,它们为全球众多顶尖超级计算中心供应强大的计算能力,而B200将带来计算能力的再次巨大提升。

B200芯片并非单一GPU的常规形态,而是由两个紧密关联的芯片构成,尽管依据某些观点,它们能协同运作,如同一个完整的CUDA GPU。这两个芯片之间,借助10 TB/s NV-HBI(高带宽接口)实现高速连接,以此保障它们能像一枚完整芯片般无缝协作。

多卡联合运用是B200处理能力增强的重要环节。把两个 显存单元 和一个 Grace 处理核心组合起来的 GB200 能够为大型语言模型的运算过程提供三十倍的效能,并且或许能显著提升运作成效。英伟达指出,同 H100 相比,B200能够将生成式人工智能的计算成本和能源消耗减少高达二十五倍。

英伟达人工智能处理器在运算能力方面的进步主要得益于数据精度的改进,从最初的FP64、FP32、FP16、FP8,到如今B200芯片采用的FP4,其最大理论运算能力达到了20,以数据精度单位衡量。FP4的效能是FP8的两倍,FP4的优势在于提高了数据传输速率,通过为每个神经单元仅使用4位数据而不是8位,实现了计算速度、带宽容量以及模型体积的同步增长。若把B200折算成FP8规格同H100对照,那么B200在理论上仅比H100多出2.5倍的性能表现,B200的效能增强很多源自于两个芯片之间的互联作用。

CPU通用处理器遵循的摩尔法则,即单位面积晶体管数量每18个月翻倍的现象,现已步入尾声。台积电在3纳米工艺上的进展,并未促成芯片性能实现跨越式的飞跃。2023年9月苹果发布的A17 Pro芯片,虽是首颗采用台积电3纳米工艺的产品,其CPU表现力仅比前代提升了百分之十。芯片尖端工艺制造投资非常可观,远川研究机构公布,2023年台积电的晶圆制造费用,比两年前增长了大概16%(尖端工艺)至34%(常规工艺)。

台积电还有另一个重要的芯片客户,那就是英伟达,英伟达的核心AI芯片H100,是采用台积电的N4(5nm)工艺制造的,并且该芯片还运用了台积电的CoWoS先进封装技术。

摩尔规则不再适用球迷网,黄仁勋提出了他的法则,即图形处理单元的性能每两年会提升两倍以上,他强调,科技进步不只是体现在半导体领域,而是整个技术体系的综合发展。

英伟达Blackwell架构B200芯片_英伟达Hopper架构B200性能提升_nebula nbl-b200

英伟达正致力于实现多块显卡之间的协同工作。由于3纳米制程的芯片性能提升空间不大,英伟达的B200方案决定将两枚4纳米芯片并排安置,借助超高速的芯片内部连接技术,构建出一个包含超过两千亿个晶体管的巨型芯片。在英伟达GTC大会上,黄仁勋只是简略提及了芯片本身的性能表现,而将主要精力放在了DGX系统上。

英伟达的多卡联动方案是其核心竞争力所在,该方案是一种点对点的高速连接方式,能够将多个显卡直接相连,构建出高性能计算平台或深度学习网络,同时它还引入了整合内存的理念,让相连的显卡能够共享内存资源,这对于处理海量数据的工作来说非常关键。

而是一种快速交换网络方案,能够将众多图形处理器和中央处理器直接关联,构建出运算能力极强的计算平台。

借助援助,英伟达以惊人的方式将72块B200组合起来,最终形成了“最新型运算模块”GB200 NVL72。一个这样的“运算模块”机架,FP8精度的训练能力就非常强,几乎等同于H100时期一个DGX 超级计算机系统(1000 )

英伟达公开表示,这款创新处理器预计在2024年下半年与市场见面。现阶段,亚马逊、戴尔、谷歌、Meta、微软以及特斯拉均打算采用这种图形处理器。

采用批量分销卡片的模式,能够满足大型模型企业的用卡需求,多个GPU通过互联组合构建成数据中心,这种方式更契合大型模型企业与云服务提供商的采购习惯,英伟达2023财年财务报告表明,英伟达数据中心业务营收的百分之四十,源自超大型数据中心以及云服务提供商。

在美东时间3月18日,美股市场收盘后,英伟达的股票价格达到了884.550美元,公司整体市值约为2.21万亿美元。

标签: nebulanbl-b200