查看原文
其他

黄仁勋祭出Blackwell,圈出百万亿美元AI新市场,英伟达已占四个席位

未尽研究 未尽研究
2024-08-23


黄仁勋的主题演讲结束了。在短短两个小时里,他试图让投资者相信,一个由生成式AI驱动的价值100万亿美元的新行业开始了。英伟达将继续在这片新市场中占据主导地位。

黄仁勋站在英伟达GTC大会的舞台上时,像一个摇滚明星那样面对来自世界各地的粉丝。他再次告诉全世界,不仅AI大模型的训练建立在GPU的基座之上,而且AI推理也无法摆脱英伟达的平台

英伟达推出了基于更强大的Blackwell架构的B200芯片及其算力集群,训练下一代大模型更快更省电;NIM将简化大模型部署,无论是在云端还是本地,让更多人用上AI推理;NeMo将注入企业数据,拓展日益枯竭的高质量数据的边界;GR00T尝试模拟物理世界,它是通往AGI有力候选途径,同时也能让具身智能再造日渐脆弱的全球工业制造。

Blackwell证明扩展定律依然有效

许多人工智能研究人员相信,拥有更多参数和数据的更大模型,可能会解锁新的能力。这就是大模型的扩展定律。英伟达的黄氏定律支撑着大模型的扩展法则持续生效。过去一年发布的最先进的大模型,都是在英伟达上一代Hopper架构上训练的。如今,大模型厂商们即将拥有更强大的Blackwell架构。

黄仁勋拿出了B200,这款基于Blackwell架构的GPU体积庞大,由两个独立制造的裸晶(Die)耦合而成,互联速度10Tbps,共2080 亿个晶体管。英伟达与台积电留了一手,多年来第一次没有利用新节点提升性能与密度优势,只是更新了 4 纳米(4NP)工艺。这意味着Blackwell 几乎所有的效率提升都必须来自架构效率。

过去,OpenAI训练GPT-4需要8000个H100和15兆瓦电力,如今用老方法再来训练一遍,只需要2000个B200与4兆瓦。黄仁勋暗示他确信当前最大模型GPT-4约1.8万亿参数规模。

黄仁勋重振了当年乔布斯的势头,在硅谷一呼百应。纳德拉、皮查依、扎克伯格、马斯克、哈萨比斯、奥特曼、亚马逊、甲骨文,七巨头中除了目前不做大模型(传出要与谷歌合作)的苹果之外,都纷纷发文表达对于B200的支持;还有AI独角兽们。黄仁勋年轻创业时崇拜的戴尔,只能在观众席上仰视着老黄。

他们都将在云端部署英伟达GB200 NVL72服务器的AI算力。后者的核心部件为两块B200 GPU,加上ARM架构的Grace CPU,可实现总计 720 petaflops 的 AI 训练性能,或 1,440 petaflops( 1.4 exaflops)的推理性能。

亚马逊确定将推出由2万个GB200组成的算力集群,它可以满足27万亿参数量模型的训练,差不多是15倍大小的GPT-4。

NIM是英伟达推理市场的野心

英伟达是大模型预训练当之无愧的主导力量,但推理是一个更广泛、竞争更激烈的市场。科技巨头与初创企业独角兽都盯紧这个更大的市场。目前英伟达AI业务中,还是以训练为主,推理占40%。

与H100组成的算力集群相比,英伟达的目标是将推理性能提高 30 倍,同时将能效提高 25 倍。最关键的提升之一,来自对下一代Transformer引擎的优化,使其能在较低精度上实现不俗的推理准确性。此前,Hopper增加了对FP8的支持,Blackwell则进一步优化至处理 FP4 精度,保证高计算吞吐量和低内存消耗。

老黄更大的野心在于NIM服务。它将优化的推理引擎、行业标准API和工具链,包括检索增强生成(RAG)技术,统统打包到一起,从开源模型到专有模型,都可以在任何有英伟达GPU的地方运行,无论它在云端服务器,还是在本地笔记本电脑上。让缺乏AI开发经验的传统企业,可以通过与AI聊天的形式,直接简单地部署自己的大模型。


它是英伟达下一代推理战略的基础,如果一切顺利,相当于构建了一个全新的、无所不在的AI操作系统。模型开发者可以通过NIM将自己的创新产品,推广至所有拥有英伟达GPU的潜在市场。要让开发者和用户放弃使用已久的平台,成本要比让他们放弃硬件的高得多。

NeMo扩展了高质量数据的边界

大模型预训练正在疯狂吞噬人类世界的公开数据,尤其是高质量语言数据的告竭已经迫在眉睫,最快2026年之前耗尽。它们通常包括50%用户生成的内容,15%-20%的书籍,10%-20%的论文,近10%的代码和近10%的新闻。

除了可以向合成数据伸手外,企业数据还没有充分利用起来。英伟达的NeMo自去年提出以来,逐渐成为一个端到端平台。其中,NeMo Curator简化了数据清洗、过滤等管理任务,帮助准备好高质量的数据集,用于预训练大模型;NeMo Customizer简化了针对特定领域用例的微调和对齐;NeMo Evaluator支持对自定义数据集进行评估。NeMo还打通了与Snowflake数据云的合作。

黄仁勋展示了ChipNeMo,可以回答芯片行业信息相关的细节。各种各样的NeMo可以跨公司共用,相当于构建了NeMo Store,也可以连接私有数据实现专有部署。

英伟达目前最大的招牌之一就是BioNeMo。它允许生物医药研发团队利用英伟达创建的模型,或科研团队的开源模型,或基于其专有数据定制生成式AI模型,加速候选药物发现。近一年来,英伟达及其风投部门NVentures成为了最活跃的AI制药投资者,最近一家是Relation Therapeutics,种子轮就融了6000万美元,该公司联合创始人Charles Roberts,还是木头姐方舟基金VC团队的高管。

如果更多行业NeMo展示出BioNeMo的前景,英伟达一定也不会吝啬加大投资的。

GR00T模拟物理世界

模拟物理世界通往AGI。这也是为什么Sora出来后,人工智能大佬对它是否真的是世界模拟器争论不休。英伟达从不遮掩它追逐模拟物理世界的野心。英伟达的IAI、Omniverse与ISAAC平台,都与物理世界与数字孪生相关;英伟达华人高级科学家Jim Fan领衔负责GEAR工作室,专攻具身智能。

这次,英伟达发布了人型机器人基础模型Project GR00T,是GEAR实验室“基础智能体(Foundation Agent)”路线图的基石。

机器人的ChatGPT时刻已经到来。它可以理解自然语言,模仿人类动作,进而快速学习协调性、灵活性以及其他的技能,在现实世界中与人类进行互动。它的合作方包括1X、Agility,以及中国的傅利叶智能与宇树科技等,涵盖了除了特斯拉以外的几乎所有的著名人形机器人制造商。

英伟达还发布了Jetson Thor,AI算力达到800TFLOPs,足以在机器人内部运行GR00T 等多模态生成式AI模型。

此外,英伟达还展示了6G研究云平台,与上个月它参与发起的AI-RAN联盟相呼应,希望将数万亿台设备与云基础设施连接起来,形成混合AI的超级智能世界。英伟达还加入了量子云的竞争。



修改于
继续滑动看下一个
未尽研究
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存