【海外TMT】Blackwell平台实现AI性能跃升,软硬协同助力英伟达转型AI全链条平台——英伟达GTC2024大会点评
点击注册小程序
查看完整报告
特别申明:
本订阅号中所涉及的证券研究信息由光大证券研究所编写,仅面向光大证券专业投资者客户,用作新媒体形势下研究信息和研究观点的沟通交流。非光大证券专业投资者客户,请勿订阅、接收或使用本订阅号中的任何信息。本订阅号难以设置访问权限,若给您造成不便,敬请谅解。光大证券研究所不会因关注、收到或阅读本订阅号推送内容而视相关人员为光大证券的客户。
【海外TMT】Blackwell平台实现AI性能跃升,软硬协同助力英伟达转型AI全链条平台——英伟达GTC2024大会点评
报告摘要
事件:
美国时间3月18日-3月21日期间,英伟达举行GTC2024大会。其中美国时间3月18日下午1:00-3:00,英伟达CEO黄仁勋发表了《见证AI的变革时刻》的主题演讲,分享在芯片迭代、软件生态和机器人等应用上的进展。
Blackwell新架构:多芯片封装、Transformer 引擎和互联传输升级,助力单芯片性能和整体算力集群性能提升
1)4NP制程+双芯片设计,将2颗GPU以10 TB/s通信速率融合成一颗芯片,晶体管数量由H100的800亿提升至2080亿,大幅提升单芯片处理能力;2)第二代Transformer引擎,使Blackwell具备在FP4精度的AI推理能力,能在将性能和效率翻倍的同时保持混合专家模型的高精度;3)互联传输方面,NVLink + NVLink Switch + X800系列交换机提升集群通信连接速率;4)内嵌解压引擎、RAS引擎和加密协议。
通信互联:推出第五代NVLink、NVLink Switch和X800系列交换机,增强大规模AI算力网络传输速度
1)第五代NVLink:带宽突破1.8TB/s,相比第四代提升一倍;2)NVLink Switch:支持576颗GPU组成计算集群,上一代仅支持256颗GPU连接;3)X800系列交换机:成为全球首款具备端到端 800Gb/s 吞吐量的网络平台,相比上代产品带宽容量提高5倍,网络计算能力提高9倍。
英伟达推出B200 GPU、超级芯片、服务器到大型算力集群等全套算力硬件组合
1)B200:搭载8颗HBM3e,内存容量达192GB,FP4精度下算力高达20 PFLOPS,预计2024年晚些时间上市;2)超级芯片GB200:2颗Blackwell GPU +1颗Grace CPU,FP4精度下算力高达40PFLOPS;3)超级计算机GB200 NVL72:72颗BlackwellGPU+36颗Grace CPU,训练和推理性能相比等同数量的H100 GPU表现提升4倍和30倍;4)DGX Super POD:一站式 AI 超算解决方案,搭载8套 DGX GB200 NVL72系统,有望成为未来重要基础设施。
软件工具链:NIM打通软硬件、降低客户软件开发难度,NeMo帮助企业采用专用数据开发定制大模型,英伟达将逐步转型成类苹果/微软的平台提供商
1)NIM推理微服务:集成数十个企业级生成式AI模型,可提供从最浅层的应用软件到最深层的硬件编程体系CUDA的直接通路,帮助开发者在CUDA GPU上创建和部署生成式AI应用;2)NeMo Retriever:挖掘企业“数据金矿”价值,客户可以使用其他公司或英伟达提供的行业基础NeMo并添加自己的数据来生成专用大模型;3)NIM已在半导体、医药等多领域落地。
软件应用:英伟达拓展AI应用发展方向,积极在机器人和自动驾驶等领域开展合作
1)机器人:英伟达看好AI+机器人领域前景,发布机器人基础大模型Project GR00T,推出Jetson Thor计算机、Isaac软件开发工具和库等,并与众多公司在机器人开发领域达成合作关系;2)自动驾驶:自动驾驶芯片采用Blackwell新架构,英伟达与比亚迪等车企加强合作。
风险分析:1)下游应用程序开发和场景拓展较慢,导致AI商业化进度不及预期;2)B200等新品产能扩张受限,数据中心业务出货量不及预期;3)若AIGC进展不及预期,大模型训练和推理的算力需求高速增长的可持续性或降低。
发布日期:2024-03-21
本文 zblog模板 原创,转载保留链接!网址:http://fsxxzx.com/post/1693.html
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。