作为全球 AI 行业毫无疑问的 “卖铲人” 和 “铺路人”,对于英伟达自身的市场价值有怎样的影响?英伟达又为全球AI产业给出了什么“风向标”?其中又有哪些与A股相关的机会值得投资者关注?
从全球半导体行业技术进展愈发艰难下大环境下,英伟达照样可以拿出性能更强悍的GPU芯片;到英伟达自身愈发强大的局域网网络通信能力;再到英伟达超大GPU集群上全新采用的液冷服务器机架解决方案,都能看出英伟达在基础设施硬件上的强悍实力。
参考全新B200 GPU相对于上一代H200 GPU的综合应用性能提升(典型场景7-30倍提升),去年年末开始宣称在性能上要开始追上英伟达的各种芯片解决方案(AMD、Intel、其他芯片创业公司),即将在AI算力和AI成本上再次被英伟达抛离。
相比硬件统治性能更厉害的,是英伟达此次在AI产业应用落地祭出的“小”创新——“英伟达推理微服务(NVIDIA Interference Microservices,NIM)”。
早在去年,在 ChatGPT 能力之上二次开发的 AutoGPT 就曾大火过一波,当时 AutoGPT 的策略是通过 ChatGPT 的多次循环,实现对复杂目标的拆分和分散寻找答案。但随着后来的实践,整个行业其实已经看到了其中的关键——单个AI大模型很难解决所有问题,至少只靠语言不行。
在那之后没多久,OpenAI自己就对外发布了开发者基于GPT能力进行二次应用开发的GPT Store。相应的,智能体的概念也一度大火了一把。
但究竟如何将分散的、解决不同场景、不同需求的智能体(可以理解为不断提升能力的大模型)组织起来,进一步实现复杂问题的解决。包括后期智能体覆盖人类绝大多数需求之后,在单一入口实现“一步到位”解决绝大多数问题,变相实现通用人工智能(AGI),其实大家一直没有给出一套完整的解决方案。
而NIM正是因此而诞生,上层将单个智能体的所有组件(行业 API,AI 算法支持库、云端架构支持、AI 算法加速、定制模型、定制存储、企业管理等)全部打包,然后通过k8s的容器化技术,直接与拥有NVIDIA CUDA计算能力的硬件对接。
从硬件到应用计算结果的全过程,NIM扮演的角色就是PC时代的操作系统。虽然未来其他厂商大概率还会在NIM的骨架上套上各种各样的外皮,但至关重要的骨架部分,已经被英伟达所占据(反过来说,也是因为其他厂家没有英伟达这样的实力)。
考虑到英伟达目前对于自身硬件、自身CUDA生态的*话语权体系,NIM大概率将逐步把各种有潜力的 AI 模型和应用,紧紧地绑定在英伟达有着明显优势的云端算力性能和成本之上。
NIM这套体系如此的强势也透露出了英伟达对于AI产业的一个预测——所有端侧AI应用构想,或将在不久的将来面临被直接淘汰的“窘境”。
进入2024年,包括国内手机厂商甚至是苹果这样的全球龙头移动设备公司,都在推动着自身设备的AI化,不断放出诸如“以后只做AI硬件”的狠话。但现实的情况是,即便强如苹果的M系列Ultra芯片,在运行单个图片生成的大模型,也需要几秒钟的反应时间。
这些辛辛苦苦才计算出来的结果,对于大部分用户而言,还只是“图一乐”的存在。侧面反应了当前端侧硬件设备计算能力,与人类实际AI需求之间的巨大隔阂。
人类从1960年至今,的确一步步在CPU层面的需求上,完成了从只能计算加减乘除的巨型机,到随手塞入裤袋还能无线通信的智能手机的跨越。
只可惜由于AI诞生的全新计算需求,我们很可能要重新在这个尺度把流程走一遍,这个过程要多久不好说,甚至有可能会比60年更长(同时也要考虑能源变革方面的进展)。
遍观英伟达的整场发布会,对于A股有直接影响的大致只有两个概念,一个是光模块,一个是液冷服务器。
英伟达基于此次发布的B200 GPU打造了多种数据中心/计算中心解决方案,能够直接替换上一代H100系列的传统DGX没什么好聊,但是全新的GB200模块,液冷计算节点(就是1U内放入两个GB200模块)、GB200 NVL72机架,以及由NVL72机架所组成的超级计算机集群,一口气对于集群的网络通信能力提出了全新的需求。
根据官方参数表来看,单个NVL72机架大概需要72个400Gb光模块和36个200Gb光模块。
根据官方介绍,如果客户追求超大规模、高性能可采用 NVLink+InfiniBand 网络;如果是多租户、工作负载多样性,需融入生成式 AI,则用高性能 Spectrum-X 以太网架构。
考虑到接下来全球对于英伟达全新云端AI算力的建设需求,很可能会相应拉升国内800Gb光模块厂商的未来生产需求。值得投资者重点关注。
【本文由投资界合作伙伴虎嗅网授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(投资界处理。