从数周提速至几分钟!英伟达重磅宣布!
abcnews
发表于 2024-6-3 09:47:38
2870
0
0
6月2日,英伟达在Computex(台湾国际电脑展)上宣布,全球2800万开发者可以下载NVIDIA NIM(Nvidia Inference Microservices),将AI模型部署在云、数据中心或工作站上,轻松地构建Copilot(一种AI助理)、ChatGPT聊天机器人等生成式AI应用。这一产品将使得模型部署时间从以前的数周缩短至短短的几分钟。
NVIDIA NIM是英伟达今年 3 月推出的经过优化的云原生微服务,旨在方便各种规模的企业部署AI服务。证券时报记者查询英伟达官网发现,NVIDIA NIM已在官网上线,可供用户下载和部署。
除此以外,英伟达创始人兼首席执行官黄仁勋还宣布,新一代AI芯片与超级计算平台Blackwell芯片现已开始投产,将在2025年推出Blackwell Ultra AI芯片,下一代AI平台名称为Rubin,目前还正在开发中,预计于2026年发布,该平台将采用HBM4记忆芯片。
Blackwell是被英伟达寄予厚望的新的业绩增长引擎。在5月22日发布远超市场预期的财报后,黄仁勋在财报电话会议上指出,Blackwell架构芯片将于二季度发货,并将于三季度增产,预计今年Blackwell架构芯片将为公司带来大量收入。
数百家合作伙伴已嵌入 NIM
“每家企业都希望将生成式AI添加到其运营中,但并非每家企业都拥有一支专门的AI研究团队。NVIDIA NIM 集成到各个平台中,可供各个开发者使用,可在各个地方运行,它正在帮助技术行业让每个组织都能使用生成式AI。”英伟达创始人兼首席执行官黄仁勋表示。据介绍,NVIDIA NIM 可以通过提供一种简单、标准化的方式将生成式 AI 添加到其应用程序中,大大提高了开发人员的工作效率。
据了解,NIM是预先构建的,目前有超过40个模型可在ai.nvidia.com上作为NIM的端点供开发者体验。记者在英伟达官网中看到,其展示的模型中包括了Databricks DBRX、Google 的开放模型 Gemma、Meta Llama 3、Microsoft Phi-3、Mistral Large、Mixtral 8x22B 和 Snowflake Arctic等模型。
英伟达表示,开发人员可以从开源社区平台Hugging Face访问适用于 Meta Llama 3 模型的NVIDIA NIM微服务,只需单击几下即可使用Hugging Face推理端点访问和运行 Llama 3 NIM。具体而言,企业可以使用NIM运行用于生成文本、图像和视频、语音和数字人类的应用程序。
同时,英伟达也公布了自己长长的AI生态系统合作伙伴名单,表示已经有数百AI生态系统合作伙伴嵌入NIM,富士康、劳氏、西门子等企业在制造业、医疗保健、金融服务、零售、客户服务等领域均使用NIM进行生成式AI的应用。
具体而言,富士康正在使用NIM开发领域特定大语言模型,以嵌入到其AI工厂的各种内部系统和流程中,以实现智能制造、智能城市和智能电动汽车;家居装修公司劳氏正在利用NIM推理微服务来提升员工和客户的体验;西门子正在将其运营技术与NIM微服务集成,以应对车间AI工作负载,且正在使用NIM为机器操作员构建其工业副驾驶的本地版本。
值得注意的是,英伟达还专门提到,有数十家医疗保健公司正在部署NIM,为包括手术规划、数字助理、药物发现和临床试验优化等在内的应用领域的生成性AI推理提供支持。作为全球芯片巨头,英伟达近年来在一级市场上可谓动作频频,除了聚焦AI领域的标的以外,还格外钟情于医药生物赛道,投资了多家在AI制药、基因编辑、精准医疗等方面具有领先技术的公司。据MedAlpha数据库显示,自2023年以来,英伟达已先后投资了9家生物初创公司,所投金额高达21.5亿美元。
华泰证券研报表示,“NIM的推出不仅降低了新AI模型的初始训练和推理成本,也是英伟达鼓励客户购买服务器并注册企业版服务的一部分策略。公司强调,NIM软件将进一步简化人工智能在GPU配备的笔记本电脑上的运行,而非仅限于云服务器。公司认为NIM将进一步提升部署AI的易用性,并巩固客户对英伟达芯片的依赖,但我们认为此举或将进一步跟云厂商的业务有所重叠。”
Blackwell芯片已开始投产
除了让企业更易部署AI模型的NVIDIA NIM以外,黄仁勋在演讲中还透露英伟达Blackwell芯片已开始投产,并将在2025年推出Blackwell Ultra AI芯片。下一代AI平台名称为Rubin,该平台将采用HBM4内存。
今年3月,英伟达在GTC大会上展示了新一代AI芯片与超级计算平台Blackwell。据悉,英伟达的第一款Blackwell芯片名为GB200,宣称是目前“全球最强大的芯片”,该架构GPU具有2080亿个晶体管,制造工艺为专门定制的双倍光刻极限尺寸的台积电4NP工艺。
华泰证券研报分析称,GB200由2个B200 GPU 和1个Grace CPU 组成,推理大语言模型性能比H100提升30倍,成本和能耗降至其1/25。此外,训练1.8万亿参数模型所需的资源,从8000个Hopper GPU和15兆瓦电力,降低到2000个Blackwell GPU和4兆瓦电力。GB200计划于今年晚些时候上市,亚马逊AWS已计划采购2万片GB200芯片,能部署高达27万亿参数的模型。
前不久披露的2025财年第一财季财报显示,英伟达实现营收260亿美元,环比增长18%,同比增长262%;净利润148.8亿美元,同比增长628%,营收和净利润皆大超预期,再一次引燃了市场对人工智能的期待,也让英伟达的股价接连创下新高。
分业务来看,英伟达数据中心业务最受市场关注,其业绩也不负众望,实现营业收入226亿美元,与上年同期相比增长427%,与上一财季相比增长34%。英伟达表示,这得益于公司Hopper系列图形处理器的发货。对于未来新芯片的计划,在财报电话会议上,黄仁勋曾为Blackwell芯片的供应给出了一个详细的时间轴:“Blackwell芯片将在今年第二季度出货,在第三季度增产,第四季度投放到数据中心,预计Blackwell今年将为公司带来大量收入”。
国金证券研报认为,英伟达下一波业绩释放即将到来。AI训练和推理需求推动Hopper平台上量,同时AIGC从云厂商向消费互联网等更多类型拓展,创造多个数十亿美元的垂直市场。Blackwell平台实现全面投产,为万亿参数级AIGC奠定了基础。同时Spectrum-X的迭代,使得超大规模AI能够进入以太网专用数据中心。下游需求持续上行叠加新GPU平台顺利投产,公司龙头地位稳定,业绩新爆发点已现。
CandyLake.com 系信息发布平台,仅提供信息存储空间服务。
声明:该文观点仅代表作者本人,本文不代表CandyLake.com立场,且不构成建议,请谨慎对待。
声明:该文观点仅代表作者本人,本文不代表CandyLake.com立场,且不构成建议,请谨慎对待。
猜你喜欢
-
アップル(AAPL)は現地時間10月31日、9月28日までの2024年第4四半期の業績を発表し、同四半期の売上高は前年同期比6%増の949億3000万ドル、純利益は同36%減の147億3600万ドルだった。 純利益の下落は主に102億ドル ...
- 亲亲宝宝贝贝贾
- 3 天前
- 支持
- 反对
- 回复
- 收藏
-
【英偉達の需要が高すぎる?SKハイニックス:黄仁勲がHBM 4チップの6カ月前納入を要求!】SKハイニックスの崔泰源(チェ・テウォン)会長は月曜日、インビダーの黄仁勲(ファン・インフン)CEOが同社の次世代高帯域 ...
- 琳271
- 昨天 17:54
- 支持
- 反对
- 回复
- 收藏
-
【147億ドル!米大統領選はどれほど「お金を燃やす」のか?】米大統領選はかねてから「お金」と結びついており、総選挙が秒読みに入るにつれ、今年の大統領選は米国史上最も高価なものになる見込みだ。ブルームバー ...
- hecgdge4
- 昨天 10:54
- 支持
- 反对
- 回复
- 收藏
-
住宅を所有するコストが上昇しているため、わずか1年余りで米国の住宅購入者の平均年齢が7歳近く増加し、若者がこの高い市場から締め出されていることを意味している。 全米不動産仲介業者協会(NAR)が月曜日に発 ...
- 哈耶萨鲁亚源
- 1 小时前
- 支持
- 反对
- 回复
- 收藏