【友财网讯】- 英伟达()周一宣布推出新一代人工智能芯片和运行人工智能模型的软件。英伟达在圣何塞举行的开发者大会上宣布了这一消息,这家芯片制造商正寻求巩固其作为人工智能公司首选供应商的地位。

自 2022 年底 的 开启人工智能热潮以来,英伟达的股价上涨了 5 倍,总销售额增长了两倍多。英伟达的高端服务器 GPU 对于训练和部署大型人工智能模型至关重要。微软()和 Meta 等公司已经花费了数十亿美元购买这些芯片。

新一代人工智能图形处理器被命名为 。第一款 芯片名为 GB200,将于今年晚些时候上市。英伟达正在用更强大的芯片来吸引客户,以刺激新订单。例如,公司和软件制造商仍在争相获得当前一代的“ ” H100 和类似的芯片。

英伟达首席执行官黄仁勋周一在公司于加州举行的开发者大会上表示 : “ 很棒,但我们需要更大的 GPU。”

在周一的盘后交易中,英伟达股价下跌超过 1%。

该公司还推出了一款名为 NIM 的创收软件,它将使人工智能的部署变得更加容易,这为客户提供了另一个理由,让他们在竞争对手不断崛起的领域中坚持使用英伟达芯片。

英伟达高管表示,该公司正在从唯利是图的芯片供应商转变为像微软 ( ) 或苹果 ( Apple ) 那样的平台提供商,其他公司可以在平台上开发软件。

“ 不是一个芯片,它是一个平台的名字。”黄仁勋说。

英伟达企业副总裁马努维尔 · 达斯( Das)在接受采访时表示 : “可销售的商业产品是 GPU,而软件则是为了帮助人们以不同的方式使用 GPU。当然,我们仍然这样做。但真正改变的是,我们现在真的有了商业软件业务。”

达斯说,英伟达的新软件将使在任何英伟达的 GPU 上运行程序变得更容易,即使是那些可能更适合部署但不适合构建人工智能的旧 GPU。

达斯说 : “如果你是开发者,你有一个有趣的模型,你希望人们采用,如果你把它放在 NIM 中,我们会确保它在我们所有的 GPU 上都能运行,这样你就能接触到很多人。”

英伟达每两年更新一次 GPU 架构,实现性能的大幅提升。过去一年发布的许多人工智能模型都是在该公司 2022 年宣布的 H100 等芯片所使用的 架构上进行训练的。

英伟达表示,基于 的处理器,如 GB200,为人工智能公司提供了巨大的性能升级,其人工智能性能为每秒 20 千万亿次浮点运算,而 H100 为每秒 4 千万亿次浮点运算。英伟达表示,额外的处理能力将使人工智能公司能够训练更大、更复杂的模型。

该芯片包括英伟达所谓的“变压器引擎”,专门用于运行基于变压器的人工智能,这是支持 的核心技术之一。

GPU 很大,将两个单独制造的芯片集成到一个由台积电制造的芯片中。它还将作为一个名为 GB200 2 的完整服务器提供,该服务器结合了 72 个 GPU 和其他英伟达用于训练人工智能模型的部件。

亚马逊()、谷歌()、微软()和甲骨文()将通过云服务出售 GB200 的访问权限。GB200 对两个 B200 GPU 和一个基于 arm 的 Grace CPU。英伟达表示,亚马逊网络服务 ( Web ) 将构建一个包含 2 万个 GB200 芯片的服务器集群。

英伟达表示,该系统可以部署一个 27 万亿参数的模型。这比最大的模型要大得多,比如 GPT-4,据报道它有 1.7 万亿个参数。许多人工智能研究人员认为,拥有更多参数和数据的更大模型可以释放出新的能力。

英伟达没有透露新的 GB200 或使用它的系统的成本。据分析师估计,英伟达基于 的 H100 芯片每块成本在 2.5 万至 4 万美元之间,而整个系统的成本高达 20 万美元。

* 英伟达推理微服务 *

英伟达还宣布,它将在其英伟达企业软件订阅中添加一款名为 NIM 的新产品,NIM 代表英伟达推理微服务。

NIM 可以更容易地使用旧的英伟达 GPU 进行推理,或者运行人工智能软件的过程,并允许公司继续使用他们已经拥有的数亿个英伟达 GPU。与新人工智能模型的初始训练相比,推理需要更少的计算能力。NIM 允许那些想要运行自己的人工智能模型的公司,而不是从 等公司购买人工智能结果的服务。

该公司的策略是让购买英伟达服务器的客户注册英伟达企业版,每个 GPU 每年的许可费为 4500 美元。

英伟达将与微软或 Face 等人工智能公司合作,确保它们的人工智能模型能够在所有兼容的英伟达芯片上运行。然后,使用 NIM,开发人员可以在他们自己的服务器或基于云的英伟达服务器上有效地运行模型,而无需冗长的配置过程。

“在我调用 的代码中,我将替换一行代码,将其指向我从英伟达获得的 NIM。”达斯说。

英伟达表示,该软件还将帮助人工智能在配备 GPU 的笔记本电脑上运行,而不是在云服务器上运行。