首页 > 资讯 > 科技 > 正文
2024-05-01 21:16

值得请NVIDIA CEO黄仁勋亲自给OpenAI交付一台AI服务器! 本文将帮助你了解计算能力、GPU、CPU!

大家好,我是穆一,一位持续关注AI领域的互联网科技产品经理。 我拥有中国排名前 2 的本科学位、美国排名前 10 的计算机科学研究生以及 MBA 学位。 我坚信AI是让普通人变强的“插件”,所以我创建了公众号“AI信息鸿沟”,专注于分享AI的全维度知识,包括但不限于AI科普、AI工具评测、AI效率提升、AI行业洞察。 关注我,在AI路上不要迷失,2024年我们一起变得更强。

1848年,加利福尼亚州的一位木匠在建造锯木厂时意外在河中发现了金子。 消息迅速传开,引发了世界各地的淘金热。 无数怀揣致富梦想的淘金者从世界各地涌向加州,希望从金矿中挖掘属于自己的财富。 旧金山的人口在短时间内从1847年的500人猛增到1870年的15万,整个地区陷入了淘金热潮。

然而,大多数直接参与淘金热的人并没有获得他们预期的财富。 由于淘金者之间的激烈竞争以及美国西部的恶劣条件,许多人最终并没有赚到多少钱。 那么,到底谁才是真正赚钱的人呢? 是那些提供必要服务和工具的企业。 由于需求的大幅增长,那些出售水、食物、住宿以及挖掘黄金所需的铲子和其他工具的人获得了意想不到的收益。 其中最著名的是李维·施特劳斯(Levi ),他是一位销售牛仔裤的德国移民,最终成立了李维斯公司(Levi's ),也就是现在的李维斯(Levi's)。

现在来看,在当前的AI“淘金”浪潮中,()无疑是最帅的一个,那个“卖铲子”的。

2024年4月24日,创始人兼CEO黄仁勋亲自交付全球首款DGX H200 AI加速服务器。 交接仪式在旧金山办公室举行,首席执行官 Sam 和联合创始人兼总裁 Greg 出席了交接仪式。

DGX H200 是谁?

DGX H200是设计的高性能AI超级计算机,专为需要处理大规模数据集和复杂AI模型的企业级应用而打造。 DGX H200 结合了 的许多先进技术,包括其最新的 H200 Core GPU 和高速互连技术,可提供前所未有的计算能力和效率,以支持 AI 和高性能计算 (HPC) 工作负载。

值得一提的是,H200和DGX H200是两个不同的概念。 H200指单核GPU,是推出的高性能GPU,专为具有大内存和高内存带宽的AI和HPC工作负载而设计。 黄仁勋亲自送来的DGX H200是指包括H200 GPU在内的整个AI超算系统。 换句话说,DGX H200是一个完整的解决方案,集成了多个H200 GPU、高速网络互连以及针对AI优化的软件堆栈。

DGX H200 主要特点:

H200核心GPU:DGX H200采用基于架构的H200 GPU,这是首款提供高达141 GB HBM3e内存的GPU,内存带宽为4.8 TB/s。

超大内存和性能:与前代产品相比,DGX H200 提供了近 500 倍的 GPU 共享内存,专门用于处理大型推荐系统、生成式 AI 和图分析等领域的 TB 级模型训练。

互连技术:DGX H200支持Grace超级芯片通过系统连接到同一个GPU,实现GPU之间的大规模直接互连,提供更高的带宽和更低的互连功耗。

AI超级计算机:DGX H200被设计为能够处理万亿级参数AI模型的加速服务器,提供高达1的性能和144 TB共享内存。

计算能力和GPU?

去年以来我们经常听到的“计算能力”是什么? 为什么GPU是当前主流算力来源? 接下来我们来说说计算能力和GPU的关系。

计算能力

计算能力,即计算能力(Power),是指计算机执行复杂计算和数据处理任务的能力。 对计算能力的理解可以分为狭义和广义两类。 从狭义上讲,计算能力是数学问题的运算,例如简单的加法运算。 从广义上讲,任何处理信息并获得结果的过程都可以称为“计算”。 例如,人类的思维也可以看作是一个计算过程。

算力作为计算能力的指标,根据应用场景和需求,可以分为以下几种类型。 通用计算能力主要基于CPU的计算能力,可以处理广泛的计算任务。 它是日常计算需求的主力军。 当涉及深度学习和模式识别等人工智能应用时,智能计算能力尤为重要,通常由GPU和TPU(张量处理单元)等专用加速器提供,以应对复杂的机器学习算法。 此外,超级计算涉及高性能计算集群,具有巨大的计算能力,适合执行科学研究和大规模计算密集型任务。 最后,边缘计算是指在网络边缘进行的数据处理和计算,适用于需要立即响应的应用,例如物联网(IoT)设备的数据预处理。

图形处理器

GPU,即图形处理单元(Unit),是专门为处理图形和视觉计算任务而设计的微处理器。 GPU 由数百个能够并行处理的小核心组成,非常适合执行复杂的算法和大数据运算。 基于这一特性,GPU最初用于加速图形渲染,目前广泛应用于科学计算、数据分析、密码破解、金融建模等领域。

GPU的设计目标和工作方式与我们经常听到的CPU有很大不同。 CPU,即中央处理单元(Unit),是一种通用处理器,设计用于处理一系列复杂指令、执行逻辑运算、控制任务和处理复杂的计算序列。 CPU 的核心数较少,但功能强大。 每个核心都具有很高的计算能力,可以执行复杂的控制任务。 相比之下,GPU 包含大量更小、更简单的内核,旨在同时处理许多较小的计算任务,从而实现高吞吐量。 正因为如此,GPU 在图形渲染和某些科学计算任务中表现良好。

加速算力的选择:GPU VS CPU

在AI和机器学习领域,GPU取代CPU成为提供加速计算能力的主流选择,主要原因就是前面提到的GPU的并行处理能力。 人工智能和机器学习算法往往涉及大量的矩阵运算和数据并行处理。 这些任务可以分解为数千个小任务,并由 GPU 的多个核心同时执行。 这种高度并行的计算模型可以显着提高计算效率和速度。

GPU除了并行处理能力外,还具有独立的显存,可以提供更高的显存带宽。 AI和机器学习算法往往需要处理大规模数据集,对内存带宽有很高的要求。 GPU的高带宽内存可以加速数据的读取、写入和传输,进一步提高计算性能。 相比之下,CPU 与系统内存共享带宽,在处理大数据集时容易出现内存瓶颈。

当然,应该指出的是,GPU 并不是所有人工智能和机器学习任务的最佳选择。 对于一些小规模、计算强度较小的任务,使用CPU可能更简单、更高效。 而且GPU编程对开发人员要求较高,需要使用CUDA等专门的编程框架,优化难度较大。 相比之下,CPU编程可以使用通用编程语言,开发门槛相对较低。

伊利亚去哪儿了?

作为联合创始人兼首席科学家,伊利亚已经淡出公众视野数月了。 所以与黄仁勋的合影发布后,热心网友不禁问道:Ilya是不是就藏在他旁边的包厢里?

甚至有网友表示:贴出的照片已经修复完毕,现在已经完整了。

精选推荐

你已经读到这里了,请给我一个赞,以鼓励我。 稍微竖起大拇指,年薪百万! 。 关注我,让你在AI路上不再迷失,原创技术文章第一时间推送。