本文由半导体产业纵横(ID:)编译自run

人工智能芯片为人工智能和数据科学行业带来了引人注目的好处。

人工智能 (AI) 正在改变我们的世界,而这场革命的一个重要组成部分是对大量计算能力的需求。

什么是人工智能技术?

机器学习算法每天都变得越来越复杂,需要越来越多的计算能力来进行训练和推理。

最初,人工智能工作负载在传统中央处理单元 (CPU) 上运行,利用多核 CPU 和并行计算的强大功能。几年前,人工智能行业发现图形处理单元 (GPU) 在运行某些类型的人工智能工作负载时非常高效。但对于那些处于人工智能开发前沿的人来说,标准 GPU 已不再足够,因此需要开发出更专业的硬件。

虽然 GPU 可以被视为人工智能芯片,但现在有一些硬件设备是从头开始设计的,可以比传统 CPU 或 GPU 更高效地执行人工智能任务。我们将回顾 GPU 和更新的专用处理器如何并行处理大量数据和复杂计算,从而使它们能够高效地处理机器学习工作负载。

AI芯片技术演进

图形处理单元 (GPU)

GPU 最初是为渲染高分辨率图形和视频游戏而设计的,但很快就成为人工智能领域的一种商品。与只能同时执行几个复杂任务的 CPU 不同,GPU 的设计目的是并行执行数千个简单任务。这使得它们在处理机器学习工作负载时非常高效,这些工作负载通常需要大量非常简单的计算,例如矩阵乘法。

然而,虽然 GPU 在人工智能的崛起中发挥了至关重要的作用,但它们也并非没有局限性。GPU 并不是专门为 AI 任务设计的,因此它们并不总是这些工作负载的最有效选择。这导致了更专业的人工智能芯片的开发,例如专用集成电路(ASIC)和现场可编程门阵列(FPGA)。

ASIC 和 FPGA

ASIC 和 FPGA 代表了人工智能芯片技术发展的下一步。ASIC(即专用集成电路)是为特定任务或应用定制的芯片。就人工智能而言,ASIC 旨在处理特定的人工智能工作负载,例如神经网络处理。这使得它们在执行这些任务时非常高效,但灵活性不如其他类型的芯片。

FPGA(现场可编程门阵列)是可以通过编程来执行各种任务的芯片。它们比 ASIC 更灵活,使其成为各种人工智能工作负载的绝佳选择。然而,它们通常也比其他类型的芯片更复杂和更昂贵。

神经处理单元 (NPU)

AI芯片技术的最新发展是神经处理单元(NPU)。这些芯片专为处理神经网络而设计,神经网络是现代人工智能系统的关键组成部分。NPU 针对神经网络所需的大容量并行计算进行了优化,其中包括矩阵乘法和激活函数计算等任务。

NPU 通常具有大量能够执行同时操作的小型高效处理核心。这些内核针对神经网络中常用的特定数学运算进行了优化,例如浮点运算和张量处理。NPU 还具有高带宽内存接口,可以有效处理神经网络所需的大量数据。

NPU 设计的另一个关键方面是功效。神经网络计算可能非常耗电,因此 NPU 通常会结合优化功耗的功能,例如根据计算需求动态调整功耗,以及减少每次操作能耗的专门电路设计。

AI芯片的优势

人工智能芯片为人工智能和数据科学行业带来了几个引人注目的好处:

采用人工智能芯片的组织面临的挑战

虽然人工智能芯片非常有益,但它们的开发和实施提出了一系列独特的挑战:

AI芯片领先厂商有哪些?

END

欢迎加入 GPU与人工智能交流2群