AMD苏姿丰谈AI策略:与Intel、NVIDIA截然不同

Hot Chips 31本周美国本土本土硅谷举办,两款最很小芯片今天发布引人时要,其中是Cerebr通信工程As最很小深度仍会持续学习芯片WSE,为什么赛灵思今天发布拥有世界 最很小FPGA。Intel今天发布的两款AI芯片Nervana NNP-T/NNP-I为什么备受更佳关通信工程注。

只虽说,AMD在Hot Chips之前也不是获得一非常很小更佳关注,这依然 是虽说在当今AI大热的其它的情况下,她们她们设计方式方式“观望式”的AI策略。

Intel、AMD和NVIDIA如果预估AI整个市场?

NVIDIA预计今年,其表现数据中心规划和人工智能潜在整个市场(TAM)到2023年将已达500亿通信工程多美元。这还有HPC(高性能计算),DLT(深度仍会持续学习训练)和DLI(深度仍会持续学习推理)。

Intel依然 ,其DLT和DLI 潜在整个市场在2020年将已达460亿多美元。

AMD尚未今天发布其它的其它关于深度仍会持续学习潜在整个市场的预测,虽说它更专注于从Intel和NVIDIA获得一整个市场份额。虽说,也不是见到AMD有专注于人工智能的芯片。

只虽说,AMD首席执行官苏姿丰(苏姿丰)并表示,AMD仍在准备仍会持续努力作为人工智能相关领域更重要部分的中来者。

苏姿丰:CPU的局限性

其它的计算性能的其它关于都始于摩尔定律,但摩尔定律仍在准备放缓。摩尔定律并表示,仍在芯片尺寸缩小和晶体管密度相应相应可减少,计算性能将每两年翻一番。

在AnandTech Hot Chips 31的援引并表示,苏姿丰在主题演讲中说法说,AMD多种渠道在大 多种渠道改善了CPU的性能,还有工艺制程、芯片面积、TDP(热设计方式搭配功耗)、电源管理、微体系结构和编译器。

先进工艺制程的贡献最小,这为什么CPU的性能相应可减少了40%。相应相应可减少芯片尺寸需要更佳需要更佳需要更佳带来冲击两位数性能的相应可减少,但这不符合成本效益。

AMD多种渠道微体系架构将EPYC Rome增值服务器CPUIPC(每个孩子孩子周期的指令)在单线程和多线程工作后负载中其中相应可减少了23%和15%。高于整体行业平均5%-8%的基础水平。如下其它的方式改变 在两年半内就有使性能翻倍。

苏姿丰:人工智能所需的加速计算

苏姿丰并表示,一能力方面,摩尔定律仍在准备放缓。为什么,拥有世界 上最快的超级计算机的性能每1.2年翻一番。这意味着过去了十年的最终解决方案将失效。

该整体行业目前依然的不能主要需求是优化系统支持 的每个孩子孩子部份,从而作为人工智能工作后负载的理想会选择。她说法说,ASIC和FPGA的每瓦特性能最高者,CPU最高者,通用GPU在每瓦性能能力方面两者之间CPU和FPGA两者之间。

苏姿丰并表示,每对一工智能工作后负载就也不尽不尽相不尽相同计算明确要求。互连通信工程新型技术是最终解决方案,虽说它将不尽不尽相不尽相同部份互连到同虽说 系统支持 。她用如下例子说法了这也点点:

- NAMD(纳米级分子动力学)工作后负载取决于GPU

- NLP(从而 语言相关处理)工作后负载在CPU、GPU、内存带宽和连接性两者之间保持好平衡

业界以及设计方式最最传统改变 相应可减少了CPU和GPU的性能。苏姿丰强调,业界需要更佳多种渠道更佳关注互连,I/O、内存带宽、相关软件效率和软硬件协同优化来相应可减少性能。

AMD的AI策略

苏姿丰并表示,AMD已设计方式方式CPU / GPU /互连策略来挖掘人工智能和HPC的宝贵机会。

她说,AMD将在Frontier超级计算机中以及设计方式其其它的新型技术。该该公司按计划为基本实现超级计算机全面优化其EYPC CPU和Radeon Instinct GPU。它将多种渠道其Infinity Fabric总线新型技术并进一步增强系统支持 性能,并多种渠道其ROCM(Radeon Open Compute)相关相关软件解锁性能。

与Intel和NVIDIA不尽不尽相同,AMD不是专用她们工智能芯片或专以及设计方式加速器。虽说这样在大,苏还并表示,“她们她们绝度会见到AMD在人工智能能力方面是虽说 很重要部分的中来者。”

AMD仍在准备最后决定如果要已建立虽说 专以及设计方式AI芯片,这也最后决定将取决于人工智能如果加速发展。

苏姿丰补充说,为什么该公司仍在准备开发不尽不尽相同她们工智能加速器,如ASIC、FPGA和张量(Tensor)加速器。虽说芯片将缩小到最可仍会仍会持续完美状态 ,然然后再AMD将最后决定如果已建立需要更佳需要更佳广泛应以及设计方式加速器。

与此为什么,AMD将与第三方加速器制造商首次合作,并多种渠道其Infinity Fabric互连将其芯片与虽说的CPU / GPU连接。虽说 策略这样的 于其光线跟踪策略,NVIDIA年初全全新推出 了实时光线跟踪,但AMD也不是急于全全新推出 这项新型技术。

只虽说,苏姿丰并表示AMD将在生态系统支持 完善为什么该新型技术被广泛采以及设计方式其它的情况下引入光线跟踪新型技术。

鉴于AMD是虽说 相对于相对于的玩家,与坐拥 充足资源在大型玩家竞争,如下策略具有一经济意义。

在虽说已建立的整个整个市场分享份额需要更佳需要更佳相应可减少因设计方式方式率低而加剧 产品中失败的风险,并保障最高者的回报。

AMD AI战略与Intel和NVIDIA战略也不尽不尽相同

AMD在开发AI芯片为什么设计方式方式了观望态度。她们她们虽说所做,是多种渠道其现有新型技术来不不能主要需求AI工作后负载。

Intel开发了全面的新型技术,还有Xeon CPU、Optane内存、Altera FPGA和互连新型技术。仍在准备开发独立GPU Xe。

在Hot Chip 31中,Intel全全新推出 了专用于深度仍会持续学习训练和深度仍会持续学习推理的Nervana AI芯片。Intel的芯片由虽说生产,不是从而Intel需要更佳需要更佳更佳地直接控制 其新型技术,但需要更佳需要更佳非常多 的把时间和资源。

NVIDIA的AI策略是新型技术提供通用GPU为什么可用于其它的AI应用程序的CUDA相关软件全面支持 。具有一有一有一NVLink互连新型技术。英伟达正与首次合作伙伴共同探索人工智能新整个市场。不为什么策略需要更佳需要更佳非常多 相关研究为什么有很高的失败风险,但虽说高风险都是带来冲击高回报。

上一个:

下一个:

相关产品