AMD攻入英伟达「大本营」:是游戏,照样AI?-外盘期货
行业资讯 发布时间:2023-04-04 08:48:00 来源:https://ii-iv.com 阅读次数:
摘要: 去年年底,AMD 显卡部门的高级副总裁 David Wang 在接受日本媒体采访时谈到了游戏显卡的 AI 问题。David Wang 示意,英伟达在游戏显卡上努力实验使用 AI 手艺,包罗在 GPU 上就使用了大型

去年年底,AMD 显卡部门的高级副总裁 David Wang 在接受日本媒体采访时谈到了游戏显卡的 AI 问题。David Wang 示意,英伟达在游戏显卡上努力实验使用 AI 手艺,包罗在 GPU 上就使用了大型 AI 推理加速器,但 AMD 有差其余计谋:

「AMD 专注于将 GPU 用于用户需要和体贴的地方,以便享受游戏显卡体验,否则用户可能不得不为他们永远用不到的 GPU 功效付费,AMD 信托游戏卡中的 AI 可以而且应该用于让视频游戏更高级、更有趣。」

PC 游戏玩家杜白告诉雷科技,他也认可 David Wang 的说法,「像我这种买回来可能用到报废或者出二手都不会用一次 AI 单元,老黄(英伟达 CEO 黄仁勋)增添了这部门的器械就确实是虚耗,单纯为提高售价加进来。」

固然,AMD 也并非通盘否认游戏显卡上 AI 加速能力的价值,问题在于他们以为英伟达把过多的 GPU 资源给了 AI 加速单元,而这部门成本最终照样要由玩家支付,AMD 更希望让游戏卡上的 AI 能直接给游戏带来利益。

英伟达显然不这么看。已往一段时间,ChatGPT 的大火让 AI 行业的生长推向了一个新的热潮,而天生式 AI 恰恰需要基于海量的数据举行推理训练,高算力的 GPU 加速卡自然也成了市场的抢手货。

凭证 Fierce Electronics 报道,ChatGPT 现在需要用 25000 块英伟达 A100 GPU 芯片来维持训练。大量公司同样需要基于英伟达的 CUDA 平台举行对 AI 的训练和推理,也包罗种种的应用。即即是在消费市场,也有不少人为了天生式 AI 应用而购置显卡。

而在游戏卡的 AI 问题背后,也体现了两家公司游戏营业(游戏卡)和数据中央营业(加速卡)的职位转变。

图/AMD

凭证财报显示,2022 年 AMD 的游戏营业收入同比增进了 21%,至 68.05 亿美元,反超客户端营业成为 AMD 的*大营业;相较之下,2022 年(2023 财年)英伟达的游戏营业收入同比削减了近 34 亿美元,下跌 27.2%至 90.67 亿美元,被数据中央营业反超,降至第二大营业。

事实上,英伟达和 AMD 在面临 AI 问题上尚有更大的差异。

AI 芯片,各自绽放

去年 8 月尾,英伟达和 AMD 旗下的部门 GPU 产物均被美国政府限制对华出售,包罗用于数据中央深度学习等场景的英伟达的 A100、H100 以及 AMD 的 MI250。

凭证 New Street Research 数据,英伟达占有了可用于机械学习的图形处置器市场的 95%。其中英伟达 A100 是当前最主流的 AI 芯片之一,不仅被外洋和海内公司普遍接纳,也适合支持当下盛行的 ChatGPT、Bing AI 或 Stable Diffusion 等工具的机械学习模子,能够高效地用来训练和使用神经网络模子。

包罗谷歌、OpenAI、特斯拉和 Facebook 等*的 AI 公司都接纳了大量的 A100 以及其他英伟达 GPU,用于 AI 的训练和推理。在海内也有大量公司依赖于英伟达的高端通用 GPU,包罗阿里、腾讯、百度等云厂商和浪潮、遐想、新华三等服务器厂商都是英伟达的重点客户。

而英伟达在去年公布的 H100,作为 A100 在 AI 行业的替换者,接纳了台积电 4nm 工艺,拥有 800 亿个晶体管,支持每秒近 5TB 的外部互联带宽,对于大型 Transformer 模子的训练,英伟达声称 H100 将提供 9 倍于 A100 的性能,已往需要数周时间才气完成的训练可以削减到几天内。

图/英伟达

相比之下,AMD 依然更着重于面向数据中央的 CPU 以及 APU。在 MI250 之后,1 月的 CES 消费电子展上,AMD CEO 苏姿丰正式公布了全球*面向下一代数据中央的 APU——Instinct MI300。

A股存储势力榜

MI300 APU 芯片集成了 CPU 和 GPU,晶体管数目到达了惊人的 1460 亿个,还包罗 128GB 显存 ,主要用于 AI 加速盘算。AMD 示意,MI300 可以提供 8 倍于 MI250X 的 AI 训练性能,该芯片可以将推理建模历程的时间从几个月缩短至几周,预计下半年上市。

这种产物倾向上的选择,很洪水平上早就做了决议。去年 AMD 主管数据中央营业的副总裁 Forrest Norrod 就指出,英伟达构建了一个厚实的软件生态系统,精彩的 AI 加速卡也险些笼罩了每个市场的需求,AMD 不能能复制英伟达的乐成之道。

英伟达的乐成之道

英伟达首席科学家戴维·柯克(David Kirk)很早就有一个野心——将主要服务于「游戏」、只做 3D 绘图渲染的 GPU 算力「通用化」,使之转变为通用算力中央。

于是在 2007 年,英伟达正式推出了革命性的 GPU 统一盘算平台 CUDA,同时最先基于 CUDA 延续积累算法和软件生态。但英伟达和 CUDA 的乐成,还要等到深度学习算法盛行之后。

已往 AI 行业普遍依赖 CPU 举行训练识别,谷歌大脑项目首创人、前斯坦福人工智能实验室主任吴恩达在 2010 年曾经为了让 AI 识别出「猫」,就使用了 16000 块 CPU。但在深度学习算法普及之后,AI 需要大量的重复盘算,GPU 则由于壮大的并行盘算能力顺势脱颖而出。而在那时能够高效知足 AI 训练的有且仅有英伟达的 GPU。

到 2011 年谷歌大脑率先将 GPU 应用于深度学习的时刻就发现,12 颗英伟达 GPU 提供约即是 2000 块 CPU 的深度学习性能。乘上 AI 和深度学习的大潮,英伟达险些以一己之力承包了前期企业客户的 AI 盘算需求,也正是最先确立属于 CUDA 和英伟达的生态护城河。

自动驾驶公司文远知行手艺总监钟华在一次采访回忆称,英伟达推出了 CUDA 以后,相当于把庞大到烧脑的显卡编程包装成了一个简朴的接口,造福了宽大程序员,现在主流的深度学习框架基本都是基于 CUDA 举行 GPU 并行加速。

即便在面向 AI 的专用芯片盛行之后,英伟达 GPU 依然占有 AI 芯片市场的*向导职位,不管是 2017 年推出的 V100、2020 年推出的 A100 以及去年推出的 H100,都在进一步完善软件生态和算法积累,时至今日 CUDA 生态已经拥有近 250 万开发者,确立了难以逾越的生态壁垒。

相比苏妈(AMD CEO 苏姿丰)那时还在「收复失地」,老黄至少从七年前就最先为 AI 摇旗呐喊,2016 年英伟达主理的 GTC China 大会上,他就说道:「我们不再是一个半导体公司,而是一个 AI Computing Company(AI 盘算公司)。」

今后多年,黄仁勋在差异场所都在对外强调这一点。

AMD 的蹊径

2021 年 8 月,美国半导体工业协会(SIA)宣布,英伟达 CEO 黄任勋将获得芯片行业的最高声誉——罗伯特 · 诺伊斯奖,SIA 总裁兼 CEO John Neuffer 在声明中说道:

「黄(仁勋)具有远见卓识和极强的执行力,他促进了芯片行业的生长,推翻了盘算,推动了人工智能。从游戏到科学盘算,再到自动驾驶,黄仁勋的成就与无数创新亲热相关,他改变了行业和天下。」

今天英伟达已经在面向 AI 的通用 GPU 领域确立了*的向导职位,AMD 即便在产物上能有一定的优势,在中短期内都很难填补生态上的伟大差距。

但毫无疑问的是,AMD 不能能放弃数据中央营业和 AI 加速能力,即即是绕过这个领域深耕游戏芯片市场,终究也会由于在 AI 领域的落伍在资金、手艺等方面受制于人,反过来又会牵制游戏营业的生长。

AMD 也明晰这一点,以是并没有逃避竞争,也没有选择正面的硬碰硬,而是基于自身的 CPU 优势,选择在 APU 上重点发力,与英伟达的拳头产物 A100/H100 形成差异化竞争。对全球*大 FPGA 厂商赛灵思的收购,一方面也补足 AMD 的 AI 开发和应用生态,获得在 AI 芯片上挑战英伟达的另一种可能。

同时 AMD 也更愿意跟大型数据中央的拥有者——云服务供应商相助,一方面更容易绕开生态上的壁垒,另一方面根据 AMD 的说法,云厂商的盘算需求加倍简朴,加速卡的购置量也足够高。现实上,已往两年超大型数据中央对 AI 芯片的需求不仅没有放缓,反而在加速扩张。

说到底,AI 芯片的竞争照样处在一片正在快速扩张的蓝海之中,随着 AI 应用越来越深入我们的生涯,加倍难以想象 AI 芯片市场的规模极限,其中留给 AMD 和英伟达的空间自然也足够大。英伟达只管通过耐久积累确立了壮大的优势,但尚有足够的市场需求守候 AMD 知足,这也是后者的时机所在。

就像 AMD 高管 Forrest Norrod 所说,AMD 不能能复制英伟达的乐成之道,但 AMD 仍然可以走出自己的蹊径。

标签: