英伟达想再赢一次_香港期货,国际黄金
市场头条 发布时间:2023-03-22 16:52:00 来源:https://ii-iv.com 阅读次数:
摘要: 上个月,英伟达首创人兼CEO黄仁勋在演讲中兴奋地谈论ChatGPT带来的转变,叹息这是“人工智能的iPhone时刻”。 而在昨晚英伟达的年度流动GTC(GPU Technology Conoference)演讲中,黄仁勋又把

上个月,英伟达首创人兼CEO黄仁勋在演讲中兴奋地谈论ChatGPT带来的转变,叹息这是“人工智能的iPhone时刻”。

而在昨晚英伟达的年度流动GTC(GPU Technology Conoference)演讲中,黄仁勋又把“AI的iPhone时刻”这句话重复了三遍。

英伟达与AI的关系不能谓不亲热。2012年,Alex koshevsky、Elias suskaver和Jeff Hinton的研究团队,在英伟达Geforce GTX 580上使用1400万张图片训练了AlexNet盘算机视觉模子,可处置262万万亿次浮点运算。经由训练的模子以压倒性优势赢得了ImageNET挑战赛,并触发了深度学习的大爆炸。

十年之后,相同的戏码再次上演。OpenAI依附10000片英伟达GPU芯片来训练GPT-3大语言模子,需要举行323 x 10^21次浮点运算,比AlexNet多出一百万倍,然后缔造出了震惊天下,也震惊了黄仁勋自己的ChatGPT。

在ChatGPT以及天生式AI的热潮下,英伟达的股价节节攀升,今年以来涨幅跨越80%,市值靠近6500亿美元,一举跨越特斯拉。

英伟达也把AI当做一次二次腾飞的时机。2023年头各大科技公司财报宣布,英伟达提及AI 75次,跨越谷歌、微软、Meta。本周为期四天的GTC流动包罗了650多场集会,由众多研究者、开发者和行业*介入,其中仅天生式AI的主题集会就跨越70场。

黄仁勋曾热切地示意:“AI 正迎来有史以来最绚烂的时刻。新的 AI 手艺和迅速伸张的应用正在改变科学和各行各业,并为成千上万的新公司开拓新的领土。这将是我们迄今为止最主要的一次 GTC。”

英伟达确实没有让观众失望,在不到80分钟的演讲中,黄仁勋宣布了四款AI推理芯片,包罗针对天生式AI图像处置、大模子处置的芯片;宣布了三个大模子云服务,划分适用于文本、图像和生物研究;宣布了超级盘算机,以及针对场景优化的应用100个、更新功效的工业元宇宙Omniverse。

作为一家以GPU为焦点的公司,英伟达不知足于只提供算力,早已结构AI的各个领域。十年之前的深度学习浪潮让英伟达赢了*次,十年之后的天生式AI浪潮,英伟达还会继续赢第二次吗?

01 100个场景的算力加速

天生式AI时代加倍需要英伟达GPU的算力。黄仁勋首先展示了英伟达加速盘算能力的更新。

除了底层的芯片,英伟达早在2006年就推出了CUDA生态,以辅助用户通过简朴编程来使用GPU。针对差其余应用、场景,英伟达会做响应的适配和优化,也即“加速库”。

现有的300个加速库和400个AI模子笼罩了量子盘算、数据处置、机械学习等普遍的领域,已经有数千款应用被优化。

而这次的GTC上,英伟达又更新了100个场景。

这些场景包罗,在CAE软件中完成流体力学(CFD)的盘算、助气力子盘算研究平台(cuQuantm)、优化数据库中的搜索(Spark-Rapids)、优化捡取与配送难题PDP(配送多个地址最短旅程盘算)等,而且已经在客户现实体验中获得了验证。

除此之外,英伟达原有多个推理SDK也有更新,包罗在推理时针对指定GPU举行优化的TensorRT、用于数据中央深度学习框架加速的Triton,以及用于机械视觉的CV-CUDA、用于视频处置的VPF等。

值得一提的是,一直不掺和芯片制造的英伟达,这次通过一个特其余方式“介入”了一下。

芯片制造对精度的要求极高,一些产物的精度甚至是细菌的千分之一,与人类DNA链的尺寸相似。“光刻”是芯片制造最主要的环节之一,它指的是通过光学手艺在晶圆上成像,以到达设计及性能预期。现在,它的精度已经可以到达3纳米,也即“3纳米制程”。

这样的光刻手艺也需要大量的盘算,而且是芯片设计和生产中消耗盘算量*的部门,每年需要百亿的CPU事情小时,芯片制造商每年的投资预计2000亿美元。

英伟达本次与台积电、ASML、Synopsys互助,推出盘算光刻库——cuLitho。这个由芯片制造、光刻机、EDA和算力四个领域Top1企业互助的产物,已经筹备了整整四年,将光刻盘算加速了40倍,从原来处置完一个掩膜版的2周缩短到了8小时。

台积电将在6月最先验证cuLitho。

02  AI超级盘算机与DGX Cloud云服务

英伟达的加速盘算始于其AI超级盘算机DGX,这是大语言模子背后的动力引擎。

2016年,全球*DGX由黄仁勋亲手交付给OpenAI,往后《财富》100强企业中有一半都安装了DGX,DGX成为AI研究的必备工具。

DGX配有8个H100 GPU模组。H100设计了一个专用的模块来支持transformer架构——ChatGPT的底层架构。这在GPU领域是开创性的。

H100在去年GTC宣布,是现在地表最强GPU。8个H100协同事情,通过NVLINK Switch相互相连,组成了一个巨型GPU,实现周全无壅闭通讯;盘算结构是AI超级盘算机最主要的系统之一,400Gbps超低延迟的英伟达Quantum-2 InfiniBand具有网络内的盘算功效,可将成百上千个DGX节点毗邻为一台AI超级盘算机。

黄仁勋激动地示意:“NVIDIA DGX H100是全球客户构建AI基础设施的蓝图,已经周全投入生产。”

微软宣布Azure将向其H100 AI超级盘算机开放私人预览版,AWS、Google Cloud、Oracle等云厂商,戴尔、遐想等服务器厂商也将很快开放服务。

DGX最初用作AI研究,但现在正在扩展到更多的应用场景,黄仁勋将其称为“现代AI工厂”。

为了让客户更轻松、更快地享受英伟达AI服务,英伟达通过与微软Azure、谷歌GCP、甲骨文OCI互助,推出英伟达的AI云服务(NVIDIA DGX Cloud),为客户提供端到端的AI服务。

甲骨文将成为英伟达AI云的*云互助同伴。英伟达宣布有50家早期企业客户,笼罩消费互联网和软件、医疗保健、媒体和娱乐、金融服务。

03 英伟达大模子,AI行业的代工厂

黄仁勋示意,ChatGPT、Stable Diffusion、DALL-E和Midjourney叫醒了天下对天生式AI的认知,并两次提到这是“AI的iPhone时刻”,ChatGPT也是天下上增进最快的应用程序。

现在,每小我私人都是程序员,而天生式AI就是新的盘算平台。就像已往的PC、互联网、移动装备和云一样,天生AI将重塑险些所有行业。

黄仁勋示意,这个行业需要一个像台积电一样的“AI代工厂”来自界说大模子,而英伟达要饰演这个角色。

今天,英伟达宣布确立“NVIDIA AI Foundations(英伟达AI基础大模子)”,这是一项云服务,面向需要构建、改善和操作自界说大型语言模子和天生AI的客户,这些模子和天生AI使用其专有数据和特定领域的义务举行训练。

英伟达AI大模子包罗“语言、视觉和生物学”三大模子。

Nvidia Nemo是“本文-本文”的语言天生模子,模子参数有80亿、430亿、与5300亿三种类型。从确立专有模子到运营,英伟达的AI专家将给予全程的指导互助。行使Nemo,企业可以快速天生大模子,用来总结财政文件、确立特定品牌或凭证写作气概撰写电子邮件。

Picasso是一个视觉语言模子,用于构建和部署点天生AI驱动的图像、视频和3D应用程序。借助在Nvidia dgx云上运行的Nvidia Picasso服务,企业可以简化构建自界说天生AI应用程序所需的培训、优化和推理。黄仁勋宣布,gettyimages、Shutterstock将接纳英伟达Picasso服务,Adobe将与英伟达配合打造新一代的天生式AI模子。

第三个大模子Bionemo的领域是生物学。药物研发是一个2万亿美元的产业,其中有2500亿美元投入了研发,而Bionemo包罗可用于卵白质结构展望、卵白质天生、卵白质性子展望、分子天生、分子对接等各个流程的模子,辅助研究职员使用其专有数据确立、微协调服务自界说模子,来节约药物研发名贵的时间与资金。

在数百家新的AI制药初创公司之中,英伟达已经积累了至少7家公司,作为Bionemo大模子的早期用户。

黄仁勋总结道,英伟达大模子是一个“云服务和代工厂”,用于构建自界说语言模子与天生式AI。

04 四款芯片设置、一体化架构的推理平台,性能提升10倍

自十年前Alexnet以来,深度学习开拓了伟大的新市场——自动驾驶、机械人手艺、智能音箱等,并重塑了人们购物、消费新闻和享受音乐的方式。而这只是冰山一角。

随着天生式AI掀起新的时机浪潮,AI正处于转折点,使得推理事情负载呈指数级增进。AI现在可以天生种种数据,包罗语音、文本、图像、视频和3D图形、卵白质到化学物质。

设计一个云数据中央来处置天生式AI是一个伟大的挑战。一方面,理想情形下*使用一种加速器,由于这使得数据中央具有弹性,能够处置不能展望的流量岑岭和低谷;但另一方面,没有一个加速器能以*的方式处置算法、模子、数据类型和巨细的多样性。

现在天,英伟达宣布了新的“兼具加速功效和弹性”的推理平台——四种设置、一个系统架构、一个软件栈。

英伟达一口吻推出了四款新的芯片,*款为AI视频芯片 L4。L4是一款针对视频的云推理芯片,功效主要集中于视频解码和转码、频内容审核、视频通话等,例如在视频通话历程中的靠山替换、重新打光、增添眼神交流、语音转录和实时语言翻译等。

性能方面,在AI视频领域,一台配备 8个L4的服务器可以取代 100 多台双插槽 CPU 服务器。现在,谷歌云平台已成为首批使用英伟达 AI 云手艺的企业之一。

同样是图像领域,推理芯片L40主要用于Omniverse、图形渲染和天生式AI,包罗文本到图像和文本到视频等。L40的主要应用场景对标的是在2018年推出、至今仍是推理芯片主流的T4。凭证英伟达的先容,L40 的性能是 T4 的 10 倍,这让L40在处置上述义务时都加倍高效。

通过L40,AI编辑软件Runway让用户可以轻松地通过几个笔触就从视频中删除一个工具,或者改变视频的靠山或远景。信托现在盛行的AI图片天生平台Midjourney、Stable Diffusion、DALL-E等都可以通过L40缔造更多的可能性。

可以看到,虽然同为针对图像的AI推理芯片,L4关于云端的视频场景,而L40则更通用,可以实现所有与图像相关的场景优化。

针对如ChatGPT等大模子,英伟达推出了针对大模子的芯片——H100 NVL。

大模子对内存和盘算方面的需求较高,也需要很高容量的横向扩展能力。现在,能够处置拥有1750 亿参数的 GPT-3 等大型语言模子的只有A100,而GPT-4等参数目更大的模子则需要更多A100的堆叠。性能方面,一台8卡的H100 NVL的速率是现在标配8卡A100服务器的10倍。这不仅意味着速率的提升,也将降低大模子公司在算力方面的成本。

最后,AI盘算离不开大数据,针对海量数据的存储、查询与推理,英伟达推出了存算一体超级芯片Grace-Hopper。它由Grace CPU和Hopper GPU毗邻而成,拥有一个900GB/秒的高速接口。

现在,CPU会存储和查询巨型数据库,然后把效果传输到GPU里举行推理,这需要破费一定的时间。相较于CPU和GPU之间传统的通过PCIE毗邻,在Grace中查询嵌入并传输到Hopper的速率快了七倍。Grace Hopper 可以用来处置大型数据集,好比适用于推荐系统和大型语言模子的 AI 数据库。

05 “工业元宇宙”Omniverse

本届GTC的最后一个环节,是英伟达的“工业元宇宙”Omniverse。

Omniverse是一个工业数字化平台,最早在2019年推出,旨在搭建数字化和物理天下之间的桥梁,它让各个行业在投入现实生产之前先以数字化方式设计、制作、运营和优化物理产物和工厂。

Omniverse的用途之一是确立虚拟工厂,在那里所有的机械都是数字化的。

黄仁勋先容道,半导体行业正在投资5000亿美元制作84个新晶圆厂,2030年汽车制造商将制作300家工厂来生产2亿辆电动汽车,电池制造商正在制作100多家特大型工厂,物盛行业在全球数十亿平方英尺的客栈之间辗转运输货物。

虚拟工厂可以为全球工厂节约数十亿美元,亚马逊机械人是英伟达omniverse的代表客户之一。本次GTC,omniverse在几十个领域迎来了更新。

现在,已经有近30万创作者和设计师下载了omniverse。它不是一个工具,而是一个USD网络和共享数据库,也是一种与各行各业使用的设计工具相连的基础结构,可以毗邻、合成和模拟使用行业*工具确立的3D资产。

Omniverse的生长壮大依赖于开放的生态系统。Omniverse现在已经毗邻到Bentley Systems LumentRT、西门子、NX、罗克韦尔、Unity等,汽车行业中沃尔沃、通用、梅德赛斯-飞跃、捷豹路虎、宝马、路特斯、丰田、Lucid等汽车制造商也在使用Omniverse开展事情。其中,宝马汽车基于Omniverse在匈牙利制作了*座数字孪生工厂,将在2025年开业。

今天, 英伟达还宣布了专门为运行Omniverse而设计的系统。*款是由英伟达Ada RTX GPU和英特尔最新CPU驱动的新一代事情站,将从三月份最先在Boxx、戴尔、惠普和遐想上市;第二个是针对Omniverse优化的新型Nvidia ovx服务器,将由戴尔、惠普、Quantn、技嘉、遐想和SuperMicro提供。

最后,英伟达还推出Omniverse Cloud的云服务,支持即时、平安地接见托管的Omniverse Cloud API。英伟达正在与微软互助,将Omniverse云服务引入全球各个行业。同时,英伟达正在将Omniverse云毗邻到Microsoft 365生产力套件,包罗Teams、OneDrive、SharePoint和Azure IoT数字孪生服务。

今年的GTC时长只有80分钟,比去年的140分钟短了近一半,但主要水平却完全不逊色。

从三款大模子到四款AI推理芯片,以及优化的100个应用场景、更新功效的工业元宇宙Omniverse,这些产物里,哪个让你最激动?

标签: