腾讯内容开放平台

3 月 22 日 23:00 首播( 3 月 23 日 10:00 重播)的 GTC 2022 老黄主题演讲你都看了吗?作为与英伟达合作紧密的慧维智能,特意为大家梳理总结了本次发布会的内容。本次GTC延续以往风格,黄仁勋在主题演讲中继续秒天秒地秒空气,下面就让我们来看看本场GTC大会的干货:

©2022 NVIDIA

Clara Holoscan

英伟达认为下一波AI浪潮是机器人,英伟达正在构建多个机器人平台,包括用于自动驾驶汽车的DRIVE、用于操纵和控制系统的Isaac、用于自主式基础架构的Metropolis、用于医疗设备的Holoscan等。他将机器人系统的工作流程简化为真值数据生成、AI模型训练、Omniverse数字孪生、机器人技术栈四大支柱。Clara Holoscan MGX是一个开放可扩展的机器人平台,其设计符合IEC-62304医疗级规格,核心计算机为Jetson AGX Orin和ConnectX-7智能网卡,并可选配NVIDIA RTX A6000 GPU。

该平台AI算力可达每秒254~610万亿次运算,目前向早期体验客户开放,正式上市时间是5月,并将于2023年第一季度完成医疗级准备。

©2022 NVIDIA

NVIDIA Clara™ Holoscan MGX 平台基于 NVIDIA Orin 模块。

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

Clara Holoscan MGX 可提供 250 TOPS 的 AI 性能,并可借助 NVIDIA RTX A6000 GPU ,扩展到超过 600 TOPS 的 AI 性能。NVIDIA ConnectX7 可提供高达 200GbE 的流式 I/O 以及 GPUDirect RDMA,进而实现超低延迟处理。

NVDIA Nemo Megatron

此外,开发者还可以通过NVIDIA Nemo Megatron框架进一步训练它以服务新的领域和语言。在GTC 2022上,NVIDIA就展示了集中预训练模型,包括自己开发的BioMegatron以及与阿斯利康合作的MegaMolBart。

MegaMolBART主要用于反应预测、分子优化和分子生成,基于阿斯利康的MolBART Transformer模型,并在ZINC化合物数据库(这一数据库允许研究人员预训练模型来理解化学结构,无需手动标记数据)上训练而成。凭借对化学的统计理解,该模型将用于完成包括预测化学物质之间的相互作用以及生成新的分子结构等新药研发的相关任务。

借助NVIDIA Nemo Megatron框架,模型在超算基础设施上进行了大规模扩展训练,实现了高正确性和特殊性的分子生成——顺便说一句,其训练所使用的英国最大的超级计算机Cambridge-1也是基于NVIDIA芯片赋能。

Nemo训练框架具有广泛的兼容性,除了分子预测,也可用于事件侦测、临床实验匹配、生物药物研究、预授权、聊天机器人等应用场景。

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

杨森制药就利用NVIDIA的BioMegatron预训练模型和Nemo框架打造针对药物不良反应的模型,以预测药物的未知不良反应。此外,佛罗里达大学健康学院也利用最新的Megatron框架和BioMegatron 预训练模型来开发 GatorTron,这个模型由累积超过10年的200万名患者的资料形成,参数量达到50亿之多,是迄今为止最大的临床语言模型。

除了模型和预训练模型,NVIDIA的算力在基因测序上也带来了质的飞跃。传统上,从全人类基因组测序中快速表征导致遗传疾病的变异很有挑战性。全基因组测序可以更好地检测这些变异,但通常需要数天乃至数周才能返回结果。

在时间紧迫的情况下,漫长的等待时间可能会导致生死之别——例如需要对危重患者进行鉴定可疑的致病变异。在不久前,Oxford Nanopore Technologies、NVIDIA、谷歌的科学家与斯坦福大学医学院医学、遗传学和生物医学数据科学教授Euan Ashley、MB ChB和DPhil领导的研究小组合作开发了名为“uNap”的第三代基因测序AI工作流程工具,可以在短短7小时18分钟内表征致病变异。

这一工具可在NVIDIA的云端平台NGC执行,只需要一台NVIDIA DGX A100即可执行,大大简化了基因测序所需的计算架构。这使得临床医生和研究人员不需借用外部力量即可在机构内部来分析基因数据。

最终,这一系统在5小时2分钟内就生成了整个人类基因组和变异列表。在随后的表征致病变异列表进行人工审查,可在7小时18分钟内表征致病变异。相比之前14小时的记录,uNAP将所需时间减少了一半。

Jetson orin

英伟达还宣布推出Jetson Orin开发者套件,以在边缘实现服务器级的AI性能。

Nova AMR将于第二季度上市,它将配备英伟达新的DeepMap雷达制图系统,可以扫描和重建环境,以进行路线规划和数字孪生仿真。

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

MONAI+ Nemo

在模型构建上,MONAI是Clara生态的重要一环。这一开源的AI开发框架最初由NVIDIA与伦敦国王学院共同推出。MONAI具有自动标注工具来协助开发者标注数据,并能够实现自动化模型挑选和参数调优。同时,MONAI也具有自监督学习,可以利用非标注数据训练模型,从而缩短标注时间。

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

MONAI针对医疗数据的独特需求进行了专项优化,使其能够处理医学图像所特有的格式、分辨率和元信息。开发者可以利用其专门用于医疗领域的数据转换、神经网络架构和评估方法来评估医学影像模型的质量。

因其开源和易用特性,MONAI自推出后反响良好。截至2022年2月,MONAI的月下载量已经达到5万次。尤其在最近一个季度,月下载量实现了翻倍。基于MONAI产出的论文也已经超过65篇。

除了MONAI,基于联邦学习的NVIDIA Flare框架将有助于破解AI模型训练的最大困境——如何保证数据隐私。传统来说,模型训练需要将所有数据上传至中心服务器的方式,可能会涉及到敏感的临床数据及病人隐私。

联邦学习可以让多个机构利用自己的数据进行多次迭代训练模型,随后将模型上传共享。一旦在本地对模型进行了几次迭代训练,参与者就会将模型的更新版本发送回集中式服务器。在收到各地上传的更新模型后,服务器将根据各地上传的模型对全局模型进行更新。随后,服务器会与参与机构共享更新后的模型,以便它们能够继续进行本地培训。

整个过程只发送训练完成的模型,而不会像以往的方式发送病理数据。由此实现了对医疗数据隐私的保护,对破解AI模型训练的“无米之炊”有很好的帮助。基于业界合作的结果,NVIDIA在GTC 2022上还发布了超过40种预训练模型,涵盖影像、药物发现、NLP和计算机视觉四大领域。这些模型在训练过程中均用到了NVIDIA的工具,比如用于研究大型转换语言模型高效训练的NVIDIA Nemo Megatron。这一开源项目由NVIDIA主导,使企业能够克服训练复杂NLP模型的挑战。通过数据处理库自动处理LLM训练的复杂性,这些数据处理库可以输入、策划、组织和清理数据,并利用先进的数据、张量和管道并行化技术,使大型语言模型的训练有效地分布在成千上万的GPU上。

简单来说,原来只能分配给一个人干的活儿现在可以不受影响地派给成百上千个人,效所需时间自然大为缩短。

NVIDIA H100 GPU

每次英伟达的GPU新架构都会以一位科学家的名字来命名,这次同样如此。新Hopper架构的命名取自美国计算机科学家格蕾丝·赫柏(Grace Hopper),她是耶鲁大学第一位数学女博士、世界上第三位程序员、全球首个编译器的发明者,也是第一个发现“bug”的人。

NVIDIA 同时发布其首款基于 Hopper 架构的 GPU:NVIDIA H100 Tensor Core GPU。NVIDIA H100是一款超大的芯片,采用 TSMC 4N 工艺,具有 800 亿个晶体管。H100 是首款支持 PCIe 5.0 标准的 GPU,也是首款采用 HBM3 标准的 GPU,单个 H100 可支持 40 Tb/s 的 IO 带宽。

NVIDIA H100 GPU

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

相比 A100,H100 的 FP8 性能提升了 6 倍,FP16、TF32、FP64 性能各提升 3 倍。从另一个角度来说,20 块 H100 GPU 便可承托相当于全球互联网的流量。H100 采用风冷和液冷设计,是首个实现性能扩展至 700 瓦的 GPU。可以看到,NVIDIA越来越热衷于走稀疏化路线。过去六年,英伟达相继研发了使用FP32、FP16进行训练的技术。此次H100的性能介绍又出现了新的Tensor处理格式FP8,而FP8精度下的AI性能可达到4PFLOPS,约为A100 FP16的6倍。

另外,H100还有6项创新:

1.采用4N工艺、台积电CoWoS 2.5D封装,可实现近5TB/s的外部互联带宽,首款支持PCIe 5.0的GPU,也是首款采用HBM3标准的GPU,单个H100可支持40Tb/s的IO带宽,实现3TB/s的显存带宽。黄仁勋说,20块H100 GPU便可承托相当于全球互联网的流量。

2.新Transformer引擎:该引擎将新的Tensor Core与能使用FP8和FP16数字格式的软件结合,动态处理Transformer网络的各个层,在不影响准确性的情况下,可将模型的训练时极大缩短。

3.第二代安全多实例GPU:MIG技术支持将单个GPU分为7个更小且完全独立的实例,以处理不同类型的作业,为每个GPU实例提供安全的多租户配置。

4.机密计算:H100是全球首款具有机密计算功能的GPU加速器,能保护AI模型和正在处理的客户数据,可以应用在医疗健康和金融服务等隐私敏感型行业的联邦学习,以及共享云。

5.第4代英伟达NVLink:为了加速大型AI模型,NVLink结合全新外接NVLink Switch,可将NVLink扩展为服务器间的互联网络,最多连接多达256个H100 GPU,相较于上一代采用英伟达 HDR Quantum InfiniBand网络,带宽高出9倍。

6.DPX指令:Hopper引入了一组名为DPX的新指令集,DPX可加速动态编程算法,解决路径优化、基因组学等算法优化问题,与CPU和上一代GPU相比,其速度提升分别可达40倍和7倍。

H100将提供SXM和PCIe两种规格,可满足各种服务器设计需求。

其中H100SXM提供4 GPU和8 GPU配置的HGX H100服务器主板;H100 PCIe通过NVLink连接两块GPU,相较PCIe 5.0可提供7倍以上的带宽。PCIe规格便于集成到现有的数据中心基础设施中。

这两种规格的电力需求都大幅增长。H100 SXM版的散热设计功耗(TDP)达到700W,比A100的400W高出75%。据黄仁勋介绍,H100采用风冷和液冷设计。

这款产品预计于今年晚些时候全面发售。阿里云、AWS、百度智能云、谷歌云、微软Azure、Oracle Cloud、腾讯云和火山引擎等云服务商均计划推出基于H100的实例。

为了将Hopper的强大算力引入主流服务器,英伟达推出了全新的融合加速器H100 CNX。它将网络与GPU直接相连,耦合H100 GPU与英伟达ConnectX-7 400Gb/s InfiniBand和以太网智能网卡,使网络数据通过DMA以50GB/s的速度直接传输到H100,能够避免带宽瓶颈,为I/O密集型应用提供更强劲的性能。

NVIDIA DGX H100

第四代英伟达DGX系统DGX H100是一款基于英伟达H100 Tensor Core GPU的AI平台。

NVIDIA DGX H100

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

每个DGX H100系统配备8块H100 GPU,总计有6400亿个晶体管,由NVLink连接,在全新的FP8精度下AI性能可达32Petaflops,比上一代系统性能高6倍。

DGX H100系统中每块GPU都通过第四代 NVLink连接,可提供900GB/s的带宽,是上一代系统的1.5倍。DGX H100的显存带宽可达24TB/s。

该系统支持双x86 CPU,每个系统还包含2个英伟达BlueField-3 DPU,用于卸载、加速和隔离高级网络、存储及安全服务。

8个英伟达ConnectX-7 Quantum-2 InfiniBand网卡能够提供400GB/s的吞吐量,可用于连接计算和存储,这一速度比上一代系统提升了1倍。

DGX H100系统是新一代英伟达DGX POD和DGX SuperPOD超级计算机的构建模块。

借助NVLink Switch系统,拥有32个节点、256个GPU的DGX Pod,其HBM3显存达20.5TB,显存带宽高达768TB/s。

“相比之下,整个互联网不过只有100TB/s。”黄仁勋感慨道。每个DGX都可借助4端口光学收发器连接到NVLink Switch,每个端口都有8个100G-PAM4通道,每秒能够传输100GB,32个NVLink收发器连接到1个机架单元的NVLink Switch系统。

新一代DGX SuperPOD可提供1Exaflops的FP8 AI性能,比上一代产品性能高6倍,能够运行具有数万亿参数的大型语言模型工作负载;还有20TB的HBM3显存、192TFLOPS的SHARP网络计算性能。

通过采用Quantum-2 InfiniBand连接及NVLink Switch系统,新DGX SuperPOD架构在GPU之间移动数据的带宽高达70TB/s,比上一代高11倍。

Quantum-2 InfiniBand交换机芯片拥有570亿个晶体管,能提供64个400Gbps端口。多个DGX SuperPOD单元可组合使用。

此外,英伟达推出新的DGX-Ready托管服务计划,以助力简化AI部署。其DGX Foundry托管的开发解决方案正在全球扩展,北美、欧洲和亚洲的新增地点支持远程访问DGX SuperPOD。

DGX Foundry中包含英伟达Base Command软件,该软件能够使客户基于DGX SuperPOD基础设施,轻松管理端到端AI开发生命周期。

全新NVIDIA NVLink Switch系统

DGX H100系统是新一代英伟达DGX POD和DGX SuperPOD超级计算机的构建模块。

可以借助 NVLink 连接多达 32 个 DGX

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

借助NVLink Switch系统,拥有32个节点、256个GPU的DGX Pod,其HBM3显存达20.5TB,显存带宽高达768TB/s。“相比之下,整个互联网不过只有100TB/s。”黄仁勋感慨道。每个DGX都可借助4端口光学收发器连接到NVLink Switch,每个端口都有8个100G-PAM4通道,每秒能够传输100GB,32个NVLink收发器连接到1个机架单元的NVLink Switch系统。

NVIDIA DGX POD与 SuperPOD

DGX H100 系统是新一代 NVIDIA DGX POD™ 和 NVIDIA DGX SuperPOD™ AI 基础设施平台的构建模块。借助 DGX H100 系统,NVIDIA DGX SuperPOD™ 可成为具有可扩展性的卓越的企业级 AI 中心。

NVIDIA DGX POD with NVIDIA H100

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

新一代DGX SuperPOD可提供1Exaflops的FP8 AI性能,比上一代产品性能高6倍,能够运行具有数万亿参数的大型语言模型工作负载;还有20TB的HBM3显存、192TFLOPS的SHARP网络计算性能。通过采用Quantum-2 InfiniBand连接及NVLink Switch系统,新DGX SuperPOD架构在GPU之间移动数据的带宽高达70TB/s,比上一代高11倍。Quantum-2 InfiniBand交换机芯片拥有570亿个晶体管,能提供64个400Gbps端口。多个DGX SuperPOD单元可组合使用。

Grace CPU

除了GPU外,英伟达数据中心“三芯”战略中另一大支柱CPU也有新进展。

今日,英伟达推出首款面向HPC和AI基础设施的基于Arm Neoverse的数据中心专属CPU——Grace CPU超级芯片。

这被黄仁勋称作“AI工厂的理想CPU”。

据介绍,Grace Hopper超级芯片模组能在CPU与GPU之间进行芯片间的直接连接,其关键驱动技术是内存一致性芯片之间的NVLink互连,每个链路的速度达到900GB/s。

Grace CPU超级芯片也可以是由两个CPU芯片组成。它们之间通过高速、低延迟的芯片到芯片互连技术NVLink-C2C连在一起。它基于最新的Armv9架构,单个socket拥有144个CPU核心,具备最高的单线程核心性能,支持Arm新一代矢量扩展。

在SPECrate®2017_int_base基准测试中,Grace CPU超级芯片的模拟性能得分为740,据英伟达实验室使用同类编译器估算,这一结果相比当前DGX A100搭载的双CPU高1.5倍以上。

此外,Grace CPU超级芯片可实现当今领先服务器芯片内存带宽和能效的2倍。

其依托带有纠错码的LPDDR5x内存组成的创新的内存子系统,能实现速度和功耗的最佳平衡。LPDDR5x内存子系统提供两倍于传统DDR5设计的带宽,可达到1TB/s,同时功耗也大幅降低,CPU加内存整体功耗仅500瓦。

Grace CPU超级芯片可运行所有的英伟达计算软件栈,结合英伟达ConnectX-7网卡,能够灵活地配置到服务器中,或作为独立的纯CPU系统,或作为GPU加速服务器,可以搭配1块、2块、4块或8块基于Hopper的GPU。

也就是说,用户只维护一套软件栈,就能针对自身特定的工作负载做好性能优化。黄仁勋说,Grace超级芯片有望明年开始供货。

Eos超级计算机

NVIDIA 宣布推出全球运行速度最快的 AI 超级计算机 —— NVIDIA Eos。“Eos”超级计算机将于今年晚些时候开始运行,共配备 576 台 DGX H100 系统,共计 4608 块 DGX H100 GPU,FP8 算力达到 18 EFLOPS,PF64 算力达到 275 PFLOPS,有望成为全球运行速度最快的 AI 系统。

EOS 超级计算机

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

为定制芯片集成开放 NVLink

前面说的Grace CPU超级芯片系列、去年发布的Grace Hopper超级芯片都采用了这一技术来连接处理器芯片。

NVIDIA超大规模计算副总裁Ian Buck认为:“为应对摩尔定律发展趋缓的局面,必须开发小芯片和异构计算。”因此,英伟达利用其在高速互连方面的专业知识开发出统一、开放的NVLink-C2C互连技术。

该技术将支持定制裸片与英伟达GPU、CPU、DPU、NIC和SoC之间实现一致的互连,从而通过小芯片构建出新型的集成产品,助力数据中心打造新一代的系统级集成。

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

NVLink-C2C现已为半定制芯片开放,支持其与NVIDIA技术的集成。通过采用先进的封装技术,英伟达NVLink-C2C互连链路的能效最多可比NVIDIA芯片上的PCIe Gen 5高出25倍,面积效率高出90倍,可实现每秒900GB乃至更高的一致互联带宽。

NVLink-C2C支持Arm AMBA一致性集线器接口(AMBA CHI)协议,或CXL工业标准协议,可实现设备间的互操作性。当前英伟达和Arm正在密切合作,以强化AMBA CHI来支持与其他互连处理器完全一致且安全的加速器。

NVIDIA NVLink-C2C依托于英伟达的SERDES和LINK设计技术,可从PCB级集成和多芯片模组扩展到硅插入器和晶圆级连接。这可提供极高的带宽,同时优化能效和裸片面积效率。除NVLink-C2C之外,NVIDIA还将支持本月早些时候发布的通用小芯片互连传输通道UCIe标准。

▲UCIe标准

与NVIDIA芯片的定制芯片集成既可以使用UCIe 标准,也可以使用NVLink-C2C,而后者经过优化,延迟更低、带宽更高、能效更高。

NVIDIA Isaac for AMRs

Isaac for AMR 也有四大核心,每个都单独可用,并且完全开放,包括用于真值生成的新 NVIDIA DeepMap、用于训练模型的 NVIDIA AI、搭载 Orin 的 AMR 机器人参考设计、Isaac 机器人技术堆栈中的新 Gem以及基于 Omniverse 的新版 Isaac Sim。

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

CUDA-X

NVIDIA 发布了 60 多项 CUDA-X™(NVIDIA 的一个库、工具和技术集)更新。这些更新涵盖了众多学科,能够显著提升 CUDA® 软件计算平台的性能。

©2022 NVIDIA

目前有数十项更新已经可以使用,它们加强了 CUDA 作为业内最综合全面的平台地位,供开发人员构建加速应用以应对高性能计算领域的挑战,例如 6G 研究、量子计算、基因组学、药物发现和物流优化,以及机器人技术、网络安全、数据分析等方面的高深研究。CUDA 平台自 2008 推出以来已经下载了 3300 万次以上,仅在 2021 年就有 800 万次下载,三年内增长了 3 倍。

NVIDIA Merlin 1.0

NVIDIA 正式发布了 NVIDIA Merlin 的 1.0 版本。NVIDIA Merlin 是用于推荐系统的 AI 框架,可帮助企业快速构建、部署和扩展先进的AI推荐系统。

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

NVIDIA OVX与OVX SuperPod

NVIDIA 于今日发布用于驱动大规模数字孪生的 NVIDIA® OVX™ 计算系统。

NVIDIA OVX Server

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

NVIDIA OVX 专为运行 NVIDIA Omniverse™(实时物理级准确世界模拟和 3D 设计协作平台)中的复杂数字孪生模拟而设计。

黄仁勋认为,第一波AI学习是感知和推理,下一波AI的发展方向是机器人,也就是使用AI规划行动。英伟达Omniverse平台也正成为制造机器人软件时必不可少的工具。

作为虚拟世界的仿真引擎,Omniverse平台能遵循物理学定律,构建一个趋真的数字世界,可以应用于使用不同工具的设计师之间的远程协作,以及工业数字孪生。

黄仁勋认为,工业数字孪生需要一种专门构建的新型计算机,因此英伟达打造了面向工业数字孪生的OVX服务器和OVX SuperPOD超级集群。

OVX是首款Omniverse计算系统,由8个英伟达A40 RTX GPU、3个ConnectX-6 200Gbps网卡(NIC)和2个英特尔至强Ice Lake CPU组成。

32台OVX服务器可构成OVX SuperPOD超级集群,实现这一连接的关键设施是英伟达今日新推出的Spectrum-4以太网平台。

据悉,这是全球首个400Gbps端到端网络平台,其交换吞吐量比前几代产品高出4倍,聚合ASIC带宽达到51.2Tbps,支持128个400GbE端口。

Spectrum-4实现了纳秒级计时精度,相比典型数据中心毫秒级抖动提升了5~6个数量级。这款交换机还能加速、简化和保护网络架构。与上一代产品相比,其每个端口的带宽提高了2倍,交换机数量减少到1/4,功耗降低了40%。

该平台由英伟达Spectrum-4交换机系列、ConnectX-7智能网卡、BlueField-3DPU和DOCA数据中心基础设施软件组成,可提高AI应用、数字孪生和云基础架构的性能和可扩展性,大幅加速大规模云原生应用。

Spectrum-4 ASIC和SN5000交换机系列基于4nm工艺,有1000亿个晶体管,并经过简化的收发器设计,实现领先的能效和总拥有成本。

Spectrum-4可在所有端口之间公平分配带宽,支持自适应路由选择和增强拥塞控制机制,能显著提升数据中心的应用速度。

Spectrum-4 ASIC具有12.8Tbp加密带宽和领先的安全功能,例如支持MACsec和VXLANsec,并通过硬件信任根将安全启动作为默认设置,帮助确保数据流和网络管理的安全性和完整性。

现在各大计算机制造商纷纷推出OVX服务器,对于想在OVX试用Omniverse的客户,英伟达在全球多地提供LaunchPad计划,第一代OVX正由英伟达和早期客户运行,第二代OVX正被构建中。Spectrum-4的样机将在今年第四季度末发布。

使用英伟达Omniverse Avatar框架,企业就能快速构建和部署像Toy Jensen这样的虚拟形象,从模仿声音到细微的头部及身体运动,乃至高保真度的形象塑造,都让虚拟人更加灵动。

最后,得益于Riva中的最新对话式AI技术和超大语言模型Megatron 530B NLP,虚拟人可以听懂你问的问题,也能跟你实时聊天互动。

在此基础上,英伟达宣布将推出Omniverse Cloud。通过Omniverse Cloud连接,协作者们使用英伟达RTX PC、笔记本电脑和工作站,均可实现远程实时协同工作。

用户如果没有RTX计算机,只需点击一下,即可从GeForce Now上启动Omniverse。

NVIDIA DRIVE Hyperion 9

Omniverse平台是整个工作流程的核心,DRIVE平台则相当于AI司机。黄仁勋宣布下一代DRIVE Hyperion 9将从2026年起搭载到汽车中,它将拥有14个摄像头、9个雷达、3个激光雷达和20个超声传感器,总体传感器数量将是Hyperion 8的两倍。

©2022 NVIDIA

图片截取自NVIDIA GTC22 Keynote视频

此外,英伟达推出了一种多模态地图引擎NVIDIA DRIVE Map,包含摄像头、激光雷达和雷达的数据,同时兼顾安全性。DRIVE Map有两个地图引擎,真值测绘地图引擎和众包车队地图引擎。黄仁勋谈道,到2024年,他们预计绘制并创建北美、西欧和亚洲所有主要公路的数字孪生,总长度约为50万公里。

“我们正在构建地球级别的自动驾驶车队数字孪生。”黄仁勋说。

合作方面,全球第二大电动汽车制造商比亚迪将在2023年上半年开始投产的汽车中搭载DRIVE Orin计算平台。自动驾驶独角兽企业元戎启行、中国自动驾驶创企云骥智行也宣布将在其L4级自动驾驶车规级量产方案中搭载NVIDIA DRIVE Orin SoC芯片。

美国电动汽车公司Lucid Motors、中国L4级自动驾驶科技公司文远知行、中国新型电动车公司悠跑科技均宣布将应用英伟达DRIVE Hyperion自动驾驶汽车平台。

在人工智能领域,获得英伟达的相关认证,也是业界备受瞩目的事情,这代表了行业上游对技术、架构、赛道的肯定。

△ 右侧奖杯2020年英伟达颁发

慧维智能深耕多年动态医学影像AI技术,提供消化内镜辅助诊断产品內镜“帧探”。产品技术的解决方案也是基于英伟达CUDA技术;通过慧维智能资深医务团队收集、梳理海量“金标准”的数据,邀请高年资消化科医生精心标注数据集;AI技术帮助医生实现结肠疾病和结肠癌的早期诊断,并提供內镜手术中智能识别、标注、提醒和导航等功能。

关于慧维智能

  慧维智能医疗科技有限公司成立于2019年6月,专业从事智能医疗产品的研发、生产与销售。我们的核心成员,均来自全球顶尖的科研机构和世界五百强企业。慧维智能以在“人工智能”和“边缘计算”领域的自主核心技术为驱动力,致力于为全球医疗机构提供“高水准、低成本、好体验”的医疗产品与服务,最大程度地帮助医生提高诊疗水平与效率。