「雷神」超级芯片登场,英伟达与其它 AI 芯片公司的算力差距再次扩大
导读:2022 年又是英伟达在 AI 加速计算赛道里飞速狂奔的一年,进一步拉大了与追赶者的差距。 先是今年 3 月发布了性能有数量级飞跃的 Hopper 架构 GPU H100
2022 年又是英伟达在 AI 加速计算赛道里飞速狂奔的一年,进一步拉大了与追赶者的差距。
先是今年 3 月发布了性能有数量级飞跃的 Hopper 架构 GPU H100。今天,英伟达 CEO 黄仁勋在 GTC 2022 上宣布 H100 全面量产。但根据美国政府的最新规定,未经许可,英伟达不能出口、转让 H100 GPU 在中国市场上使用。
对此,黄仁勋在 GTC 2022 期间回应,英伟达会推出一个不受限制的 H100 版本,同时会寻求许可证,当然,即便有限制,英伟达广泛的产品线也能够满足客户的绝大多数的需求。
不过,秋季 GTC 更值得关注的是史诗级的超级芯片 DRIVE Thor(雷神),这款最新的超级计算机将于 2025 年上市,AI 性能高达 2000TOPS 的 DRIVE Thor SoC 将可能变革智能汽车行业。
当然,黄仁勋也不忘用超强的 AI 算力普惠包括医疗和工业在内的边缘计算领域,推出了基于英伟达 IGX 边缘 AI 计算平台及解决方案。
另外,黄仁勋还更新了曾吸引了无数关注的英伟达 Jetson Nano,最新推出的 Jetson Orin Nano 相比上一代实现了 80 倍的性能飞跃,价格维持在比较亲民的 199 美元起。
如果说春季 GTC 2022 的H100 GPU 树立了高性能 AI 芯片的新标杆,那秋季 GTC 的无疑会让自动驾驶芯片和边缘 AI 芯片的追赶者们感受到了压力。
黄仁勋也给游戏玩家带来了值得兴奋的新一代 GeForce RTX 40 系列 GPU(RTX 40 系显卡 GTC「炸场」发布,性能提升 70%,价格再创新高)。
看起来,从云端到边缘端,从现实世界到元宇宙,英伟达都想通过创新保持一骑绝尘。
史诗级汽车 SoC 平台雷神
大算力汽车芯片已经成为趋势,但作为领导者,英伟达在 2022 年给出了一个让人惊艳的产品 Thor(雷神)。
全新 Thor 超级芯片可提供每秒 2,000 万亿次浮点运算性能,取代了 DRIVE 发展路线图中的 Atlan,能够与目前被用于量产汽车、可提供每秒 254 万亿次浮点运算性能的 DRIVE Orin 无缝衔接。
对于为什么用 Thor 取代 Atlan 更改发展路线图,黄仁勋也做出了解释:"Atlan 是已经商用的 Orin 的下一代产品,是几年前的项目,但因为出现了令人不可思议的 Hopper、AdaGPU 和 Grace GPU,我们不愿意为此再等两年,于是决定用 Thor 取代 Atlan,并集成了最新的技术,有了 Thor 超级芯片。"
英伟达 Thor 的强大之处在于,一个基于 Thor 芯片的系统可以完成所有工作的计算机取代目前汽车内的单独计算机,利用具有广泛隔离(包括 MIG)的功能安全设计技术来防止单独的任务相互干扰。
目前,想要实现汽车中的主动安全、停车、驾驶员监测、摄像头后视镜、集群和车载信息娱乐系统等功能通常需要不同的计算机提供支持。
英伟达正在引领自动驾驶新的未来,也就是由在中央计算机上运行的软件统一提供支持,并随着时间的推移不断改进。
据黄仁勋介绍,基于 Thor 芯片的系统可以将智能汽车的所有功能都集中在单个 AI 计算机上,"车载计算资源的集中化可以将成本降低数百美元"。
具体来看,DRIVE Thor 平台集 Hopper 的 Transformer Engine、基于 Ada 的 GPU 和 Grace CPU 于一身。
基于新的架构和引擎,Thor 芯片具有 8 位浮点 ( FP8 ) 功能,凭借着 8 位浮点 ( FP8 ) 的精度,Thor 芯片为汽车引入了一种新的数据处理方式。
传统意义上,AV(自动驾驶车辆)仿真平台的开发人员需要从 32 位浮点转移到 8 位整数数据格式,而 FP8 精度简化了这种过渡,让开发人员可以在不牺牲精度的情况下进行数据传输。
另外,英伟达还推出了 NVLink C2C 技术,该技术可以同时连接两个 Thor 芯片,使两个芯片成为单一操作系统的单片平台。NVLink C2C 的优势在于共享和调度,它可以使用最小的算力成本进行跨链路分配工作。
在软件定义汽车的发展趋势下,NVLink C2C 技术为汽车提供了足够大的算力冗余来保证软件配置的灵活性,并为智能汽车未来的 OTA 做好了算力方面的保障。
医疗和工业领域也有了通用边缘 AI 方案
智能汽车是 AI 边缘最火热的应用,但英伟达的目标是推动 AI 在所有边缘应用中的应用。
GTC 2022 上,英伟达推出了新的边缘 AI 计算平台 IGX 平台,IGX 平台由 NVIDIA IGX Orin 超级计算机驱动,能更简便的为制造、物流、医疗等安全敏感行业带来了安全的工作环境。
NVIDIA IGX 平台同时包含软件堆栈,可以针对不同的应用场景进行编程和配置,这些软件功能允许用户在仓库、手术室等需要人类与机器人协同工作的场景下提供主动安全用例。
黄仁勋说," 这将是世界上最强大、紧凑、节能的人工智能超级计算机。"
对于 AI 芯片而言,全栈软件的重要性更加突显。NVIDIA IGX 平台也能够运行 NVIDIA AI Enterprise 软件,优化开发和部署人工智能工作流程并保证开发者能够顺利访问必要的人工智能框架和工具。
英伟达表示,其将与 Canonical、红帽和 SUSE 等伙伴合作,为 IGX 平台带来长期的全栈支持。
另外,用户可以通过 NVIDIA Fleet Command 在中央云部署安全的无线软件和系统更新,方便快捷地管理工业或医疗环境中的 IGX 平台。
过去,边缘 AI 在制造、物流等行业中一般采用定制方案。但这些定制方案通常昂贵且缺少通用性,需要专为特定用例构建。
为了能够让 AI 能在这些领域更好运用,IGX 平台则能够提供可编程的一站式解决方案,英伟达推出了面向工业和医疗的 IGX 一站式解决方案。
" 随着人类与机器人的协作场景不断丰富,各行各业都在为机器人、人工智能和计算制定新的安全标准。" 黄仁勋说,"NVIDIA IGX 将帮助企业构建下一代由软件定义的工业和医疗设备,并在与人协作的环境中安全运行。"
在制造和物流领域,IGX 可以用来构建安全、可靠的自动化平台,从而改进人机协作关系,提高生产效率。
目前的生产机器人几乎都内置了反应性安全功能,即在安全威胁和事件发生后做出反应。比如有人走进了机器人的行进路线,机器人会减速或者停下。
IGX 平台能够使生产安全性更上一层楼,不仅能够增强机器人现有的反应性安全功能,还能利用 AI 传感器识别潜在的安全隐患并发出警报,从而减少事故。
例如当仓库中的摄像头看到有人进入机器人的路径后可以向机器人发出信号改变路径,从而并避免碰撞,并同时提醒该区域的所有员工和机器人。
据悉,英伟达已经与制造领域巨头西门子达成合作,在边缘部署 IGX 平台。
而在医疗领域,IGX 则能够解决传感器、手术辅助机器人、患者检测系统等临床医疗仪器对算力的要求。
IGX 能够支持 NVIDIA Clara Holoscan 的运行,允许医疗设备开发人员连接边缘、本地和云服务,并快速的开发由软件定义的设备,将最新的 AI 成功直接带入手术室。
英伟达 IGX 的医疗解决方案也已经有合作伙伴,三家领先的医疗设备初创公司 Activ Surgical, Moon Surgical and Proximie 与英伟达合作,使用在 IGX 上运行的 NVIDIA Clara Holoscan 计算平台为其手术机器人系统提供算力。
对于 IGX 在更广泛边缘 AI 场景的落地和应用,英伟达表示凌华科技、研华、Dedicated Computing、控创、丽台、MBX、Onyx、Portwell、Prodrive、Technologies 和 YUAN 将率先为医疗设备行业构建基于 NVIDIA IGX 的产品。
明年,英伟达将向开发者提供 IGX Orin 开发工具包,以让企业快速测试原型产品。每个套件都集成用于高性能 AI 计算的 GPU 与 CPU 以及 NVIDIA ConnectX-7 SmartNIC,以提供低延迟、高安全性的网络。
80 倍性能提升,入门级 AI 系统售价 199 美元起
2019 年 GTC,英伟达推出了售价 99 美元的机器人芯片 Jetson Nano,给业界带来了新的选择,也将产品线拓展到了入门级 AI。
今天,黄仁勋带来了 Jetson 产品线的成员—— Jetson Orin Nano 系统级模块。值得注意的是,相较上一代 Jetson Nano 产品,Jetson Orin Nano 性能达到上一代产品 80 倍,售价为 199 美元起,为入门级别 AI 和机器人技术树立了新标准,将于明年 1 月出货。
推出的 Orin Nano 芯片是 Jetson 中尺寸最小的,但能够提供每秒 10 万亿次操作的 AI 性能。
雷峰网了解到,Jetson Orin 采用了 NVIDIA Ampere 架构 GPU、Arm 架构的 CPU,并支持下一代深度学习和视觉加速器、高速接口、高速内存带宽和多模式传感器。
Jetson Orin Nano 将提供两个版本,高配版本具有 8G 内存,提供 40TOPS 算力,功率可在 7W 至 15W 之间配置,低配版本具有 4G 内存,能够提供 20TOPS 算力,功率可低至 5-10W。
Jetson Orin Nano 的目标是让零售分析、工业质量控制等领域中使用入门级设备和应用程序的开发人员能够以更低的成本访问复杂的 AI 模型,这当然也需要生态的支持。
据悉,Jetson 生态系统如今正在迅猛发展,目前为止已有超过 100 万名开发人员、6000 多客户、2000 家初创公司和 150 家合作伙伴加入该是生态。
Jetson Orin 也已经得到了佳能、约翰迪尔、微软 Azure、泰瑞达、TK 电梯等合作伙伴的支持。
黄仁勋表示,Jetson Orin 平台旨在解决最棘手的机器人挑战,并未超过 700000 名 ROS 开发人员带来加速计算。
从云端到边缘,在英伟达触达的 AI 市场,既有不断迭代的强大硬件,也有不断丰富的软件生态,挑战者想要成功的难度都非常大。
版权声明:本文部分来自互联网,由小编精心所写,本文地址:http://www.zhubian88.cn/smbk/54978.html,如需转载,请注明出处!