2022 9 月 21 By 轻松上网高手 0 comment

Nvidia发表新的高效能系统模组(SOM)系列Jetson Orin Nano,该系列针对人工智慧应用,提供高於上一代Jetson Nano 80倍的人工智慧运算效能。在最新的Jetson系列产品发布後,该产品线现在支援各种边缘人工智慧应用的效能需求,从入门级的Jetson Orin Nano,到最高效能Jetson AGX Orin,供用户按需求扩展其应用程式。

Nvidia提到,各产业对於即时处理能力需求增加,包括智慧相机、手持装置、服务机器人、无人机以及各种入门级人工智慧应用,而这些应用面临类似的挑战,那便是这些需要在装置上,低延迟处理来自各种感测器工作管线的资料,同时还要节能、成本最佳化,更要符合小尺寸的限制。

Jetson Orin使用Nvidia Ampere架构GPU以及Arm CPU,并且配备深度学习和视觉加速器,同时也支援高速介面、高记忆体频宽以及多模感测器,使其能够用来执行人工智慧应用程式,甚至是智慧机器人作业系统。

Orin Nano模组有两个版本分别是8GB以及4GB,前者能以7W到15W的功率,提供40 TOPS运算能力,而4GB版本功率则可以低至5W到10W,提供20 TOPS运算能力。

由於Jetson AGX Orin开发人员套件和所有Jetson Orin模组,共用同一个SoC架构,因此开发人员套件可以模拟任何模组,在开发者还没实际拿到Jetson Orin Nano硬体之前,就能着手开发工作。Nvidia所发布新的程式覆盖(Overlay),让开发者能够使用开发工具包模拟Jetson Orin Nano模组,并且配置成适用於8GB或是4GB的开发工具包,开发并且执行完整的应用程式工具管线。

Jetson可以执行Nvidia人工智慧软体堆叠,以及特定用例的应用程式框架,像是用於机器人开发的Isaac、电脑视觉DeepStream,或是对话人工智慧Riva,开发者也可以使用Omniverse Replicator来生成合成资料,并使用TAO工具包微调预训练的模型,增加Jetson上人工智慧应用开发速度。

官方提到,与前一代只能执行简单应用程式的Jetson Nano不同,Jetson Orin Nano能够处理复杂应用,并且随着Isaac机器人作业系统的发展,获得更高的准确性和吞吐量。

轻松上网高手

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论