上一篇测试了谷歌的Coral USB加速棒,本篇又来一个边缘计算的实力干将英伟达Jetson Nano,原本想着可能要好几天才能玩起来,不过大概用了3个小时左右就可以正常跑起来了,从入手到实际体验还是属于非常能快速上手的边缘计算类型的。
英伟达Jetson Nano
拿到英伟达Jetson Nano的时候,第一反应是盒子里面到底装了些什么?打开后很失望,除了除了Jetson Nano之外只有一张使用指导,一些基本的电源线什么都没有,你得自己准备。所以我们来看看Jetson Nano到底是什么?
如果你对Intel NCS2神经计算棒、谷歌Coral Edge TPU了解的话,那你完全可以把Jetson Nano作为英伟达对这几个厂商的回应,对,它的目标也是在边缘计算运行人工智能,但是,一个很大的不同点是所有这些产品在实现处理相当大的模型的计算能力的方式完全不同,非常有趣!
英伟达Jetson Nano的一些参数规格:
四核ARM Cortex-A57,4GB LPDDR4 RAM,128CUDA核心Maxwell GPU。
区别是什么?
如果你深究每个产品的特点,谷歌Coral TPU就是我们所说的ASIC(专用集成电路),而英伟达Jetson Nano则是一个结合了128核GPU的ARM CPU,一个更传统以及更抽象的双架构产品。
ASIC,复杂?
你可能会认为英伟达Jetson Nano是一个很复杂的产品,而ASIC则是相反,但事实并不是你想当然的那样,Jetson Nano也没有想象中的那么复杂,你可以说它“复杂”,但是它的复杂带来的确实效率的提升。对于Jetson Nano和Google Coral来说,假设给限定的功耗,那么如果我们比较在互联网上找到的一些数据,使用MobileNet V2神经网络模型推理时,Coral的得分要好得多。
下面是另一个关于Jetson Nano和Coral Edge TPU之间的比较,非常有意思。
当使用MobileNet网络模型检测对象时,Jetson Nano会更加节能。但这不是重点,重点是它是一款强大的64位ARM,拥有128核GPU的边缘计算设备,几乎可以运行任何你想运行的边缘类网络模型。从拿到这款单板计算机的时候,我一直在安装和测试TensorFlow-GPU,它就像任何其它具有CUDA能力的NVIDIA 桌面GPU一样。
举个栗子说明这玩意有多强大:今天我忘记带我的macbook,我决定在Jetson Nano上完成工作。是的,操作系统的UI部分似乎比我的旧主力上的macOS响应性稍差,但由于CUDA加速,所有ML的东西都更快。
实测
以下的测试本身是一个非常有争论的话题,所有一切并非表面看到得那么直截了当。Jetson Nano的操作系统(JetPack,Ubuntu 18.04LTS),没有预先安装TensorFlow(如果也有厂商正在为人工智能、边缘计算、深度学习等产品设备制作开发板,请安装NVIDIA,也请预先安装最大的AI包,这可以方面用户很多,节省很多时间)。
而目前这里的话大多数所需的软件包都必须自己安装,可以先安装易于安装pip或apt-get,而scipy,scipy等必须从源代码构建,并且需要Fortran编译器(是的,显然Fortran同样是一个问题)。Fortran编译器也没有标准化,但是在安装之后,我还是期盼它能正常工作,然后此时墨菲定律生效率了,当我再次开始编译scipy,35分钟后,Jetson Nano再也没有反应......
我注意到散热器非常热,所以我总结说CPU可能因为热安全而停止了,所以我开始寻找一个小风扇以便在编译时好给这家伙散热。
50分钟后......
scipy - 完成!scikit-learn - 完成!
如下图所示,现在一切都正常了。
并且正常工作了,在使用Tegra X1板载芯片时,它正确地对皮卡丘进行了分类,由pyimagesearch创建的口袋妖怪分类demo演示。
最后,选用了Sparkfun的一个演示视频,主要是对象检测的demo,供用户参考。
小结
NVIDIA Jetson Nano是一个非常棒的边缘计算类深度学习的开发板,小巧,酷炫,功能强大。我很确定很快就可以轻松地从桌面移植一些人工智能项目,但与谷歌Coral USB加速棒相比,这不太容易使用。但是,我认为这应该与Raspberry Pi进行比较(正如标题所示):它们俩才像是同类!同样,我非常期待今年的树莓派4有何变化,对手都已掀牌,若再是一些无关痛痒的升级,我想在边缘计算时代,树莓派终将要渐渐被遗忘。
强烈推荐阅读:
- 还好没放弃,终于等到你——基于边缘计算的谷歌Coral USB加速棒实测
- 将高端医疗设备平民化——Spectra开源生物医学成像系统
- 理解电容器泄露真谛,有助延长低功耗智能设备续航
- 搭载全球首款集成三轴加速度计&温度计的ST单芯片传感器
- 如何保持基于RISC-V的嵌入式设计灵活性?用Linux和Zephyr microPlatforms就好
上一篇测试了谷歌的Coral USB加速棒,本篇又来一个边缘计算的实力干将英伟达Jetson Nano,原本想着可能要好几天才能玩起来,不过大概用了3个小时左右就可以正常跑起来了,从入手到实际体验还是属于非常能快速上手的边缘计算类型的。
英伟达Jetson Nano
拿到英伟达Jetson Nano的时候,第一反应是盒子里面到底装了些什么?打开后很失望,除了除了Jetson Nano之外只有一张使用指导,一些基本的电源线什么都没有,你得自己准备。所以我们来看看Jetson Nano到底是什么?
如果你对Intel NCS2神经计算棒、谷歌Coral Edge TPU了解的话,那你完全可以把Jetson Nano作为英伟达对这几个厂商的回应,对,它的目标也是在边缘计算运行人工智能,但是,一个很大的不同点是所有这些产品在实现处理相当大的模型的计算能力的方式完全不同,非常有趣!
英伟达Jetson Nano的一些参数规格:
四核ARM Cortex-A57,4GB LPDDR4 RAM,128CUDA核心Maxwell GPU。
区别是什么?
如果你深究每个产品的特点,谷歌Coral TPU就是我们所说的ASIC(专用集成电路),而英伟达Jetson Nano则是一个结合了128核GPU的ARM CPU,一个更传统以及更抽象的双架构产品。
ASIC,复杂?
你可能会认为英伟达Jetson Nano是一个很复杂的产品,而ASIC则是相反,但事实并不是你想当然的那样,Jetson Nano也没有想象中的那么复杂,你可以说它“复杂”,但是它的复杂带来的确实效率的提升。对于Jetson Nano和Google Coral来说,假设给限定的功耗,那么如果我们比较在互联网上找到的一些数据,使用MobileNet V2神经网络模型推理时,Coral的得分要好得多。
下面是另一个关于Jetson Nano和Coral Edge TPU之间的比较,非常有意思。
当使用MobileNet网络模型检测对象时,Jetson Nano会更加节能。但这不是重点,重点是它是一款强大的64位ARM,拥有128核GPU的边缘计算设备,几乎可以运行任何你想运行的边缘类网络模型。从拿到这款单板计算机的时候,我一直在安装和测试TensorFlow-GPU,它就像任何其它具有CUDA能力的NVIDIA 桌面GPU一样。
举个栗子说明这玩意有多强大:今天我忘记带我的macbook,我决定在Jetson Nano上完成工作。是的,操作系统的UI部分似乎比我的旧主力上的macOS响应性稍差,但由于CUDA加速,所有ML的东西都更快。