互动
最近评论
标签
寻找感兴趣的领域

Jetson Xavier NX

Jetson Xavier NX的算力大约是Jetson nano的40倍左右,为什么我要写Jetson Xavier NX而不是更高算力的Jetson Orin nano super、Jetson Orin NX等,本人手上只有Jetson Xavier NX(16G EMMC版本)且还是从车上拆出来的,需要把原系统备份且后期还需要刷回去,用完之后发现操作大致上和Jetson nano没什么区别除了运行速度更快了些,未使用TensorRT加速的情况下运行yolo v5s模型也可以达到20多帧,当然帧率和输入图像的尺寸有关系。

来说说最近挺火的大模型,挺多商家拿此当噱头卖自己家的产品(教你怎么部署大模型),这些东西算力就摆在那里,比你的电脑(N卡)算力差远了而且还贵,你拿你电脑跑一下图个新鲜就好了无非就是Ollama+Open WebUI,你若是对算力没有要求或者是做一个ROS小车建议买个Jetson nano来用用即可。

对于Jetson Xavier NX之类的高性能产品实在没什么好写的基本和Jetson nano相同,无非就是部署环境,要我写如何部署大模型过程?其实用Ollama就三行代码如下,其他时间你就等就行了,我真不觉得有什么好写的。

#Ollama安装
sudo apt install curl
curl -fsSL https://ollama.com/install.sh | sh
#根据你的板子选择合适的大模型 我的是Jetson Xavier NX(16G EMMC版本)但是我还是选择了最小参数的模型
ollama run deepseek-r1:1.5b
#一直等到镜像拉取完成即可


评论
你无需删除空行,直接评论以获取最佳展示效果
引用到评论