Yolov5实战指南(2)——Jetson Nano边缘端模型部署与TRT加速全流程

庞九林

1. Jetson Nano基础配置与系统初始化

拿到Jetson Nano开发板的第一件事就是给它"通电开机"。这块板子虽然只有信用卡大小,但五脏俱全,是典型的边缘计算设备。我用的4GB版本,实测下来性能足够跑Yolov5这类轻量级模型。先说说供电方案,官方推荐三种方式:

第一种是Micro USB供电,适合临时调试。但要注意必须拔掉J48跳线帽,否则可能供电不足导致系统不稳定。我实测用5V/2A的手机充电器能启动,但跑模型时容易崩溃,强烈不建议长期使用

第二种是DC电源接口供电,需要5V/4A的电源适配器。这是最稳定的方案,记得插上J48跳线帽。我在某宝买的官方推荐型号,连续运行72小时没出过问题。

第三种是GPIO引脚供电,适合有扩展板的场景。不过新手容易接错线烧毁板子,建议等熟悉硬件后再尝试。

烧录系统镜像推荐使用Etcher工具,比官方方法简单得多。下载好JetPack镜像后(目前最新是4.6.1版本),选择SD卡直接烧录。有个坑要注意:SD卡最好用64GB以上的高速卡(U3/V30级别),低速卡会导致系统卡顿。我试过用32GB普通卡,运行apt-get时经常卡死。

首次启动会进入Ubuntu初始化界面,建议选择英文系统语言。不是崇洋媚外,而是中文环境可能遇到路径编码问题,后期配置环境时容易踩坑。时区选Asia/Shanghai,用户名和密码简单好记就行,反正不会拿它当主力机用。

联网方面,有线连接最稳定。如果要用WiFi,建议购买官方认证的无线网卡(如AC8265)。某次我用杂牌网卡,编译时频繁断网,浪费了一整天时间。

2. 开发环境配置实战

2.1 系统源与基础环境

Jetson Nano默认的apt源在国外,速度慢得像蜗牛。换成国内源是必操作,我习惯用清华源:

bash复制sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak
sudo sed -i "s@http://.*archive.ubuntu.com@https://mirrors.tuna.tsinghua.edu.cn@g" /etc/apt/sources.list
sudo sed -i "s@http://.*security.ubuntu.com@https://mirrors.tuna.tsinghua.edu.cn@g" /etc/apt/sources.list
sudo apt update

CUDA环境变量要特别注意版本匹配。先用ls /usr/local查看CUDA目录名,我这里是cuda-10.2。然后在~/.bashrc末尾添加:

bash复制export PATH=/usr/local/cuda-10.2/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64:$LD_LIBRARY_PATH

测试CUDA是否正常:

bash复制cd /usr/src/cudnn_samples_v8/mnistCUDNN
sudo make
./mnistCUDNN

看到"Test passed!"说明GPU加速生效。如果报错,八成是环境变量没配好。

2.2 Python环境配置

系统自带Python3.6,但pip需要手动升级:

bash复制sudo apt install python3-pip
pip3 install --upgrade pip

安装常用科学计算库时,记得用apt装系统版本,比pip安装更稳定:

bash复制sudo apt install python3-numpy python3-scipy python3-matplotlib

TensorFlow的安装有个大坑:必须用NVIDIA定制版。直接pip install tensorflow会报错。正确姿势是:

bash复制pip3 install --extra-index-url https://developer.download.nvidia.com/compute/redist/jp/v42 tensorflow-gpu==1.13.1+nv19.3

验证TF是否能用GPU:

python复制import tensorflow as tf
tf.test.is_gpu_available()  # 应该返回True

3. Yolov5模型转换与TRT加速

3.1 模型格式转换

首先克隆tensorrtx项目(注意选择与Yolov5匹配的版本):

bash复制git clone -b yolov5-v5.0 https://github.com/wang-xinyu/tensorrtx.git

将训练好的.pt模型转.wts格式:

python复制import torch
model = torch.load('yolov5s.pt')
with open('yolov5s.wts', 'w') as f:
    f.write('{}\n'.format(len(model.state_dict().keys())))
    for k, v in model.state_dict().items():
        vr = v.reshape(-1).cpu().numpy()
        f.write('{} {} '.format(k, len(vr)))
        for vv in vr:
            f.write(' ')
            f.write(struct.pack('>f', float(vv)).hex())
        f.write('\n')

3.2 TensorRT引擎生成

编译生成推理引擎:

bash复制cd tensorrtx/yolov5
mkdir build && cd build
cmake ..
make
sudo ./yolov5 -s ../yolov5s.wts yolov5s.engine s

这里有几个关键参数:

  • s表示使用yolov5s模型结构(还有m/l/x等尺寸)
  • 如果输入尺寸不是640x640,需要修改yololayer.h中的kInputH/kInputW
  • 类别数CLASS_NUM也要对应修改

生成引擎时可能遇到内存不足的问题。我的解决方法是:

  1. 关闭桌面环境:sudo systemctl set-default multi-user.target
  2. 增加swap空间到8GB
  3. 编译时加-j4参数限制并行任务数

3.3 推理测试优化

用OpenCV做视频流推理的示例代码:

python复制import cv2
from trt_infer import YoLov5TRT  # 自定义的TRT推理类

trt_model = YoLov5TRT("yolov5s.engine")
cap = cv2.VideoCapture(0)

while True:
    ret, frame = cap.read()
    boxes, scores, classes = trt_model.infer(frame)
    for box, score, cls in zip(boxes, scores, classes):
        x1, y1, x2, y2 = map(int, box)
        cv2.rectangle(frame, (x1,y1), (x2,y2), (0,255,0), 2)
        cv2.putText(frame, f"{cls}:{score:.2f}", (x1,y1-10), 
                   cv2.FONT_HERSHEY_SIMPLEX, 0.9, (36,255,12), 2)
    cv2.imshow("YOLOv5 TRT", frame)
    if cv2.waitKey(1) == ord('q'):
        break

实测在640x640输入下,4GB版Jetson Nano的推理速度能达到15-20FPS。如果改用384x384输入,帧率可提升到30FPS以上,但精度会有所下降。

4. 性能调优与实战技巧

4.1 内存优化策略

Jetson Nano的4GB内存是共享的(GPU+CPU),需要精细管理:

  • 使用sudo tegrastats监控内存使用
  • 在代码中及时释放不需要的变量
  • 限制OpenCV的缓存:cv2.setNumThreads(1)
  • 关闭桌面GUI能节省约500MB内存

4.2 温度控制方案

长时间运行会导致CPU降频,我的散热方案组合:

  1. 安装散热风扇(必须带PWM调速)
  2. 使用散热片+金属外壳
  3. 配置温度监控脚本:
bash复制watch -n 1 "cat /sys/devices/virtual/thermal/thermal_zone*/temp"

4.3 模型裁剪技巧

如果帧率不达标,可以尝试:

  1. 降低输入分辨率(但不要小于320x320)
  2. 使用更小的模型(如yolov5n)
  3. 量化模型到FP16或INT8:
    bash复制sudo ./yolov5 -s ../yolov5s.wts yolov5s_fp16.engine s fp16
    
  4. 剪枝冗余通道(需要重新训练)

4.4 多线程处理

使用Python的threading模块实现采集+推理双线程:

python复制from threading import Thread
import queue

frame_queue = queue.Queue(maxsize=2)

def capture_thread(cap):
    while True:
        ret, frame = cap.read()
        if not ret: continue
        if frame_queue.full():
            frame_queue.get()
        frame_queue.put(frame)

def infer_thread(model):
    while True:
        if not frame_queue.empty():
            frame = frame_queue.get()
            results = model.infer(frame)
            # 显示逻辑...

cap = cv2.VideoCapture(0)
Thread(target=capture_thread, args=(cap,)).start()
Thread(target=infer_thread, args=(trt_model,)).start()

这套方案在我的垃圾分类项目中,让FPS从18提升到了25。关键是要控制队列长度,避免内存堆积。

内容推荐

Vue集成noVNC:构建现代化Web远程桌面控制台
本文详细介绍了如何利用Vue.js集成noVNC技术构建现代化Web远程桌面控制台。通过组件化开发,实现零客户端依赖的远程桌面连接方案,适用于企业级应用场景。文章涵盖环境准备、Vue组件集成、性能优化及安全加固等关键环节,帮助开发者快速搭建高效稳定的Web远程控制解决方案。
ESP32-S3开发实战:精准配置Flash与PSRAM以优化性能
本文深入探讨了ESP32-S3开发中Flash与PSRAM的精准配置方法,以优化系统性能。通过分析存储架构、硬件识别、配置项解析及性能优化实战,帮助开发者解决常见问题并实现高效内存管理。特别针对ESP32S3的Flash和PSRAM配置提供了实用技巧和组合建议,适用于物联网和嵌入式系统开发。
别再只盯着曲线了!OTDR测试仪参数设置保姆级指南(附避坑清单)
本文提供OTDR测试仪参数设置的全面指南,从波长选择、脉宽调节到测量范围和平均时间的优化,帮助工程师精准定位光纤故障。通过场景化参数模板和高级调试技巧,有效避免常见测试误差,提升工作效率。特别适合数据中心短链路和城域骨干网的测试需求。
别再死记硬背了!用‘喊话’和‘听回声’的比喻,5分钟搞懂雷达脉冲压缩
本文通过‘喊话’与‘听回声’的生活化比喻,生动解析了雷达脉冲压缩技术的核心原理。文章详细介绍了线性调频信号(LFM)和匹配滤波器的工作原理,展示了脉冲压缩如何同时提升雷达的分辨力和作用距离,并探讨了其在实际应用中的挑战与跨领域价值。
别再瞎划网格了!ABAQUS新手必看的Mesh避坑指南(从Hex到Tet全解析)
本文详细解析了ABAQUS网格划分的核心技巧与避坑指南,从六面体(Hex)与四面体(Tet)的选择到结构化、扫掠和自由网格的实战应用。特别强调了网格质量控制的重要性,包括动力学分析的尺寸准则和划分失败的诊断修复方法,帮助新手提升有限元分析的准确性和效率。
STM32与STLink连接失败的五大排查场景与实战修复
本文详细解析了STM32与STLink连接失败的五大常见问题及解决方案,包括驱动安装与系统签名冲突、Keil MDK调试配置、硬件连接排查、芯片锁死恢复以及特殊场景处理。特别针对STLink驱动安装和Keil5调试设置提供了实用技巧,帮助开发者快速定位并解决连接问题,提升开发效率。
AlexNet的‘遗产’:那些被我们沿用至今的CNN设计范式与已被淘汰的技术
本文探讨了AlexNet在ImageNet竞赛中的突破性贡献及其对现代深度卷积神经网络(CNN)设计的深远影响。文章详细分析了ReLU激活函数、数据增强等历久弥新的核心设计范式,以及局部响应归一化(LRN)等已被淘汰的技术。AlexNet确立的深度优先设计哲学和多GPU训练方案,至今仍是CNN架构的重要参考。
从Git Diff到网页可视化:深入拆解CodeMirror MergeView插件与diff-match-patch的协作原理
本文深入解析了CodeMirror MergeView插件与diff-match-patch库在代码对比可视化中的协作原理。从Git Diff到网页渲染,详细介绍了差异计算算法、MergeView的分层架构及版本兼容性挑战,为开发者提供性能优化和高级定制方案,助力实现高效的版本对比功能。
PIL.Image.open读图后,别急着转Numpy!先搞懂resize、crop和颜色通道的那些坑
本文深入解析PIL.Image.open读图后的关键操作陷阱,包括resize、crop和颜色通道处理的常见错误。通过对比PIL与Numpy的特性差异,提供从图像读取到模型输入的完整避坑指南,帮助开发者构建健壮的图像预处理流程,确保AI模型输入数据的准确性和一致性。
K8s面试高频考点深度解析:从核心概念到生产实践
本文深度解析Kubernetes(K8s)面试高频考点,从核心概念到生产实践全面覆盖。详细讲解Pod设计原理、Service抽象、Controller模式等基础概念,剖析集群架构与组件协作,并提供生产环境故障排查与性能优化实战经验。帮助开发者系统掌握K8s知识体系,从容应对技术面试挑战。
别再死记硬背了!一张图看懂STM32CubeF1 HAL库I2C中断处理全流程
本文通过一张流程图详细解析了STM32CubeF1 HAL库中I2C中断处理的全流程,帮助开发者理解EV5、EV6等关键事件的处理逻辑。文章深入探讨了状态寄存器、标志位清除时机以及HAL库的设计哲学,并提供了实战代码和调试技巧,助力开发者高效使用I2C中断驱动开发。
Windows平台实战:从零构建支持音视频的PJSIP开发环境
本文详细介绍了在Windows平台上从零构建支持音视频的PJSIP开发环境的完整流程。涵盖环境配置、依赖库下载、编译优化及常见问题解决,特别针对音视频功能提供了实用配置建议,帮助开发者快速搭建高效的SIP客户端开发环境。
告别手动输入!用elasticsearch-keystore和REST API批量配置Elasticsearch 7.x内置用户密码(附Ansible脚本思路)
本文详细介绍了如何通过elasticsearch-keystore和REST API实现Elasticsearch 7.x内置用户密码的批量配置自动化,大幅提升大规模集群的安全初始化效率。文章包含Ansible脚本思路,对比了手动与自动化方案的优劣,并提供了企业级部署的进阶技巧和故障排查指南。
Python生成器实战:从内存优化到数据流处理(2024年更新)
本文深入探讨Python生成器在内存优化和数据流处理中的实战应用,涵盖从基础创建到高级技巧如send()方法和生成器管道。通过实际案例展示生成器如何高效处理大数据集、实时数据流和数据库查询,显著降低内存占用并提升性能。特别适合2024年Python开发者应对大数据挑战。
别再死记硬背IGBT参数了!用Simulink搭建一个动态模型,边仿真边理解
本文介绍了如何利用Simulink动态建模来深入理解IGBT参数,避免死记硬背。通过搭建仿真模型,工程师可以直观观察导通特性、开关特性和极限参数的动态行为,从而提升设计效率和可靠性。文章详细展示了参数设置、仿真框架搭建及实际应用案例,帮助读者掌握IGBT的动态分析方法。
Apple Configurator 2 修复M1 Mac时0x15报错:DFU模式误判与精准操作指南
本文详细解析了使用Apple Configurator 2修复M1 Mac时遇到的0x15报错问题,揭示了伪DFU模式的陷阱及正确操作方法。通过精准的组合键操作流程和常见问题排查指南,帮助用户避免误判,成功进入真DFU模式完成设备恢复。
SSH密钥登录失败:从“bad permissions”错误到权限修复的完整指南
本文详细解析了SSH密钥登录时常见的“bad permissions”错误及其修复方法。从权限检查到逐步修复流程,再到跨平台操作注意事项,帮助用户彻底解决SSH密钥权限问题,确保远程服务器登录安全。文章还提供了高级排查技巧和预防措施,是SSH密钥管理的实用指南。
Arduino TFT_eSPI库SPI LCD进阶:多画布动态文字显示与内存优化详解
本文详细解析了Arduino TFT_eSPI库在SPI LCD上实现多画布动态文字显示与内存优化的高级技巧。通过Sprite画布的离屏渲染机制,有效解决屏幕闪烁问题,并分享画布布局、动态更新策略及内存管理的实战经验,帮助开发者提升嵌入式显示项目的性能与稳定性。
从入门到精通:ITK-Snap 医疗影像分割实战指南
本文详细介绍了ITK-Snap在医疗影像分割中的实战应用,从基础操作到高级技巧全面覆盖。通过具体案例演示如何利用多边形工具、画笔工具和半自动分割方法精准提取CT、MRI中的解剖结构,并分享肺部CT到3D打印模型的全流程经验,助力医疗从业者提升影像分析效率。
Python实战:从零构建阵列麦克风声源定位系统(二维/三维)
本文详细介绍了如何使用Python构建阵列麦克风声源定位系统,涵盖二维和三维定位技术。从硬件选型、环境配置到数据采集与预处理,再到波束形成算法和CLEAN-SC算法的实现,提供了完整的实战指南。文章还分享了性能优化技巧和常见问题解决方案,帮助开发者在智能家居、视频会议等场景中快速应用声源定位技术。
已经到底了哦
精选内容
热门内容
最新内容
Maven项目集成Dependency Check:自动化依赖漏洞扫描实战
本文详细介绍了如何在Maven项目中集成OWASP Dependency Check插件,实现自动化依赖漏洞扫描。通过实战配置示例和进阶技巧,帮助开发者快速识别和修复Java项目中的安全漏洞,提升软件供应链安全。特别适合需要持续安全检测的企业级Java项目。
SAP模块怎么选?给新手的保姆级避坑指南(附2024年薪资与需求排名)
本文为SAP新手提供了2024年各模块选择的详细指南,包括FICO、ABAP、MM等核心模块的需求热度、薪资水平及学习路径。通过分析专业背景、性格特点和市场趋势,帮助读者做出明智选择,避免常见陷阱,实现职业快速发展。
用Python生成十二等律频率表:从A4=440.01Hz到完整音高对照Excel(附避坑指南)
本文详细介绍了如何使用Python生成基于A4=440.01000Hz标准的十二等律频率表,并导出为Excel文件。文章涵盖了十二等律的数学原理、Python实现代码、浮点精度处理技巧以及多八度频率表的扩展应用,为音乐制作和音频分析开发者提供了一套完整的解决方案。
DY-SV17F串口通信避坑指南:从指令校验到内存管理,新手容易踩的5个雷
本文详细解析了DY-SV17F语音播放模块在串口通信中的5个常见问题及解决方案,包括指令校验和计算、内存管理优化、波特率兼容性调整、长指令发送时序控制以及低成本调试技巧。特别针对UART通信中的校验和溢出、4MB存储空间管理等技术难点提供实用代码示例,帮助开发者高效避坑。
Windows平台下Fortran调用CGNS库:从源码编译到项目集成的完整指南
本文详细介绍了在Windows平台下使用VS 2019和IVF2020配置Fortran开发环境,并编译集成CGNS库的完整流程。从环境搭建、依赖处理到源码编译和项目集成,提供了实用技巧和常见问题解决方案,帮助开发者高效实现Fortran与CGNS库的交互。
Open BMC开发实战:IPMI协议栈的模块化设计与消息处理
本文深入探讨了Open BMC开发中IPMI协议栈的模块化设计与消息处理实践。通过分析IPMI协议栈在硬件状态监控、远程控制和系统告警中的核心作用,详细介绍了硬件通道抽象层、协议编解码模块的实现方法,并提供了从零实现IPMI功能模块的实战指南,包括消息结构定义、处理函数注册及调试技巧。
摄像头核心技术解析:从感光到成像的完整链路
本文深入解析摄像头从感光到成像的完整技术链路,涵盖镜头组、图像传感器、模数转换器和图像信号处理器等核心组件。通过对比相位对焦与反差对焦的实战表现,以及视场角的选择策略,揭示摄像头技术的关键细节。同时探讨CSP、COB和Flip Chip等封装工艺的演进,帮助读者全面理解摄像头工作原理与技术趋势。
离散数学核心概念与应用场景解析
本文深入解析离散数学的核心概念及其在计算机科学中的广泛应用场景,包括数理逻辑、集合论、图论和代数系统等。通过实际案例和代码示例,展示了离散数学在编程语言设计、算法优化、数据库系统和机器学习等领域的关键作用,帮助读者理解其理论基础并掌握实践技巧。
PCB与金属外壳的“软连接”艺术:并联RC电路在ESD/EMC防护中的协同作用分析
本文深入分析了PCB与金属外壳的“软连接”技术,重点探讨并联RC电路在ESD/EMC防护中的协同作用。通过详细解析电容和电阻的选型原则、参数搭配及实际布局技巧,帮助工程师有效解决静电防护和电磁干扰问题,提升产品可靠性。
安陆FPGA实战手记:图像处理中的那些“坑”与“填坑”
本文分享了在安陆FPGA上进行图像处理开发时遇到的典型问题与解决方案。从编译耗时、存储管理陷阱到IP核的特殊延迟特性,作者详细记录了实战中的调试技巧,如使用ChipWatcher进行信号轮巡调试、动态调整SDRAM时钟相位等,为FPGA开发者提供了宝贵的避坑指南。