在自动驾驶和安防监控领域,传感器就像机器的"眼睛"。但传统视觉传感器(如RGB相机)和激光雷达有个致命弱点:它们都是"短波选手",工作波长在可见光或近红外波段(400-1500纳米)。这就好比人眼在浓雾中看不清东西一样,这些传感器遇到雨雪、雾霾或黑夜时,性能会断崖式下跌。
毫米波雷达和红外热成像却另辟蹊径。毫米波雷达工作在24GHz或77GHz频段(波长约1-12毫米),而热成像相机捕捉的是8-14微米的中远红外辐射。这两种"长波"传感器有三个关键优势:
穿透能力:毫米波可以穿透非金属材质的障碍物,比如能轻松看透塑料、布料等常见遮挡物。实测中,我们在浓雾天气用毫米波雷达探测50米外的车辆,信号衰减不到3dB,而同条件下激光雷达的有效探测距离直接腰斩。
全天候工作:热成像不依赖环境光照,完全通过检测物体自身的热辐射成像。去年冬天我们在零下20度的暴雪环境测试,热成像相机对行人探测的召回率仍保持在92%以上,而RGB相机此时已经"失明"。
抗干扰性:毫米波雷达的多普勒效应可以直接测量目标径向速度。有次测试遇到前方卡车扬起的沙尘,激光雷达点云完全被噪声淹没,但雷达通过速度滤波依然稳定追踪到卡车轮廓。
这两种传感器的配合堪称"黄金搭档"——毫米波雷达提供精确的距离和速度信息,但角度分辨率有限;热成像虽然缺乏精确深度数据,却能提供高分辨率的轮廓信息。就像人闭上一只眼会影响距离判断,但两只眼睛协同工作就能精准定位。
RIDERS的第一阶段就像给系统装了个"常识库"。我们先用热成像单帧图像预测初始深度图,这里有个反直觉的设计:直接在热图像上训练的单目深度网络,效果比用RGB图像迁移学习要好得多。实测发现,用NYUv2数据集预训练的RGB模型迁移到热图像时,深度误差比直接训练高37%。
全局对齐环节解决了单目深度最头疼的尺度问题。传统方法要用标定板反复校准,而RIDERS只用雷达的稀疏点云作为"锚点"。具体操作是计算雷达点周围10×10像素区域的深度中值,然后拟合最小二乘解。我们在ZJU数据集上验证,这种方法将尺度误差从12.3%降到1.8%。
这个阶段是技术突破的关键。传统雷达-图像融合有个误区:直接把雷达点投影到图像平面。我们做过对比实验,这种方法在5米外就会产生3-5像素的定位偏差。RIDERS的RC-Net网络创新性地引入了注意力机制:
实测数据显示,这种设计让雷达-图像关联准确率提升到89.7%,比传统方法高出23个百分点。更妙的是,网络还能自动识别并剔除虚假雷达回波——比如雨滴产生的噪点。
最后的 refinement 阶段就像给素描画上色。我们改造了MiDaS网络架构,新增了两个设计:
有个很酷的细节:我们在损失函数里加入了雷达多普勒一致性约束。如果预测的深度与雷达测量的径向速度不匹配,就会受到惩罚。这相当于给网络装了个"物理常识校验器"。
我们在舟山跨海大桥做了实地测试。大雾能见度不到20米时,传统方案的表现是这样的:
| 传感器组合 | 探测距离 | 行人识别率 |
|---|---|---|
| RGB+LiDAR | 15m | 11% |
| 热成像+LiDAR | 28m | 63% |
| RIDERS(雷达+热) | 42m | 89% |
特别要说明的是,RIDERS在浓雾中不仅能检测到行人,还能准确判断其朝向——这是靠毫米波雷达的速度矢量与热成像轮廓的协同分析实现的。这个功能对预测行人运动轨迹至关重要。
去年台风季的测试数据更有说服力。暴雨条件下(降雨量50mm/h),各方案的深度估计误差对比:
秘密在于毫米波雷达的波形设计。我们用的是调频连续波(FMCW)雷达,通过距离-多普勒处理可以有效区分静止目标和雨滴。有个工程细节:雷达天线要倾斜15度安装,这样可以减少地面反射干扰。
在煤矿巷道做的无光测试中,热成像展现了惊人潜力。完全无光条件下:
这里有个实用技巧:热成像相机需要定期做非均匀性校正(NUC)。我们开发了自动触发机制——当温度变化超过2℃时自动执行校正,这比固定时间间隔校准更科学。
早期我们吃过标定不准的亏。有次现场调试,发现深度估计总是有系统性偏差,排查半天才发现是雷达和热成像相机的时间戳不同步——两者时钟漂移了17毫秒。后来我们总结出标定三原则:
原始算法在Jetson AGX上跑起来要300ms,根本达不到实时要求。经过三轮优化:
现在整套系统在Xavier NX上就能流畅运行,功耗不到15W。有个取巧的设计:当系统检测到环境条件良好时,会自动降低雷达的采样率来省电。
在深圳某智慧园区项目中,RIDERS系统解决了三个痛点:
部署时有个意外发现:热成像对穿越围栏的入侵者特别敏感——因为人体温度总会与围栏形成鲜明对比。这让我们把周界防护的误报率从每夜3-5次降到每月1-2次。