第一次听说SOTIF这个概念时,我正在参与一个L3级自动驾驶项目。当时团队遇到一个棘手问题:在暴雨天气下,毫米波雷达的误报率突然飙升,导致车辆频繁误刹车。这个案例让我深刻理解了ISO 21448标准的价值——它解决的正是这种"系统没坏但就是不好用"的安全隐患。
**SOTIF(预期功能安全)**与传统功能安全有着本质区别。打个比方,功能安全关注的是"手机不会突然爆炸",而SOTIF解决的是"微信视频通话时为什么总是卡顿"。在自动驾驶领域,这种区别尤为关键:
去年某车企的自动泊车系统在识别斜向车位时频繁失误,就是典型的SOTIF问题。系统硬件完全正常,但车位检测算法在特定角度下会产生误判。这类场景正是ISO 21448标准重点关注的领域。
在工程实践中,我们采用标准提出的"四象限"场景分类法。这个方法就像给自动驾驶系统绘制一张风险地图:
这类场景就像考驾照时的"科目二"——所有情况都在可控范围内。例如:
处理这类场景的关键是建立基准测试集。我们团队会记录传感器原始数据、控制指令等完整信息,作为后续迭代的参照基准。
这里藏着自动驾驶开发的"明雷"。比如:
对于这些场景,我们采用"设计消除+专项验证"的策略。最近一个项目就在毫米波雷达上增加了多普勒滤波算法,有效解决了路面积水反射的误判问题。
这才是真正的挑战所在。去年我们遇到一个典型案例:某款激光雷达在特定角度的冰晶反射下会产生"幽灵障碍物"。这种场景在实验室根本想象不到,直到在黑龙江冬季测试时才暴露出来。
应对这类场景,我们建立了异常场景挖掘流程:
这类场景就像普通人不会专门练习"如何在月球表面开车"。但要注意的是,随着技术发展,今天的未知安全场景可能明天就会变成需要关注的对象。
好的场景库就像一本精心编写的习题集。我们团队采用分层建设方法:
最近我们开发了一个自动化工具链,能够从路测视频中自动提取交通参与者轨迹、环境特征等信息,生成仿真可用的场景文件。这个工具使场景构建效率提升了60%。
在SIL(软件在环)测试中,我们建立了分级验证体系:
HIL(硬件在环)测试则更接近真实环境。我们曾发现一个有趣的问题:某型号摄像头在实验室表现完美,但在HIL台架上却出现帧丢失。最后查明是电源模块的电磁干扰导致。
实车测试的价值无法替代。我们采用"三明治"式数据采集策略:
最近一次路测中,我们通过数据分析发现了一个潜在风险:在特定角度的夕阳照射下,视觉里程计会出现累计误差。这个发现直接促成了多传感器融合算法的优化。
车辆上市只是开始。我们建立的"用户反馈-数据分析-场景更新"闭环已经产生了巨大价值。例如通过OTA升级收集的数据,我们发现:
这些发现都迅速转化为新的测试场景,纳入到后续车型的验证体系中。
HMI设计在SOTIF中常被忽视。我们总结出几个关键原则:
曾有个案例:某车型的自动驾驶退出提示过于隐蔽,导致多次险情。后来我们将提示方式改为"视觉+听觉+触觉"三重反馈,问题得到根本解决。
随着项目深入,我们逐步搭建了完整的工具生态系统:
这个系统最近刚帮助我们发现了毫米波雷达在金属护栏场景下的多径干扰问题。通过工具自动生成的测试用例,工程师们快速验证了解决方案的有效性。
在自动驾驶行业摸爬滚打这些年,我越来越认识到:安全不是某个阶段的检查项,而是需要融入开发全过程的DNA。每次看到团队通过场景-验证闭环发现并解决一个潜在风险,都让我对这项技术的未来多一分信心。毕竟在安全这件事上,再多的谨慎都不为过。