日期
12/25
2023
咨询
  • QQ扫一扫

  • Vision小助手
    (CMVU)

高精度双目视觉3D点云推动高阶智驾规模化量产落地
收藏
2023-12-25 15:38:04来源: 中国机器视觉网

第一性原理指的是:回归事物最基本的条件,将其拆分成各要素进行解构分析,从而找到实现目标最优路径的方法。也就是说,撕开事物一层层复杂的表象,从本质出发而不是从陈旧的或者来自于他人的经验去思考,才能找到最简洁的答案。

智驾安全正在用户心智中占领高位,政策法规为行业未来划定上层纲要

智能驾驶已经经历了一段较长时间的发展,从刚开始的概念与技术萌芽,到如今大算力、大数据平台涌现,感知、预测、决策、规控等领域百花齐放,车已经做的越来越像一个机器人,智能化程度大大提高。

前段时间业内很大的一个热点是“AEB之争”,争议漩涡中心的“AEB”是指自动紧急刹车(Autonomous Emergency Breaking),它并不是一个新鲜的概念,起源最早可以追溯到20世纪50年代。那为什么会在这样一个时间点引发广泛的讨论和关注,我们认为这与行业的发展与消费者认知的转变息息相关,因为AEB等智驾技术已经更普遍地进入我们的生活,消费者也更愿意为提升驾乘安全与体验的产品与服务买单。

与此同时,相关法规不断落地,评价标准也日渐完善。近期,中国汽车技术研究中心发布了中国新车评价规程(C-NCAP)2024版征求意见稿,意见稿在2021版的基础上,对乘员保护版块、VRU保护版块、主动安全版块都进行了优化完善,其中主动安全版块增添了有关AEB误触发项目。我们除了关注车辆在哪些场景能刹停之外,也必须关注它们在哪些场景下不应误刹车,更低的泛化场景AEB误触发率是评价AEB刹停指标的重要前提。

而就在11月,工业和信息化部、公安部、住房和城乡建设部、交通运输部等四部门联合印发通知,部署开展智能网联汽车准入和上路通行试点工作,对未来L3、L4汽车上路所涉及到的责任做出界定,从政策角度制定上层纲要,为自动驾驶的下一步铺平道路。可以预见,在市场需求和政策引导下,人类驾驶员的手脚将逐步可以从驾驶活动中脱离。

从简单封闭走向复杂开放场景,智能驾驶需要破解感知难题

业内预测,到2024、2025年智能驾驶渗透率将有一个很大的增长。智能驾驶功能场景会从简单封闭走向复杂开放。那么,应对真实环境中高频出现的诸多复杂场景,就要求感知系统更精准、更全面,既要关注误报,也要关注漏检,要从部分类型目标/场景的检测延伸到全类型目标/场景的理解。车辆不断“修炼升级”,从原有的减负作用进化为能够帮助人类驾驶员提前预防和提高通行效率,车企也需从之前的“军备竞赛”切换到“降本增效”,从而真正积蓄好规模化落地的能力。

微信图片_20231225160412.jpg

从用户的角度来说,获得的智驾性能体验应该是跟用车成本成正比的,但现实情况往往是,多付出的成本无法带来相应的体验提升,智驾功能在很多场景下受限。怎样给用户体验带来超预期的改善,这是车企以及供应商共同面对的挑战。我们需要更合理的硬件、算力、算法、部署,需要有更强的工程化能力,将各个方面打通来做好平衡与优化,让自动驾驶既面向宏大的未来,也能在当下落地,带来实际的消费体验提升。

在解答这道行业综合大题时,最基础的一个步骤一定是先做好感知。如上所述,智驾的场景逐渐走向复杂开放,那具体来看,智能汽车要建立什么样的感知能力?

微信图片_20231225160424.png

现实驾驶场景的特点就是:永远有各种出乎意料的情况。无论是特色的道路场景还是非常规的交通参与者,如果感知系统无法识别,那就会对决策和控制造成影响。

微信图片_20231225160429.jpg

如上图所示,如果我们把这两张图直接丢给现有的一些AI系统,它很可能无法分辨这到底是矗立在地面上的物体还是平面的艺术作品。

在交通新闻中,因为感知缺陷而发生的一些触目惊心的事故包括:“鬼探头”事故、极限加塞事故以及自动驾驶撞上侧翻车辆事故等。

另一方面,我们也会在媒体评测的一些视频中发现,在城区智驾体验中,车辆已经能够识别到前方的目标和车道线而可以自己去开了,但是对地面的坑洼情况却感知不到,也就是说缺少了整车坐标系中Z轴方向的感知和控制。

面对这些问题和挑战,我们需要解决:3D感知的准确和完备性;地图更新的鲜度和准确性;预测决策的合理性和执行闭环响应延迟;端到端神经网络的黑盒问题/可解释性;动态博弈的道德伦理和责任归属。所以说,在城市NOA的复杂场景下,我们始终坚信并极力推荐的感知方案就是立体视觉。

微信图片_20231225160433.jpg

元橡智驾品牌-MetoAuto Pilot

元橡科技基于车载双目领域多年的研发和量产经验,打造MetoAuto Pilot 智驾方案。方案以双目为核心配置,Plus/Pro/Max版本可搭配不同传感器,通过灵活部署满足不同客户需求,面向汽车行业行泊一体进阶趋势,提高感知与智驾的“眼脑协同”能力,实现主动安全、舒适辅助和效率智能,并提供一般障碍物GOD检测与应对、限高/限宽预警、车辆近距离Cut-in应对、魔毯底盘、主动避障、P2P通行泊车等双目视觉特色功能。

微信图片_20231225160440.jpg

双目高精稠密3D点云,XYZ三向融合体验提升

双目立体视觉是一项非常简洁的原理,即通过三角测量来测距,但是它的难点在于怎样获得非常高精度的视差。车辆快速行驶过程中,要去推断百米开外的一个目标的距离,那就要得到亚像素级别的视差。元橡一直坚持在走立体视觉路线,也已经把立体视觉精度做到了一个非常好的水准。元橡车载双目相机在100米距离处测量精度高于95%,在150米距离处测量误差小于7%,这个数字可能相比于激光雷达是偏大的,但是从性价比和整体执行层面来说是合适的。

有了高精稠密的3D点云信息,我们就可以在此基础上去做应用开发,比如:

增强型LCC——单前视相机的极限Cut-in场景,双目方案能在车身完整出现前就可以更早检测出加塞车辆,能精准判断对方车辆姿态、距离从而更好判断对方意图,使LCC控制更安全、更舒适。

增强型主动安全——暗夜逆光儿童“鬼探头”等场景下,立体视觉可以在目标仅露出一点点,汽车“大脑”还无法脑补识别的时候,帮助快速感知和响应;侧翻异形车识别场景下,立体视觉也有非常好的轮廓捕获能力。

微信截图_20231225160507.png

双目高精稠密3D点云

之前,Tesla推出Occupancy的技术路线引起了很大关注,其实它达到的效果就是类似的,从立体视觉来讲,我们很早就能看到这样的点云信息,精度可达厘米级乃至毫米级,实现极佳的空间分辨能力。

概括地说,我们就是把立体视觉和AI像人的大脑和眼睛一样结合,安装到车上,去辅助整个驾驶过程。

微信截图_20231225160522.png

L2+实车测试

在我们进行的MetoAuto Pilot – Plus(Stereo-based) L2+实车测试中(算力平台小于3TOPS @ INT8),测试车可以在城区的不同道路、白天夜晚的不同交通场景下,做出很好的反应。

微信截图_20231225160536.png

高速NOA匝道精准4D重建

在高速NOA上下匝道场景以及城区NOA的乡村路等场景中,不依赖高精地图和激光雷达,立体视觉也可以通过精准4D重建帮助车辆理解环境信息,即使没有车道线和规则化道路,也能让车看得更清,开的更好。

微信截图_20231225160548.png

城区NOA乡村路精准4D重建

而这两年元橡一直在做的魔毯项目,就是在XYZ三向融合方面提升智驾水平和驾乘体验。通过复用双目模组,获取高精度3D点云,准确提取车辆前方40m道路类型和15m高程目标,将路面类型、高程目标高度/波长/纵向距离发送给主动悬架系统,实时调节CDC阻尼和悬架高度,抵消车辆的垂向冲击。目前,搭载元橡魔毯产品的部分量产车型已经上市,在激烈的乘用车市场竞争中,能够高性价比地增强车辆性能、显著提升用户体验的产品,才能为赢得竞争终局增加筹码。

从底层芯片到全栈方案,向更广阔的未来不断探索

元橡科技成立以来,很重要的一个里程碑就是自研Meto Simor芯片,它是国内首颗双目车规级芯片,能够使产品实现高性能、低功耗、低延迟。车载行业之外,机器人也是我们触达更广泛的用户群体的一个重要探索方向。未来,汽车和机器人一定会越来越像,越来越通用,所以我们其实也是用一套技术方案同时去支撑两大业务市场,可以起到四两拨千斤的效果。元橡依靠底层芯片技术,打造高性能模组/相机以及AI+D智能软件架构,提供算法+芯片+模组+相机系统+软件的全栈解决方案。

自动驾驶的进程日益加深,人类驾驶员的作用正在从汽车的“控制者”逐渐向智驾系统的“托底者”转换,机器人也正以更智慧灵巧的形态走进我们的生活。在行业面临“拐点”的关键时刻,我们既要有看向未来的理想主义,也要有毫厘必争的实用主义,朝乾夕惕,深耕不息,当所有人的目光看向同一个方向,高阶智驾的规模化量产落地终将到来,人与智能共融共生的图景也终将呈现。