2022年11月8日-10日,由中国汽车工业协会主办的第12届中国汽车论坛在上海嘉定举办。作为党的“二十大”召开后的汽车行业首场盛会,本届论坛以“聚力行稳 蓄势新程”为主题,共设置“1场闭门峰会+1个大会论坛+16个主题论坛”,以汽车产业的高质量发展为主线,与行业精英一起贯彻新精神,研判新形势,共商新举措。其中,在11月9日下午举办的“主题论坛12:跨界融合,赋能自动驾驶落地”上,上汽集团人工智能实验室技术负责人于乾坤发表精彩演讲。以下内容为现场演讲实录:
感谢主持人的介绍,我在演讲之前先介绍一下我们在做的事情。
上汽Robotaxi,Robotaxi是上汽集团在2021年年中面向汽车行业变革特设的四大战略项目之一,智己、飞凡、Robotaxi,以及商用车L4智能驾驶智能重卡。
今天,我给大家分享是其中的Robotaxi项目,L4级智能驾驶乘用车开发的情况。我们要打造的是一款能够提供安心、舒心、放心的能跟乘客进行交互的出行伙伴车队,这是开发的初衷。
一、L4自动驾驶解决方案2.0技术架构
今年所打造的L4自动驾驶解决方案,主要强调一点,随着前两天工信部新的准入政策发布,L3、L4引入国家试点慢慢提上日程。我们提前布局,早已关注到了这一点。所以,在做今年架构设计时提出自动驾驶解决方案是自主研发的、软硬件一体,而且偏重于冗余的一套技术架构。
从传感器配置上来说:
(1)感知冗余。
目前这套Robotaxi的方案包括6个固态激光雷达,大家在安亭、苏州智能网联的示范区内可能会看到很多Robotaxi车辆,基本上面都有一个很大的“炮塔”,我们去年也是这样的,今年把所有机械式的激光雷达给取消掉了,直接一步到位,放置了6个固态的激光雷达。虽然说数量有所提升,但是无论是成本还是稳定性,都相较去年有了很大的提升。
视觉感知方面,一共布置了周视相机5个,前视相机3个,和很多量产不一样的是今年把测试相机从一边2个,降为了1个,加1个后视,一共构成了5路的周视感知融合。还有4路环视,以及5个Radar,和12路超声波雷达。
利用所有传感器相互之间的优势,比如说激光雷达对深度的感知能力比较强,但是视觉对于纹理的感知信息又比较强。充分利用不同传感器的优势,实现覆盖近距离、远距离、中距离的感知,这是今年在感知冗余上所做的工作。
今年还特意在感知之外设置了一层感知“墙”的概念。以前很少有人把超声波雷达也拿过来作为行车时的传感器,今年特意开发了基于环视+超声超近距离的感知方法,能够实现在近距离的情况下,达到厘米级高精度的融合结果,而且处理的通路也是独立的一条通路,跟前视、周视、激光雷达是相互独立的,能够在极限距离下非常安全的通行。
和人类驾驶员相比,在一些比较极限的场景,比如说小区的场景,对距离判断准确度,人测试出来是30、40厘米,而我们的平均值可以达到5、6厘米。能够实现窄距离通行的效果。
(2)计算冗余。
第一级:在计算平台上,今年一共提出四层功能降级策略,今年定制了大算力的计算平台,算力超过了1000tops,采用X86CPU,120GB内存和2TSSD储存,号称“武装到牙齿”的一套智能驾驶计算平台。
第二级:采用了一套基于Xavier的64Tops算力L2++功能降级系统,如果L4系统失效,能够通过L2++的NOP(领航状态)、AEB(自动紧急刹车)的功能实现靠边停车,或者最小风险模式的运行。
第三级:搭建了6核ASIL-D的MCU,作为整套系统的安全岛,对系统状态进行管理,并能实现基本的AEB功能。
第四层:今年特意打造了基于5GV2X的远程驾控系统,是面向未来Robotaxi,走向真无人。现在所有的Robotaxi主驾驶位上都是有安全员的,接下来行业发展的趋势是逐步走向不再需要安全员的无人驾驶。今年基于远程驾控系统进行了一定程度的开发,为将来真正实现全无人自动驾驶出行奠定了技术基础。这是今天所构建的四个层次的计算冗余系统。
(3)远程驾控。
在车上专门布置了一套为远程驾控所设计的图像处理系统,因为远程监控很重要的概念是通信质量的稳定性,因此专门给它做了一套适配的图像压缩系统,并根据当前的通信质量,自主切换到底是哪一路图像传到云端,在云平台采用一套边缘云系统。时间延迟可以控制在300毫秒以内,在比较及时的情况下实现远程接管、远程辅助。除了5G之外,还放置了一套4G系统。
二、软硬件一体算法优化
在算法的设计上,除了传感器之外,也在算法软件设计上遵循冗余基本设计思路。比如说在感知上,采用的是多传感器冗余融合感知,混合了前融合和后融合的机制。
在我们的系统里,除了前融合外,传统后融合的链路仍然保留。在其中一个链条或者几个链条失效的时候,仍然能够保持比较稳定的感知结果。在车上做了很多压力测试,比如把摄像头直接蒙住,把激光雷达直接盖住,甚至在上面喷了水、雾,在这样的情况下仍然能够保持相对稳定的感知结果。
在定位上,多元定位冗余总共提出了三套冗余降级机制:
第一套是基于GPS结合车辆的轮速,获得当前车的位置。但在隧道、闸道、辅路上时,GPS信号比较差,所以在此之外,还开发了一套基于激光雷达的地图匹配定位,以及基于视觉语义的匹配定位,三套定位方式互为弥补,现在定位的精度可以达到厘米的量级。
第二套是规控决策上,一共有四层的冗余,除了底层的远程驾控之外,在L4系统、L2++系统、L1系统做了三套冗余基于功能降级的规控体系,在其中做共同的决定,根据当前传感器、车辆的运行状态,进行最佳决策。
以上是在算法和软件方面所做的工作。
此外,也引入一套数据工厂系统。像周院长所讲,数据真正走入汽车行业是近几年的事情。我们在数据上比较重视,一共搭建了两套闭环体系、一个数据工厂。
闭环一:基于面向感知的感知闭环,所提供的功能包括从车端数据采集,一直到云端处理,包括数据前处理、数据自动标注,最终形成数据库,甚至包括模型训练、模型部署、模型评测,整个过程都能在这套数据工厂里自动转起来。
闭环二:搭建了一套面向规控的闭环,除了感知之外,交通场景的复杂性也是现在做自动驾驶L4所面临的非常棘手的问题。经过数据处理之后,完成场景生成的工作,自动识别出场景。到目前为止,场景库已经形成了上万个不同的交通场景。比如说变道场景大概有上千种case,如果进行一定泛化之后,可以泛化到上万个场景,每次工程师在发了相应的版本之后,都要经过场景库的评测,只有达到相关的标准之后,才会真正释放到车端。
智能驾驶之所以会设置这么多冗余,主要的目标是想提供比较安全的服务。乘客坐在车上,想要的不光是安全,还有方便、有趣、生动,所以我们打通了车端所有的信号,接入所有传感器信号,在后排实现视觉、听觉、触觉等多维度的一套智能交互系统。除了智能座舱之外。在前不久发布的一款新车里,引入了全新的一套全息影像系统,让乘客坐在车上的时候跟它进行互动,这显得非常有趣。第一次乘坐这辆车,大家都觉得蛮惊艳的。
三、由整车厂主导的前装“智”造
我们做Robotaxi和很多公司不太一样,是以上汽集团OEM来主导的项目,跟传统车厂的制造结合比较紧密。现在用的是飞凡的Marvel R。今天很多Robotaxi都是偏后端改制为主,而我们直接在产线上把需求输入给产线工程部门,直接从产线上拉下来。相比去年很多后端改制的车辆状态而言,在产线上以传统汽车的方式方法组织车队生产,让车辆一致性和工艺完整性都达到了更高的层次。
右边这张图展示了车辆的对比状态,去年车辆也是顶着高高的“炮塔”,高度达到了至少2.3米以上,在通过隧道、地下车库的时候都是非常危险的。今年采用了这套架构后,车辆状态从尖尖的,变成相对平一点,整车集中度也会更好。此外,整车散热等其他方面都相比去年有了很大的提升。今年年底12月份就会真正把第二代Robotaxi车在安亭、临港投放运营。欢迎大家前去体验。
此外,还有流程标准化的工作,还有从设计开发、物料生产、下线标定、闭环测试、道路测试的流程,引入了一套基于传统整车厂的质保体系,建立面向智驾的测试和质量检查体系。不仅包括智驾硬件方面的质保,也提出构建智驾软件算法上的质保,并把此跟功能安全结合起来,最大限度充分发挥主机厂优势,真正实现L4无人驾驶。
除了临港和安亭继续加大投放外,今年我们会在深圳增加试点,如果有深圳的朋友可以关注一下,大概在今年12月底将在深圳发布,欢迎深圳的朋友们前去体验。
以上是我的分享,谢谢大家!
(注:本文根据现场速记整理,未经演讲嘉宾审阅)