智驾网 | 2026-02-09 12:07 作者:老贾 0

对话朱西产:L3落地的时机与障碍

L3 朱西产 智驾访谈录
在2025年,全民智驾、智驾平权正进入大众语境,智驾事故也牵动着大众和监管层敏感的神经,智驾网深度对话朱西产教授,在专业与大众语境下,探讨智能驾驶在我国发展的困境与出路,以及L3落地的时机与障碍。

L3是个什么东西呢?有条件的自动驾驶,这个条件在什么地方?不能睡觉!


L3不能放水,L3继续加严100分!99分都不行!


如果正常的说,自动驾驶的标准应该在2027年之后,但是在某些企业的推动下,明年(2026年)就出来也有可能吧!


大模型有推理能力能生成内容,但它会产生幻觉。什么样的幻觉?它生成的内容不一定是事实。

——同济大学教授
中国汽研信息智能事业部首席专家
朱西产



对话朱西产教授L3落地的时机与障碍

出      品:智驾网
主  持 人:贾红兵
对话嘉宾:朱西产


朱西产教授是我国辅助驾驶领域的权威专家,他不仅参与了多项辅助驾驶标准的制定,也通过公开演讲公开自己的研发成果,影响了我国智能网联汽车的发展。他的演讲以大胆、直率著称,评论行业现象常常一针见血,但这也让他经常陷入争议风波。


2025年6月,朱西产教授从同济大学退休,同时又增加了一个新身份:中国汽研信息智能事业部首席专家,主要负责信息智能安全技术领域的工作。


在2025年,全民智驾、智驾平权正进入大众语境,智驾事故也牵动着大众和监管层敏感的神经,智驾网深度对话朱西产教授,在专业与大众语境下,探讨智能驾驶在我国发展的困境与出路,以及L3落地的时机与障碍。


注:本次对话录制于2025年夏,视频中所说「今年」皆为「2025年」,以此类推。

01.

中国L3无法标准

智驾网:现在有种说法,说L3是分段落实,比如说先从自动泊车开始?


朱西产:L3、L4都有ODD的限制,现在率先有可能实现L3的是在高速公路上:在高速公路上能够睡觉的车是L4,不能睡觉的车是L3。


但是L3和L4的DDT不一样,所以能不能睡觉是一个区分标准:L4是可以脱脑的,L3不许脱脑,可以分神但不能脱脑,保证它到时候一叫你,十秒钟内能把这个车接过来就行。


智驾网:这个10秒钟是一个什么标准?


朱西产:10秒钟是欧洲定的标准。在2017年、2018年的时候,欧洲在争吵这件事:对L3发出接管指令是要提前10秒还是提前15秒?但是经过争论以后,最后在2020年发布了UN ECE R157(明确为10秒钟)。


智驾网:这是全球第一个L3的标准吧?


朱西产:是。


智驾网:10秒,它有什么依据没有?


朱西产:做驾驶模拟器的测试啊,也是一个通过测试得出的结论。


智驾网:那中国接受这一标准吗?


朱西产:估计会接受。


智驾网:但到现在为止我国L3标准还没出来?


朱西产:对!L3标准还没出来。我觉得智驾产生的背景是NOA,NOA是介于L2和L3之间,所以组合驾驶辅助系统这个L2现在在产品里边有两大类:


一类是入门级的,没有导航支持,也没有人工智能。


「智驾」这个词是伴随着NOA的落地而产生的,所以今天我们要再定义一下什么叫智驾,智驾更多指的是L2+,它为什么不敢叫L3?L3是自动驾驶,要政府法规认证,工信部都没给你做标准,没做准入,你怎么敢擅自说我这个是L3呢?


那么NOA这一类L2是怎么来的呢,它其实是照着自动驾驶做的,有域控制器,以视觉为主,有些高配置加了激光雷达。


智驾网:自动驾驶L3也好,L4也好,L5也好,到现在有标准吗?


朱西产:欧洲有一个L3的标准,L4、L5是全球都没标准。中国现在L3也没标准,L4也没标准,L5也没标准。


智驾网:L2是不是也没有严格的标准?


朱西产:L2有两个推(荐)标(准),推荐性国家标准,没有强(制)标(准),这就是现在的产品状态。


对L2为什么要上强标,这个事要掰扯掰扯。


ACC没有强标吧?


AEB到现在为止中国没有强标,欧洲有了,刚发了一个标准。(2025年)5月份那个标准的起草开始了,欧洲ECE R152今年(2025年 —编注)强制的,所以欧洲现在AEB已经有强标了,中国到现在AEB也没强标。


L1:ACC 有推(荐)标准、没强制标准;


L2有推(荐)标准、没强制标准;


L3、L4、L5因为跟安全密切相关,现在为止应该起标准才能做,认证还没做出来,所以标准的情况就是这个状态。


所以智驾,我们要把它收一下。


NOA上来以后,有一个问题,它的驾驶能力是不是变强了?非常强了嘛!在高速公路上,头部企业的他们叫MPI,就是一次接管的平均里程,头部企业甚至可以干到400公里。


那意味着,在高速公路上可以持续开四五个小时不需要人介入。厉害吧?好了!这时候风险恰恰来了:为什么它不是自动驾驶?它的感知还不完备,而驾驶员会从他的体验上,很快就相信它,甚至慢慢依赖它,然后他以为这辆车能自动驾驶了,然后他会脱离,因为L2到现在为止是没有强标的,这时候要出问题了,这样的事故已经出现了。


这些事故的出现,让欧洲和中国都认为有必要做一个辅助驾驶系统的强(制)标准,那么欧盟叫UN R171。


中国现在定名叫做组合驾驶辅助系统:DCAS——Driver Control Assessment System。


智驾网:今年(2025年)相关部门来整治智驾宣传是因为L2边界的模糊性导致的?


朱西产:L2的边界一点都不模糊,你觉得驾驶员不能脱离这就是L2,脱手也不行、脱眼也不行。哪里模糊了?!


智驾网:表述上是这样,但是主机厂在宣传上它其实不是这样,按照一些智驾能力强的话,应该是如果说现在有个标准,比如说可以出现L3,那么L3就可以来开。


朱西产:L3标准绝不存在60分、80分、90分的问题,必须100分,再强调一下,99分都不行!


因为L3人可以脱手了、人可以脱眼了、人可以玩手机了呀!


那你在玩手机,邦!那撞了咋办?赔偿吗?注意人命能赔吗?所以也有一帮人说「哎呀智驾险可以」,智驾险能赔钱,能赔命吗?所以L3不能放水!L3继续加严:100分!99分都不行!


智驾网:L3必须100分?那今年(2025年)有可能落地吗?


朱西产:这两年之内我觉得够呛,今年L3落地的可能性已经微乎其微了。


智驾网:微乎其微?


朱西产:也不知道!也不好说啊!一个要看车企验证的能力,第二个要看政府主管部门对安全的把控,对安全要求的容忍度。因为四个车轮转起来一定会有事故的,那么这个残余风险到底控制在哪?


02.

L3落地短期内不乐观

智驾网:如果L3要100分,那会不会限制限制这个行业的发展?


朱西产:因为这个L3是ODD的嘛!在这个ODD的范围之内,比如说车企它有90%的风险,它能控制住那10%的风险,驾驶员已经脱离了,对!他玩手机去了,你认为可以吗?


智驾网:其实像有几种退出机制嘛?比如说像刚才说的10秒钟是吧,还有一种就是救济,是现在的智驾险?


朱西产:问题是这样。现在的智能驾驶车感知是不完备的,它无法认出、无法识别环境中的所有风险,那它都没认到,没有识别到这个风险,它怎么提前10秒钟叫你接管呢?


智驾网:不知道这个L3的标准是不是在制定过程中?


朱西产:在制定中。


智驾网:它是不是提出了一些标准要求,比如说这个感知冗余、算力冗余,包括这种操控冗余?这些东西是不是在标准的范围之中?


朱西产:肯定啊。


智驾网:如果这个范围满足了这个车的能力,如果经过了这种检验,是不是就可以给它放行?


朱西产:好,怎么检验?


智驾网:它能够识别到交通环境中的所有风险,这应该由国家标准来制定,来设定这个标准。


朱西产:做不出来。技术上为什么做不到、为什么很难?现在用的是深度学习模型吧?


智驾网:对。


朱西产:现在到处说的端到端,一段式端到端也好,两段式端到端也好。这个都是小模型,是深度学习模型,深度学习模型怎么做出来的呢?数据采集、标注。


他对目标物的识别需要有一个Label(标签),然后采集出来,把里边的所有东西都打上标签开始训练,通过训练以后,这个摄像头收集的数据就可以知道它是什么。


深度学习模型存在一个Corner case(边缘场景),什么叫Corner case?你搜不到的、平常很少见到的。我们可以把它理解成黑天鹅问题,天鹅是个标签,我想训练这个摄像头能够认出来天鹅,就要推入大量的天鹅照片,而自然界中拍到的天鹅大部分是白天鹅,这时候黑天鹅就是个Corner case,黑天鹅有没有?有。


但在自然界中有没有?非常稀少。


所以天鹅这个label(标签)下,你训练的图片都是白天鹅,黑天鹅它就不认识,这就是边缘场景。


Then(于是)一共有三种办法:


第一个是特斯拉说的大力出奇迹,几亿公里的转,FSD 12.4版本已经到20亿英里了,他认为已经全覆盖了,你认为全覆盖了吗?还有东西很有可能识别不出来吧?所以深度学习模型存在边缘场景难题。


第二个恶劣天气,这是它的安全长尾难题,使得我们现在达不到自动驾驶,而压在了辅助驾驶。


OCC占用网络,就是我不知道那边那个东西是啥,但我知道在我前进的路上、车道上有一个东西占有了,它就脱离这个标签了吧?有标签有标签的问题,是不是带出来了边缘场景问题?好了,所以他们在训练时都有了白名单,这个白名单能够覆盖所有吗?白名单里边的东西,你能够拍摄到足够的图片去训练它吗?


图片


黑天鹅有没有?有。


自然界中拍来的图片里边,黑天鹅极其稀少甚至拍不到,即便偶尔拍到一两个,在训练的时候因为数据太少,也被忽视了,所以认不出来。这是现在深度学习模型的一个安全长尾难题,随着你数据的积累,这个边缘是不是越来越少?但总会有吧?无法消灭。


特斯拉干到20亿英里依然存在,他也不敢说是自动驾驶。30亿公里啊!够你玩几年了吧?所以这是一个难题。


OCC可以脱离白名单,但是带来的问题是什么呢?误刹车。


出现有蚊子那个幻影怎么办?所以为什么有激光雷达的车就好很多。


你要把这6个摄像头、7个摄像头、11个摄像头的所有像素放到一个BEV空间里、三维空间里,它有时候会出现虚影、幻影。


激光雷达有个好处,做出来的这个BEV正确率高。所以有现在的BEV以后,其实做OCC就容易了:有一团像素团,这个像素团构成的东西是什么我不知道,但我知道它挡在我的路径上,但是万一是虚影怎么办?激光雷达是一个办法,这个虚影是不会有点的,实影肯定有个激光雷达点,所以激光雷达这时候有用了,OCC是可以解决边缘场景的。


那么没有激光雷达,纯视觉就怕产生虚影,到时候产生误刹车怎么办?AEB误刹车绝对是缺陷,开着开着前面啥都没有,这辆车咔嚓一个急刹车,后边的车嘣当就追上来,怕不怕?


为什么不敢发刹车指令,我要控制AEB误刹车,AEB误刹车我们现在的指标,最少50万公里要小于一次。


有些车企宣布到200万公里小于一次,所以AEB误刹车有没有?有。


所以我们现在在做这个工作,做这个控制策略的时候,误刹车、漏刹车,一个跷跷板,我们首先要控制误刹车,但是控制住误刹车,漏刹车就会多,不是你想象出现个影儿我就刹车。


误刹车咋办?我不刹车撞前边,我误刹车被后边撞,这个难度很大,所以OCC加个激光雷达脱离白名单,可靠性高多了。


因为对激光雷达来说,不会产生虚影;所以纯视觉的OCC,为了控制住AEB误刹车,我一般不太敢用,所以这是现在第二个问题,就是要加激光雷达的原因。


智驾网:那现在有双目视觉嘛,它可以探测距离。


朱西产:对。所以呢,就是BEV的前提下,现在一种是用激光雷达来加强。


一个就是你说的用双目,卓驭是双目,零跑也是双目,小鹏也是,用双目的车厂没有用激光雷达的车厂多,因为双目是真三维,激光雷达也是真三维。


图片


为了发挥这个OCC的作用,我们需要有一个真三维的传感器,你可以决定用双目,便宜点;也可以用激光雷达。


但是双目不如激光雷达,双目要靠景深,景深取决于这个双目的距离,这两个距离能到多少?20厘米顶死了。这双目在机器人上用的多,20厘米的双目景深四十几米,对机器人视觉够了,对汽车视觉够吗?不够。


200多米啊!现在的激光雷达大概能看到150米,所以为什么我说那三个是极限工况,远处小目标的识别非常困难。


激光雷达又分64线、128线、192线、300线,192线现在来看性价比不错,300线就太贵了;然后有150纳米功率、905纳米功率,150纳米功率可以干大一点,因为它不伤眼睛(功率不能放太大,否则伤眼睛),经过改造以后,有些企业现在用905纳米的,现在好的激光雷达192线可以干到200米,那识别小目标是不是就厉害了?那好了!300线激光雷达7,000多块钱,192线现在可能三、四千块钱,128线可能在两、三千块钱。


但是你以为3,000块钱,10万的车就用得起吗?30万以上的车用得起吧?


现在这个深度学习模型,我刚才说了它为什么很难达到L3,加一只能够识别到200米的激光雷达有可能。


然后这个边缘场景,第二大类解决方案或者说第三个解决方案,就是第一个解决方案转数据不是有点够呛?加激光雷达效果挺好!


第三个就是视觉语言大模型,大模型有推理能力,ChatGpt也好,Deepseek也好,Gpt通过Pre Training形成的知识它有推理能力,有一个词叫Agenitive,它可以产生新内容,所以对一个大模型或者说对人类智能来说,边缘场景不存在,对人类来说黑天鹅问题不存在。


你比如说你用图片教你孩子认识天鹅,图片哪怕都是白天鹅,你把他带到长隆动物园(长隆动物园有黑天鹅),如果小家伙到六七岁,他有足够的Pre Training,他甚至可以说:爸爸,这个天鹅好奇怪,黑天鹅!


你教过他黑天鹅吗?没有!


这就是大模型的厉害之处,它接近我们人类智能了,可以处理过去没见过的事情。


以后是不是就没有边缘场景了?这个空了就没了。


那是不是大模型上来,自动驾驶就来了?


大模型上去能够弥补深度学习模型的边缘场景的长尾难题,好了,真的解决了吗?


大模型进来了是不是所有问题都解决了呢?


DeepSeek刚出来、ChatGPT刚出来一片惊呼,Open AI的市值哒哒哒哒上涨,现在你看ChatGPT干成了啥?不还在辅助级吗?


DeepSeek刚出来一声惊呼,然后近期是不是有很多人觉着像DeepSeek出来的东西也不太感性了?


大模型有推理能力能生成内容,但它会产生幻觉。什么样的幻觉?它生成的内容不一定是事实。


所以现在用大模型生成的东西,你还得自己去落实一下,别被他骗了!


它哇哇哇给你生成了一篇东西,里边哪句是真的不知道。


所以大模型进来是解决了边缘场景问题,但是出现了个幻觉,所以它的安全长尾又出现了另外一个类型的安全问题。


那么没有解决方案了吗?现在就是还得继续去深入。


现在DeepSeek用了半年以后,大家发现它生成的内容,正确率大概只有百分之九十几,还有百分之5到百分之十的东西有可能存在错误。


所以这就涉及到一个问题:安全长尾。


用到现在为止好像一直存在,相对来说用激光雷达的这个深度学习模型加上OCC辅助以后似乎好一点。


智驾网:但距离L3落地你觉得还是很远?


朱西产:所以现在三条路径:纯视觉,特斯拉正在从20亿英里向60亿英里走,


他是坚持用纯视觉,但是用大量的数据去训练。你不是说20亿英里不够吗?好,我到60亿英里。60亿英里就将近100亿公里了,我给你转100亿公里的数据来训练这个模型,这是一种方案。


第二种就是以华为为主,加激光雷达。它现在的高端配置已经干了四个激光雷达进去。


微信图片_20251121223547_2963_466.jpg


前上的那个192线,后边、左边、右边各有一个全固态雷达,前边一个混合固态雷达。所以它想奔L3的车是4颗激光雷达,所以这是一个方案。


第三个以理想为主的就提出来VLA加一个大模型。 


三条技术路线都在尝试,那么能不能达到L3取决于测试评价,你通过什么样的测试证明这三个技术路线能够达到,它的安全能力能达到L3。


智驾网:有没有一个老百姓能理解的标准,比如说就是100万个人类司机来开这个车,每年都会发生事故,如果这个数据在这个(智驾)配置上车之后,导致了我们每年的司机死亡率的下降,那么是不是意味着这个技术就是有价值的?


朱西产:这就是测是一方面,评是一方面。现在国际上对自动驾驶汽车的认证,安全目标的确已经调整成证明比一个谨慎的、熟练的驾驶员更安全,所以怎么证明这辆自动驾驶汽车比人类驾驶更安全,如果用每百公里发生多少次事故这样比,现在的NOA就已经比人类驾驶员安全了。


因为人类驾驶员发生的事故大部分是分心、疲劳,自动驾驶系统、智能驾驶系统不会疲劳、不会分心。


所以如果说从交通事故统计来说,头部企业的NOA已经比人类驾驶员更安全。


但这样行不行?不行!


所以ECE R157,就是欧盟的ECE法规,这部L3的法规,要求这辆车的安全性超过一个谨慎的、熟练的驾驶员,这就是现在新的安全目标。


怎么证明呢?ECR 157做了一个标准的驾驶员模型,通过驾驶的统计做出来人类驾驶员响应反应能力的一个标准值。


国内这个工作谁在做呢?预期功能安全工作组,我也参与了这个工作——这个中国标准的驾驶员模型,已经有了一个雏形,正在走国标的申请,所以怎么证明比人类驾驶员更安全?一种办法就是做一个标准的驾驶员模型,但这个办法能处理预期功能安全。

里边的第二类叫已知的不安全场景,那么前边我们谈的更多的边缘场景:幻觉,用这个办法处理不了。


第三类未知的不安全场景更麻烦,前边我们谈的更多的就是深度学习模型的Corner边缘场景,OCC虚影大模型的幻觉,这个都是会在第三类:未知的不安全场景。


所以第二类,我们用一个标准的驾驶员模型就可以解决。


第三类更难,留下了大量的残余,所以现在需要新的测试方法。


那么用一辆实车去测,测试效率太低,仿真自信度不够,所以叫三支柱测试方法,就是实车道路测试、实车试车场测试和仿真,三个仿真测试效率很高,可以全覆盖是吧?但是它执行度不高,实车道路实验自信度最高,它肯定是真实的,但是测试效率太低。在中间加个试车场,这三个办法联合起来能不能做出来一套测试方法?


这是自动驾驶的车的认可、认证还需要这样一些新的技术去支持,这些方法都需要一个新的工具链:2021年我们拿了一个国家重点科技计划项目,去年(2024年)的12月刚刚验收完,那个就是自动驾驶的仿真测试工具链。


那个项目我们做了三年,2021年的项目,2024年结题。


所以仿真测试现在有工具链,原来没仿真肯定不行,现在有了仿真行不行?也不行。那个仿真的自信度还需要试车场去对它进行验证,然后试车场的试验还得用实车的测试数据去验证,所以三支柱一个自信度高、效率低;一个效率高、自信度低;然后试车场是一个效率和自信度的一个平衡点。


通过这三种方法的有限、有机的结合能不能做出来一套既高效又可靠,自信度高、测试效率高的一个测试方法来证明第二类、第三类就是已知的不安全场景、未知的不安全场景,它是否达到了我们设定的要求?


智驾网:日期可控吗?


朱西产:不可控。


所以贾老师问今年(2025年——编注)L3能不能落地,我真的没法推测。因为我参与工作也只有其中的一部分,所以自动驾驶现在这一块就是仿真工具验收了,场景库今年立项了,试车场测试今年立项了。


那么这些项目应该是三年的项目2025、2026、2027,所以如果说等这些项目完成才能够做出国标的话?那就得到2027年,当然也许不依靠这些,在这个项目的进行过程中就做出来了自动驾驶的认证标准,也有可能。


如果等到这些国家重点研发计划的科研成果出来,才能够找到一套自动驾驶的科学的认证方法,那就得2027年以后了。


因为这些项目今年立的这几个国家重点研发计划的项目都是围绕着自动驾驶认证的,要到2027年才能完成。


有的企业比较着急嘛!那么它能不能推动在这些国家重点研发计划都还没有完成的情况下做出来自动驾驶的认证标准?


我不确定,也不乐观。


智驾网:如果从世界范围来看中国的进展和欧洲或美国的进展对比是一个什么水平?


朱西产:欧洲就是UN ECE R157出了L3的标准,ECE R171出了,DCAS相当于我们的NOA标准。就是L2的标准有了,L3的标准有了,这是欧洲。美国现在就不管,放开的。


智驾网:你像特斯拉用那个Model Y来运营Robotaxi,这其实是L4了。


朱西产:已经是L5,准确来说马斯克的想法是从L2直接跳到L5,没有L3,因为它无图,他也不做L3,他也不做L4,他就是从L2干到L5。


图片


智驾网:那您觉得美国这种做法可取吗?


朱西产:创新性肯定强,风险肯定高,所以你要创新还是要安全也是个两难选择。


智驾网:从您接触的这些不同厂家的产品或者看到的这个测试标准来看,中国有接近L3这个能力的车吗?


朱西产:没有,一款也没有。


智驾网:2022年,就是中国牵头制定的一个国标啊,就是《道路车辆自动驾驶系统测试场景评价与测试用例生成》今年发布了好像是?


朱西产:那个是中国制定的一个ISO标准,ISO标准不是强制性的,它是一个团体标准,你可以看到ISO它的尾缀是org。


智驾网:这个标准有什么意义吗?


朱西产:这个有意义,规范大家的方法啊。


智驾网:但是有没有强制性的法律意义?


朱西产:没有。大家可以参考它,但是它没有法律效应。国标GB是国家强制性标准,那个是有法律意义的。


智驾网:这个国标大概什么时候会出来呢?


朱西产:组合驾驶辅助系统的,大概率明年(2026年)吧。但是组合辅助其实就是自动驾驶去年立项,问题是到现在好像初稿都还没出来(截止2025年7月31日)。


智驾网:也就是说,按照预期是明年会出L2级别的一个国标,但是L3是去年立项的,今年(2025年)会不会出来?


朱西产:我觉得够呛,因为到现在初稿还没见着呢。明年会不会出来?大概率会,但是我觉得也不乐观。


就是刚才我说它的两个基础的科研项目到2027年才能完成,一般来说呢,科研项目完成才为自动驾驶认证给了一个基本条件。


所以如果正常的说自动驾驶的标准应该在2027年之后,但是在某些企业的推动下,明年就出来也有可能吧。


智驾网:有可能?


朱西产:因为有些企业能量比较大嘛。

03.

纯视觉与激光雷达的路线之争


智驾网:您说激光雷达是必不可少的,但是特斯拉坚持纯视觉,您觉得纯视觉和激光雷达哪个更好?


朱西产:我个人肯定偏向于多传感器融合,就是视觉AI能够提升AI能力;激光雷达能够提升系统里边准则模型的能力;毫米波雷达、4D毫米波雷达能提升恶劣天气的识别能力,所以自动驾驶不许放水的情况下我觉得一定是多传感器融合,就是摄像头、激光雷达、毫米波雷达可能一个都不能少。


智驾网:但是在您经历的一些测试中,您却发现其实特斯拉的FSD在很多方面强于目前的雷视融合。


朱西产:特斯拉FSD的感知系统是纯视觉,8个摄像头,3.0硬件和4.0硬件有很大的差别,3.0硬件是8个200万像素的摄像头应对恶劣天气不行,但是去年上的这个HW 4.0换成了索尼的500万像素的摄像头,这个摄像头是一个高动态的,能力很强,夜里没问题;雨天,中雨以下也没问题,但是摄像头呢甭管你是否动态,动态范围多宽,雾天是绝对不行。


那么纯粹靠摄像头,我们说雨雪雾霾光,恶劣天气,特斯拉4.0硬件这5个条件基本上都不行,但它5.0的硬件照明没问题了,它动态范围非常宽,中雨以下也没问题,雪天也没问题,雾和霾应该有问题。


那么毫米波雷达对这5个要素都不惧,激光雷达不用可见光,所以光没问题。


其实大雨、暴雨,激光雷达也搞不定,雾霾,激光雷达没问题,(遇到)这个雪片子,激光雷达还不如摄像头,所以就这个状态。


所以抗环境能力最强的就是毫米波雷达,但传统毫米波雷达不行,它没有高度,现在4D用相控的4D MEMO就是多天线,多发多收,现在4D毫米波雷达跟传统的毫米波雷达,比你把那个塑料外壳打开的话呢,它的天线是不一样的:传统毫米波雷达是这样一条一条的,你比如说3发4收,那就这边有3根发射天线,这边有4根接收天线;然后4D毫米波雷达,你如果打开看,它是个方块,那个金属片是这样一块一块,然后发收。


图片


那么这个方向有多发多收,这个方向也有多发多收,所以它不仅有这个方向的角度分辨率,也有这个方向的角度分辨率,它有高度了,所以4D毫米波雷达还是值得期待的。


智驾网:就是说您觉得以后不仅要上激光雷达,也得上4D毫米波雷达?


朱西产:各有各的用处,所以说一定是组合的,那么AI肯定是摄像头的信息,它的信息量是最大的,激光雷达主要作用测距很准,那么看你要不要准则模型?如果不要准则模型,像特斯拉似的,完全的一段式的端到端,那不需要激光雷达,但是我们像华为那个是两段式的端到端,就是第一段是感知,第二段是决策,就是运动规划,那么它在两段之间的话既用Transformer,连一个端到端也把白名单拿出来,然后在第二段也可以加入准则模型,那么准则模型加进去的话呢?激光雷达能够提供准确的距离;第二个激光雷达的点云可以保证这个BEV的准确性,所以激光雷达在这个方面是有用的,所以准则模型加进去的话是非常有用的。


然后毫米波雷达是真正抗环境能力、抗恶劣天气最好的传感器,就是毫米波雷达。


但是现在其实很多人想做雷视融合,他的技术能力还不如做纯视觉来的更直接,毫米波雷达现在主要放在AEB上用,就是AEB算法里边会放毫米波雷达,然后AI里边放不放进去,有的放,有的不放,里边可能没放毫米波雷达信号,这是我猜测。


但是AEB算法里边用毫米波雷达的很普遍,因为最早的AEB、最早的ADAS就是毫米波雷达为主的。


毫米波雷达在车上的使用可以一直追溯到1959年,所以AEB算法里边普遍用激光,普遍用横波雷达,那个经验太丰富了。


04.

智驾事故无法免责刑事责任

智驾网:几天前,比亚迪在L3没有落地的时候宣称推出接近L4的自动泊车,并为此产生的事故承担责任,这个有法律效力吗?因为L3没有标准,L4也没有标准,这个怎么来认定呢?


朱西产:这个泊车如果是车上无人的,那的确是L4,好了,兜底,兜什么底?事故的赔偿:经济赔偿、经济损失能到底,刑事责任能不能兜?比亚迪如果敢放这个功能,那我觉着它至少觉着它能够控制到不发生死亡事故,我们要去看道路交通安全法:主责以上致人死亡要承担刑事责任。


我为什么要一个字一个字说?这是法律条文:无责、次责(次要责任)发生事故没问题,我赔钱!哪怕撞死人我是次要责任,我赔钱就行。


图片


主责或者全责,也就主责或全责导致人死亡要承担刑事责任,刑责作为一个法人怎么承担刑责?你把法人代表抓了吗?不现实吧!


智驾网:L3是不是也面临这个问题,刑责的问题?


朱西产:都有这问题,所以第一个是政府让不让,主管部门让不让?第二个UN ECE R157通过了157的认证以后,欧洲可以有L3的车了吧?为什么车企还是不卖L3的车呢?


因为ECE R157过了法规认证以后容许车企销售,但是并没有解除车企的产品责任。


你敢卖吗?他万一整一个主责以上的死亡,导致死亡的交通事故怎么办?作为一个企业,一个法人机构怎么承担刑责?所以L3、L4都有这问题。


那么中国的L3标准第一是出不来,第二出来的时候会不会解除企业的产品责任?如果不解除企业的产品责任,企业敢不敢做?这都是未知吧!


智驾网:那么中国的自动驾驶标准出来,认证出来以后会不会解除车企的产品责任?


朱西产:我不知道。大概率也不会!在一定程度上要豁免也得人大去做,而不是由工信部的标准去做。


工信部的标准制定的是产品标准,它不能去覆盖道交法,是否豁免产品的刑事责任,要豁免也是人大立法委豁免,所以自动驾驶的路很长。


智驾网:如果说自动驾驶真的实现了,我们在立法等各个层面实现了,都要动起来,那是不是我们整个社会的形态会发生一个?


朱西产:那当然、那当然!


智驾网:您能设想一下?


朱西产:马斯克不已经早就把故事给你讲完了吗?大家就不要买车了吗?在手机上点一下。


智驾网:你认为那个时候是同步到来的?


朱西产:我觉得难。因为整个社会的很多东西都要改,就是连道路交通安全法都要改。


智驾网:今年发布了很多车型,现在有L3级算力的,有些车企明确说想在今年秋天推出L3级,包括比亚迪说推出L4的泊车,这是不是主机厂对这个诉求很高,但是我们目前无论是标准还是检测上有点滞后呢?


朱西产:对!跟不上。国家重点研发计划正在做这些技术、测试技术,刚才说的我去年验收掉的那个仿真测试工具链,今年新立项的场景库、试车场测试方法,都是为这个事情做的准备。


智驾网:那从您的判断来说,L4是不是比L3可能普及的速度要快一些?


朱西产:都无法预测,因为从运营情况来看的话,另外一对矛盾来了:交通安全和交通效率。


他们(L4)现在是没有发生交通事故,但是他是以什么为代价的呢?降低了交通效率,动不动就刹车、不敢动:我拿两辆电动自行车肯定把他憋死。


图片


通用为什么停掉了Cruise?不是因为Cruise发生事故而是引发了大面积的堵车,然后被人骂,停掉了。


智驾网:您个人对自动驾驶或者无人驾驶的未来乐观吗?


朱西产:目前来看大方向没错,技术路线随着人工智能的进展的话也有可能,但是我个人觉得3-5年内,3-5年才敢想Robotaxi,并且现在的L3可能还是高速,城市L3都不敢想象。


智驾网:原来有种说法比如先从泊车,然后高速?


朱西产:城市泊车有可能提前,因为泊车最大的好处,它安全问题比较小,你控制好速度;第二个呢,泊车的话,你慢一点也问题不大,然后速度低到一定程度它没有安全问题,因为10公里每小时以下撞人,也不会发生太大的事,那么6公里每小时以下撞人肯定没事。撞一下我赔你钱就是了。


智驾网:那这种分阶段落地L3您认可吗?


朱西产:L3、L4肯定是分ODD的啊,这是什么场景?就不会一下子全放开。


智驾网:您对智驾险是怎么看?


朱西产:因为现在智驾险已经成为必然,那么L2发生事故涉及到驾驶员和智驾系统,双方责任的划分,所以NOA,L2的车要买两份保险:一份是由车主买的,意外险、交强险之类的,交强险肯定要买,驾驶员的错误到驾驶员的责任由意外险承担;第二个车企要为它买一份智驾险,NOA系统承担的责任由智驾险来理赔,这个最早推出的是特斯拉,国内今年是不是普遍开始推了!


智驾网:你看国内,其实像问界、广汽也推了,前些日子卓驭也推了,它是一个供应商。


朱西产:是主机厂推还是主机厂的供应商推都一样嘛,智能驾驶的NOA肯定是两个保险,一个是车主买的,司机承担的责任由意外险来承担,来理赔;智驾系统承担的责任由智驾险来理赔。


智驾网:这是不是增加了消费者的负担?


朱西产:没增加,因为用户还是买你自己的意外险,第二份智驾险不用你车主买。


智驾网:这个原则是能确定的吗?


朱西产:这是一个行业通行的办法啊!因为有车企推出了智驾险,有NOA的车型他就不敢不推智驾险。


智驾网:那就是说其实我在开启NOA的过程中,我可以去向车企索赔了——如果发生了事故?


朱西产:对。所以第二个就是那个行车记录仪嘛,就是那个数据记录系统嘛,叫DCAS(组合驾驶辅助的数据记录系统),那么由DCAS把事故过程记录下来然后由司法鉴定中心根据DCAS记录的数据,来判断这起事故里边,该驾驶员承担多少、智驾系统承担多少,然后该驾驶员承担的责任部分由意外险去理赔,由智驾系统承担的部分由智驾险去理赔。


智驾网:那能这么理解吗?在L2这个人机共驾阶段,也并不是所有的责任都由驾驶员来承担?


朱西产:对。


智驾网:那又回到了一个悖论,就是我们传统上宣传的L3,就是发生了事故是由主机厂来承担责任。


朱西产:对。


智驾网:那如果它来承担这个保险的这个理赔那是不是就是它承担了这个智驾的责任?


朱西产:保险只能承担民事责任,那么自动驾驶难题还有一个刑事责任怎么办?现在提的智驾险都是民事赔偿范围,那么驾驶辅助系统不承担刑事责任,理论上说驾驶辅助系统驾驶员是主驾,哪怕是90分的车,驾驶员只做10%的事,你也要承担100%的责任。当然现在车企为了证明它系统非常好它愿意承担一切民事责任,但是只要是叫辅助系统刑事责任车企是绝对不承担的。

05.
中美在智驾领域治理模式的不同


智驾网:换个角度来说,就是我们L3、L4如果晚落地两年和现在落地对这个行业有影响吗?


朱西产:创新和安全是一对矛盾,就是刚才我们说的美国不出强标,技术创新肯定快,但是会死人。


当年各州呼吁NHTSA,你能不能联邦来做一个标准?交通部直接回复各州说现在自动驾驶处于技术创新期,过早出标准会限制技术的发展,所以当时就直接拒绝了。


但是他们发了一个ACE3016,就是我们说的L0、L1、L2、L3、L4、L5的分级,但是没有给自动驾驶做标准,这事发生在2018年。


所以各州提自动驾驶立标准的事被美国联邦政府的交通部否定掉了,不出安全标准,技术创新快,但是它会有安全问题,所以你要安全还是要技术创新?


美国的选择是要创新,中国的选择为了政治正确,一定是要安全,那其实我们这个标准现在也没出来嘛!出不来嘛!你要安全嘛!


智驾网:好!感谢朱教授!


图片
「对话先锋人物,记录人类出行变革。」智驾访谈录是智驾网面向AI与未来出行领域推出的深度访谈栏目,由智驾网创始人、主编贾红兵策划主持。
智驾访谈录ID:DeepAutoR
合作or新闻线索提供联系邮箱:
zhubian@autor.com.cn
联系人微信:buyuziya


智驾注:本文转载来源为智驾网,由AutoR智驾转载。
收藏 0 分享:
相关文章
关于智驾 关于投稿 商务合作