×
汽车电子 > 汽车系统 > 详情

激光雷达VS视觉算法 究竟哪个是自动驾驶的未来?

发布时间:2021-08-31 发布时间:
|

大家好,我是电动车公社的社长。


最近,小鹏汽车因为两件事火了。


第一件是股价,一天之内暴涨33.92%,让许多人尝到了支持新能源的甜头。何小鹏反应很快,发了一封全员邮件,希望小鹏汽车的小伙伴们放眼长线利益,不要只看短期股价的涨跌。


随后股价果然跌回了暴涨前的价格……



另一件事,就是何小鹏和马斯克互怼了。


事情的起因是一位海外友人看热闹不嫌事儿大,在推特上问马斯克:“如何看待小鹏汽车在自动驾驶领域采用激光雷达,没有采用和特斯拉相同的纯视觉路线?”


不仅如此,还添油加醋地补充了一句,“小鹏汽车是不是意识到他们抄袭特斯拉的方案行不通了。”



推特红人马斯克当然不会放过这个营销的机会,直接指责小鹏汽车抄袭——

“他们只有我们旧版的代码,但没有我们最新的神经网络系统。”



何小鹏也不甘示弱,对此进行强势回应:



两边的粉丝也抄起键盘,吵得不可开交。一方认为马斯克打击异己,是一种霸凌的行为;另一方则认为小鹏汽车有剽窃代码的嫌疑,应该调查。



那么,为什么马斯克会如此反对激光雷达?


小鹏汽车,到底有没有抄袭?


以特斯拉为首的视觉派,和大多数厂商都支持的激光雷达派,谁才是自动驾驶的出路?



01. 激光雷达有多重要?


以前社长就和大家简单聊过,ADAS高级驾驶辅助系统需要感知、判断、操控这三步,才能进行驾驶的操作。就像我们需要双眼去观察、需要大脑去判断、需要四肢去操控才能开车一样。



这里面,负责判断的算法、负责操控的车辆架构都是各花入各眼,厂家们自有办法。但在负责感知的硬件上,却产生了巨大的分歧。


我们知道,感知的方法主要分为估计型的摄像头,以及测量型的雷达。就好比走路用的拐杖和眼睛,一个负责判断周围有没有绊脚石,一个负责判断周围有没有路、有没有人。



对于大多数厂家来说,只用一种感知方式是不够可靠的,事关安全无小事。


因此,大家普遍采用测量型和估计型紧密结合的技术路线,用丰富的硬件最大程度地感知环境,减少发生问题的风险。摄像头、毫米波雷达、超声波雷达、激光雷达多多益善,要是能用上GPS定位、高精度地图甚至是V2X车路协同,那就再好不过了。


总之,走路用的拐杖越多就越放心,反正咱有钞能力。


如果说大家的区别,无非是这家钞能力弱一点,那家钞能力强一点而已。


弱一点的,就比如传统主机厂和造车新势力,用有限的传感器实现部分自动驾驶,实现的是ADAS Cars,辅助驾驶汽车,目前最多能够支持到L3。



强一点的,就比如Waymo、百度Apollo、Super Cruise,用大量传感器实现完全自动驾驶,理论上要实现L4,甚至是L5。


激光雷达,就成了实现自动驾驶必不可少的硬件设备。Waymo甚至“以贩养吸”,成为了激光雷达的供应商,直接对外销售激光雷达。


我们在一线城市的开放试验区见到的自动驾驶测试车,100%都顶着这样的一个“大脑袋”,里面装的就是16/64/128线的激光雷达。



由于激光雷达每秒能发射数百万个激光束并测量返回时间,从而得到周围物体确切的距离和形状。



这海量的感知信息,能够让自动驾驶汽车更精确、更稳定地感知到周围环境,比如能从2σ(97.73%)提升到3σ(99.87%)。


所以一些舍得下本的品牌,就会采用激光雷达来换取安全覆盖率的提升。


不过,“一分钱一分货”这句话,在激光雷达上再一次得到了应验。


已经获得百度、福特、现代、尼康等多家公司投资、也是全球最大的激光雷达公司Velodyne,其16线、32线、128线激光雷达的价格,高达4000、4万、8万美元!


就这4000美元的VLP-16,还是在2018年打了5折之后的价格。



想要用硬件实现L3,怎么也得装一个,就比如率先实现L3的奥迪A8,车头的位置就有激光雷达。要是想实现L4,全车的一套系统怎么也要5万美金以上,奢侈点的甚至会达到10万美金!别说特斯拉了,这笔钱买保时捷Taycan都绰绰有余。



为此,马斯克不惜在公开场合怒怼激光雷达,也包括用了激光雷达的其他自动驾驶公司。


“激光雷达就像人身上长了一堆阑尾,阑尾本身的存在基本是无意义的,如果长了一堆的话,那就太可笑了。任何依赖激光雷达的公司都可能无疾而终。”


这也揭开了特斯拉和其他厂商之间斗争的序幕。



02. 进击的马斯克


马斯克拿出来的解决办法,是作为估计型感知的纯视觉方案。这种三目摄像头的环视解决方案,成本不过300多美金而已,比激光雷达便宜了不知多少倍。


其实想法也很简单:一个健康的人不可能用拐杖走路。人的眼睛能做到,凭什么摄像头的纯视觉就做不到?


如果你说人类能做到是因为有大脑,那就让神经网络系统模拟大脑不就完事儿了!



在纯视觉路线的引导下,特斯拉招募了一大批在常青藤名校做视觉的硕士生或者博士生,这群人也是在全球玩视觉玩得最6的。在最新的测试Demo里,特斯拉甚至已经在部分路段完成了L4级别的自动驾驶,并且能识别出绝大多数的交通参与者。


特斯拉是怎么做到的?其实就是这张图:



简单来说,我们的大脑是怎么学习的,它就是怎么学习的。


它会先通过特斯拉上的摄像头,给周围的交通参与者建立模型,同时把相片数据添加到神经网络的训练集里,让人工告诉它这是什么。


形成一定规模之后,它就会有自己判断的能力,比如这是一台小轿车,那是一台货车,那边是一个骑自行车的行人。


在特斯拉眼中,世界其实是这样的。



我在哪,我周围有没有车道线,周围有没有交通标志,我周围有几个交通参与者,分别离我有多远,他们运动的方向和速度都是什么……等等。


但神经网络终究是个AI,它存在误判的可能。有的是误判了物体类别,有的是误报,还有的是漏报。就比如前面有个龟速“老头乐”,早期的特斯拉不会做出反应,会直直地撞翻过去。



但这时,特斯拉的测试车,以及几十万的特斯拉车主就会介入驾驶过程,要么刹车,要么变道。


人工干预会触发一次快照,就是一段由多个摄像头、毫米波雷达、GPS等多个传感器组合得到的视频剪辑,和相关的后台数据。特斯拉的人员会进行复核,看看特斯拉的做法和人类的做法有什么区别,找出差距,然后让系统自动改进,也就是标注的工作。


在标注中学习,就是特斯拉的“影子模式”。



当然靠人工提供的精确标注帮助机器学习,速度太慢了——招一堆人标注员花掉大量的人员工资,可不是特斯拉的风格。


特斯拉要做的,是让机器自主学习!


既然特斯拉有几十万台车在路上跑,那这些从路上得来的,就都是标注数据。


需要训练防加塞功能?只要预测cut-in(加塞)的运动轨迹,再和真实数据进行比对就好了。需要训练行人碰撞预警?只要预测行人的运动轨迹,再和真实数据进行比对就好了。


而且机器的判断,错得越离谱越好——只有在不断的错误中,机器才能知道什么是正确的,才能在下次做出正确的判断和反应。


在去年的自动驾驶发布会上,马斯克宣称特斯拉是没有建设数据中心的,而是用每一台特斯拉组成了一个巨大的服务器集群。所以特斯拉才需要在HW3.0硬件上堆算力极高的芯片,只有算力够高,才能处理得了这么多的数据,才能进行大量的判断和计算。


通过算法和海量的数据,让特斯拉的驾驶能力高于人类,就是特斯拉真正的王牌。



这也成了马斯克怼何小鹏的信心来源——我们有神经网络系统,能做成纯视觉;你没有,所以你只能去采购高成本的激光雷达。


一言以蔽之:弟弟啊!奔跑吧!追赶吧!


03. 小鹏到底抄没抄袭?


但特斯拉的纯视觉路线,有一个致命的缺点。


因为摄像头是二维而不是三维的,现实却是三维的——这中间,会存在信息失真。


就比如对于这台MPV的识别,同样的感知位置,但纯视觉方案的结论更长、更窄,和物理上的事实有出入。人可以通过经验判断出车大概有多大,但摄像头不行。





而且,人都有可能被自己的眼睛欺骗,更不用说摄像头了。


此前,特斯拉就因为采用了不成熟的纯视觉方案出过不少事情。把大货车识别成一朵云直直撞了上去、在武汉直接撞翻一片中央护栏、识别出广告中一闪而过的STOP标志从而刹车等等不胜枚举,还遭遇了公关危机。


最近还有博士生用投影仪把二维的人体影像投射到路面上,测试用的特斯拉Model X却并没有识别出来是假人,依然进行了主动刹车操作,也证明了这一点。



这种缺陷,只能通过大量的学习和算法的演进,让机器学会和人类一样识别和修正。


所以包括小鹏在内,希望做L4自动驾驶的厂商都没有采用纯视觉的方案,而是用视觉+雷达进行双重感知,用大量的安全冗余来确保车辆和乘员的安全。眼睛没看见障碍物不要紧,再用毫米波雷达甚至是激光雷达去摸一摸,及时刹车或者躲避就好了。



这也是一开始何小鹏有实力回怼马斯克,说要把马斯克打得找不着东的原因。


那小鹏汽车到底抄没抄袭?


我们先来说说硬件。


这是特斯拉的,12个




『本文转载自网络,版权归原作者所有,如有侵权请联系删除』

热门文章 更多
日内瓦大学开发不易燃固体电解质 助力打造钠电池