自动驾驶出事故 L2辅助驾驶能力有限
发布时间:2022-09-07 09:59:33
摄像头和视觉识别也会“犯迷糊”
在智能驾驶中,用摄像头的初衷就跟人眼一样:既然人类驾驶员能够用人眼看到的一切来进行驾驶行为,那么汽车依靠摄像头加算法也可以,这一点马斯克深有感触。
在智能电动车上,摄像头代替人眼来进行测量和判断,将目标的光线信号转化成图像信号,传送给专门的图像识别处理器,根据图像的像素分布,亮度和颜色等信息,以抽取目标的特征,最终获得相应的识别信息。
『特斯拉Model3撞上侧翻的货车』
通俗来讲就是:摄像头的工作原理跟人眼一样,首先要看到前方的物体,然后在脑子里搜索,以前有没有见过这个物体,如果找到匹配的,那就能够认出这是什么;如果没见过,那就不认识直接忽略掉。
比如说,车载摄像头看到一个锥形桶,会先在数据库里比对类似的物体。然后摄像头以后每次看到这种颜色,形状,大小差不多的物体之后,就会标注为锥形桶。因此摄像头需要进行海量的数据训练,以认识更多的而物体。
对于摄像头来说,首先要看到,其次要认识。而在宁波的那场事故中,从视频里看天气良好,光照很足视野开阔,摄像头应该已经看到了前方的车辆。但是由于当时汽车车尾放了一个锥形桶,锥形桶前方又站了一个人,这三者出现了重叠。这三件静止的事物,按理说摄像头都能识别。但如果三者重叠合一,算法就没见过这种物体了,摄像头也没有经过训练和标注,也识别不出来。
类似的例子还有很多,在一个L2辅助驾驶系统中,如果前方出现了不规则的物体,或者没有被标注过的物体,摄像头就会选择直接忽略掉。
因此,对于摄像头的能力可以概括为:你教过它的,它就认识;没教过,它就不认识。
一个让人不愿意承认的事实是,毫米波雷达识别静止物体时不好用,而摄像头只能识别他认识的物体,现在的辅助驾驶系统只能应付一些比较简单的路况,稍微复杂一些便无能为力。现实世界太复杂,人类善于处理复杂场景触类旁通,但是机器不能。
现实世界的复杂性超出想象
尽管国内宣传了很久的智能电动车,或者自动驾驶汽车,但是目前市场上没有L3级别的自动驾驶车型出现,而那些声称达到L3、L4级别的,也远没有达到量产水平。因为对于一款自动驾驶汽车来说,即使你能够应对马路上95%以上的路况,但是还有5%的可能性会出事故。这对一个交通工具来说,是不能接受的。
现实世界的复杂性在于特殊情况太多了,比如高速上一般都是运动的汽车,而冷不丁总有故障车辆停在高速上,人类能轻而易举识别他们,但是目前的L2系统却很难。
『去年一蔚来车主因开启“自动驾驶”功能出事故』
人工智能不擅于应对的那些5%的特殊情况,我们称之为边缘场景(corner case)。举个例子,现阶段的摄像头能够很容易识别到前方运动的汽车,但是如果一把椅子突然从前方车上掉下来,摄像头就无能为力了。因为摄像头没遇到过这种情况,它不知道怎么应对,只能直冲冲撞上去。
类似的场景还有很多,比如面对空中飞来的一个大气球,自动驾驶是一个急刹还是直接开过去?我们的自动驾驶系统能够识别站立的人,那如果遇到横躺马路上的人,又是否能够识别?
这种边缘场景实在太多了,现实路况的多样性和复杂性,让现在的自动驾驶辅助系统屡出事故。而对于我们普通消费者来说,要对技术的发展保持清醒的认知,因为目前的量产自动驾驶技术还远没有能够达到让人开车走神的地步,最靠谱的司机依然是掌握方向盘的人类。
来源:汽车之家 作者:张凌霄 编辑:马国平
|
微信ID : 杭州汽车

