自动驾驶的纯视觉路线靠谱吗?

汽车电子与软件 2021-07-19 11:33

(Source: Bing)

文/侯哥

自动驾驶的相关话题火热了这么多年,但是世面上真正让人放心的自动驾驶还是没有出现,就连各个新势力也都没有人敢宣称自己真正达到了L3及以上的自动驾驶水平。更多的人还是在打擦边球——L2.5L2.9L2+L2++……

为啥至今L3及以上的自动驾驶还没有出现呢?这个问题还要从SAE关于汽车自动化等级划分的标准SAEJ3016说起。

在下图中的SAE关于自动驾驶等级的划分中,L3是一个驾驶员与车辆责任的分水岭。在L3以下,驾驶员负有对车辆控制的主要责任,车辆中的自动驾驶系统仅起一个辅助的责任,而到了L3之后,对驾驶任务中的环境观察、控制的责任转移到了自动驾驶系统上。控制的责任在哪一方,那么如果出现了事故,事故的责任也就需要哪一方来承担。在由车辆承担责任的情况下,主机厂作为车辆的设计和生产方就要承担,也就是说,主机厂要承担所有的赔偿责任,也许将来保险公司可以负担这部分费用,但是主机厂还是要承担由于车辆的设计缺陷导致的事故责任。关于这一点,一直没有明确的法律法规可以遵循,目前只能按照以前的惯例来处理了。

大家可以想象一下,如果一个人自己把车开到了河里,那么他也怪不到别人,可是如果是车辆自己开到了河里,这个车主肯定就会把责任都推到车辆的生产方那里。这对主机厂是一个极大的问题,如果不能妥善处理,主机厂必然会受到重大的打击,绝对不只是赔钱这么简单。

既然责任这么重大,那么在技术还不成熟、相应的法律法规还没有明确规定的情况下,作为主机厂最好的策略就是让驾驶的责任留在驾驶员这边。虽然还是要把自动驾驶作为宣传手段和增值盈利的方法,但是打死也不说责任由自己来承担。这就是为什么现在都在打擦边球,坚决不说自己的系统是L3,而只是无限接近L3的原因。

自动驾驶系统的架构大致如下所示。分为感知、决策和控制(或执行)。其中感知部分是决定所谓自动驾驶路线的关键因素,相当于人类的五官,来获取外部的信息。决策部分可以类比为人类的大脑,用来进行判断,决定对车辆如何进行控制。而控制(执行)部分可以想象为人类的四肢——控制车辆的速度和转向,也就是横向和纵向的运动。

长期以来,对于自动驾驶的技术路线有多种思路。以特斯拉为首的一派觉得纯视觉就足够了。因为人类开车的时候主要靠的还是视觉(眼睛)来感知环境信息。其他派别的人有的觉得视觉加上毫米波雷达就够了,有的觉得视觉之外还需要毫米波加上激光雷达。总之,在现在已知的感知系统中,一共只有摄像头、毫米波雷达、激光雷达,以及传统的超声波雷达,但是超声波雷达仅适用于近距离的感知(米级),可以用于泊车场景中,最常见的用途就是倒车,所以又被称之为倒车雷达。

下图是一个自动驾驶的感知系统的方案,集合了所有上述的几种感知设备,可以说是武装到了牙齿。

无论如何,视觉系统已经成为了自动驾驶的重要组成部分。然而,纯靠视觉靠谱吗?在回答这个问题之前,我们先来看看人眼的“技术参数”。

  1. 人眼能够分辨率的最小细节折合0.59角分

  2. 人眼拥有大概650万个视锥细胞

  3. 人眼拥有大概1.2亿个视杆细胞

  4. 人眼的视野大概为向外95° 向内60° 向上60° 向下75°

  5. 人眼只能够清晰的分辨出中央10°范围的物体

  6.  人眼的分辨率越往外越低

  7. 人眼看到低于24帧的物体时会有明显的卡顿感

  8. 人眼最高大约可以分辨到75帧的高速度物体

人眼在看东西的时候,其实在某一个时间点只能够清晰的分辨出中央10°范围的物体,分辨率越往外越低。简单来讲就是作为人类的我们,只有盯住哪里,哪里看起来才是清楚的,我们不盯的地方基本都是模糊看不清楚的。人的单眼静态分辨率的确不太高,单次成像只有500像素左右。我们觉得自己可以看清楚很大范围内的物体,其实是人眼可以快速采样多张图片并通过大脑将多次采样的数据合成出完整而清晰的图像。最终的效果可以达到10亿像素相机的效果。这是任何专业单反相机都无法达到的。

下面的4张图按照顺序看下来就是人脑一个正常的处理效果。

 


而且人眼相比照相机还有三大超级优势:

1. 焦距调节速度非常快,从最远到最近距离的对焦可以瞬间完成

2. 在一定范围内对光线的变化反应迅速,保证始终可以看清物体

3. 方向可以随意条件(脖子转一下或者眼睛自己转一下就行)

以上说的是人作为驾驶员在感知端的优势,人类相比机器的更大优势在大脑的处理过程的速度和对周边情况的预测。

  大脑会把所有输入的图像进行快速处理,并自动找出哪些才是在驾驶活动中需要重点关注的。比如识别障碍物、其它车辆与行人的趋势等等。这些所有数据有机的结合起来,才能够最终保障驾驶安全。

举个例子:如果一个驾驶员在驾驶过程中发现前面有一个儿童,他大概率会变得很小心,随时注意儿童的动向,准备采取紧急措施。而让机器来完成这么简单的活动却很难。另外,如果有一个人正在横穿马路,如果驾驶员注意到这个人已经在盯着自己的车辆了,那么基本上这个人会自己主动的躲避车辆,驾驶员大概会根据初步判断继续行驶,而让机器做决定的话,机器一定会采取紧急制动措施保障安全。对危险程度的预知能力是目前机器的一大弱点。这并不是仅仅由于图像采集的像素数决定的,还取决于处理的速度与算法。

目前车上用来进行自动驾驶数据采集的前向摄像头最高的像素也已经可以达到几百万的级别了,可是由于摄像头本身的限制,摄像头无法像如人眼一样随时变换焦距和景深来看清楚整个视野中的每个细节,以及对雨雪风霜雾等自然环境的适应性问题,导致摄像头方案在图像数据采集端就有天然的限制,再加上目前的人工智能算法还远远没有达到接近人类视觉系统的处理能力,造成了至少目前阶段纯视觉方案的可靠性与适用性还是不能完全满足各种场景的需求。

视觉系统的另外一个局限性在于对距离的精准判断。虽然人类可以通过双眼看出大约的相对距离,但是想精准的知道距离的数值却非常难。即使采用双目或者三目摄像头也是面临着同样的问题。没有精确的距离感,在规划车辆的运动轨迹的时候就很难做好。

虽然理论上,仅靠视觉是可以覆盖大部分驾驶场景的,而且机器不会像人一样感到疲劳或者分神,但是目前的纯视觉自动驾驶方案的局限性是非常明显的。然而由于摄像头低廉的价格,还是有很多坚定的拥护者存在。他们坚信将来一定可以靠摄像头来解决大部分的自动驾驶的需求。可是未来是多久呢?这个只能是大家拍脑袋想了。

正因为视觉方案的各种局限性,所以大多数的厂家采用的方案都是多种传感器结合的方式,于是,我们看到的大多数路上测试的自动驾驶车辆都是下面这个样子的。

下表是几种常见的感知设备的技术参数。仅供大家参考。由于这个行业有很多的玩家,技术在不停的的进步中,各种参数都在不断的改善着。只是目前还没有看到大的突破性的进展。

无论采用哪种感知方案,自动驾驶都必须有足够的安全性与可靠性。然而,什么才是足够高的安全性与可靠性呢?人类可以容忍自己犯错误,却很难容忍机器犯错误。安全是无止境的,任何东西都不是绝对安全的,只可能有相对的安全。如同保险箱一样,采取的措施越多,防盗安全性也越高,但是成本也越高。普通人如何承受高额的成本?作为崇尚自由平等的人类,我们能够接受有钱人的车比普通人的车安全系数高很多吗?自动驾驶事故的容忍度在哪里?这一系列问题只能留给时间去回答了。



作者: 侯哥@Roy 专注汽车电子电气架构开发

编辑: 文昌@Vincent 汽车信息安全从业者
来源:侯哥工作感悟 公众号



END
投稿合作:18918250345(微信)
汽车电子与软件 主要介绍汽车电子软件设计相关内容,每天分享一篇技术文章!
评论 (0)
热门推荐
X
广告
我要评论
0
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦