自动驾驶汽车是在一个未知的动态环境中运行的,所以它需要事先构建出环境地图并在地图中进行自我定位,而执行同步定位和映射过程(SLAM,即时定位和地图构建)的输入则需要传感器和AI系统的帮助。
安装在自动驾驶系统上的传感器通常用于感知环境。选择每个传感器是为了权衡采样率、视场(fov)、精度、范围、成本和整个系统复杂度。
一般情况下,自动驾驶汽车包含的传感器主要有五种类型:
1、远程雷达:信号能够透过雨、雾、灰尘等视线障碍物进行目标检测。
2、照相机:一般以组合形式进行短程目标探测,多应用于远距离特征感知和交通检测。
3、激光雷达:多用于三维环境映射和目标检测。
4、短程/中程雷达:中短程目标检测,适用于侧面和后方避险。
5、超声波:近距离目标检测。
这些传感器都有其优缺点,没有一种单一传感器能够适用于所有路况。通常情况下,想要可靠、安全地操控一辆自动驾驶汽车,需要同时使用多个传感器。
而这五大传感器又可分为无源传感器(如摄像头)和有源传感器(如激光雷达、雷达和超声波收发器)。那么,什么是有源传感器?什么是无源传感器?两者的区别是什么?又会如何影响自动驾驶汽车的感测效果?
自动驾驶汽车上的无源传感器与有源传感器
无源传感器也称为能量转换型传感器,它不需要外部电源。在自动驾驶汽车上,无源传感器为无源摄像头传感器。
摄像头传感器
摄像头通过收集反射到三维环境对象上的光来捕捉二维图像。图像质量通常取决于环境条件,即不同的天气条件,不同的光照环境,都会对图像质量产生不同的影响。计算机视觉和机器学习算法通常用于从捕获的图像/视频中提取有用的信息。
目前,由于单目像头难以对物体距离进行测量,通过多台摄像头利用三角测原理实观距离测量的立体视觉方法得到广泛应用。多目立体摄像头,可在一定程度上实现深度、距离的感知。
今后摄像头可感知光线的波长范围将扩大可见光逐步材大至还红外线、远红外线,将现对人随着感知围从可眼所不可见物体的感知。同时,HDR(高动态范围成像)技术也将得到应用。通过拍摄曝光度不同的一组照片,可以以此合成近似于人眼所见的图像。该技术在智能手机上已得到普及,将来也将被运用于汽车领域。
有源传感器,也称为能量转换性传感器或换能器,指将非电能量转化为电能量,只转化能量本身,并不转化能量信号的传感器。在自动驾驶汽车里,雷达、激光雷达和超声波传感器都是有源传感器。
激光雷达
LiDAR使用发射器发射激光束,并通过接收器对遇障碍物后返回的激光束进行探测。激光雷达传感器通过发射脉冲激光,计算散射光从发射到遇障碍物返回的时间间隔(TimeofFlight,下行时间),可对三维空间内的物体形状及距离进行有效感知,可在较长距离内(当前车用最长距离为120m)实现感知。
激光雷达以每秒50,000-200,000个脉冲的速度覆盖一个区域,并将返回的信号编译成一个3D点云,通过比较连续感知的点云、物体的差异检测其运动,由此创建一个250米范围内的3D地图。
随着今后系统结构简化,激光雷达发射器等半导体在实现量产的同时,价格也将下降。此外,测量用LiDAR与感知车辆周边异常情况的LiDAR在技术参数上是不同的。常规摄像头无法感知夜间环境,而LiDAR不论昼夜均可使用。
雷达
无论是毫米波雷达还是普通雷达,都主要通过无线电波进行测距。无线电波以光速传播,在电磁波谱中频率最低(波长最长),基于无线电波的反射特性,雷达传感器可以探测到前方物体之外的东西。
不过,雷达信号容易被具有相当导电性的材料(如金属物体)反射,并且其他无线电波的干扰也会影响雷达的性能,造成雷达传感器无法对物体进行探测。在确定被探测目标的形状方面,雷达的能力不如激光雷达。
当前使用的毫米波雷达有24GHz、60GHz、76GHz等多种规格。与使用可见光、红外线、激光等光源的传感器相比,米波达波长要长,可穿透雨、雪、雾,不容易受坏天气的影响。传感器有坚固的结构,防污性能强。不仅可测距,还可以利用多普勒效应测量相对速度。
由于空间解析能力低,在高级自动驾驶中,毫米波雷达常作为辅助传感器用于相对速度测量等功能。
另外,由于频率不同的毫米波雷达各有其特性,并且在其他用途上使用的相同频率雷达可能彼此间将发生干涉,因此需要探讨如何对超声波雷达的使用场合进行限制。
超声波传感器
超声波传感器也称为声纳;声音导航测距。在有源传感器中,声波的频率最低(波长最长),因此声波更容易被干扰,这也意味着超声波传感器很容易受到不利环境条件的影响,如下雨和灰尘。另外,其他声波产生的干扰也会影响传感器的性能,需要通过使用多个传感器和依赖额外的传感器类型来缓解干扰。
相比于摄像头、激光雷达和毫米波雷达,超声波在自动驾驶领域的运用并不广泛。
有源传感器与无源传感器的区别:
简单来说,两者的区别在于是否需要外部供电。无源传感器,不需要电源就能工作;有源传感器,需要供电才能工作。
从工作原理来分析,无源传感器是完全通过吸收被测对象的能量来输出信号;而有源传感器的输出信号能量部分来自被测对象,另一部分由电源提供。
从性能上来分析,无源传感器更简单,但对被测对象的影响更大,灵敏度不高,输出信号能量不高,易受干扰;有源传感器较复杂,对被测对象的影响小,灵敏度高,输出信号能量高,不易受干扰。
本质上,有源传感器是在无源传感器基础上多了一个能量放大机制而已。两者在自动驾驶汽车上的应用各有优劣。
无源传感器能够探测环境中物体反射的现有能量,如光、辐射等。但在弱光环境下,由于没有自己的传播源,无源传感器的性能将有所下降。并且在产生的数据方面,对比有源传感器,无源传感器产生的数据量更多,约0.5-3.5Gbps。
即便如此,无源传感器在自动驾驶应用中仍具有多方面特点,主要包括:
1.涵盖整个视野宽度的高分辨率的像素和颜色;
2.在视野中保持恒定的帧频;
3.两个摄像头可以生成一个3D立体视图;
4.缺乏发射源减少了来自其他车辆的干扰的可能性;
5.技术成熟,成本低;
6.系统生成的图像便于用户理解和交互。
使用无源摄像头传感器套件,需要覆盖汽车周边的各个环境。这可以通过使用在特定时间间隔拍摄图像的旋转相机来实现,或者通过软件将4-6个相机的图像拼接在一起。
此外,这些传感器需要一个超过100分贝的高动态范围(场景中高光和阴影的成像能力),使它们能够在各种光照条件下工作,并区分不同的对象。
而激光雷达和超声波这类有源传感器,具有信号传输源,依靠TOF原理感知环境,ToF能够通过等待信号的反射返回来测量信号从源到目标的传播时间,信号的频率决定了系统所使用的能量及其准确性。因此,确定正确的波长在选择系统时起着关键的作用。
自动驾驶汽车中的传感器融合及算法
无论是有源还是无源,自动驾驶汽车上的各类传感器均有其优缺点,而且SLAM是一个复杂的过程,因为定位需要地图,而绘制地图需要良好的位置估计。所以,为了更准确地执行即时定位和地图构建,往往会采用多传感器融合的方案。
传感器融合是将多个传感器和数据库的数据结合起来以实现信息改进的过程。它是一个多层次的过程,能够处理数据间的联系和相关性,对数据进行组合,与使用单个数据源相比,能够获得更便宜、更高质量、相关性更高的信息。
而自动驾驶汽车需要从技术上对传感器进行判断、选择,筛选的条件主要有以下几个方面:
扫描范围,决定了传感器对被感知的物体做出反应的时间;
分辨率,传感器可以为自动驾驶车辆提供的环境细节;
视野/角度分辨率,决定自动驾驶汽车需要多少传感器来覆盖感知的区域;
3D环境下区分静态对象和动态对象的能力;
刷新率,决定传感器信息更新的频率;
在不同环境条件下的总体可靠性和准确性;
成本、尺寸和软件兼容性;
生成的数据量。
具体我们可以看看Waymo、Volvo-Uber和Tesla的传感器方案,均采用多种传感器。
同时,传感器融合还需要用到强大的AI算法。在自动驾驶汽车AI架构中,主要有两种方法:
1.逐步处理。把整个驾驶过程拆解为一系列逐层连接的流水线,其中的每一步,比如感知、定位、地图、路径导航、运动控制,都分别由各自的具体软件组件处理。
2.端到端。基于深度学习的解决方案,一次性处理所有这些功能。
通过传感器的融合,自动驾驶汽车获得了数据,不过,如何从传感器信号中提取有用的信息,并基于现有信息执行任务,还需要利用机器学习算法——CNN、RNN、DRL。
CNN(卷积神经网络):主要用于处理图像和空间信息,提取感兴趣的特征和识别环境中的对象。这些神经网络是由一个卷积层构成的:一个过滤器的集合,它试图区分图像的元素或输入数据来标记它们。这个卷积层的输出被输入到一个算法中,该算法将它们结合起来预测图像的最佳描述。最后的软件组件通常称为对象分类器,因为它可以对图像中的对象进行分类,例如一个路标或另一辆汽车。
RNN(递归神经网络):主要用于处理视频信息,在这些网络中,先前步骤的输出将作为输入进入到网络中,从而允许信息和知识能够在网络中持久存在并被上下文化。
DRL(深度强化学习):DRL方法允许软件定义的“代理”学习在虚拟环境中使用奖励函数实现目标的最佳可能操作。这些面向目标的算法将学习如何实现目标,或如何在多个步骤中沿着一个特定的维度最大化。目前,深度强化学习在无人驾驶汽车中的应用还处于起步阶段。
这些方法不一定是孤立存在的。为了避免过度拟合,在深度学习中通常会进行多任务训练网络。当机器学习算法被训练用于一个特定的任务时,它会变得如此专注于模仿它所训练的数据,以至于试图进行插值或外推时,它的输出会变得不现实。
通过在多个任务上训练机器学习算法,网络的核心将专注于发现对所有目的都有用的通用特性,而不是专注于一个任务,以便输出更加实际有用的应用程序。
利用传感器提供的所有数据和这些算法,自动驾驶汽车能够探测到周围的物体。