自动驾驶的五大重要技术
国家涉密局委员会 发布时间:2019-04-25 浏览:
自动驾驶可以说是一个涉及了多个学科的综合领域,本文带你探寻自动驾驶的5大主要技术,看看这个轮式机器人的大脑、眼睛等都是如何工作的。
自动驾驶车是一个轮式机器人。自动驾驶可以说是一个涉及了多个学科的综合领域,本文带你探寻自动驾驶的5大主要技术,看看这个轮式机器人的大脑、眼睛等都是如何工作的。
1、识别技术
和人类的眼睛一样,这个轮式机器人也有它自己的眼睛,用来识别周边的车辆、障碍物、行人等路上的情况。
我们眼睛的主要构成部分是眼球,通过调节晶状体的弯曲程度来改变晶状体焦距来获得实像。那自动驾驶的眼睛是由什么构成的呢?答案是传感器。包括摄像头、激光雷达、毫米波雷达,还有红外线、超声波雷达等。
你可能会惊讶,需要这么多眼睛?没错,它是长满了眼睛的小怪兽,通常拥有10+只眼睛。
其中,*常用的是摄像头,几乎是毫无争议地被开发者采用。它和人类的眼睛*接近,可以看清有颜色的标识、物体,看得懂字体,分得清红绿灯。但是缺点也不少,比如在夜晚或恶劣的天气下视力就严重下降,也不擅长远距离观察。
其次是颇富争议的LiDAR,即激光雷达。比较常见的是在车顶,像是顶不停旋转的帽子。原理很简单,就是通过计算激光束的反射时间和波长,可以完成绘制周边障碍物的3D图。而短板则是无法识别图像和颜色。
毫米波雷达也不得不提一提,因为它的全能--可以全天候工作,这使得它,即便它无法识别高度,分辨率不高,也难以成像。但它凭借其穿透尘雾、雨雪的硬本领,站稳一席之地。
可以通过下面这个性能对比表格,了解主流传感器的优势和软肋。
如此多各式各样的眼睛,那她的视力很好咯?那也未必。你以为星多天空亮,可它们之间能够互补还好,但也难免会产生矛盾。这么多只眼睛你要*先选择相信谁,这也是一个课题叫SensorFusion,传感器融合。根据每种传感器的优缺点来综合评判信息的*确度,得到更的*终结果。传感器融合的另一个优点是,换来程度的冗余,即便某只眼睛暂时失明,也不会影响它安*前行。
2、决策技术
通过眼睛识别得到了周边环境,接下来就要充分利用这些信息进行理解分析,决定自己该如何走下一步。要完成这项任务的就是*强大脑。
跟人类的大脑一样,我们不是天生就会开车,也不是拿到驾照就成老司机了。需要的知识积累,自动驾驶机器人也同样需要。完成大脑中的知识库有两种方式:专家规则式和AI式。
专家规则式,英文叫rule-based。即提前编写好规则,当需要做决定的时候*须严格遵守这些规则。举个栗子,当准备超车变道时,需要满足以下条件(这是一个假专家,仅供参考):道路半径大于500R(弯道不变道);跟目标车道上的前后车的距离都在20m以上;比后车的车速慢不超过5km/h;等等等等...以上N个条件同时满足时,即可超车变道。
AI式,就是一直很火的人工智能ArtificialIntelligence。模仿人类的大脑,通过AI算法对场景进行理解。或提前通过大量的犯错积累经验,或事前听某人指点江山。通过AI式积累知识库,会让她的反应更加灵活。专家也难免有疏忽,更何况交通瞬息万变,没有灵活的大脑如何应对我大中华的路况呢?
3、定位技术
只有知道自己在哪里,才知道自己去哪里。
现今,除了主流的用GPS或GNSS(**卫星导航系统)来定位的方式之外,也有在公路上铺设电磁诱导线等方式来实现定位。精度高GPS定位目前来说*大难题是,山区和隧道等地理因素对精度的影响,虽然可以依靠IMU(惯性测量单元)来进行推算,但GPS丢失信号时间过长的话,累计的误差就会比较大。
另外,自动驾驶专*的3D动态高清地图带给了自动驾驶更多可能性。因为有了高清地图,就可以将自己的位置轻松定位在车道上。
4、通信安*技术
试想如果被黑客入侵,控制了你的自动驾驶车,不仅可以监听到你的秘密谈话,还很可能成为杀人工具。黑客可以通过影响传感器的数据而影响决策,或直接介入判断机制进而影响行驶轨道。
先了解一个术语,V2X=VehicleToEverything。即车辆与基础设施之间通信的通用简称,包括车辆与车辆之间叫V2V、车辆与行人之间V2P、车辆与交通基础设施之间V2I、车辆与网络之间V2N等。
V2X包含了汽车和我们的个人信息,因此在通信的时候对用户的身份验证和给数据加密,这些都。
5、人机交互技术
虽说我们对自动驾驶的印象大多是,不需要人们的干涉,它就能把我们送到任何想去的地方。但是很遗憾,目前的自动驾驶系统还做不到这一点。
遇到自动驾驶驾驭不了的场景,便会呼唤你接替它的工作。这时,HMI(人机界面)就发挥作用了。它的目标是,用*直观*便捷的方式通知我们,让驾驶员尽快注意到。
此外,通过观察分析驾驶员的面部表情和动作,判断其困倦状态,并通过给驾驶员提供感兴趣的话题等方式予以提醒,也是人机交互多样化发展的一个例子。还有些不仅局限于和车内人的互动,也可以与路上行人进行互动,表达让行等意愿。
1、识别技术
和人类的眼睛一样,这个轮式机器人也有它自己的眼睛,用来识别周边的车辆、障碍物、行人等路上的情况。
我们眼睛的主要构成部分是眼球,通过调节晶状体的弯曲程度来改变晶状体焦距来获得实像。那自动驾驶的眼睛是由什么构成的呢?答案是传感器。包括摄像头、激光雷达、毫米波雷达,还有红外线、超声波雷达等。
你可能会惊讶,需要这么多眼睛?没错,它是长满了眼睛的小怪兽,通常拥有10+只眼睛。
其中,*常用的是摄像头,几乎是毫无争议地被开发者采用。它和人类的眼睛*接近,可以看清有颜色的标识、物体,看得懂字体,分得清红绿灯。但是缺点也不少,比如在夜晚或恶劣的天气下视力就严重下降,也不擅长远距离观察。
其次是颇富争议的LiDAR,即激光雷达。比较常见的是在车顶,像是顶不停旋转的帽子。原理很简单,就是通过计算激光束的反射时间和波长,可以完成绘制周边障碍物的3D图。而短板则是无法识别图像和颜色。
毫米波雷达也不得不提一提,因为它的全能--可以全天候工作,这使得它,即便它无法识别高度,分辨率不高,也难以成像。但它凭借其穿透尘雾、雨雪的硬本领,站稳一席之地。
可以通过下面这个性能对比表格,了解主流传感器的优势和软肋。
如此多各式各样的眼睛,那她的视力很好咯?那也未必。你以为星多天空亮,可它们之间能够互补还好,但也难免会产生矛盾。这么多只眼睛你要*先选择相信谁,这也是一个课题叫SensorFusion,传感器融合。根据每种传感器的优缺点来综合评判信息的*确度,得到更的*终结果。传感器融合的另一个优点是,换来程度的冗余,即便某只眼睛暂时失明,也不会影响它安*前行。
2、决策技术
通过眼睛识别得到了周边环境,接下来就要充分利用这些信息进行理解分析,决定自己该如何走下一步。要完成这项任务的就是*强大脑。
跟人类的大脑一样,我们不是天生就会开车,也不是拿到驾照就成老司机了。需要的知识积累,自动驾驶机器人也同样需要。完成大脑中的知识库有两种方式:专家规则式和AI式。
专家规则式,英文叫rule-based。即提前编写好规则,当需要做决定的时候*须严格遵守这些规则。举个栗子,当准备超车变道时,需要满足以下条件(这是一个假专家,仅供参考):道路半径大于500R(弯道不变道);跟目标车道上的前后车的距离都在20m以上;比后车的车速慢不超过5km/h;等等等等...以上N个条件同时满足时,即可超车变道。
AI式,就是一直很火的人工智能ArtificialIntelligence。模仿人类的大脑,通过AI算法对场景进行理解。或提前通过大量的犯错积累经验,或事前听某人指点江山。通过AI式积累知识库,会让她的反应更加灵活。专家也难免有疏忽,更何况交通瞬息万变,没有灵活的大脑如何应对我大中华的路况呢?
3、定位技术
只有知道自己在哪里,才知道自己去哪里。
现今,除了主流的用GPS或GNSS(**卫星导航系统)来定位的方式之外,也有在公路上铺设电磁诱导线等方式来实现定位。精度高GPS定位目前来说*大难题是,山区和隧道等地理因素对精度的影响,虽然可以依靠IMU(惯性测量单元)来进行推算,但GPS丢失信号时间过长的话,累计的误差就会比较大。
另外,自动驾驶专*的3D动态高清地图带给了自动驾驶更多可能性。因为有了高清地图,就可以将自己的位置轻松定位在车道上。
4、通信安*技术
试想如果被黑客入侵,控制了你的自动驾驶车,不仅可以监听到你的秘密谈话,还很可能成为杀人工具。黑客可以通过影响传感器的数据而影响决策,或直接介入判断机制进而影响行驶轨道。
先了解一个术语,V2X=VehicleToEverything。即车辆与基础设施之间通信的通用简称,包括车辆与车辆之间叫V2V、车辆与行人之间V2P、车辆与交通基础设施之间V2I、车辆与网络之间V2N等。
V2X包含了汽车和我们的个人信息,因此在通信的时候对用户的身份验证和给数据加密,这些都。
5、人机交互技术
虽说我们对自动驾驶的印象大多是,不需要人们的干涉,它就能把我们送到任何想去的地方。但是很遗憾,目前的自动驾驶系统还做不到这一点。
遇到自动驾驶驾驭不了的场景,便会呼唤你接替它的工作。这时,HMI(人机界面)就发挥作用了。它的目标是,用*直观*便捷的方式通知我们,让驾驶员尽快注意到。
此外,通过观察分析驾驶员的面部表情和动作,判断其困倦状态,并通过给驾驶员提供感兴趣的话题等方式予以提醒,也是人机交互多样化发展的一个例子。还有些不仅局限于和车内人的互动,也可以与路上行人进行互动,表达让行等意愿。