2月5-7日QCon全球软件开发大会携手100+位大咖讲师与你相约北京,完整日程已上线>> 了解详情
写点什么

深入解读自动驾驶行为预测和规划

  • 2019-09-29
  • 本文字数:10561 字

    阅读完需:约 35 分钟

深入解读自动驾驶行为预测和规划


最近看到关于自动驾驶行为预测和规划的一些文章,想在这里介绍一下,共分为上下两篇,本文是上篇。


《An Auto-tuning Framework for Autonomous Vehicles》

百度 Apollo2018 年的工作报告。


许多自动驾驶运动规划器通过优化奖励/成本功能来生成轨迹。不同驾驶条件下为 4 级自动驾驶车辆设计和调整高性能奖励/成本功能的工作是具有挑战性的。传统上,奖励/成本功能调整涉及大量的人力和在模拟和道路测试上花费的时间。随着场景变得更加复杂,调整改善运动规划器性能会变得越来越困难。


为了系统地解决这个问题,百度开发一个基于 Apollo 自动驾驶框架的数据驱动自动调整框架。该框架包括基于排名的条件逆强化学习(rank-based conditional inverse reinforcement learning,RC-IRL)算法、离线训练策略以及收集标记数据的自动方法。


这种自动调整框架适合于自动驾驶运动规划器调整。与大多数 IRL 算法相比,其训练是有效的,能够适应不同的场景。离线训练策略提供了一种在公共道路测试之前调整参数的安全方法。收集并自动标记专家驾驶数据和有关周围环境的信息,可大大减少手动操作。最后,通过模拟和公共道路测试可以检查该框架调整的运动规划器。


如图所示,为了扩大运动规划器场景覆盖范围并改善案例性能,建立这个自动调整系统,其中包括在线轨迹优化和离线参数调整两部分。在线模块专注于在约束条件下给出奖励功能,从而产生最佳轨迹。运动规划器模块与特定方法无关,可以使用不同的运动规划器,例如基于采样的优化、动态编程或强化学习,来生成轨迹。这些运动规划器的性能在量化最优性和鲁棒性等指标进行评估。通常在线部分的最优性可以通过最佳轨迹和生成轨迹的奖励函数值的差异来测量,鲁棒性可以通过给定特定情景下生成轨迹行为的方差来测量。 模拟和道路测试提供了对运动规划器性能的最终评估。



离线调整模块专注于提供可适应不同驾驶场景的奖励/成本功能。 运动规划奖励/成本功能包含描述平滑性和与周围环境交互的特征。 通常可以通过模拟和道路测试来调整奖励/成本功能。如下图所示,测试一组参数需要模拟和路上测试。然而,反馈循环是最耗时的组件,因为在仅从一组参数得出结论之前,需要数千或更多的驾驶场景验证。



RC-IRL 方法学习奖励功能的想法包括两个关键部分:条件性比较(conditional comparison)和基于排名的学习(rank-based learning)。要注意到几点:1)其方法不是比较专家论证和最优策略的价值函数(value functions)期望,而是比较价值函数的状态;2)为了加快训练过程并扩大极端案例的覆盖范围,它对随机策略采样并与专家论证比较,而不是如策略梯度法那样先生成最优策略;3)背景差异(驾驶场景造成的)可能会显著影响调整后的奖励功能。


如图所示,Apollo 自动驾驶系统的自动调整框架包括在线轨迹评估和离线参数调整两部分。为保持一致性,两个部分共享一些通用性模块。原始特征生成器从环境中获取输入并且无差别地评估采样或人类司机的驾驶轨迹; 轨迹采样器使用相同的策略分别为离线和在线模块生成候选轨迹。在线评估器从轨迹中提取原始特征之后,应用奖励/成本函数来提供分数。对所有得分轨迹排序或动态规划(例如基于搜索的算法)选择最终输出轨迹。



RC-IRL 训练和一般 Siamese 网络一样,下图是 RC-IRL 中的 Siamese 网络。人类司机和采样轨迹的价值网络共享相同的网络参数设置。损失函数通过价值网络输出评估采样数据和生成轨迹之间的差异。



Siamese 模型中的价值网络捕捉基于编码特征的驾驶行为。该网络是不同时间编码奖励的可训练线性组合。编码奖励的权重是可学习的时间衰减因子。编码奖励包括 21 个原始特征的输入层和 15 个节点的隐藏层。



下表是采用的轨迹上点特征:



在测试中,给定站点-横向坐标系(station-lateral coordinate system)的路径轮廓(path profile),如果与自车的移动路径存在任何交互,则障碍物和预测移动轨迹投影在站点-时间图(station- time graph)上。目标是在站点-时间图上生成速度曲线,安全地避开障碍物并保持平稳驾驶。通过优化成本/回报(cost/reward)功能来生成满足轨迹平滑度、不同障碍物距离和路径平滑度等方面的最佳速度曲线。


下表列出了与运动规划相关的关键绩效指标。 在表格中,将 Pcollision free 列为运动规划的安全指数,并将范围内横向和纵向加速度的概率以及范围内的抖动约束列为轨迹平滑度的指标。在模拟中,RC-IRL 的 SIAMESE 网络比 GAN 训练的奖励功能表现更好。



《Adaptive Behavior Generation for Autonomous Driving using Deep Reinforcement Learning with Compact Semantic States》

在交通规划中做出正确的决策是一项具有挑战性的任务,很难仅根据专业知识进行建模。这项工作用深度强化学习(Deep RL)基于紧凑的语义状态表示来学习机动决策。这个实现了一个跨场景的环境模型以及行为的自适应,即无需重新训练,它即可实现所需行为的在线更改。


类似于雷达或激光雷达传感器,其神经网络的输入是模拟的目标列表,同时叠加一个相关的语义场景描述。状态(state)以及奖励(reward)分别通过行为自适应和参数化来扩展。可以看出,只有很少的专业知识和一系列中级动作(action),这个代理(agent)仍然能够遵守交通规则并学会在各种情况下安全驾驶。


下图是 DRL 的示意图:初始交通场景被转换为紧凑的语义状态表示 s,作 RL 代理的输入。代理估计具有最高回报(Q 值)的动作 a 并执行它,例如改变车道。之后,收集奖励 r 并达到新的状态 s’。 状态转换(s,a,r,s’)存储在代理的重放(replay)存储器中。



定义以自我车辆 vego∈V 为中心的关系网格。行对应于关系车道拓扑,而列对应于车道上的车辆拓扑。下图展示如何构建关系网格:



(a)自我车辆(蓝色)在双车道道路上行驶。其他五个车辆在其传感器范围内。基于车辆范围Λlateral=Λahead=Λbehind= 1,在语义状态表示中仅考虑四个车辆(绿色)。



(b)由(a)的场景产生的关系网格,其中Λlateral=Λahead=Λbehind= 1。此外,右边没有相邻的车道,也在网格中表示出来。


在上图中,用Λlateral=Λahead=Λbehind= 1 的车辆范围Λ,将示例场景(a)变换为关系网格(b)。处于传感器范围内的红色车辆未在网格中表示。由于在自我车辆同一车道的前方没有车辆行驶,因此网格中相应关系位置是空的。


接着上图,下图介绍如何构建可视化的场景实体关系(entity-relationship)模型:车辆拓扑结构由车-车关系建模,而车道拓扑结构由车道-车道关系建模。



但是该表示是大小可变的,还包括除了给定驾驶任务相关方面以外的其他方面。为了作神经网络的输入,将其转换为仅包含最相关的、大小固定的关系网格。


如图所示,在关系网格每个特征包含一层。车辆特征 fvi 和 fvego 共享层,分别位于 vi 和 vego 单元格中。 车道特征 fkl 位于网格第 k 行的附加层。



虽然也能够处理自动驾驶汽车中预处理数据,但仍然使用交通仿真工具 SUMO 测试。下图所示,在 SUMO 检索出当前状态,并转换为语义状态表示。 这是 RL 代理的输入,用 TensorForce 库进行训练。选择的动作被映射到模拟的相应状态变化。基于初始状态、所选动作和后继状态,计算代理的奖励。



为了监督代理去遵守流量规则,在两种不同的流量方案中训练和评估,如下图所示: (a)代理有义务在最右边的车道行驶,除了其他限制之外,不得从右边通过其他车; (b)允许代理在进入匝道时加速,还可超过其左侧的车辆。但必须在结束前离开入口。



下图是超车动作示意图。 代理车(蓝色)在较慢的车辆(绿色)之后。 在这种情况下,左侧的动作“换道”具有最高的估计 Q 值。 换道后,代理加速并超过较慢的车辆。 随后,代理变回最右边的车道。



下表是训练的代理结果。 代理 gH(高速公路)和 gM(合并坡道)仅在各自的情景下评估,同时评估 gC(高速公路和合并坡道)。 每种方案都单独列出 gC 结果。



下表是给定不同的所需速度[m / s]下代理的平均速度。已经在正常交通密度的训练场景和空旷的高速公路做评估。虽然代理不是都能够精确地达到所需的速度,但其行为适应不同的参数值。



《Probabilistic Prediction of Interactive Driving Behavior via Hierarchical Inverse Reinforcement Learning》

为了安全有效地与其他道路参与者进行交互,自动驾驶车必须准确地预测周围车辆的行为并相应地进行规划。这种预测是概率性的,以解决人行为的不确定性。这种预测也是交互式的,因为预测车辆的轨迹分布不仅取决于历史信息,还取决于与其交互的其他车的未来规划。


为了实现这种交互觉察的预测,提出了一种基于分级的逆强化学习(IRL)的概率预测方法。1)明确地考虑了涉及离散和连续驾驶决策的人类司机分级轨迹生成过程,基于此预测车辆所有轨迹的分布定义为离散决策划分的混合分布;2)分级地应用 IRL 学习人类真实驾驶的分布。


该方法侧重于预测两个车辆司机的交互行为:主车辆(H)和预测车辆(M)。其他所有现场车辆被视为周围车辆(O)。用ξ来表示历史车辆轨迹,ξˆ表示未来轨迹。


很明显,预测车辆所有可能轨迹的概率分布取决于自身的历史轨迹和周围车辆的轨迹。在数学上,这种时域状态依赖关系可以建模为条件概率密度函数(PDF):



预测车辆所有可能轨迹的概率分布也应该以主车辆的潜规划为条件。这样上面的条件 PDF 可以改写成



人类司机的轨迹生成过程是概率性的和分级的。它涉及离散和连续的驾驶决策。离散驾驶决策将未来轨迹的“粗略”模式,或同伦类(homotopy class),确定为游戏理论结果(例如,让步或通过),而连续驾驶决策影响轨迹的细节,例如速度、加速度和平滑度。


下图展示在驾驶换道场景的概率的和分级的轨迹生成过程。其中预测的车辆(蓝色)试图合并到主车辆占用的车道(红色)。给定所有观测到的历史轨迹ξ={ξ1:NO, ξH , ξM }以及对主车辆未来轨迹ξH 的置信,预测车辆在所有轨迹空间上的轨迹分布先被离散决策划分成:后合并(d1M)和前合并(d2M)。在不同的离散决策下,连续轨迹的分布看着不同,其中每一个表示为概率分布模型。观察到的操作就是满足这个分布的样本。



条件分布被定义成混合分布,明确地捕获人类司机离散和连续驾驶决策的影响:



然后,提出分层的逆强化学习(IRL)方法来学习观察到的人类司机操作的所有模型。基于最大熵的原理,假设所有司机更有可能做出降低成本的决策(离散和连续),这引入了一组取决于成本函数的指数分布,而兴趣在于找到最终带来轨迹分布与给定司机操作集Ξ中观察到的轨迹相匹配的最佳分层成本函数。


由于轨迹空间是连续的并且实际的操作相对噪声是局部最优的,因此采用局部最优示例的连续逆最优控制(Continuous Inverse Optimal Control)方法。


对连续驾驶决策而言,在离散的决策下,假设每个轨迹的成本可以由一组选定的特征线性地参数化,那么给定的实际操作数据,其连续空间 IRL 的目标是找到实现以下优化函数的最佳参数向量。



对离散驾驶决策而言,假设成本较低的决策是指数可能,那么离散空间 IRL 的目标是找到实现以下优化函数的最佳参数向量



取对数分布和梯度下降迭代,其参数计算公式是



其中



本文实验是从 Next Generation SIMulation(NGSIM)数据集中收集人类驾驶数据。安装在周围建筑物顶部的摄像机捕捉高速公路的驾驶行为/轨迹,其中轨迹的采样时间为△t = 0.01s。在加州 80 号州际公路选择 134 个车辆闸道合并轨迹,并将它们分成两组: 80 为训练集以及其他 54 为测试集。


下图显示道路图(road map)和一组示例轨迹。现场有四辆车,一辆要合并的车辆(红色),一辆保持车道的车辆(蓝色),还有两辆周围车辆(黑色),其中一辆在蓝色车前面,另一辆在后面。感兴趣的是分析合并车辆(红色)和车道保持车辆(蓝色)的交互式驾驶行为。



同样采用分层 IRL 方法来模拟合并车辆和车道保持车辆的条件概率分布。对车辆从闸道合并情景,其驾驶决策如表所示。



实验中使用 Tensorflow 实现分层 IRL 算法。下图给出了有关连续和离散驾驶决策的训练曲线。由于层次结构,在不同的离散决策下学习合并车辆和车道保持车辆的有四个连续分布模型。从训练集中随机抽取轨迹子集并执行多个训练。如图所示,每个连续模型的参数小方差地一致收敛。



在测试中,通过学习的连续成本函数求解有限时域滚动(finite horizon)模型预测控制(MPC)问题,从而在不同的离散驾驶决策下生成最可能的轨迹。


下图是三个说明性示例:红色虚线和蓝色实线分别表示预测的最可能轨迹和真实轨迹;粗黑点划线是其他车辆的轨迹;可以看出预测轨迹非常接近真实轨迹。



《Risk-averse Behavior Planning for Autonomous Driving under Uncertainty》

自动车辆必须能在周围环境中导航,可以观察同一道路的其他部分车辆。自主车辆测量中的不确定性(uncertainty)来源包括传感器融合误差、天气或目标检测延迟导致传感器的有限范围、遮挡以及诸如其他司机意图的隐参数。


行为规划必须考虑确定未来车辆机动的所有不确定因素。本文结合 QMDP,无迹变换(unscented transform)和蒙特卡罗树搜索(MCTS),提出了一种不确定下可扩展的规避风险(risk-averse)行为规划框架。


考虑模块化堆栈,基于传感器输入和地图信息推断道路世界模型(road world model, RWM)。设 st 表示自车的状态和时间 t 与自车同一道路的其他目标,其中第 j 个目标状态定义为



它们分别代表目标的横向和纵向位置、速度和加速度;为了简单起见,扔掉时间指标。


考虑一个分层行为规划器,其中动作空间 A 定义为高级动作集合 AHL = {LaneKeep,LaneChangeR,LaneChangeL,Yield,Negotiatelanechange}的组合,还有一组参数Θ指定如何执行某个动作(安全时间间隔、前方车辆的最小距离、所需速度、最大加速度/减速度、礼貌水平、以及变道的方向和最大时间/距离)。


将行为规划器动作传递到运动规划和控制模块,可生成轨迹规划和油门/转向控制。根据 RWM 的时间序列输入,行为规划器根据风险规避度(risk-averse metric)选择一个动作:



这是一个部分可观察马尔可夫决策过程(POMDP)问题,其精确的解决方案在计算上是难以实现的。相反,用无迹变换(UT)的 QMDP 框架来生成置信分布的采样点。


这里要计算给定状态 s 的 QMDP(s,a),使用了一个在线规划器,尤其是采用一个蒙特卡罗树搜索(MCTS)。


模拟实验中,主要研究不确定性的两种驾驶情景:1)道路上超出传感器范围的静止目标,以及 2)有限视野的高速闸道,如图所示。



考虑两种基于 MCTS 的方案:1)无噪声观测值的 MCTS-Genie,2)基于噪声测量做出决策的 MCTS-Noisy。自车和合并车的初始速度均为 20m / s。如图比较了候选算法的自车速度,如表提供了车辆在合并点更多的状态信息,这样实现一个合并车速度的初始测量低于实际值的噪声。




MCTS-Noisy 开始时假设合并车比自车慢,并且决定自车加速在到合并点之前越过合并车。然而,几秒钟后,它意识到初始值差太远,实际上它无法越过合并车。虽然它采用了强减速(加速度为-6.8m / s3),但在合并点之前没有足够的时间来创建安全间隙(参见表)。


MCTS-Genie 观察合并车的实际速度,从一开始就做出正确的决定。


RA-QMDP(选择α= 0.01 和ε= 1)采用三个采样点,其中一个认为合并车的速度比 RWM 报告的速度快。然后,它做出一个规避风险的决定,迫使自车放慢速度并增加与合并车的差距。请注意,RA-QMDP 在做出决定时有一些延迟,因为它的评估也受到另外两个采样点的影响,这两个采样点表明合并车在减速并且可能有机会越过它。


##《Zero-shot Deep Reinforcement Learning Driving Policy Transfer for Autonomous Vehicles based on Robust Control》


虽然深度强化学习(深度 RL)方法具有很多优势,应用于自动驾驶,真正深度 RL 应用已经因源(训练)域和目标(部署)域之间的建模差距而减慢。与当前的策略迁移方法(通常限制用不可解释的神经网络表示作为迁移特征)不同,本文建议在自动驾驶中迁移具体的运动学量。


提出的基于鲁棒控制的(robust-control,RC)通用迁移架构,称为 RL-RC,包括可迁移的分层 RL 轨迹规划器和基于扰动观测器(disturbance observer,DOB)的鲁棒跟踪控制器。利用已知标称(nominal)动力学模型训练的深 RL 策略直接传递到目标域,应用基于 DOB 的鲁棒跟踪控制来解决建模间隙,包括车辆动力学误差和外力扰动(external disturbances),例如侧向力(side forces)。所提供的模拟验证实现了跨越多种驾驶场景的零击迁移(zero-shot transfer),例如车道保持,车道变换和避障。


所提出的 RL-RC 策略迁移体系结构由基于 RL 的深层高级规划模块和基于 RC 的低层跟踪控制器组成。总体方法包括离线深入的 RL 策略训练和在线策略迁移,如下图所示。在离线源域(source domain),预训练将感知输入映射到控制命令的深度 RL 策略,驾驶源车(source vehicle)产生完成控制任务的轨迹。对于目标域(target domain)的在线迁移,它显示了系统如何迁移源车的驾驶策略。



根据感知观测量,在与目标代理(target agent)相同的设置下系统构建虚拟源代理(source agent)。在虚拟源域,预训练策略控制虚拟源代理执行有限生命期(finite horizon)的驾驶任务,产生运动状态轨迹,用作目标车辆的参考。给定参考轨迹,目标代理使用闭环的鲁棒跟踪控制器生成目标车辆的实际控制命令。


当目标环境继续发展时,收集新时刻的观测量,系统重复相同的过程。在这种体系结构中,运动学特征无需更改就可以传递,建模间隔可以通过 RC 进行补偿。为了在虚拟源域生成参考轨迹,要训练一个深度 RL 策略网络,该网络将感知输入直接映射到运动状态轨迹。


RL-RC 系统有两个主要基本假设:


(i)假想的源代理规划的轨迹可满足目标任务;


(ii)让目标车辆跟踪源车辆产生的轨迹是可行的。


以上这些假设是合理的,因为源车辆和目标车辆及其设置是相似的,而 RL-RC 只对这种情况是有效的。下图是模拟环境和控制器中线性跟踪模型的术语说明。



要使用深度 RL 取学习驾驶策略,需将驾驶任务定义马尔可夫决策过程(MDP)。由于不同的任务具有不同的观测值,因此将观测值的群(clusters)定义为实体(entities)。


如表显示车道保持(LK)、车道变更(LC)和避障(OA)的任务界面。在实施中,应用模块化不同驾驶属性的分层 RL 模型。这些属性指的是驾驶行为,例如障碍物检测、车道选择和车道跟踪。



而这个表和下图给出 RL 详细的模块接口及其用法。使用分层 RL 模块为车道保持(LK),车道变更(LC)和避障(OA)任务提供组合策略。



从理论上讲,可以使用任何一种方法(包括深度 RL)来优化所有三个基本模块。在实施中,为简单起见,车道选择和障碍物检测均基于规则,并进行了合理的优化。使用无模型的深度 RL 优化了车道跟踪。分层实现的好处是,与复杂的高级驾驶策略的 E2E 训练相比,基本的属性模块更易于优化。


要设计控制器,首先需要获得跟踪问题的近似线性模型。本文横向动力学采用恒速线性自行车模型



用以上公式,并应用前向欧拉离散方法(forward Euler discretization),可以得到整体跟踪模型,其框图如下:



基于源车辆的标称模型设计鲁棒控制器。然后将扰动观测器(DOB,disturbance observer)添加到标称反馈控制器,整个闭环系统的框图如下所示:



下图是在有建模间隔的换道(LC)任务中 RL 和 RL-RC 的驾驶行为比较。



《Multimodal Trajectory Predictions for Autonomous Driving using Deep Convolutional Networks》

交通行为存在高度不确定性,自驾车在道路上会遇到大量情况,创建一个完全广义化的系统非常困难。为了确保安全和运行有效,需要自动驾驶车辆来解决这种不确定性并预测其周围的交通参与者可能的多种行为。


一个解决方法是预测参与者可能的多个轨迹,同时估计出现的概率。该方法将每个参与者的周围上下文信息编码成一个光栅图像,作为深度卷积网络的输入,自动导出任务相关的特征。


首先,光栅化那些参与者特定的 BEV 光栅图像,该图像对参与者周围以及其邻近参与者(例如其他车辆和行人)的地图进行编码。如下图为例,对未来 6 秒车辆轨迹的多模态建模; 预测的轨迹以蓝色标记,在轨迹的末尾指示其概率。



然后,给定第 i 个参与者的光栅图像和时间步长 tj 的状态估计 sij,用 CNN 模型预测 M 个可能的未来状态序列以及每个序列的概率 pim,使得åm(pim)= 1,其中 m 表示模式索引。


简化推断第 i 个参与者的未来 x-和 y-位置的任务,而其余状态可以通过 sij 和未来位置估计。时间 tj 的过去和将来位置以时间 tj 参与者状态导出的参与者-中心坐标系来表示,其中前向是 x 轴,左向是 y 轴,参与者的边框质心是原点。


下图是采用的网络架构图,参与者特定的、分辨率为 0.2m 的 300×300 RGB 光栅图像和参与者当前状态(速度,加速度和航向变化率)作为输入,输出 M 个未来 x-和 y-位置的模式(每个模式有 2H 个输出) )及其概率(每个模式是一个标量)。 这样每个参与者的输出为(2H +1)M。 概率输出通过 softmax 层传递确保总和为 1。任何 CNN 架构都可以用作基础网络,这里使用 MobileNet-v2。



它提出一种多轨迹预测(Multiple-Trajectory Prediction,MTP)而不是单轨迹预测(STP)损失函数,该损失可以显式地对轨迹空间的多模态建模。首先,在时间 tj 处第 i 个参与者第 m 个模式的单模损失 L 定义为地面真实轨迹与第 m 个模式的预测轨迹之间的平均位移误差(L2-范数):



而 MTP 损失定义如下:



其中



但是,损失中的距离函数不能很好地模拟交叉路口的多峰行为,如图所示。 为了解决这个问题提出了一种函数,该函数考虑从参与者位置看去、两个轨迹最后点之间的夹角来测量距离,从而改善了交叉路口场景的处理性能。



假设有可以遵循的可能车道知识,以及过滤不太可能车道的车道评分系统,那么添加另一个光栅化层,对该信息进行编码并训练网络输出车道跟随轨迹。 然后,对于一个场景,生成具有多个要跟随车道的栅格,从而有效地推断出多个轨迹。下图显示了同一场景的栅格,但是使用两条不同的跟随车道,这些车道用浅粉红色标记,一条直线行驶,一条向左转。 该方法输出的轨迹很好地遵循了预期的路径,并且可以生成寻车道车辆的多个轨迹。



下图展示的是,当增加模式数 M 时,在交叉路口场景参与者直行的的可视化输出。模式数 M = 1(即单轨迹预测 STP 模型)时,推断的轨迹大致是直行和右转模式的平均值。M = 2 时,可以在直行和右转模式之间清楚地分开。 此外, M = 3 时也会出现左转模式,尽管可能性较低。M = 4 时,会产生有趣的结果,直行模式分为“快速”和“慢速”模式,从而模拟了参与者纵向运动的可变性。



《Exploring the Limitations of Behavior Cloning for Autonomous Driving》

车辆驾驶需要对各种复杂的环境条件和代理行为做出反应。对每种可能的场景进行建模是不现实的。相比之下,模仿学习(imitation learning)在理论上可以利用大量的人类驾驶数据。特别是行为克隆(behavior cloning)已成功用于端到端学习简单的视觉动力策略(visuomotor policies),但扩展到全方位的驾驶行为仍然是一个未解决的问题。


本文提出了一个新的基准,实验性地研究行为克隆的可扩展性和局限性。结果说明,行为克隆最好,即使在看不见的环境中执行复杂的横向和纵向机动,这些都是不会明确被编程的。不过,众所周知的局限性(数据集偏差和过拟合的原因)、新的泛化问题(动态目标的存在,以及缺乏因果模型)以及训练不稳定性仍然需要进一步研究,这样行为克隆技术才能逐渐实现真实世界的驾驶。


行为克隆是一种监督学习形式,可以从离线收集的数据中学习传感动力策略(sensorimotor policies)。唯一的需求是专家动作-相关输入传感观测对。这里用自动驾驶汽车扩展形式,称为条件模拟学习(CIL)。它用高级导航命令 c 来消除模仿围绕多种交叉类型的歧议。


给定一个访问环境状态 x 的专家策略π*(x),执行此策略可生成数据集,D = {⟨oi,ci,ai⟩} Ni = 1,其中 oi 是传感器数据观测,ci 是高级命令(例如,下一个右拐,左拐或停留在本车道上)和 ai =π*(xi)是最后产生的车辆动作(低级控制)。观测 oi = {i,vm}包含​​单个图像 i 和添加到系统的自车速 vm 适当地对道路上的动态目标作出反应。没有速度上下文的话,模型无法了解是否,或什么时候,应该加速或者刹车以达到所需的速度或者停止。


仅基于观测 o 和高级命令 c 来学习θ权重参数化的策略π并产生与π类似的动作。最小化模仿成本 l 可获得最佳参数θ



为了测试在线评估学习策略π(oi,ci; θ)的性能,计算给定基准上策略π性能的得分函数值。行为克隆的限制,除了分布漂移之外,还有其他 3 个:


自然驾驶数据集的偏差;因果混乱;差异很大。


如图所示,所提议的网络架构,称为 CILRS,用于基于条件模拟学习(CIL)的端到端城市驾驶。 其中 ResNet 感知模块处理输入图像,输出潜空间,接着是两个预测头:一个用于控制,一个用于速度。



开源的模拟仿真器 CARLA 提供多样化、逼真且动态的、具有挑战驾驶条件的环境。这里推出一种名为 NoCrash 的大型 CARLA 驾驶基准,旨在测试自车能处理复杂事件的能力,主要是由场景中变化的交通状况(例如交通信号灯)和动态代理所引起。


提供了三个不同的任务,每个任务对应 25 个目标导向的剧集(episode)。在每一集代理从一个随机位置开始,由高级规划器指导进入某个目标位置。三个任务如下:


空城:没有动态目标。规则交通:中等数量的汽车和行人。密集交通:大量的行人和繁忙的交通(密集的城市情景)。


与 CARLA 基准测试类似,NoCrash 有六种不同的天气条件,其中四种在训练中,两种在测试中。还有两个城镇场景,一个用于训练,另一个用于测试。


下表是与原始 CARLA 基准测试的最好性能进行比较。 “CILRS”指使用速度预测分支的基于 CIL 的 ResNet 网络, “CILR”指没有这种速度预测基于 CIL 的 ResNet 网络。 该表报告了每种情况下成功完成剧集的百分比,每五次运行选择最佳。



下表是在 NoCrash 基准测试的结果。因为 CARLA 具有显著的非确定性,取三次运行的平均值和标准差。



剩余内容将会放在「下篇」中。


作者介绍


黄浴,奇点汽车美研中心总裁和自动驾驶首席科学家,上海大学兼职教授。曾在百度美研自动驾驶组、英特尔公司总部、三星美研数字媒体研究中心、华为美研媒体网络实验室,和法国汤姆逊多媒体公司普林斯顿研究所等工作。发表国际期刊和会议论文 30 余篇,申请 30 余个专利,其中 13 个获批准。


原文链接


注:本文源自黄浴的知乎,https://zhuanlan.zhihu.com/p/83129242


2019-09-29 18:553536

评论

发布
暂无评论
发现更多内容

夺魁!亚马逊云科技荣膺中国数据管理解决方案领导者!

亚马逊云科技 (Amazon Web Services)

全面隔绝虚拟货币暴涨暴跌风险

CECBC

数字货币与加密货币、虚拟货币的区别

meio

比特币 数字货币 加密货币 虚拟货币

NetCore配置文件使用全过程

happlyfox

520单身福利

5分钟速读之Rust权威指南(六)

wzx

rust

API网关才是大势所趋?SpringCloud Gateway保姆级入门教程

Zhendong

Java spring API 网关

破茧成蝶,如何用数据之力重塑您的业务?| 云途专栏

亚马逊云科技 (Amazon Web Services)

造车潮

ES_her0

5月日更

博睿数据多点开花,数据链DNA加速走进金融、医疗、政企行业

博睿数据

数据链DNA

【签约计划】试用期规则

InfoQ写作社区官方

签约计划 热门活动

医疗数字化:区块链或成最强辅助

CECBC

医疗

发布两小时,Github访问量破百万,阿里内部首次公布的 Java10W 字面经有多强?

Java 程序员 架构 面试

线程与线程池的那些事之线程篇

秦怀杂货店

Java 线程 多线程 进程 并发

产品思维

lenka

5月日更

ArrayList vs LinkedList

ltc

ArrayList linkedlist

一款开源小工具,提升K8S资源管理幸福感!

Rancher

亚马逊云科技宣布在上海设立生命健康行业数字化赋能中心

亚马逊云科技 (Amazon Web Services)

Flink的广播变量

大数据技术指南

大数据 flink 5月日更

写给大神

小梨蕊

情人节 520单身福利 520 单身福利

SWOT分析模型

石云升

创业 战略 职场经验 5月日更

数据挖掘从入门到放弃(七):TensorFlow和keras实现线性回归LinearRegression

数据社

机器学习 5月日更

【epoll】epoll多路复用和Reactor设计思想

Linux服务器开发

后端 网络编程 C/C++ epoll Linux服务器开发

【偶尔一道ctf】xctf adword mobile easy-apk

Thrash

Dubbo 延迟与粘滞连接

青年IT男

dubbo

IPFS与 Filecoin的区别是什么?

meio

IPFS Filecoin

从外包跳槽到大厂,我用了55天成功逆袭。

Java 程序员 架构 面试

区块链技术在数字农业领域的应用挑战

CECBC

520,珍惜眼前人

数据社

520 520单身福利 520 单身福利

为什么“放弃”?

Nydia

学习

架构学习笔记:复杂度来源

六维

5月日更 架构复杂度

深入解读自动驾驶行为预测和规划_AI_黄浴_InfoQ精选文章