一个极度逼真的仿真系统 用于训练和验证自动驾驶汽车
据外媒报道,美国马里兰大学(University of Maryland)计算机科学家Dinesh Manocha与中国百度研究院(Baidu Research)以及香港大学(University of Hong Kong)的同事合作,研发了一个极度逼真的仿真系统,用于训练和验证自动驾驶汽车。现有系统使用游戏引擎或是具高保真度的计算机图形以及数学建模交通模式来进行模拟,与之相比,该新系统可提供更丰富、更真实的模拟。
该新系统名为增强型自动驾驶仿真(AADS),可让自动驾驶技术更容易在实验室内进行评估,同时确保自动驾驶技术在投入到昂贵的道路测试之前,足够可靠、安全。
自动驾驶汽车的一个潜在好处是,其可能比人类驾驶员更加安全,因为人类驾驶员容易分心、疲劳、情绪化,从而导致做出错误决定。但是,为了确保安全,自动驾驶汽车必须评估驾驶环境,并对驾驶环境做出反应。鉴于汽车在道路上可能遇到各种情况,自动驾驶系统需要在极具挑战性的条件下进行数亿英里的试驾,以证明其具有可靠性。
如果在真实道路上完成试驾可能需要几十年的时间,但是通过计算机仿真系统可以快速、高效、更安全地对自动驾驶系统进行初步评估。计算机仿真系统可以准确地再现真实世界,并对周围物体的行为进行建模。目前,科学文献中描述的最先进的仿真系统仍在描绘逼真环境,以及呈现真实世界交通流模式或驾驶员行为方面存在不足。
AADS是一个由数据驱动的系统,能够更加准确地呈现自动驾驶汽车在道路上接收到的信息。自动驾驶汽车依赖感知模块和导航模块,感知模块接收和解释现实世界的信息,导航模块基于感知模块做出决策,例如转向何处,是否要刹车或是加速。
在现实世界中,自动驾驶汽车的感知模块通常接收摄像头和激光雷达传感器的信息,此类传感器利用光脉冲测量与周边物体的距离。在目前的仿真技术中,感知模块接收计算机生成的图像,以及行人、自行车和其他汽车运动模式的模型,是对现实世界一种相对粗糙的呈现,但是由于计算机生成的图像模型必须由手工生成,因此该过程非常昂贵且耗时。
而AADS系统将照片、视频和激光雷达点云(类似于3D形状效果图),与行人、自行车和其他车辆的真实轨迹数据相结合,此类轨迹数据还能用于预测道路上其他车辆或行人的驾驶行为和未来位置,以实现安全驾驶。
在使用真实视频图像和激光雷达数据进行模拟时,科学家们面临着一个挑战:每个模拟场景都必须对自动驾驶汽车的运动做出响应,即使此类运动并没有被原始摄像头或激光雷达传感器捕捉到。此外,还必须预测没有被照片或视频捕捉到的任何角度或视点的场景,并恢复或模拟出来,这也是为什么仿真技术一直非常依赖计算机生成图形技术以及物理预测技术的原因。
为了克服该挑战,研究人员研发了一项技术,可以将现实世界街景的各个部分分离开,并将各部分恢复成单独的元素,然后再将此类元素重新合成,以创建大量逼真的驾驶场景。
凭借AADS,车辆和行人都可以从一个环境中拎出来,然后再放置到另一个有合适照明和运动模式的环境中。此外,可以重建不同交通水平的道路,每个场景的多个视角都可以在车辆变道和转弯过程中提供更加逼真的视角。此外,与其他视频仿真技术相比,先进的图像处理技术可实现平滑转换,减少失真。而且还可利用图像处理技术提取行人、自行车和其他车辆的轨迹,模拟驾驶员行为。
美国马里兰大学计算机科学家Dinesh Manocha表示:“因为我们使用的是有关现实世界的视频以及现实世界中行人、自行车和其他车辆的动作,因而与以前的方法相比,我们的感知模块拥有的信息更准确。而且,由于该模拟器的真实性非常高,我们能够更好的评估自动驾驶系统的驾驶策略。”