您现在的位置是:首页 >要闻 > 2020-12-07 16:41:40 来源:

基于视觉的积极驾驶的新框架

导读 佐治亚理工学院的机器人与智能机器研究所(IRIM)的研究人员最近提出了一种仅使用单眼相机,IMU传感器和轮速传感器进行主动驾驶的新框架。他

佐治亚理工学院的机器人与智能机器研究所(IRIM)的研究人员最近提出了一种仅使用单眼相机,IMU传感器和轮速传感器进行主动驾驶的新框架。他们的方法在arXiv上预先发表的一篇论文中提出,结合了基于深度学习的道路检测,粒子过滤器和模型预测控制(MPC)。

进行这项研究的研究人员之一保罗·德鲁斯(Paul Drews)告诉TechXplore:“了解自动驾驶的极端情况变得非常重要。” “我们选择了激进驾驶,因为这是自动驾驶汽车避免碰撞或缓解碰撞的很好的代表。”

术语“激进驾驶”是指地面车辆按照拉力赛的要求在接近装卸速度极限并且通常具有较大的侧滑角的情况下运行。在他们以前的工作中,研究人员调查了使用高质量GPS进行全球位置估计的激进驾驶。这种方法有几个局限性,例如,它需要昂贵的传感器并且不包括GPS限制的区域。

研究人员以前基于基于视觉(非基于GPS)的驾驶解决方案取得了可喜的成果,该解决方案基于从单眼摄像机图像中回归本地成本图并将此信息用于基于MPC的控制。但是,由于视野有限且安装在地面车辆上的摄像机的视角低,单独处理每个输入帧会导致学习困难,这使得很难生成在高速下有效的成本图。

Drews说:“我们这项工作的主要目的是了解视觉如何用作主动驾驶的主要传感器。” “这带来了有趣的挑战,因为视觉处理必须满足严格的时间要求。这使我们能够探索在感知和控制之间紧密耦合的算法。”

在这项新研究中,研究人员解决了以前工作的局限性,介绍了一种自动高速驾驶的替代方法,其中使用了基于视频的深度神经网络模型(即LSTM)形式的本地成本图生成器作为粒子滤波器状态估算器的测量过程。

本质上,粒子滤波器使用此动态观察模型来定位原理图,并基于该状态估计值使用MPC进行主动驱动。框架的这一方面允许他们在不使用GPS技术的情况下获得针对示意图的全球位置估计,同时还提高了成本图预测的准确性。

Drews解释说:“我们通过直接从单眼图像中学习中间成本图来直接采取自动驾驶的方法。” “这种中间表示然后可以直接由模型预测控制使用,或者可以由粒子过滤器使用,以达到基于GPS状态的主动性能。”