视觉SLAM与导航
对于自动驾驶,我们的研究主要集中在通过基于学习的算法进行感知和定位上。具体来说,我们旨在为基于多传感器感知的严苛环境下的自动驾驶和移动机器人开发强大的基于AI的同时定位和地图(SLAM)系统。
基于图像的深度与3D场景流联合学习
我们提出了一种新颖的场景流估计框架:基于图像的深度和场景流的联合估计。使得场景流估计仅需要图像作为输入 以获得更好的结果,通过深度估计器得到伪点云,然后利用伪点云估计场景流,计算场景流估计损失之后,可以将场景流损失反向传播到深度估计器,进行对深度估计的优化。 我们的场景流估计模型不再受数据集的限制,仅需要双目视图的作为输入就可以在真实环境中产生较好的场景流估计效果。
实时深度、位姿估计和三维重建
在自动驾驶中,深度和相机自我运动的感知是许多高级任务(如SLAM,避障和导航)的基本功能。三维重建技术的重点在于如何获取目标场景或物体的深度信息。在景物深度信息已知的条件下,只需要经过点云数据的配准及融合,即可实现景物的三维重建。基于三维重建模型的深层次应用研究也可以随即展开。图中绿色路径代表位姿真值,红色路径代表预测位姿。我们仅需要连续帧的单目图片作为网络的输入便可以实时得到深度信息,位姿信息和点云信息。
IMU,里程计与双目融合的定位与建图
嵌入式平台有限的计算资源、室内光照环境的多变性、特征的缺乏等问题,对室内移动机器人定位与建图的实时性、鲁棒性和准确性提出了挑战。为了提高对黑暗和纹理丢失的适应性,提出了一种基于图优化的IMU、里程计和立体声融合slam框架。添加线特征来弥补点特征的不足,并提供曼哈顿空间的空间几何信息。增加了双目立体匹配、基于误差模型的关键点选择和基于哈希树的关键帧管理,提高了操作效率。事实证明,我们的框架可以在黑暗、明亮的光线和缺乏质感的极端环境下正常运行。
基于多线激光雷达的目标识别与追踪
机器人在导航运动过程中,不可避免的会遇到行人、车辆等动态障碍物,传统的点云聚类分割算法,包括欧式聚类、区域生长等,会因室外场景复杂多变,聚类失败或者把多个目标物体聚类成一个目标物体。因此,如何在环境中有效快速的检测到动态障碍物是研究的热点和难点。我们采用新型点云聚类算法结合智能搜索算法,以减少搜索的时间复杂度,实现更高精度,更快速度的动态物体识别,从而进行实时避障。具体实现如下:(1)利用静态离群点去除的方法去除噪点和离群点;(2)利用平面拟合的方式分离平面点和非平面点;(3)利用SLR(Scan Line Run)聚类的方法并结合智能搜索,实现动态物体快速、准确识别。