研究方向
我们的研究方向涵盖视觉伺服, SLAM与导航, 复杂环境下的强化学习导航, 目标检测, 机器嗅觉等。
视觉伺服
我们致力于非结构化环境中的视觉伺服控制,提出了与深度无关的交互矩阵,解耦非线性与深度,并在此基础上提出了用于在线估计未知相机参数的自适应定律。 因此,可以使用未经校准的单眼相机设计控制器,实现调节和跟踪性能。所提出的视觉伺服技术已用于控制各种类型的机器人平台,包括工业机器人,软机器人,柔性机器人,移动机器人等。
机械手的自适应视觉伺服
在基于视觉的机器人操控中,通常要求对象应呈现所需的形状或以特定角度进行观察,以利于后续操作,例如对象爬行和组件检查。为了实现这种视觉伺服任务,设计了一种基于Bezier曲线参数和非均匀有理B样条(NURBS)曲线的新型图像特征。设计一种自适应深度独立控制器用于估算未知曲线参数以及在线深度信息(TMECH 2018)。 此外,基于视觉伺服理论,我们开发了一种与瓶状物体相互作用的应用程序,可用于对瓶状模具的内表面去毛刺,抛光和焊接。根据对象的几何形状,提出了一种新的广义约束,称为瓶颈(BN)约束,该约束可确保工具穿过固定的3D区域并避免与该区域的边界发生碰撞。设计了一种新颖的动态控制器,以在BN约束下实现混合视觉/力的控制 (ICRA 2021)。
轮式机器人的视觉伺服—位置控制
我们提出了一种新颖的基于图像的视觉伺服方案,以解决带有高架固定摄像头的移动机器人的姿态稳定和位置控制问题。 该方案引入了一种新的基于图像的运动学模型,该模型从图像雅可比矩阵中删除了相机的内在和外在参数,从而使设计独立于相机参数的基于图像的控制器成为可能。 在所提出的方案中,不需要准确或近似的相机的内参和外参信息,完全未知的相机可以以任意姿势安装在天花板上,这使得控制器的实现非常简单和灵活。 (TRO 2019, TAC 2018)
轮式机器人的视觉伺服—轨迹跟踪控制
在实际应用中,控制移动机器人沿预定轨迹移动到目标位置非常重要,为了成功执行任务,在控制过程中避开障碍物并将移动机器人保持在摄像机视场中是十分重要的。 为此,我们提出了一种新的免校准的基于图像的轨迹跟踪控制方案,并且该方案是针对于具有真正未校准的固定相机的非完整移动机器人设计的。 通过开发一种新颖的与相机参数无关的运动学模型,可以在避免离线和在线相机校准,并且在控制器设计中不需要摄像机的任何信息。因此所提出的轨迹跟踪控制方案可以保证图像位置和速度跟踪误差的指数收敛。 (TASE 2020)
轮式机器人中的视觉伺服—信息控制
许多现有的非完整移动机器人编队控制方法,都需要测量引导速度并将其传输给跟随者以进行控制器设计。为了使机器人适用于难以或不可能提供全球定位信息的环境,我们应该开发不需要测量机器人位置信息的编队控制器。为此,我们为移动机器人开发了新颖的连续编队控制器,该控制器无需测量引导器速度,因此不需要移动机器人之间相互通信。为了解决领导者速度不可用的问题,我们提出了一种基于自适应控制技术的观察者。观察者从跟随者的机载传感器信息中估计出领导者的速度,在基于Lyapunov稳定性理论的稳定性分析中考虑了速度估计误差对闭环稳定性的影响,结果表明,所开发的方法可确保组合的观测器-控制器闭环系统的整体稳定性。 (TMECH 2020, TRO 2018)