用户登录

|
基于主动全景视觉传感器的机器人视觉系统

一种基于主动全景视觉传感器的机器人视觉系统,包括全方位视觉传感器、关键面激光光源以及用于对全方位图像进行三维立体摄像测量、障碍物检测、避障和导航的微处理器,所述全方位视觉传感器与所述关键面激光光源配置在同一根轴心线上。

基于VR-Forces仿真平台的多无人机协同任务规划仿真系统

本发明公开了一种基于VR-Forces仿真平台的多无人机协同任务规划仿真系统,其特征是:多无人机协同任务规划仿真系统由n个无人机仿真子系统、一个地面控制中心仿真子系统和一个任务规划仿真场景管理子系统组成。

一种遥操纵机器人基于视觉的动觉示教控制方法

本发明提供一种遥操作机器人基于视觉的动觉示教控制方法,其步骤包括采用立体视觉技术对现场的作业对象及背景环境(障碍物)进行识别与空间信息提取;以通过视觉识别、计算出的作业对象与机器人末端间的位姿关系为参数,构建作业对象对机器人的虚拟吸引力;以机器人末端沿其速度方向与背景环境(障碍物)的距离为参数,构建机器人所受的障碍物排斥力;将作业对象虚拟吸引力、障碍物虚拟斥力以及机器人抓取物体时的真实作用力合成机器人示教力;通过主端系统与从端系统间的雅可比矩阵,将示教力向操作手柄反馈,从而实现对操作者的动觉示教。本发明相对于现有技术具有如下的优点及技术效果 :[0031] 1. 将机器智能与人类高级决策的优点有机集成,可有效提高机器人的作业效率与局部自主。[0032] 2. 降低对操作人员熟练程度的要求。[0033] 3. 对可能发生的机器人与环境间的碰撞进行预测,可有效保证机器人作业系统的安全性。[0034] 4. 能够缓解操作者控制机器人时的心理紧张及决策疲劳。[0035] 5. 控制回路具有数据量小、信息丰富、超前预测的优点,可有效避免图像时滞导致的机器人操控盲目性。一种遥操纵机器人基于视觉的动觉示教控制方法,其特征在于,包括以下步骤 :[0007] S1、采用立体视觉技术对现场的作业对象及背景环境 ( 障碍物 ) 进行识别与空间信息提取;[0008] S2、以步骤 S1 中获取的作业对象与机器人末端间的位姿关系为参数,构建作业对象对机器人的虚拟吸引力;[0009] S3、以步骤 S1 中获取的机器人末端沿其速度方向与背景环境 ( 障碍物 ) 的距离为参数,构建机器人所受的障碍物排斥力;[0010] S4、将作业对象虚拟吸引力、障碍物虚拟斥力以及机器人抓取物体时的真实作用力合成机器人示教力;[0011] S5、通过主端系统与从端系统间的雅可比矩阵,将示教力向操作手柄反馈,从而实现对操作者的动觉示教。[0012] 根据权利要求 1 所述的遥操纵机器人基于视觉的动觉示教控制方法,其特征在于,所述步骤 S1 包括 :包括以下步骤 :[0013] S11.1、将 Bumblebee 双目摄像头采用 eye-to-hand 方式固定在现场环境正上方,光轴与地面垂直,简称为环境相机;[0014] S11.2、根据环境相机图像中各像素点的颜色、灰度或纹理特征,从中剔除机器人区域及作业对象区域,以获得背景图像;[0015] S11.3、根据图像匹配及摄像机标定的结果,实时计算背景图像中各像素点的空间坐标;[0016] S11.4、采用基于空间自相关性的内插方式来预测估计所剔除的机器人区域及作业对象区域应有像素属性,并结合背景图像像素特征,生成背景环境的高程数据模型;[0017] S12.1、将 Kinect 相机采用 eye-in-hand 方式固连于机器人末端,简称为手部相机;[0018] S12.2、根据手部相机图像中各像素点的颜色、纹理特征,采用结合人口统计与区域增长的图像分割方法来提取作业对象区域,并采用分裂 - 合并算法提取该区域轮廓的近似多边形,取多边形的顶点为作业对象图像特征;[0019] S12.3、根据图像匹配及摄像机标定的结果,实时计算作业对象区域各像素点的空间坐标,并构建其 OBB(Oriented Bounding Box- 有向包围盒 ) 包围盒模型。

无人机的可视导航系统

本发明提出一种无人机的可视导航系统。其中,无人机集群的协作交互方法包括以下步骤:无人机集群中的某个无人机确定其通信覆盖范围内满足协作条件的无人机,并根据满足协作条件的无人机建立无人机协作组;确定所述无人机协作组中的多架无人机的机间路由;根据所述机间路由的链路状态信息对所述无人机协作组中的多架无人机分配协作任务;根据所述无人机协作组中的多架无人机的运动状态评估所述链路状态,并根据评估结果更新所述无人机协作组的无人机及每架无人机的协作任务。本发明可靠性强,通信质量高,能较好地适应可视导航中的无人机集群通信环境。