北京航空航天大学学报 ›› 2018, Vol. 44 ›› Issue (1): 176-186.doi: 10.13700/j.bh.1001-5965.2016.0965

• 论文 • 上一篇    下一篇

无人机室内视觉/惯导组合导航方法

王亭亭1, 蔡志浩1,2, 王英勋1,2   

  1. 1. 北京航空航天大学 自动化科学与电气工程学院, 北京 100083;
    2. 北京航空航天大学 飞行器控制一体化技术国防科技重点实验室, 北京 100083
  • 收稿日期:2016-12-23 修回日期:2017-02-06 出版日期:2018-01-20 发布日期:2017-03-23
  • 通讯作者: 蔡志浩 E-mail:czh@buaa.edu.cn
  • 作者简介:王亭亭,女,硕士研究生。主要研究方向:机器视觉、无人机视觉导航;蔡志浩,男,副教授,硕士生导师。主要研究方向:无人机自主控制与导航、多机协同与训练;王英勋,男,研究员,博士生导师。主要研究方向:系统设计、自主控制与模拟训练。
  • 基金资助:
    航空科学基金(20135851043)

Integrated vision/inertial navigation method of UAVs in indoor environment

WANG Tingting1, CAI Zhihao1,2, WANG Yingxun1,2   

  1. 1. School of Automation Science and Electrical Engineering, Beijing University of Aeronautics and Astronautics, Beijing 100083, China;
    2. Aircraft Control Integration National Defense Key Laboratory, Beijing University of Aeronautics and Astronautics, Beijing 100083, China
  • Received:2016-12-23 Revised:2017-02-06 Online:2018-01-20 Published:2017-03-23

摘要: 针对室内无卫星定位下的无人机自主导航问题,提出了一种融合惯导、光流和视觉里程计的组合导航方法。在速度估计上,采用基于ORB特征的光流法,该方法可以实时地估计出无人机的三轴线速度信息。方法采用基于特征点的稀疏光流,对金字塔Lucas-Kanade光流法进行了改进,采用前后双向追踪和随机采样一致的方法提高特征点追踪精度。在位置估计上,采用视觉/惯导融合的视觉里程计,以人工图标法为主,融合视觉光流信息和惯导数据实现无人机定位。通过与运动捕捉系统的定位信息、Guidance和PX4Flow导航模块的测速信息进行对比,以及实际的飞行测试,验证本文方法的可行性。

关键词: 无人机, 视觉导航, 光流, ORB特征, 多传感器融合

Abstract: A new integrated navigation method based on inertial sensor,optical flow and visual odometry is proposed for self-navigation indoor in GPS-denied environment. An ORB optical flow based method is also proposed for estimating real-time three-axis velocity of the UAV. The algorithm improves the traditional pyramid Lucas-Kanade method using sparse optical flow based on feature points. The tracking of feature points is made more accurate by applying forward-backward tracking and random sampling consensus strategies. For position estimation, a visual odometry method with integrated vision/inertial navigation is adopted, which uses the artificial icon method, visual optical flow information and inertial navigation data. Finally, the velocity and position estimations from the proposed method are validated via actual flight test and via comparison with velocity measurement information from a PX4Flow module and a Guidance module and with locating information from movement capture system.

Key words: UAV, vision navigation, optical flow, ORB features, multi-sensor fusion

中图分类号: 


版权所有 © 《北京航空航天大学学报》编辑部
通讯地址:北京市海淀区学院路37号 北京航空航天大学学报编辑部 邮编:100191 E-mail:jbuaa@buaa.edu.cn
本系统由北京玛格泰克科技发展有限公司设计开发