(43-3) 18 * << * >> * Русский * English * Содержание * Все выпуски

Исследование зависимости точности одновременной реконструкции сцены и позиционирования камеры от погрешностей, вносимых датчиками мобильного устройства

Мясников В.В., Дмитриев Е.А.

Самарский национальный исследовательский университет имени академика С.П. Королёва,

ИСОИ РАН – филиал ФНИЦ «Кристаллография и фотоника» РАН

 PDF, 1417 kB

DOI: 10.18287/2412-6179-2019-43-3-492-503

Страницы: 492-503.

Аннотация:
Задача одновременной реконструкции сцены и позиционирования камеры (Simultaneous Localization and Mapping – SLAM) с использованием монокулярной системы наблюдения – одна из наиболее известных и сложных, затрагивающая целый ряд научных направлений: робототехнику, компьютерное зрение и виртуальную реальность. Настоящая работа направлена на решение проблемы SLAM в рамках мобильного устройства, оснащённого, наряду с монокулярным оптическим сенсором (камерой), также инерционными датчиками (гироскоп и акселерометр) и цифровым компасом. Последние позволяют получать дополнительную оценку положения и ориентации мобильного устройства. Цель работы – оценить потенциальную пригодность и эффективность использования дополнительной информации, предоставляемой указанными датчиками мобильного устройства типа смартфона, с точки зрения точности получаемого решения и/или снижения временных затрат на его получение. Экспериментальная часть исследования, включающая как модельные, так и натурные эксперименты, позволила определить требования к допустимым погрешностям, вносимым датчиками мобильного устройства. Для конкретной модели мобильного устройства показано, что электронный компас удовлетворяет этим требованиям, в то время как погрешности инерционных датчиков, используемых для определения перемещений, оказываются неприемлемо большими.

Ключевые слова:
SLAM, визуальная одометрия, реконструкция сцены, мобильное устройство, инерционные датчики, компас

Цитирование:
Мясников, В.В.
Исследование зависимости точности одновременной реконструкции сцены и позиционирования камеры от погрешностей, вносимых датчиками мобильного устройства / В.В. Мясников, Е.А. Дмитриев // Компьютерная оптика. – 2019. – Т. 43, № 3. – С. 492-503. – DOI: 10.18287/2412-6179-2019-43-3-492-503.

Литература:

  1. Хорн, Б.К.П. Зрение роботов / Б.К.П. Хорн; пер. с англ. – М.: МИР, 1989. – 489 с.
  2. Форсайт, Д. Компьютерное зрение. Современный подход / Д. Форсайт, Ж. Понс; пер. с англ. – M.: Вильямс, 2004. – 928 с. – ISBN: 0-13-085198-1.
  3. Шапиро, Л. Компьютерное зрение / Л. Шапиро, Д. Стокман; пер. с англ. – М.: Бином, Лаборатория знаний, 2015. – 763 с.
  4. Durrant-Whyte, H.F. Simultaneous localisation and mapping (SLAM): Part I. The essential algorithms / H.F. Durrant-Whyte, T. Bailey // IEEE Robotics and Automation Magazine. – 2006. – Vol. 13, Issue 2. – P. 99-110.
  5. Durrant-Whyte, H.F. Simultaneous localisation and mapping (SLAM): Part II. State of the art / H.F. Durrant-Whyte, T. Bailey // IEEE Robotics and Automation Magazine. – 2006. – Vol. 13, Issue 3. – P. 108-117.
  6. Cadena, C. Past, present, and future of simultaneous localization and mapping: Toward the robust-perception age / C. Cadena, L. Carlone, H. Carrillo, Y. Latif, D. Scaramuzza, J. Neira, I. Reid, J.J. Leonard // IEEE Transactions on Robotics. – 2016. – Vol. 32, Issue 6. – P. 1309-1332.
  7. Younes, G. Keyframe-based monocular SLAM: design, survey, and future directions / G. Younes, D. Asmar, E. Shammas, J. Zelek // Robotics and Autonomous Systems. – 2017. – Vol. 98. – P. 67-88.
  8. Гошин, Е.В. Решение задачи автоколибровки камеры с использованием метода согласованной идентификации / E.В. Гошин, В.А. Фурсов // Компьютерная оптика. – 2012. – Т. 36, № 4. – С. 605-611.
  9. Котов, А.П. Технология оперативной реконструкции трёхмерных сцен по разноракурсным изображениям / А.П. Котов, В.А. Фурсов, Е.В. Гошин // Компьютерная оптика. – 2015. – Т. 39, № 4. – С. 600-605. – DOI: 10.18287/0134-2452-2015-39-4-600-605.
  10. Мясников, В.В. Модельно-ориентированный дескриптор поля градиента как удобный аппарат распознавания и анализа цифровых изображений / В.В. Мясников // Компьютерная оптика. – 2012. – Т. 36, № 4. – С. 596-604.
  11. Fischler, M.A. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography / M.A. Fischler, R.C. Bolles // Communications of the ACM. – 1981. – Vol. 24, Issue 6. – P. 381-395.
  12. Levenberg, K.A. A method for the solution of certain non-linear problems in least squares / K.A. Levenberg // Quarterly of Applied Mathematics. – 1944. – Vol. 2, Issue 2. – P. 164-168.
  13. Marquardt, D. An algorithm for least-squares estimation of nonlinear parameters / D. Marquardt // SIAM Journal on Applied Mathematics. – 1963. – Vol. 11, Issue 2. – P. 431-441.
  14. Montemerlo, M. FastSLAM: A factored solution to the simultaneous localization and mapping problem / M. Montemerlo, S. Thrun, D. Koller, B. Wegbreit // Proceedings of the AAAI National Conference on Artificial Intelligence. – 2002. – P. 593–598.
  15. Klein, G. Parallel tracking and mapping for small AR workspaces / G. Klein, D. Murray // 2007 6th IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR). – 2007. – P. 225-234.
  16. Engel, J. Semi-dense visual odometry for a monocular camera / J. Engel, J. Sturm, D. Cremers // 2013 IEEE International Conference on Computer Vision (ICCV). – 2013. – P. 1449-1456.
  17. Engel, J. LSD-SLAM: Large-scale direct monocular SLAM / J. Engel, J. Schops, D. Cremers // European Conference on Computer Vision (ECCV). – 2014. – P. 834-849.
  18. Mur-Artal, R. ORB-SLAM: A versatile and accurate monocular SLAM / R. Mur-Artal, J.M.M. Montiel, J.D. Tardos // IEEE Transactions on Robotics. – 2015. – Vol. 31, Issue 5. – P. 1147-1163.
  19. Newcombe, R.A. DTAM: dense tracking and mapping in real-time / R.A. Newcombe, S.J. Lovegrove, A.J. Davison // IEEE International Conference on Computer Vision. – 2011. – P. 2320-2327.
  20. Stühmer, J. Real-time dense geometry from a handheld camera / J. Stühmer, S. Gumhold, D. Cremers // Pattern Recognition (DAGM). – 2010. – P. 11-20.
  21. Transkanen, P. Live metric 3D reconstruction on mobile phones / P. Tanskanen, K. Kolev, L. Meier, F.C. Paulsen, O. Saurer, M. Pollefeys // 2013 IEEE International Conference on Computer Vision (ICCV). – 2013. – P. 65-72.
  22. Roxas, M. Real-time simultaneous 3D reconstruction and optical flow estimation / M. Roxas, T. Oishi // IEEE Winter Conference on Applications of Computer Vision (WACV). – 2018. – P. 885-893.
  23. Schuster, R. Dense scene flow from stereo disparity and optical flow / R. Schuster, O. Wasenmüller, S. Didier // Computer Science in Cars Symposium. – 2018.
  24. Kummerle, R. On measuring the accuracy of SLAM algorithms / R. Kummerle, B. Steder, C. Dornhege, M. Ruhn­ke, G. Grisetti, C. Stachniss, A. Kleiner // Autonomous Robots. – 2009. – Vol. 27, Issue 4. – P. 387-407.
  25. Ma, Z. Experimental evaluation of mobile phone sensors / Z. Ma, Y. Qiao, B. Lee, E. Fallon // 24th IET Irish Signals and Systems Conference (ISSC 2013). – 2013. – 49 (8 p.).
  26. Kok, M. Using inertial sensors for position and orientation estimation / M. Kok, J.D. Hol, T.B. Schon // Foundations and Trends in Signal Processing. – 2017. – Vol. 11, Issues 1-2. – P. 1-153.
  27. Titterton, D.H. Strapdown inertial navigation technology / D.H. Titterton, J.L. Weston. – London, UK, Reston, Virginia: Institution of Engineering and Technology, 1996. – 558 p. – ISBN: 978-0-86341-358-2.
  28. Android. Source. Develop. Sensor Types [Electronical Resource]. – URL: https://source.android.com/devices/sen­sors/sensor-types#rotation_vector (дата обращения 15.05.2019).

© 2009, IPSI RAS
Россия, 443001, Самара, ул. Молодогвардейская, 151; электронная почта: journal@computeroptics.ru ; тел: +7 (846) 242-41-24 (ответственный секретарь), +7 (846) 332-56-22 (технический редактор), факс: +7 (846) 332-56-20