You are here: Home Proceedings
Document Actions

Proceedings

Benchmarking for the Indoor Localization of Autonomous Mobile Robots in Intralogistics

  1. M.Sc. Markus Knitt Institut für Technische Logistik, Technische Universität Hamburg
  2. M.Sc. Yousef Elgouhary Institut für Technische Logistik, Technische Universität Hamburg
  3. M.Sc. Jakob Schyga Institut für Technische Logistik, Technische Universität Hamburg
  4. M.Sc. Hendrik Rose Institut für Technische Logistik, Technische Universität Hamburg
  5. M.Sc. Philipp Braun Institut für Technische Logistik, Technische Universität Hamburg
  6. Prof. Dr.-Ing. Jochen Kreutzfeldt Institut für Technische Logistik, Technische Universität Hamburg

Abstracts

This paper introduces a novel approach to benchmarking Indoor Localization Systems (ILS) for mobile robots in warehouse and manufacturing contexts. The study focuses on diverse localization technologies commonly used in mobile robotics and implements transparent and comparable performance metrics, an automated experimental procedure, as well as an intuitive performance visualization approach. Experiments were conducted using a custom-built robot equipped with various sensors, including LiDAR, Ultra-Wideband (UWB), and vision systems. A process for systematically analyzing the impact of environmental factors such as lighting, reflectivity, and obstacles on localization performance is proposed. The results provide insights into system robustness and accuracy under different conditions. The study enables more efficient experimental analysis of sensor fusion and optimization strategies for achieving optimal performance and offers a workflow to efficiently investigate sensor fusion concepts using real data.

In diesem Beitrag wird ein neuartiger Ansatz zum Benchmarking von Indoor-Lokalisierungssystemen (ILS) für mobile Roboter in Lager- und Produktion-sumgebungen vorgestellt. Die Studie konzentriert sich auf verschiedene Lokalisierungstechnologien, die üblicherweise in der mobilen Robotik verwendet werden, und implementiert transparente und vergleichbare Leistungsmetriken, ein automatisiertes Experimentierverfahren und einen intuitiven Ansatz zur Leistungsvisualisierung. Die Experimente wurden mit einem speziell angefertigten Roboter durchgeführt, der mit verschiedenen Sensoren ausgestattet war, darunter LiDAR-, UWB- und Vision-Systeme. Es wird eine Methode vorgeschlagen, um die Auswirkungen von Umgebungsfaktoren wie Beleuchtung, Reflektivität und Hindernisse auf die Lokalisierungsleistung systematisch zu analysieren. Die Ergebnisse geben Aufschluss über die Robustheit und Genauigkeit des Systems unter verschiedenen Bedingungen. Die Studie ermöglicht eine effizientere experimentelle Analyse von Sensorfusions- und Optimierungsstrategien, um eine optimale Leistung zu erzielen, und bietet einen Arbeitsablauf für die effiziente Untersuchung von Sensorfusionskonzepten anhand realer Daten.

Keywords

Fulltext

License

Any party may pass on this Work by electronic means and make it available for download under the terms and conditions of the Creative Commons Attribution 4.0 International (CC BY 4.0). The text of the license may be accessed and retrieved at https://creativecommons.org/licenses/by/4.0/.

Number of citations

Visit Google Scholar to find out, how often this paper is cited.