Please use this identifier to cite or link to this item: https://hdl.handle.net/2445/223376
Title: Intelligent Mobile Robot System: YOLOv8, SLAM, and ROS2 Integration in a Docker-Based Deployment on LIMO
Author: Ayete Corrales, Matthew
Director/Tutor: Puig i Vidal, Manuel
Puertas i Prats, Eloi
Keywords: Robots
Visió per ordinador
Reconeixement de formes (Informàtica)
Detectors
Programari
Treballs de fi de grau
Robots
Computer vision
Pattern recognition systems
Detectors
Computer software
Bachelor's theses
Issue Date: 10-Jun-2025
Abstract: Este Trabajo de Fin de Grado presenta el diseño, implementación y evaluación de un sistema de navegación autónoma consciente del entorno humano utilizando el robot LIMO de AgileX y el framework ROS2. El sistema propuesto combina percepción visual mediante un modelo de detección de objetos basado en YOLOv8 con navegación SLAM apoyada en datos LiDAR. Todo el desarrollo se llevó a cabo dentro del entorno virtual de The Construct, y posteriormente se dockerizó el sistema para su despliegue en el robot fı́sico. Se generó un conjunto de datos personalizado de señales de tráfico, utilizado para entrenar un modelo ligero capaz de detectar múltiples tipos de señales con alta precisión. El robot reacciona ante estas señales en tiempo real, modificando su trayectoria o deteniéndose según la clase identificada. Además, se diseñó una arquitectura modular que permite el uso del sistema tanto de forma independiente como integrada dentro del stack de navegación del robot. El proyecto demuestra que es posible construir un sistema robótico robusto y escalable empleando herramientas de código abierto, contribuyendo ası́ a los campos de la navegación autónoma, la robótica basada en visión, la dockerización de sistemas y el desarrollo modular con ROS2.
This Final Degree Project presents the design, implementation, and evaluation of a human-aware autonomous navigation system using the AgileX LIMO robot and the ROS2 framework. The proposed system combines visual perception through a YOLOv8-based object detection model with SLAM-based navigation supported by LiDAR data. The complete development process was carried out within The Construct’s virtualized environment, while the final deployment was dockerized and executed on the real robot. A custom dataset of traffic signs was generated and used to train a lightweight detection model capable of recognizing multiple sign types with high precision. The robot reacts to these signs in real-time by modifying its trajectory or stopping autonomously depending on the class detected. In addition, a modular software architecture was developed, enabling the system to operate either independently or in combination with the robot’s navigation stack. The project demonstrates that it is possible to build a robust and scalable robotic system using open-source tools, contributing to the fields of autonomous navigation, vision-based robotics, containerized deployment, and ROS2-driven modular systems.
Note: Treballs Finals de Grau d'Enginyeria Informàtica, Facultat de Matemàtiques, Universitat de Barcelona, Any: 2025, Director: Manuel Puig i Vidal i Eloi Puertas i Prats
URI: https://hdl.handle.net/2445/223376
Appears in Collections:Treballs Finals de Grau (TFG) - Enginyeria Informàtica
Programari - Treballs de l'alumnat

Files in This Item:
File Description SizeFormat 
TFG_Ayete_Corrales_Matthew.pdfMemòria12.16 MBAdobe PDFView/Open
ROS2_LIMO_ws.zipCodi font130.15 MBzipView/Open


This item is licensed under a Creative Commons License Creative Commons