TẠP CHÍ KHOA HỌC YERSIN

YERSIN JOURNAL OF SCIENCE

ISSN: 2525 - 2372

ỨNG DỤNG DEEP-LEARNING TRONG NHẬN DẠNG, XÁC ĐỊNH VỊ TRÍ CỦA ROBOT LÀM VIỆC TRONG NHÀ

Tóm tắt

Việc nhận dạng và định vị robot là bài toán cốt lõi trong điều hướng robot trong nhà, đặt nền tảng cho các nhiệm vụ như lập kế hoạch quỹ đạo và tối ưu hóa di chuyển. Nhiều phương pháp đã được nghiên cứu, chẳng hạn như so sánh dữ liệu quét laser với bản đồ, sử dụng thẻ RFID, mã QR, hoặc hệ thống iGPS. Trong bài báo này, chúng tôi đề xuất một giải pháp chi phí thấp sử dụng camera giám sát để nhận dạng và xác định vị trí robot trong không gian rộng như sảnh lớn tại sân bay, bến tàu, v.v. Phương pháp kết hợp học sâu dựa trên mô hình SSD_MobileNet_v2 để nhận dạng robot và xử lý ảnh nhằm tính toán khoảng cách từ camera đến robot thông qua đối tượng nhận dạng gắn trên robot. Kết quả thực nghiệm cho thấy tỷ lệ nhận dạng chính xác đạt 96% và sai số vị trí tối đa là 150 mm, khẳng định tính khả thi của giải pháp trong môi trường thực tế.

Abstract

The recognition and localization of robots represent a core challenge in indoor robot navigation, laying the foundation for tasks such as trajectory planning and movement optimization. Numerous methods have been explored, including laser scan data comparison with maps, the use of RFID tags, QR codes, or iGPS systems. In this paper, we propose a low-cost solution utilizing surveillance cameras to recognize and determine the position of robots in expansive indoor spaces, such as large halls in airports, piers, etc. The approach integrates deep learning based on the SSD_MobileNet_v2 model for robot recognition and image processing to calculate the distance from the camera to the robot via an identification object mounted on it. Experimental results demonstrate a recognition accuracy of 96% and a maximum localization error of 150 mm, confirming the feasibility of the solution in real-world environments.

Từ khóa

nhận dạng robot,định vị robot,xử lý ảnh,học sâu,robot làm việc trong nhà,camera giám sát

robot recognition,robot localization,image processing,deep-learning,indoor robots,surveillance cameras

Tài liệu tham khảo

  1. Chou, Y.-S., & Liu, J.-S. (2013). A robotic indoor 3D mapping system using a 2D laser range finder mounted on a rotating four-bar linkage of a mobile platform. International Journal of Advanced Robotic Systems, 10(1), 45.

    Gallant, M. J., & Marshall, J. A. (2016). Two-dimensional axis mapping using LiDAR. IEEE Transactions on Robotics, 32(1), 150-160.

    Krishnan, A. B., & Kollipara, J. (2014). Intelligent indoor mobile robot navigation using stereo vision. arXiv preprint arXiv:1412.6153.

    Norman, A., Schönberg, A., Gorlach, I., & Schmitt, R. (2010). Cooperation of industrial robots with indoor-GPS. Proceedings of the international conference on competitive manufacturing, 215-224.

    Satoh, K., Uchiyama, S., & Yamamoto, H. (2004). A head tracking method using bird's-eye view camera and gyroscope. Third IEEE and ACM International Symposium on Mixed and Augmented Reality, 202-211.

    Shamseldin, T., Manerikar, A., Elbahnasawy, M., & Habib, A. (2018). SLAM-based Pseudo-GNSS/INS localization system for indoor LiDAR mobile mapping systems. 2018 IEEE/ION Position, Location and Navigation Symposium (PLANS), 197-208.

    TensorFlowerGardener. (2021). TensorFlow 1 Detection Model Zoo. tensorflow. https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf1_detection_zoo.md

    Xiao-Long, W., Chun-Fu, W., Guo-Dong, L., & Qing-Xie, C. (2017). A robot navigation method based on RFID and QR code in the warehouse. 2017 Chinese automation congress (CAC), 7837-7840.

     

Đăng ký/Đăng Nhập
Tìm kiếm