학술논문

과수원 로봇의 무인 자율과 수확량 모니터링을 위한 비전 센서 활용
Application of Vision Sensors for Auto-guidance and Yield Monitoring of an Unmanned Orchard Robot
Document Type
Article
Source
한국농업기계학회 학술발표논문집. Nov 02, 2022 27(2):213
Subject
농업용 과수 로봇
비전 센서
자율주행
생육 상태 모니터링
Language
Korean
Abstract
과수원 내 무인 로봇은 스스로 주행하면서 과실 생육 상태 정보를 실시간으로 관찰해 과수원 관리에 도움을 줄 수 있다. 과수원의 canopy로 인해 GNSS 수신이 원활하지 못한 문제를 해결하고 산재된 장애물을 회피하는 동시에 과실의 생육 상태를 감지하기 위한 목적으로 비전 센서의 활용 빈도가 높다. 본 연구에서는 2022년 9월 1일 농촌진흥청 농용로봇경진대회의 일환으로 비전 센서를 활용하여 자율주행과 과실 생육 상태 모니터링 기능을 수행할 수 있는 ROS 기반 로봇 플랫폼을 구축하였다. Turtlebot3 Burger에 2D LiDAR 센서와 IMU 센서, camera 2개를 설치하여 사용하였고, 과수 모형과 상자로 과수 환경을 모사한 실험 환경을 구성하였다. 2D LiDAR를 로봇 하단 전방에 설치하고 전방의 대각선 방향을 바라보도록 감지 범위를 설정함으로써 과수 열 중앙으로 주행함과 동시에 장애물이 존재 시 회피가 가능한 주행 알고리즘을 구성하였다. 선회 시 회전각은 2D LiDAR로 측정한 과수원 벽까지의 거리 값을 이용하여 계산하였다. 로봇의 odometry를 계산 시 IMU 센서의 초기화 문제로 인해 발생하는 특정 bias를 보정하여 정확도를 높였다. 과실의 생육 상태 정보는 다양한 환경에서 물체를 인식하기 위해 주로 사용되는 YOLOv5를 활용하여 생육 상태에 따른 과실의 이미지를 학습시켜서 모델을 만들었다. 과수원 전체의 과실 생육 상태 정보를 파악하는 것에서 더 나아가 과수별 과실의 생육 상태를 관찰하기 위해 이미지 상에서 특징점이 없는 각 과수를 구별해야 한다. 과수 하나를 인식할 수 있는 구역을 설정했고 각 구역에서의 odometry 값을 구하여 좌측 이미지와 우측 이미지의 과수 번호를 계산하였다. 이미지의 생육 상태에 따른 과실 개수와 계산한 과수 번호를 결합하여 과수별 과실 생육 상태를 맵핑하는 방식으로 과수 구별 문제를 해결하였다. 실험 결과, 로봇 플랫폼은 90% 이상의 확률로 충돌없이 안정적으로 주행하였고, 과실의 모니터링 결과는 90% 이상의 정확도를 보였다.

Online Access