|
|
Please use this identifier to cite or link to this item:
https://repositorio.utn.edu.ec/handle/123456789/18335| Title: | Detección de malas hierbas basada en aprendizaje profundo a partir de imágenes de UAV: una revisión |
| metadata.dc.title.en: | Weed detection based on deep learning from UAV imagery: A review |
| Authors: | Sandoval Pillajo, Ana Lucía García Santillán, Iván Danilo Pusdá Chulde, Marco Remigio Giret, Adriana |
| metadata.dc.contributor.orcid: | https://orcid.org/0000-0003-1463-017X https://orcid.org/0000-0001-6404-5185 https://orcid.org/0000-0003-4265-999X https://orcid.org/0000-0002-2311-0785 |
| metadata.dc.type: | Article |
| Keywords: | MALEZA;APRENDIZAJE PROFUNDO;AGRICULTURA;REVISIÓN SISTEMÁTICA |
| metadata.dc.subject.en: | WEED DETECTION;WEED MAPPING;DEEP LEARNING;UAV IMAGES |
| Issue Date: | 17-Dec-2025 |
| metadata.dc.date.created: | 30-Jun-2025 |
| Publisher: | Elsevier |
| Abstract: | Las malas hierbas son plantas indeseables que compiten con los cultivos por recursos esenciales como la luz, el suelo, el agua y los nutrientes. Además, pueden albergar plagas que reducen el rendimiento de los cultivos. En la agricultura tradicional, el control de malas hierbas se basa en la aplicación de pesticidas en todo el campo agrícola, lo que provoca daños en el suelo, contaminación ambiental, afectación de los productos agrícolas y riesgos para la salud humana. La agricultura de precisión (AP) ha evolucionado en los últimos años gracias a sensores, hardware, software y avances en los sistemas de vehículos aéreos no tripulados (UAV). Estos sistemas tienen como objetivo mejorar la aplicación localizada de productos químicos para el control de malas hierbas mediante el uso de técnicas avanzadas de análisis de imágenes, visión por computador, aprendizaje profundo (DL) y geolocalización (GPS) para detectar y reconocer malas hierbas. Esto, a su vez, facilita la implementación de mecanismos de control específicos en entornos reales. Recientemente, se han desarrollado técnicas automáticas de detección de malas hierbas utilizando imágenes adquiridas por UAV. Sin embargo, estas técnicas enfrentan un desafío significativo debido a las similitudes morfológicas entre las malas hierbas y los cultivos, como el color, la forma y la textura, lo que dificulta su diferenciación práctica y efectiva y su implementación. Este artículo presenta una revisión sistemática de la literatura (SLR) basada en 77 estudios recientes y relevantes sobre la detección y clasificación de malas hierbas en imágenes de UAV utilizando arquitecturas de aprendizaje profundo. El análisis se centra en aspectos clave como el uso de UAV y sensores, la adquisición y el procesamiento de imágenes, las arquitecturas de DL y las métricas de evaluación. La revisión abarca publicaciones desde 2017 hasta junio de 2024 procedentes de las bases de datos WoS, Scopus, ScienceDirect, SpringerLink e IEEE Xplore. Los resultados permitieron identificar diversas limitaciones, tendencias, brechas y oportunidades para futuras investigaciones. En general, se observa un uso predominante de UAV multirrotor, en particular el DJI Phantom con sensores RGB, así como una tendencia hacia la integración de múltiples sensores (multiespectrales, LiDAR) operando a alturas cercanas a los 10 metros, lo que proporciona una buena cobertura espacial en la adquisición de datos. Asimismo, el rápido desarrollo de las arquitecturas de aprendizaje profundo ha impulsado modelos CNN como ResNet para clasificación, YOLO para detección, U-Net para segmentación semántica y Mask R-CNN para la segmentación de instancias de malas hierbas, con una tendencia hacia nuevas arquitecturas basadas en Transformers e híbridas. Las métricas más comunes utilizadas para evaluar estos modelos incluyen precisión, recall, F1-Score y mAP. |
| metadata.dc.description.abstract-en: | Weeds are undesirable plants that compete with crops for essential resources such as light, soil, water, and nutrients. Additionally, they can harbor pests that reduce crop yields. In traditional agriculture, weed control is based on applying pesticides throughout the agricultural field, resulting in soil damage, environmental contamination, damage to farm products, and risks to human health. Precision agriculture (PA) has evolved in recent years thanks to sensors, hardware, software, and innovations in unmanned aerial vehicle (UAV) systems. These systems aim to improve the localized application of chemicals in weed control by using advanced image analysis techniques, computer vision, deep learning (DL), and geo-positioning (GPS) to detect and recognize weeds. This subsequently facilitates the implementation of specific control mechanisms in real environments. Recently, automatic weed detection techniques have been developed using UAV imagery. However, these face a significant challenge due to the morphological similarities between weeds and crops, such as color, shape, and texture, which makes their practical and effective differentiation and implementation difficult. This paper presents a systematic literature review (SLR) based on 77 recent and relevant studies on weed detection and classification in UAV imagery using DL architectures. The analysis focuses on key aspects such as using UAVs and sensors, image acquisition and processing, DL architecture, and evaluation metrics. The review covers publications from 2017 to June 2024 from WoS, Scopus, ScienceDirect, SpringerLink, and IEEE Xplore databases. The results allowed the identification of various limitations, trends, gaps, and opportunities for future research. In general, there is a predominant use of multirotor UAVs, particularly the DJI Phantom with RGB sensors, showing a trend towards the integration of multiple sensors (multispectral, LiDAR) operating at heights of around 10 meters, providing good spatial coverage in data acquisition. Likewise, the rapid development of deep learning architectures has driven CNN models such as ResNet for classification, YOLO for detection, U-Net for semantic segmentation, and Mask R-CNN for weed instance segmentation, with a tendency towards new Transformerbased and hybrid architectures. The most common metrics used to evaluate these models include precision, recall, F1-Score, and mAP. |
| URI: | https://repositorio.utn.edu.ec/handle/123456789/18335 |
| metadata.dc.identifier.doi: | https://www.sciencedirect.com/science/article/pii/S277237552500379X?via%3Dihub |
| ISSN: | 27723755 |
| metadata.dc.coverage: | Ibarra. Ecuador |
| metadata.dc.description.degree: | N/A |
| Appears in Collections: | Artículos |
Files in This Item:
There are no files associated with this item.
This item is protected by original copyright |
This item is licensed under a Creative Commons License