Secciones
Referencias
Resumen
Servicios
Descargas
HTML
ePub
PDF
Buscar
Fuente


Reconocimiento de lesiones necróticas para la detección de la plaga thrips en el guisante mediante el uso del modelo deep learning yolov4-tiny
Recognition of necrotic lesions for the detection of the thrips plague in peas using the deep learning model yolov4-tiny
Latin-American Journal of Computing, vol.. 9, núm. 1, 2022
Escuela Politécnica Nacional

Latin-American Journal of Computing
Escuela Politécnica Nacional, Ecuador
ISSN: 1390-9266
ISSN-e: 1390-9134
Periodicidad: Semestral
vol. 9, núm. 1, 2022

Publicación: 03 Enero 2022


Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional.

Resumen: En la actualidad, el monitoreo de cultivos en las parcelas agrícolas sigue siendo una de las tareas más significativas que tiene la agricultura de precisión; debido a que, por medio de esta actividad se puede efectuar la estimación del rendimiento y la predicción de cosechas en los cultivos. Además de las complicadas condiciones atmosféricas y factores climáticos como las fuertes heladas y las largas sequias que presentan el sector, la detección temprana de plagas y enfermedades se ha convertido en un desafío que los productores deben asumir frecuentemente con la finalidad de evitar la pérdida de sus cultivos. Con base en esto, esta investigación propone un sistema de reconocimiento rápido y eficaz de lesiones necróticas causadas por la plaga thrips en el guisante mediante la implementación del modelo deep learning yolov4-tiny. Para el desarrollo del sistema se utilizó un dataset de 502 imágenes con un total de 6000 épocas de entrenamiento. Los resultados alcanzados por el sistema desarrollado mostraron que la Intersección sobre la Unión (IoU) es del 59,23% para una Precisión Media (mAP) de 81,60% sobre un conjunto de datos de alta densidad. Determinando así que el sistema consigue una efectividad del 86% en la detección del objeto de estudio.

Palabras clave: lesiones necróticas, plaga thrips, deep learning, yolov4-tiny.

Abstract: Nowadays, the monitoring of crops in agricultural plots continues to be one of the most significant tasks for the precision agriculture, since, through this activity the estimation of the yield and the prediction of crops can be performed. In addition to the complicated atmospheric conditions and climatic factors such as strong frosts and long droughts that the sector presents, the early detection of pests and diseases has become a considerable challenge for the growers to avoid the loss of their crops. This research proposes a rapid and efficient recognition system for necrotic lesions caused by the thrips plague in peas by implementing the Yolov4-Tiny deep learning model. For the development of the system, a dataset of 502 images with a total of 6000 training periods were used. The results achieved by the developed system present that the Intersection on the Union (IoU) is 59.23% for a Mean Precision (mAP) of 81.60% on a high-density data set. Thus, determining that the system achieves an effectiveness of 86% in the detection of the object of study.

Keywords: necrotic lesions, plague thrips, deep learning, yolov4-tiny.

I. Introducción

A. Contextualización

En un informe relativo a los años 2019-2020, la Comisión Económica para América Latina y el Caribe (CEPAL), así como la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO), y el Instituto Interamericano de Cooperación para la Agricultura (IICA) [1] expresan que, no se puede reducir la pobreza, la malnutrición y el cambio climático; si el sector político y la sociedad no proyectan a las zonas rurales como motor de desarrollo económico, social y ambiental [1]. Además, han expresado que todas las actividades agrícolas, deben ser consideradas como un eje fundamental para el impulso económico y el desarrollo sostenible del sector rural [1].

La agricultura en la actualidad sigue siendo un factor muy importante para la economía y la sociedad. De acuerdo con la FAO, el potencial agrícola de América Latina y el Caribe (LAC), viene siendo uno de los principales abastecedores de alimentos a nivel mundial [2]. Pero, en las últimas décadas, se tiene evidencias que los resultados en la producción de cultivos han sido variables, esto se debe en gran parte a las situaciones ambientales y climáticas [2]. Entre los años 2005-2015, este tipo de circunstancias han ocasionado pérdidas en el sector agrícola y pecuario de aproximadamente 13.000 millones de dólares en LAC. Mientras que solo en las leguminosas las pérdidas fueron de 8.000 millones de dólares [2].

En el transcurso del tiempo las condiciones atmosféricas, así como los factores climáticos en el sector agrícolas han jugado un papel importante para que exista la presencia de plagas o enfermedades en los cultivos [3]. Donde los Kakothrips Robustus Uzel o también conocidos como thrips, es una de las principales plagas que ataca a la mayoría de las leguminosas [3]. Debido a que, causan diferentes síntomas en los cultivos como la deformación o el cambio estético en las hojas, tallos y frutos. Además, provocan la decoloración y la aparición de manchas de color plomo, marrón y negro en las diferentes partes del cultivo [3].

En vista al constante incremento de este tipo de plagas en la mayoría de leguminosas. Algunos sectores relacionados a la agricultura y entidades gubernamentales, han venido utilizando plaguicidas y pesticidas como parte esencial de la producción agrícola [4]. La aplicación directa de estos insumos, han permitido reducir las pérdidas de los cultivos en un 35%. Pero el uso frecuente y habitual de los plaguicidas es sumamente peligroso para los seres humanos y el medio ambiente [4].

B. Cultivo del guisante en Ecuador

En Ecuador, el Eje de Economía al Servicio de la Sociedad del Plan Nacional de Desarrollo (PND), expresan que, en los últimos años se han venido realizando grandes avances en el sector agrícola. Pero, el nivel del rendimiento de los productos básicos y de exportación sigue siendo muy bajo. Por este motivo, todavía existe el desafío de trabajar en la democratización de las distintas unidades productivas a través del fortalecimiento de programas de asistencia técnica, así como la capacitación y la innovación del sector agrícola [5].

Para el 2019, el sector agrícola del Ecuador aportó con el 8% de la producción total de la nación siendo esta la actividad que más empleos generó. A pesar de los grandes avances tecnológicos que se tiene actualmente para la producción de cultivos, el rendimiento en las parcelas agrícolas es bajo en relación con otros países [6].

En Ecuador, el guisante es una de las leguminosas más consumidas, debido a que es considerado como uno de los alimentos más importantes en la dieta de las personas. Por ejemplo, en el año 2017 la producción del guisante tierno disminuyó en un 39% respecto al 2016. De igual manera, la producción del guisante seco presentó un descenso de 32% [6]. Este comportamiento está relacionado con la reducción simultánea de la superficie en las cosechas, los factores climáticos, la calidad del cultivo, y el rendimiento del producto [6].

El guisante en Ecuador es cultivado en toda la región andina del país, siendo la provincia del Carchi la que mayor producción registra. Con un total de 9.462 hectáreas por año, que es igual a un rendimiento de 8 toneladas en promedio por hectárea y representa el 47,46% de la producción nacional [7].

C. Cultivo del guisante en la provincia del Carchi

En los últimos años, la producción del guisante en la provincia del Carchi ha presentado un crecimiento indeterminado en zonas comprendidas entre los 2.700 y 2.800 m.s.n.m. De esta manera, se ha convertido en uno de los cultivos más importantes del sistema de producción de la región norte del país [8].

Entre las variedades del guisante de mayor producción está la Quantum que es cultivada entre los 2.600 a 2.900 m.s.n.m. Los cantones Bolívar, Espejo, y Montúfar son los que más producen este tipo de guisante. En cambio, la obonuco andina es cultivada entre los 2.700 a 3.300 m.s.n.m., y es cultivada más en los cantones Huaca, Tulcán, y parte de Montúfar [9].

A nivel cantonal, Bolívar es el cantón que más produce guisante como se indica en la Tabla.1.

Tabla I
Cultivo del guisante en la provincia del Carchi

[9]

De acuerdo a las condiciones climáticas que presenta el cantón Bolívar, esta es considerada como una de las zonas idóneas en la región para la producción del guisante. Debido a que, cuenta con una superficie aproximada de 36.056 hectáreas y una altura aproximada de 2.503 m.s.n.m., además, de una temperatura promedio que varia entre 12 y 18°C [10].

Sin embargo, gran parte de la producción de este tipo de leguiminosas ha presentado dificultades que están relacionadas a los factores climáticos como las heladas y en ocasiones las largas sequías. Además, los problemas fitosanitarios, las etapas de germinación y desarrollo del cultivo han provocado que exista una baja producción [8]. De la misma forma, las constantes precipitaciones en el sector y la alta humedad en los terrenos han causado en algunas ocasiones la pérdida total del guisante. Este tipo de situaciones crea las condiciones adecuadas para el desarrollo de plagas en los cultivos [8].

D. Trabajos relacionados a la investigación

Los siguientes trabajos de investigación, afrontan la temática planteada con la aplicación de diferentes modelos de deep learning.

La investigación desarrolla por R. Dalai y K. Kumar Senapati propone el empleo de un mecanismo de detección que está basado en la arquitectura de una Region Based Convolutional Neural Networks (RCNN) [11]. Además, utiliza una segmentación establecida en deep learning, mediante la implementación el extractor de características ResNet-50.

Otra investigación realizada por Ai, C. Sun, J. Tie y X. Cai, utiliza el modelo Inception-ResNet-v2, y el dataset público de Al Challenger de 27 imágenes de enfermedades de 10 tipos de cultivos [12]. Los resultados de los experimentos identificaron de manera eficaz los datos y alcanzaron una precisión del 86,1% en el reconocimiento del objeto de estudio.

H. Kuzuhara, H. Takimoto, Y. Sato y A. Kanagawa, en su investigación, proponen dos métodos de detección e identificación de pequeñas plagas, basados en CNN [13]. Además, se presenta una red basada en la arquitectura Yolov3 y un método de reidentificación usando el modelo Xception.

En la investigación efectuada por C. Chen, Y. Huang, Y. Li, Y. Chen, C. Chang e Y. Huang se empleó un vehículo aéreo no tripulado para fotografiar la plaga en los cultivos, y a través de la arquitectura CNN yolov3-tiny en un sistema integrado NVIDIA Jetson TX2, consiguieron realizar el reconocimiento de la plaga en tiempo real [14]. De esta manera, el vehículo agrícola rocía el pesticida, solo donde sea necesario reduciendo así el daño al medio ambiente y aumentando el rendimiento de los cultivos.

La investigación desarrollada por A. Chakravarthy y S. Raman presenta un estudio de la identificación temprana del tizón en el tomate, para este propósito se utilizaron las arquitecturas ResNet y Xception, alcanzando una precisión de clasificación del 99,95% [15]. Pero, la falta de información espacial para las hojas afectadas limitó de cierta manera avanzar hacia la detección de objetos por lo que decidieron emplear variantes como la arquitectura yolov3-SPP (tolerancia a fallos limitada) e yolov3-tiny (inferencia en tiempo real) [15].

Finalmente, K. Li, J. Zhu y N. Li en su investigación adoptaron una red de detección de objetivos basada en el modelo Yolov3 para realizar la detección de múltiples objetivos, y CSPDarkenet-53 como red de extracción de características [16]. Además, utilizaron CIOU como la función de pérdida de la predicción de regresión y el algoritmo de agrupamiento de K-means, para otorgar prioridad al objeto sobre un conjunto de datos [16]. Los resultados de las experimentaciones muestran que el modelo alcanzo una precisión del 90,62% [16].

La presente investigación propone la aplicación del modelo de deep learning para el reconocimiento de lesiones necróticas que son provocadas por la plaga thrips en los cultivos del guisante. Esta es una de las principales plagas que ataca a la mayoría de las leguminosas. Para el modelo planteado se implementó la arquitectura yolov4-tiny sobre una Single Board Computer (SBC), gracias al mejoramiento que ofrece respecto a la precisión y al tiempo de respuesta en relación a su predecesor Yolov3, el que mismo que fue utilizado en algunas de las anteriores investigaciones.

II. Marco Teórico

A. Plaga Thrips

Los thrips, como se muestra en la Fig.1, son pequeños insectos que tienen una contextura es de forma cilíndrica, alargada y su color puede variar de gris a negro, o de amarillo a marrón, y pertenecen a la familia de los tisanópteros [17]. Este tipo de patógenos puede desplazarse por el cultivo realizando pequeños vuelos o llevados por el viento [17]. Debido a su hábito alimenticio, los thrips suelen encontrarse en los tallos, hojas, flores y en el polen de las plantas en una gran variedad de cultivos donde se alimentan y se reproducen [17].


Fig.1
Plaga thrips del guisante o arveja

Los daños que causa la plaga thrips en el guisante pueden ser detectados principalmente en el fruto o vainas, debido a las lesiones o cicatrices necróticas que estás tienen [3] . Este tipo de lesiones se debe a que los thrips extraen los fluidos de las células vegetales, las cuales se llenan de aire y se vuelve de color gris [3] . Además, se pueden observar en las áreas afectadas puntos de color negro que es el excremento de la plaga [3] .

Las lesiones necróticas que suelen presentarse en gran parte del cultivo son originadas por los thrips, estos patógenos son una de las principales causas de la reducción en la producción [3]. De igual manera, la presencia de secuelas como picaduras en el fruto provocan rechazo del cultivo para su comercialización, debido al estado actual y calidad del producto [3].

En la actualidad, existen algunos métodos que permiten realizar el control de la plaga thrips como el trampeo, el control biológico y químico. Pero, no se conoce de un método automático en el mercado. Aunque, existen algunas investigaciones relacionadas a la detección de otro tipo de plagas y enfermedades de diferentes cultivos, a través de la implementación de varias arquitecturas de CNN y métodos de deep learning. Estas tendencias tecnológicas han permitido realizar la identificación y clasificación de plagas, así como la revisión del estado actual del cultivo a partir de imágenes. Además, se puede efectuar de manera automática el seguimiento, la planificación y la predicción de cosechas.

B. Modelo Yolo

El modelo Yolo es un tipo de red R-CNN, que es utilizado para el reconocimiento de imágenes en tiempo real. Este modelo se distingue de los demás por ser extremadamente rápido y preciso en comparación a otros modelos que son utilizados para la detección de objetos [18].

La arquitectura original del modelo Yolo, como se indica en la Fig.2, se basa en la CNN GoogleNet que se compone de 24 capas convolucionales. Las capas iniciales se encargan de extraer las características más significativas de la imagen, en cambio que las capas completamente conectadas predicen las probabilidades de la salida y las coordenadas de la ubicación del objeto de estudio [18].


Fig.2
Arquitectura original de la red neuronal Yolo
[19]

Con relación a otros modelos que utilizan clasificadores para el reconocimiento de objeto, el modelo Yolo encuadra la detección de objetos como un problema de regresión en cuadros delimitadores, separados espacialmente y con las probabilidades de las clases asociadas. Es capaz de procesar imágenes en tiempo real a una cantidad de 45 cuadros por segundo [20].

Para la versión 3, Yolo trae consigo algunas mejoras respecto a su versión original. Debido a que, cuenta con un extractor de características hibrido Darknet-53, el que está formado de 53 capas convolucionales 3x3, 1x1 y de algunas conexiones de acceso directo y capas residuales. Ademas, tiene 53 capas convolucionales adicionales apiladas las que son empleadas para la detección de objetos [18].


Fig.3
Comparación de Yolov3 con otros modelos empleados para la detección de objetos
[21]

De esta manera, lo convierten en una arquitectura totalmente subyacente de 106 capas convolucionales, las que le han permitido posicionarse como uno de los modelos más rápidos y eficientes para la detección de objetos [18]. En la Fig.3, se observa el rendimiento de Yolov3 en comparación a otros modelos que son empleados para el mismo propósito.

La versión 4 del modelo Yolo presenta mejoras respecto a su predecesor Yolov3, en relación a la velocidad de interferencia y a su precisión en razón del 10 al 12% [22]. Pero, su arquitectura es más compleja debido a que se compone de tres partes esenciales que son:

  1. 1. El backbone: utiliza la red CSPDarknet53, la que se basa en la CNN ResNet y es empleada para que la red tenga profundidad y al mismo tiempo pueda aliviar el gradiente de desaparición [19].
  2. 2. El neck: la arquitectura Yolov4, emplea dos redes, la primera en la red de Agrupación de Pirámides Espaciales (SPP) que es utilizada para aumentar eficazmente la receptividad y ayudar a separar las características contextuales [19]. La segunda es la red de Agregación de Rutas (PANet), que permite acortar el camino que conecta la información de bajo y alto nivel, y los parámetros convergentes a diferentes niveles [19].
  3. 3. El header: la aquitecturaYolov4, hereda la estructura de la cabeza del modelo Yolov3 [19].


Fig.4
Arquitectura de la red neuronal Yolov4
[23]

Además, la arquitectura Yolov4 cuenta con una versión reducida que es la estructura Yolov4-Tiny. Este tipo de CNN es la compresión de Yolov4 y fue diseñada específicamente para simplificar la estructura de la red original.

La estructura yolov4-tiny es aproximadamente ochos veces mayor que su versión original respecto al procesamiento de las Frames per Second (FPS). Sin embargo, la precisión tiene una relación de 2/3 a la de Yolov4, sobre un conjunto de datos de alta densidad. Pero, para la detección de objetos yolov4-tiny, es la mejor opción debido a la rapidez de interferencia que alcanza en tiempo real.

III. Metodología

La metodología aplicada en la presente investigación está constituída de las siguientes fases como se muestra en la Fig.5:


Fig.5
Diagrama de las fases de la metodología

A. Adquisición de imágenes

La adquisición de imágenes es la parte fundamental para el desarrollo de la propuesta planteada, debido a que dependen de la calidad que tengan y como sean presentadas para su análisis. Por ejemplo, si las lesiones necróticas que fueron causadas por la plaga thrips en el guisante, son visibles o no en cada una de las imágenes.

Todas las imágenes que se utilizaron en la investigación fueron capturadas desde las parcelas agrícolas del guisante como se muestra en la Fig.6.


Fig.6
Guisante con lesiones necróticas causadas por la plaga thrips

B. Procesamiento de imágenes

En esta fase, se trabaja directamente sobre las imágenes que fueron guardadas en formato JPG en un repositorio digital. Donde se identifican y etiquetan las características más significativas del objeto de estudio, mediante el uso de Roboflow. Este tipo de herramienta permitió aplicar atributos como: la orientación automática, redimensionamiento, rotación, saturación, brillo, exposición y difuminación. Con la finalidad de mejorar el reconocimiento de las lesiones necróticas en los cultivos como se muestra en la Fig.7.


Fig.7
Aplicación de atributos y etiquetado de las imágenes

A partir del etiquetado de cada una de las características más significativas y la implementación de atributos en las imágenes se delimitó en área, donde se presentan las lesiones necróticas en el guisante, las mismas serán registradas en un archivo “.xlsx”. Este archivo contiene la ubicación o las coordenadas del objeto de estudio en las imágenes.

C. Generación del dataset

Para la creación del dataset, se utilizaron 502 imágenes a las que se aplicó cada uno de los atributos antes mencionados, donde se obtuvo un dataset de 944 imágenes en total. El que se compone de 884 imágenes para el entrenamiento, 40 imágenes para la validación y 20 imágenes para las pruebas como se observa en la Fig.8.


Fig.8
Tamaño del dataset creado para el entrenamiento y validación de la propuesta planteada

D. Entrenamiento de la CNN

Para el entrenamiento de la CNN se utilizó la estructura yolov4-tiny, esta es básicamente un algoritmo empleado para la detección de objetos, y se encuentra implementado sobre la red Darknet.

La arquitectura que fue empleada en el entrenamiento de la propuesta planteada es la red Darknet-29, debido a que utiliza un extractor hibrido para extracción de características y detección de objetos. Esta es una estructura que se compone de 29 capas convolucionales sucesivas de 3x3, 1x1 y de algunas capas de interconexión como se muestra en la Fig .9.


Fig.9
Estructura de la red Darknet-29

Para el entrenamiento se requiere esencialmente de la implementación de las librerías yolov4-tiny.conv.29[1] y darknet[2], las que se encuentran en el repositorio de GitHub AlexeyAB.

Además, se necesita de la integración del dataset que fue creado en Roboflow al entorno de entrenamiento. Igualmente, se requiere de la configuración de ciertos parámetros que son parte del entrenamiento del modelo yolov4-tiny como son: el número de épocas, el número de clases y la cantidad de filtros. La configuración de cada uno de los parámetros fue realizada desde el archivo yolov4-tiny-custom.cfg, como se indica en la Fig.10.

Finalmente, la red CNN yolov4-tiny fue entrenada para un total de 6000 épocas con ciertas variaciones, rotaciones y transformaciones que fueron recreadas por la librería OpenCV. De forma que, ofrezca variedad al entrenamiento y permita identificar las lesiones necróticas causadas por la plaga thrips en el guisante de manera rápida y precisa.

El entrenamiento de la red yolov4-tiny, obtuvo un rendimiento promedio del 81,6% en la detección del objeto de estudio, respecto al radio de aprendizaje como se indica en la Fig.11.


Fig.10
Estructura de la red Darknet-29


Fig.11
Rendimiento promedio de la red Yolov4-Tiny en el reconocimiento de lesiones necróticas

E. Reconocimiento de lesiones necróticas

En esta fase, se realiza la delimitación de cada uno de los objetos que fueron identificados en las imágenes. Para esta etapa el algoritmo Yolo realiza un recorrido por la imagen y se encarga de detectar las regiones, donde se encuentran el o los objetos de estudio. Este tipo de regiones o también conocidos como anchors boxes, no son más que cuadros de diferentes tamaños que se distribuyen por toda la imagen.

Debido a que la arquitectura Yolov4, hereda la estructura del header de la red Yolov3, que es la encargada de predecir el cuadro delimitador y de generar las coordenadas del centro, ancho y altura {xcenter, ycenter, w, h} de cada uno de los anchors boxes [24].

Esta tarea se realiza mediante el uso de las siguientes ecuaciones:

(1)

(2)

(3)

(4)

Donde pw y ph representan el ancho y el alto del cuadro delimitador, mientras que (cx,cy) es la coordenada de la esquina superior izquierda de la imagen como se observa en la Fig.12 [24]. En esta etapa, la red yolov4-tiny, efectúan miles de predicciones, donde solo se presentan aquellas que son objetos, a través del proceso de supresión máxima. De manera que, permita obtener el resultado de interferencia único en función de la probabilidad de la clase a la pertenece el objeto.


Fig.12
Conversión de cuadro delimitador verdadero y cuadro delimitador previsto
[25]

Por ejemplo, si el anchors boxes en el que se encuentra el objeto de estudio no está centrado, la red yolov4-tiny ejecuta varios ajustes a estas regiones a través de predicciones. Donde efectúa el cálculo correspondiente y muestra él o los objetos que tienen el cuadro delimitador con mayor valor de IoU.

Para el reconocimiento del objeto de estudio se utilizó el modelo yolov4-tiny que fue previamente entrenado en la fase del entrenamiento de la CNN y de diferentes imágenes del cultivo específicamente las que presentaban algún tipo de secuela o lesiones necróticas provocadas por la plaga thrips.

En la Fig. 13, se muestra el reconocimiento de las lesiones necróticas.


Fig.13
Reconocimiento de lesiones necróticas en el cultivo del guisante con el modelo yolov4-tiny

El reconocimiento de las lesiones necróticas en los cultivos fue muy efectivo, debido a que los resultados alcanzados en detección del objeto de estudio tienen precisión promedio del 0.73%.

IV. Pruebas y Resultados

Las pruebas de funcionamiento del modelo propuesto para el reconocimiento de las lesiones necróticas en los cultivos del guisante, para la detección de la plaga thrips se realizaron, desde una SBC (Raspberry-Pi) la que está constituida de un procesador de cuatro núcleos de 1.5 GHz, una memoria 4GB LPDDR4 en RAM e interfaces de conectividad Wi-Fi con estándar 802.11ac, Bluetooth 5.0 y Gigabit Ethernet.

El modelo yolov4-tiny propuesto fue aplicado en 100 casos de cultivos, donde la mitad presentaban lesiones necróticas o secuelas de plaga thrips, mientras que el resto de se encontraban en buen estado. Para cada caso se consideraron criterios de inclusión y exclusión, respecto al estado actual en el que se encuentra el guisante.

Por ejemplo, en la Fig.14 las pruebas de funcionamiento fueron eficientes, debido a que pudo reconocer las todas las lesiones necróticas que tiene el guisante, con un porcentaje de presión que va desde el 0,49% hasta 0,92% en un tiempo de respuesta de 15,62 ms para cada detección del objeto de estudio.


Fig.14
Pruebas de funcionamiento del modelo yolov4-tiny en las imágenes del guisante

Durante de la ejecución de las pruebas de funcionamiento fue necesario contar con un experto en la producción del cultivo. Debido a que, su criterio permitió evidenciar el nivel de confianza y precisión del modelo propuesto.

Tabla II
Presición del reconocimiento de lesiones necróticas y tiempo de respuesta

La Tabla II muestra los experimentos que fueron realizados en siete días. Donde se indica el promedio de la probabilidad que el modelo alcanza en el reconocimiento de lesiones necróticas y el tiempo de respuesta.

V. Discusión de Resultados

Después de observar los resultados del reconocimiento de lesiones necróticas en los cultivos del guisante, se efectuó un análisis comparativo de los valores obtenidos de cada una de las pruebas de funcionamiento realizadas con el modelo yolov4-tiny propuesto. Se pudo verificar que existe una ligera variación entre los resultados que fueron entregados por método en contraposición a los señalados por el experto. En la Fig.15, se muestra la comparación de los resultados del objeto de estudio.


Fig.15
Comparación de los resultados del reconocimiento de lesiones necróticas en el guisante alcanzados por el modelo en contraposición al criterio del experto.

Respecto al desempeño del modelo propuesto, fueron evaluados los resultados que se obtuvieron en la matriz de confusión como se muestra en la Fig.16, sobre un conjunto de datos aleatorios.

La matriz de confusión del modelo propuesto, muestra las dos clases que son: guisante con lesiones (0) y guisante sin lesiones (1).


Fig.16
Diagrama de la matriz de confusión del modelo propuesto

En la Tabla III, se muestran algunos indicadores de la matriz de confusión para los datos de prueba que fueron tomados aleatoriamente. En esta se observa que el modelo tiene una alta precisión y es capaz de identifica de forma correcta el objeto de estudio.

Tabla III
Estadisticas de la matriz de confución

En las pruebas de desempeño del modelo, se utilizaron 20 imágenes en promedio, las mismas que fueron seleccionadas de forma aleatoria para cada una de las clases.

  • El número de aciertos en la clase 1 son 21 de un total de 21 imágenes, que corresponde al 100% de precisión en la detección del objeto de estudio.

  • En la clase 2 el número de aciertos es 22 de un total de 24 imágenes, que corresponde al 91% de precisión en la detección de objeto de estudio.

De acuerdo con los resultados entregados por la matriz de confusión, tiene un valor promedio de accuracy o precisión de 96%, lo que lo hace aceptable.

VI. Conclusiones

La implementación de los modelos de aprendizaje profundo o deep learning en el desarrollo de sistemas aplicados a la agricultura de precisión, tienen un alto nivel de aceptación. Debido a los beneficios que ofrecen, por ejemplo, en esta investigación, se permitió efectuar de reconocimiento de lesiones necróticas provocadas por la plaga thrips en los cultivos del guisante de forma rápida y efectiva.

El entrenamiento de la estructura yolov4-tiny fue una solución eficiente, debido a que permitió alcanzar el 59,23% en el nivel de intersección sobre la unión (IoU), para una precisión media (mAP) de 81,60% en conjunto de datos o dataset de alta densidad.

Los resultados alcanzados en las pruebas de funcionamiento fueron satisfactorios gracias al nivel de precisión del método propuesto yolov4-tiny. En el reconocimiento de las lesiones necróticas, para la detección de la plaga thrips en los cultivos del guisante, es del 77,57% con un tiempo respuesta promedio de 15,62 ms para cada una de las detecciones realizadas.

El rendimiento del modelo propuesto es muy aceptable, debido a que, su valor promedio en la precisión (accuracy) es del 96%.

VII. Trabajos Futuros

En esta investigación, el modelo propuesto basado en la estructura yolov4-tiny es un gran aporte para el estudio del cultivo. El manejo de las lesiones necróticas de forma temprana ayudaría a reducir las pérdidas y mejorar del rendimiento del guisante. Un aporte fundamental en el futuro sería escalar la programación, para que el modelo propuesto realice la predicción sobre el estado actual en el que se encuentra el cultivo.

Adicionalmente, una investigación futura podría centrarse en la detección temprana de la plaga thrips en el guisante desde vehículos aéreos no tripulados, debido a que, la plaga thrips en el guisante se presenta en cualquier etapa y así poder sugerir un plan de prevención basada en el nivel de la enfermedad que tenga el cultivo.

Referencias

[1] CEPAL, «Perspectivas de la agricultura y del desarrollo rural en las Américas: una mirada hacia América Latina y el Caribe 2019-2020,» 02 2020. [En línea]. Disponible: https://www.cepal.org/sites/default/files/publication/files/45111/CEPAL-FAO2019-2020_es.pdf. [Último acceso: 02 06 2021].

[2] CGSPACE, «Retos del Cambio Climático para la Agricultura en América Latina y el Caribe,» 11 2018. [En línea]. Disponible: https://cgspace.cgiar.org/rest/bitstreams/160740/retrieve. [Último acceso: 06 06 2021].

[3] D. R. Prado Jiménez, «Identificación de las principales plagas del cultivo de arveja (Pisum sativum L.)en la comunidad de Canchaguano, cantón Montúfar, provincia del Carchi,» 2019. [En línea]. Disponible: http://dspace.utb.edu.ec/bitstream/handle/49000/6873/E-UTB-FACIAG-ING%20AGRON-000205.pdf?sequence=1&isAllowed=y. [Último acceso: 08 06 2021].

[4] R. Bereinsten y Y. Edan, «Automatic Adjustable Spraying Device for Site-Specific Agricultural Application,» 02 03 2017. [En línea]. Disponible: https://ieeexplore.ieee.org/document/7869323. [Último acceso: 08 06 2021].

[5] Secretaría Técnica Planificación Ecuador, «Plan Nacional de Desarrollo 2017-2021,» 2017. [En línea]. Disponible: https://www.planificacion.gob.ec/wp-content/uploads/downloads/2017/10/PNBV-26-OCT-FINAL_0K.compressed1.pdf. [Último acceso: 07 06 2021].

[6] MAGAP, «Boletin Situacional - Arveja 2017,» 13 11 2018. [En línea]. Disponible: https://fliphtml5.com/ijia/dkgk/basic. [Último acceso: 09 06 2021].

[7] A. Angulo Pérez, «Identificación de las principales plagas y enfermedades en el cultivo de arveja (Pisum sativum), parroquia Bolívar, cantón Bolívar, Provincia del Carchi,» 2019. [En línea]. Disponible: http://dspace.utb.edu.ec/bitstream/handle/49000/6395/E-UTB-FACIAG-ING%20AGRON-000152.pdf?sequence=1&isAllowed=y. [Último acceso: 12 06 2021].

[8] C. G. Delgado Chamorro, «Efecto del ácido acetilsalicílico para activación de defensas en el cultivo de arveja (Pisum sativum),en el sector de Chapués, cantón Tulcán, Carchi –Ecuador,» 2014. [En línea]. Disponible: http://repositorio.upec.edu.ec/bitstream/123456789/240/1/199%20EFECTO%20DEL%20%C3%81CIDO%20ACETILSALIC%C3%8DLICO%20PARA%20ACTIVACI%C3%93N%20DE%20DEFENSAS%20EN%20EL%20CULTIVO%20DE%20ARVEJA%20%28PISUM%20SATIVUM%29%2C%20EN%20EL%20SECTOR%20DE%20CHAPU%C3%89S%2. [Último acceso: 10 06 2021].

[9] E. J. Tirira Tirira , «Estudio de factibilidad de un centro de acopio para la comercialización de arveja tierna (pisum sativum) en la provincia del Carchi,» 03 2018. [En línea]. Disponoble: http://repositorio.utn.edu.ec/bitstream/123456789/8114/1/03%20AGN%20032%20TRABAJO%20DE%20GRADO.pdf. [Último acceso: 10 06 2021].

[10] GADM-Bolívar, «PLAN DE DESARROLLO Y ORDENAMIENTO TERRITORIAL DEL CANTÓN BOLÍVAR,» 20 04 2015. [En línea]. Disponible: http://www.municipiobolivar.gob.ec/images/PDF/2015/04/pdot.pdf. [Último acceso: 10 06 2021].

[11] R. Dalai y K. Kumar Senapati, «An Intelligent Vision based Pest Detection System Using RCNN based Deep Learning Mechanism,» 13 02 2020. [En línea]. Disponoble: https://ieeexplore.ieee.org/document/8995072. [Último acceso: 23 11 2021].

[12] Y. Ai, C. Sun, J. Tie y X. Cai, «Research on Recognition Model of Crop Diseases and Insect Pests Based on Deep Learning in Harsh Environments,» 21 09 2020. [En línea]. Disponible: https://ieeexplore.ieee.org/document/9201298. [Último acceso: 23 11 2021].

[13] H. Kuzuhara, H. Takimoto, Y. Sato y A. Kanagawa, «Insect Pest Detection and Identification Method Based on Deep Learning for Realizing a Pest Control System,» 02 11 2020. [En línea]. Disponible: https://ieeexplore.ieee.org/document/9240458. [Último acceso: 23 11 2021].

[14] C.-J. Chen, Y.-Y. Huang, Y.-S. Li, Y.-C. Chen, C.-Y. Chang y Y.-M. Huang, «Identification of Fruit Tree Pests With Deep Learning on Embedded Drone to Achieve Accurate Pesticide Spraying,» 21 02 2021. [En línea]. Disponoble: https://ieeexplore.ieee.org/document/9343827. [Último acceso: 23 11 2021].

[15] A. S. Chakravarthy y S. Raman, «Early Blight Identification in Tomato Leaves using Deep Learning,» 27 04 2020. [En línea]. Disponible: https://ieeexplore.ieee.org/abstract/document/9077010/authors#authors. [Último acceso: 23 11 2021].

[16] K. Li, J. Zhu y N. Li, «Insect Detection and Counting Based on YOLOv3 Model,» 16 06 2021. [En línea]. Disponible: https://ieeexplore.ieee.org/document/9450898. [Último acceso: 23 11 2021].

[17] C. E. Toledo Perdomo y H. A. Sagastume Mena, «Diversidad de los tisanopteros (Insecta: Thysanoptera) presenta en el cultivo de arveja china (Pisum sativum L.), Santa Apolonia, Guatemala,» 06 2018. [En línea]. Disponible: http://www.revistaespirales.com/index.php/es/article/view/238/224. [Último acceso: 12 06 2021].

[18] O. A. Zavala Salas, «Detección simultánea, por medio de CNN, de multiples robots NAO dentro de un campo de fútbol con apliación a RoboCup,» 02 2020. [En línea]. Disponible: http://repositorio.utm.mx/bitstream/123456789/303/1/2020-MR-OAZS.pdf. [Último acceso: 14 06 2021].

[19] Aprende Machine Learning, «Modelos de Detección de Objetos,» 21 11 2020. [En línea]. Available: https://www.aprendemachinelearning.com/modelos-de-deteccion-de-objetos/. [Último acceso: 15 06 2021].

[20] D. Sanz Cabreros, «Desarrollo e implementación IoT de un sistema de reconocimiento de imágenes a nivel industrial,» 17 02 2019. [En línea]. Disponible: Desarrollo e implementación IoT de un sistema de reconocimiento de imágenes a nivel industrial. [Último acceso: 13 06 2021].

[21] viso.ai, «YOLOv3: Algoritmo de detección de objetos en tiempo real (¿Qué hay de nuevo,» 25 02 2021. [En línea]. Disponible: https://viso.ai/deep-learning/yolov3-overview/. [Último acceso: 15 06 2021].

[22] R. Ruz Gómez y A. Simón Rodríguez, «Evaluación de algoritmos de Machine Learning para la conducción,» 2020. [En línea]. Disponible: https://eprints.ucm.es/id/eprint/61910/1/Ruz_Gomez_Entrega_memoria_TFG_Evaluacion_de_algoritmos_para_la_conduccion_4398577_1208955137.pdf. [Último acceso: 14 06 2021].

[23] ResearchGate, «Estructura general de Yolov4,» www.researchgate.net, 08 2021. [En línea]. Disponible: https://www.researchgate.net/figure/Overall-structure-of-YOLOv4-including-CSPDarknet-backbone-SPPnet-PANet-and-3-YOLO_fig2_344919620. [Último acceso: 25 08 2021].

[24] B. Gong, D. Ergu , Y. Cai y B. Ma, «A Method for Wheat Head Detection Based on Yolov4,» 07 10 2020. [En línea]. Disponible: https://assets.researchsquare.com/files/rs-86158/v1_covered.pdf?c=1631843117. [Último acceso: 24 11 2021].

[25] L. Heinsius, «Real-Time YOLOv4 FPGA Design with Catapult High-Level Synthesis,» 18 06 2021. [En línea]. Disponible: http://essay.utwente.nl/86465/1/Heinsius_MA_EEMCS.pdf. [Último acceso: 24 11 2021].

[1]https://github.com/AlexeyAB/darknet/releases/download/darknet_yolo_v4_pre/yolov4-tiny.conv.29

[2] https://github.com/AlexeyAB/darknet

Enlace alternativo



Buscar:
Ir a la Página
IR
Modelo de publicación sin fines de lucro para conservar la naturaleza académica y abierta de la comunicación científica
Visor de artículos científicos generados a partir de XML-JATS4R