Agricultura de precisión, análisis de imágenes aplicada a la producción agrícola

María Fernanda Cuevas-Rivera, Gema Matzil Olguin-Utrera, Andrés Lira-Noriega, Randy Ortiz-Castro

Artículo publicado en el Portal Comunicación Veracruzana el día 15 de julio 2021

La humanidad a lo largo de su historia ha ido evolucionando o perfeccionando sus técnicas para un desarrollo óptimo de la agricultura frente a la población creciente y la demanda de alimentos. Desde de la Revolución Verde, el uso de herramientas mecánicas y sistemas de fertilización han ayudado en la optimización de recursos y producción de alimentos. Recientemente, la agricultura de precisión (AP) surge como un nuevo concepto y forma de trabajo orientada al uso de herramientas basadas en imágenes (RGB, multiespectrales o hiperespectrales) para monitorear cultivos y determinar de forma eficiente regiones donde se requiera atención focalizada para mejorar la nutrición o atención a plagas o enfermedades. La apuesta tecnológica de la AP motiva investigación para facilitar y mejorar la toma de decisiones más amigables con el medio ambiente en las cada vez más extensas áreas cultivadas a lo largo del mundo y en un momento crucial de la humanidad.

Palabras clave: agricultura de precisión, imagenología, imagen RGB

El mundo experimenta una creciente demanda por productos agrícolas para lograr cumplir con las exigencias de mercados que hacen uso de productos comestibles y abastecer a una población en constante crecimiento. Se estima que la población mundial para el 2050 será de 9,700 millones de personas, lo cual implica la necesidad de mejorar la producción de alimentos. Una posible alternativa para mejorar el diagnóstico y optimización para mejorar la producción agrícola proviene de la agricultura de precisión, la cual se define como un conjunto de tecnologías como satélites, sensores e imágenes y sistemas que se aplican en el trabajo en el campo que reúne, procesa y analiza datos temporales, espaciales e individuales y los combina con otra información para respaldar las decisiones de gestión de acuerdo con la variabilidad estimada para mejorar la eficiencia del uso de recursos, la productividad, la calidad, la rentabilidad y la sostenibilidad de la producción agrícola y forestal [1]. Lo anterior es factible gracias a la cada vez más eficiente captura de información de campos y cultivos de distintas extensiones y su procesamiento en períodos de tiempo relevantes. Dicha información es proveniente de sensores ópticos que facilitan formar diferentes tipos de imágenes digitales para el análisis de datos [2, 3]. En la última década se han empleado sensores ópticos (e.g., RGB, multiespectrales o hiperespectrales, térmicos, de fluorescencia de clorofila y 3D) y algoritmos para medir y observar la fisiología de las plantas y específicamente para la detección temprana de plagas y enfermedades, estado nutricional de las plantas, estrés hídrico o salino. Las imágenes digitales captadas a través de estos sensores ópticos se representan como matrices de datos bidimensionales (2-D), donde cada píxel representa la unidad más pequeña que se puede controlar y direccionar en un espacio de coordenadas geográficas. En la agricultura, la aplicación de técnicas orientadas al análisis de imágenes ha sido útil para detectar etapas tempranas de infecciones o enfermedades, deficiencia de nutrientes, y deshidratación. Esto implica mejorías en la intervención, prevención y control de diversos problemas asociados al manejo de cultivos [4, 5].

Procesamiento y análisis de imágenes digitales

Para poder obtener datos cuantificables a partir de imágenes obtenidas desde sensores remotos es necesario llevar a cabo un procesamiento que facilite su conversión a unidades e índices con sentido biológico. Esto se logra a partir de procesamientos y análisis de las diferentes variables representadas por los pixeles provenientes de distintas bandas de acuerdo a los sensores que hayan sido utilizados (Figura 1).

Las imágenes más comúnmente utilizadas son las imágenes RGB. Estas captan solo una fracción del espectro visible dentro de todo el espectro electromagnético y son equivalentes a las que pueden captar las cámaras de los teléfonos celulares que usamos hoy en día. Estas imágenes guardan información en tres bandas que representan tres longitudes de onda distintas (en nanómetros): la roja (R; 650 nm), la verde (G; 520 nm) y la azul (B; 475 nm). En este sentido, cada píxel de una imagen digital tiene un valor particular de la región roja, verde o azul, que es un espacio de color tridimensional utilizado para generar el color de un objeto como lo percibimos nosotros. Algo interesante es que estas imágenes se pueden descomponer en cuanto a su tono, saturación e intensidad de sus píxeles (HSI, por sus siglas en inglés), ofreciendo esto un potencial aún mayor de información utilizable. El tono es el color puro del píxel, mientras que la saturación es la cantidad de color (tono puro, a blanco, que contiene un rango más amplio), y la intensidad se relaciona con su brillo (desde el tono puro hasta completamente negro) [9, 10].  Por ello, dependiendo de cuál sea la pregunta y objeto de estudio, durante la adquisición de la imagen se debe de tomar en cuenta ciertos criterios como la iluminación, la distancia focal, y posteriormente su procesamiento a fin de lograr obtener los resultados esperados (Figura 2).
 
Aplicaciones basadas en RGB

Se ha incrementado la aplicación de imágenes basadas en RGB en los diversos campos de la agricultura, tanto en el campo como en el laboratorio o invernadero. Específicamente, para la identificación, mapeo y discriminación de malezas y cultivos, cuantificación del color y condición fotosintética del césped, análisis cuantitativo de un proceso fisiológico especialmente variable a través de la superficie de una hoja, prueba de color de semillas para la identificación de rasgos comerciales de semillas y estimación del contenido de clorofila en plantas
micropropagadas [5]. En la (figura 3), se muestran imágenes representativas del estudio del proceso de infección por un fitopatógeno en la planta modelo Arabidopsis thaliana, donde el color azul indicado en las imágenes después de su análisis digital indica los niveles de clorosis en el tejido y el color verde a la clorofila, esto permite calcular el área o porcentaje de tejido vegetal dañado cuando las plantas son inoculadas con algún fitopatógeno. Además de evaluar procesos de infección, se puede estudiar efectos de la nutrición vegetal como la deficiencia de nutrientes como fosfatos, nitratos o hierro.

El ejemplo anterior muestra cómo podemos traducir información de los procesos fisiológicos para entender su respuesta a infecciones con fitopatógenos o deficiencia de nutrientes. Pensemos ahora que estos ejemplos son escalables para realizarse en el invernadero o en el campo de cultivo. De tal forma que podemos entonces aprovecharnos del análisis espectral de imágenes capturadas por distintos tipos de sensores remotos y lograr así una “agricultura de precisión” para aumentar la productividad de los cultivos y monitoreo temprano de distintos procesos fisiológicos o cuando están sufriendo impactos por plagas y enfermedades. Lo anterior podrá entonces ayudarnos a hacer más eficiente las acciones de fertilización y control de las enfermedades y reducir al máximo la variabilidad en el cultivo y producción. Recientemente, el uso de drones se suma a la estrategia de la agricultura de precisión haciendo más accesible y rápido el monitoreo de los cultivos y/o bosques.

 

 

 

Agradecimientos

El presente trabajo forma parte del proyecto de FORDECYT-PRONACES 292399 “Generación de estrategias científico-tecnológicas con un enfoque multidisciplinario e interinstitucional para afrontar la amenaza que representan los complejos ambrosiales en los sectores agrícola y forestal de México”.

 

Referencias

  • Agricultura de precisión de acuerdo a la International Society of Precision Agriculture – ISPA.
  • Lowe, A., et al., (2017). Plant methods,13(1), 80.
  • Padmavathi, K., & Thangadurai, K. (2016). Indian Journal of Science and Technology,9(6), 1-6.
  • Mahlein, AK (2016). Enfermedad vegetal,100(2), 241-251.
  • Gupta, S. D., Ibaraki, Y., & Trivedi, P. (2014). Plant Image Anal. Fundam. Appl,41, 22.
  • Boldrini, B., Kessler, W., Rebner, K., & Kessler, R. W. (2012). Journal of near infrared spectroscopy20(5), 483-508.
  • Ahmed, M. R., Yasmin, J., Lee, W. H., Mo, C., & Cho, B. K. (2017). Journal of Biosystems Engineering,42(3), 199-216.
  • Zhang, J., et al., (2019). Computers and Electronics in Agriculture,165, 104943.
  • Arivazhagan, S., et al., (2013). Ingeniería Agrícola Internacional: CIGR Journal,15(1), 211-217.
  • Bock, C. H., et al., (2010). Critical Reviews in Plant Sciences,29(2), 59-107.

 

Créditos de las figuras

Figura 1 a la 3. Crédito: Gema Matzil Olguín Utrera y María Fernanda Cuevas Rivera.