Ganado JAIO
Ganado JAIO
Generalidades
2 Materiales y métodos
Bases de datos
En el marco del proyecto se generaron distintas bases de datos1, una para cada
aplicación, las cuales fueron revisadas manualmente y etiquetadas por expertos en
agricultura y ganadería, más una base de datos disponible públicamente:
1. Datos para conteo forestal: 16 videos de aprox. 1 minuto de duración c/u,
tamaños variables entre 854x480 px a 1920x1080 px, tasa de frames por segundo
experimentada a 25, 30, 48 y 120 FPS, altura variable desde el piso (caminata con
celular) hasta drones a 80 m.
1
Los autores agradecen las bases de datos provistas por Estudio G&D de Ing.
Mariano Delbuono.
3 Resultados
Los resultados en el conteo de plantas fueron muy satisfactorios, donde fue posible
lograr buenos desempeños para el caso de diversos cultivos. En el caso de conteo
forestal se alcanzaron buenos resultados en el caso de baja altura donde los árboles
son visibles con color y área adecuadas para no ser confundidos con el resto del suelo.
En conteo de ganado, aunque aceptables en general, se obtuvieron resultados que
indican dos cuestiones: por un lado, que es factible avanzar con el método de visión
computacional planteado como una alternativa de solución. No obstante, los errores
surgidos también visualizan que el desempeño basado en visión computacional clásica
podría tener un techo debido a que los objetos tienen mucha variabilidad, hay cúmulos
de animales que generan objetos de área muy grande, similitud de animales con partes
del terreno, etc. Estos problemas podrían ser abordados mediante técnicas de
inteligencia artificial basadas en aprendizaje profundo.
La Figura 2 muestra un ejemplo de ventana de análisis de cada aplicación.
4 Conclusiones
Desde un punto de vista técnico, podemos afirmar que el proyecto resultó exitoso ya
que se pudo llevar a cabo la definición de 3 tareas de interés en agricultura y
ganadería de precisión, el desarrollo y experimentación respectivas, finalizando con
prototipos que validan la solución tecnológica propuesta. A fin de escalar estos
sistemas iniciales y dar respuesta a productores de manera masiva, se debe avanzar en
la mejora y agregado de robustez frente a variabilidad relevada y discutida
previamente, lo cual puede también abordarse en un futuro a medida que se vayan
registrando más videos.
Desde el punto de vista de la colaboración universidad-empresa,
consideramos de manera conjunta que el proyecto mejoró las capacidades de uno y
otro lado, con aprendizajes mutuos de lenguaje específico del dominio de aplicación,
posibilidades y limitaciones de la visión computacional, necesidades del medio
productivo y cómo dar respuesta desde la academia, entre otros aspectos surgidos de
la interacción.
Finalmente, como próximos pasos podemos mencionar la realización de
pruebas de concepto con productores que se quieran sumar en esta etapa, permitiendo
el relevamiento de opiniones y evaluaciones sobre esta tecnología por parte de
diversos expertos usuarios.
Referencias
1. Montanari, A., et al. Surveying areas in developing regions through context aware drone
mobility. En Proceedings of the 4th ACM Workshop on Micro Aerial Vehicle Networks,
Systems, and Applications. ACM, p. 27-32 (2018).
2. America, N. Drones and aerial observation: New technologies for property rights, human
rights, and global development–A primer. Retrieved June, vol. 7, p. (2016).
3. Kamilaris, A.; Prenafeta-Boldu, F. Deep learning in agriculture: A survey. Computers and
Electronics in Agriculture, vol. 147, p. 70-90 (2018).
4. Rahnemoonfar, M.; Sheppard, C. Deep count: fruit counting based on deep simulated
learning. Sensors, vol. 17, no 4, p. 905 (2017).
5. Chen, S., et al. Counting apples and oranges with deep learning: A data-driven approach.
IEEE Robotics and Automation Letters, vol. 2, no 2, p. 781-788 (2017).
6. Zhao, S.; Zhang, Z. A new recognition of crop row based on its structural parameter
model. IFAC-PapersOnLine, vol. 49, no 16, p. 431-438 (2016).
7. Sadgrove, E., et al. Fast object detection in pastoral landscapes using a Colour Feature
Extreme Learning Machine. Computers and electronics in agriculture, vol. 139, p. 204-212
(2017).
8. CSILLIK, Ovidiu, et al. Identification of citrus trees from unmanned aerial vehicle
imagery using convolutional neural networks. Drones, 2018, vol. 2, no 4, p. 39.