Mapeamento da diversidade florística a partir de imagens de drone usando poucas anotações
Palabras clave:
Deep learning, mapeamento florístico, imagens de drone, segmentação de imagens, aprendizado não supervisionadoResumen
Os produtores rurais brasileiros são responsáveis por parte da alimentação da nação e do mundo com commodities agrícolas. São mais de 5 milhões de pessoas trabalhadores da zona rural, enfrentando desafios climáticos, econômicos e sociais para garantir o alimento na mesa de todos. Apesar disso, sem vistoria apropriada eles não são recompensados pela manutenção e restauração da vegetação nativa. A remuneração desses ativos ambientais depende de um rigoroso processo de Monitoramento, Reporte e Verificação (MRV). Os métodos tradicionais de MRV são baseados em medições in loco e são onerosos, pois demandam uma logística complexa e levantamento em campo recorrentes. Por este motivo, a pesquisa por alternativas mais factíveis para o mapeamento da diversidade florística de uma região faz-se necessária. O objetivo do presente trabalho é apresentar um fluxo de dados que faz uso de diversas ferramentas da área de deep learning para simplificar a etapa de mapeamento identificando espécies de copas de árvores. Usando imagens aéreas RGB coletadas por drones, dois bancos de dados, supervisionado e não supervisionado, foram criados para esse objetivo. Uma amostra de anotação presente no supervisionado consiste em um polígono que delimita a região da imagem correspondente à copa de uma árvore de uma espécie. O banco supervisionado consiste em 10 espécies de árvores com aproximadamente 30 anotações para cada uma delas. O banco não supervisionado consiste em imagens georreferenciadas que cobrem uma área de 25 hectares com resolução 1.6cm/pixel, abrangendo a região das anotações supervisionadas.
Descargas
Citas
M. Caron, I. Misra, J. Mairal, P. Goyal, P. Bojanowski e A. Joulin. “Unsupervised learning of visual features by contrasting cluster assignments”. Em: Advances in neural information processing systems 33 (2020), pp. 9912–9924.
A. Kirillov, E. Mintun, N. Ravi, H. Mao, C. Rolland, L. Gustafson, T. Xiao, S. Whitehead, A. C. Berg, W. Lo, P. Dollar e R. Girshick. “Segment Anything”. Em: Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). Out. de 2023, pp. 4015–4026.
J. Redmon, S. K. Divvala, R. B. Girshick e A. Farhadi. “You Only Look Once: Unified, Real-Time Object Detection”. Em: CoRR abs/1506.02640 (2015). arXiv: 1506.02640. url: http://arxiv.org/abs/1506.02640.
Ultralytics. Site oficial do Modelo YOLOv8. Online. Acessado em 04/03/2024, https://yolov8.com/.