Mapeamento da diversidade florística a partir de imagens de drone usando poucas anotações

Autores

  • Tomas Ferranti Fundação Getulio Vargas (FGV)
  • Danilo L. Cardoso Fundação Getulio Vargas (FGV)
  • Raul L. Figueiredo Fundação Getulio Vargas (FGV)
  • Dario A. B. Oliveira Fundação Getulio Vargas (FGV)
  • José Moneva Escola Superior de Agricultura Luiz de Queiroz (ESALQ/USP)
  • Matheus Fuza Escola Superior de Agricultura Luiz de Queiroz (ESALQ/USP)

Palavras-chave:

Deep learning, mapeamento florístico, imagens de drone, segmentação de imagens, aprendizado não supervisionado

Resumo

Os produtores rurais brasileiros são responsáveis por parte da alimentação da nação e do mundo com commodities agrícolas. São mais de 5 milhões de pessoas trabalhadores da zona rural, enfrentando desafios climáticos, econômicos e sociais para garantir o alimento na mesa de todos. Apesar disso, sem vistoria apropriada eles não são recompensados pela manutenção e restauração da vegetação nativa. A remuneração desses ativos ambientais depende de um rigoroso processo de Monitoramento, Reporte e Verificação (MRV). Os métodos tradicionais de MRV são baseados em medições in loco e são onerosos, pois demandam uma logística complexa e levantamento em campo recorrentes. Por este motivo, a pesquisa por alternativas mais factíveis para o mapeamento da diversidade florística de uma região faz-se necessária. O objetivo do presente trabalho é apresentar um fluxo de dados que faz uso de diversas ferramentas da área de deep learning para simplificar a etapa de mapeamento identificando espécies de copas de árvores. Usando imagens aéreas RGB coletadas por drones, dois bancos de dados, supervisionado e não supervisionado, foram criados para esse objetivo. Uma amostra de anotação presente no supervisionado consiste em um polígono que delimita a região da imagem correspondente à copa de uma árvore de uma espécie. O banco supervisionado consiste em 10 espécies de árvores com aproximadamente 30 anotações para cada uma delas. O banco não supervisionado consiste em imagens georreferenciadas que cobrem uma área de 25 hectares com resolução 1.6cm/pixel, abrangendo a região das anotações supervisionadas.

Downloads

Não há dados estatísticos.

Referências

M. Caron, I. Misra, J. Mairal, P. Goyal, P. Bojanowski e A. Joulin. “Unsupervised learning of visual features by contrasting cluster assignments”. Em: Advances in neural information processing systems 33 (2020), pp. 9912–9924.

A. Kirillov, E. Mintun, N. Ravi, H. Mao, C. Rolland, L. Gustafson, T. Xiao, S. Whitehead, A. C. Berg, W. Lo, P. Dollar e R. Girshick. “Segment Anything”. Em: Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). Out. de 2023, pp. 4015–4026.

J. Redmon, S. K. Divvala, R. B. Girshick e A. Farhadi. “You Only Look Once: Unified, Real-Time Object Detection”. Em: CoRR abs/1506.02640 (2015). arXiv: 1506.02640. url: http://arxiv.org/abs/1506.02640.

Ultralytics. Site oficial do Modelo YOLOv8. Online. Acessado em 04/03/2024, https://yolov8.com/.

Downloads

Publicado

2025-01-20

Edição

Seção

Resumos