0% acharam este documento útil (0 voto)
54 visualizações57 páginas

Mapeamento Sistematico de Estudos Sobre Fenotipagem Com A Utilização de Drones

Enviado por

michel souza
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
0% acharam este documento útil (0 voto)
54 visualizações57 páginas

Mapeamento Sistematico de Estudos Sobre Fenotipagem Com A Utilização de Drones

Enviado por

michel souza
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
Você está na página 1/ 57

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/349536395

Mapeamento Sistemático de Estudos sobre Fenotipagem com a Utilização de


Drones

Preprint · September 2018


DOI: 10.13140/RG.2.2.20700.51849

CITATIONS READS
0 163

2 authors:

Victória Serra de Lima Moraes Camilo Carromeu


Universidade Federal de Mato Grosso do Sul Brazilian Agricultural Research Corporation (EMBRAPA)
7 PUBLICATIONS 0 CITATIONS 6 PUBLICATIONS 20 CITATIONS

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Algoritmos de agrupamento semissupervisionados e incrementais para geração de hierarquias de tópicos a partir de coleções de documentos View project

All content following this page was uploaded by Victória Serra de Lima Moraes on 23 February 2021.

The user has requested enhancement of the downloaded file.


Embrapa Gado de Corte

Mapeamento Sistemático de
Estudos sobre Fenotipagem com a
Utilização de Drones

Autora
Supervisor
Victória Serra de Lima
Camilo Carromeu
Moraes

Campo Grande, MS
10 de Setembro de 2018
Conteúdo

1 Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.1 Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Planejamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3 Processo de Pesquisa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

4 Extração de Dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

4.1 Estudo SCD1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

4.2 Estudo SCD2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

4.3 Estudo SCD3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

4.4 Estudo SCD4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4.5 Estudo SCD5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

4.6 Estudo SCD6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

4.7 Estudo SCD7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

4.8 Estudo SCD8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4.9 Estudo EIC1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4.10 Estudo EIC2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4.11 Estudo EIC3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4.12 Estudo EIC4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4.13 Estudo EIC5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

4.14 Estudo IEEE1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

4.15 Estudo SCO1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

4.16 Estudo SCO2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

4.17 Estudo SCD9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4.18 Estudo SCD10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

4.19 Estudo SCD11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24


3

4.20 Estudo EIC6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

4.21 Estudo EIC7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

4.22 Estudo IEEE2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

4.23 Estudo IEEE3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4.24 Estudo IEEE4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4.25 Estudo SCO3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

4.26 Estudo SCO4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

4.27 Estudo SCO5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

4.28 Estudo SCO6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

4.29 Estudo SCO7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

4.30 Estudo SCD12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

4.31 Estudo SCD13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4.32 Estudo SCD14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

4.33 Estudo EIC8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

4.34 Estudo SCO8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

4.35 Estudo SCO9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4.36 Estudo SCO10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

4.37 Estudo SCO11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4.38 Estudo SCD15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4.39 Estudo SCD16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

4.40 Estudo SCD17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

5 Comparação com o Estudo Proposto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

6 Documentação da Revisão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
RESUMO
Neste trabalho, é apresentado um mapeamento sistemático de estudos sobre
melhoramento de culturas e pecuária de precisão cuja metodologia envolva o uso
de veículos aéreos não tripulados (VANTs).
São propostas palavras-chave a fim de construir uma query de busca e ob-
ter trabalhos relevantes na área provindos de fontes de pesquisa virtuais. Tal
relevância é validada, então, a partir de certos critérios estabelecidos com esse
propósito e que, após aplicados, filtram consideravelmente a quantidade e a qua-
lidade dos estudos em questão, com o intuito de que os mesmos se adequem ao
objetivo buscado. Finalmente, são extraídos os dados de interesse de cada um dos
trabalhos selecionados e, assim, a revisão pode ser formalmente documentada e
disseminada.
O intuito principal desse mapeamento é fornecer um compêndio de estudos
para que pesquisadores e melhoristas possam ter rápido acesso às informações
buscadas.

Palavras-Chave: Veículo Aéreo não Tripulado (VANT); Drone; Agropecuária;


Plantação; Fenótipo; Pecuária de Precisão; Melhoramento de Culturas.

4
5

1 Motivação
A necessidade da condução de um mapeamento sistemático da bibliografia, consi-
derando a área de fenotipagem com a utilização de veículos aéreos não tripulados
(VANTs), ocorre uma vez que os estudos sobre tal assunto se mostram considera-
velmente recentes e, assim, os pesquisadores e profissionais cuja área de atuação
envolve essa atividade necessitam de auxílio literário a fim de melhor conduzir
experimentos.
A fenotipagem realizada manualmente, como acontece atualmente, consiste
em um trabalho oneroso e repetitivo, levando a longas jornadas de trabalho. Com
isso, a precisão é fortemente prejudicada, especialmente ao final das jornadas,
graças ao cansaço e geral imprecisão humana.
Esse mapeamento representa a fase inicial de um trabalho que busca, ao fi-
nal, gerar um método que ambos melhoristas e produtores agropecuários possam
utilizar com o intuito de avaliar e aprimorar suas plantações, gerando, possivel-
mente, um produto comercial.

1.1 Metodologia
A metodologia utilizada para a realização desse mapeamento sistemático é pro-
posta por Barbara Kitchenham[1] e tem como objetivo resumir as evidências
existentes; identificar eventuais lacunas na literatura atual a fim de sugerir áreas
para futuras investigações; e fornecer um contexto para posicionar adequada-
mente novas atividades de pesquisa.
No caso desse trabalho, são buscados parâmetros de voo para o drone que será
utilizado, e os resultados obtidos anteriormente na literatura com a finalidade
de obter um guia para o trabalho a ser realizado.

2 Planejamento
Tendo em vista o objetivo apresentado, surgem algumas questões a serem res-
pondidas pelos trabalhos buscados, formalmente referidas como questões de pes-
quisa:

1. Quais estudos apresentam pesquisas na área agropecuária?


2. Dentre esses, quais abordam a fenotipagem das plantas cultivadas?
3. Finalmente, quais se utilizam de drones?

Com essas questões em mente, construiu-se, então, uma query baseada nas
strings presentes na tabela 2.1. Essas strings buscam ser o mais genéricas pos-
síveis, a fim de gerar bons resultados, porém específicas o suficiente para que
atendam as questões propostas.
Tal que:

– UAV: Unmanned Aerial Vehicle (veículo aéreo não tripulado);


– UAS: Unmanned Aerial System (sistema aéreo não tripulado);
6

Tabela 2.1. Termos utilizados para construção da query

Agropecuária Fenótipo Drone


AGRICULTURE, PHENOTYPE, DRONE,
FARM, PHENOTYPING, DRONES,
PLANTATION, CROP BREEDING, UAV, RPA,
LIVESTOCK FORAGE BREE- RPAS, UAS
DING,
PHENOMICS

– RPA: Remotely Piloted Aircraft (aeronave pilotada remotamente);


– RPAS: Remotely Piloted Aircraft System (sistema de aeronaves pilotadas
remotamente).

Com a aplicação de proposições lógicas, a query final pode ser dada por:

(AGRICULTURE or FARM or PLANTATION or LIVESTOCK) and


(PHENOTYPE or PHENOTYPING or PHENOMICS or "CROP BREEDING"or "FORAGE
BREEDING") and
(DRONE or DRONES or UAV or RPAS or RPA or UAS)

São definidos, ainda, critérios que contemplam as questões propostas e servem


como métricas de inclusão para os estudos a serem avaliados (CI); assim como
critérios para a exclusão dos mesmos (CE), de forma que esses sejam classificados
como relevantes ou não.

Tabela 2.2. Critérios de inclusão (CI) da busca de mapeamento sistemático

CI1 Coleta de dados de plantações por drones.


CI2 Coleta de dados de plantações por imagens.
CI3 Informações quanto a fenotipagem de plantas cultivadas.

Tabela 2.3. Critérios de exclusão (CE) da busca de mapeamento sistemático

CE1 Não contemple os critérios de inclusão.


CE2 Não esteja em português, inglês ou espanhol.
CE3 Esteja incompleto, indisponível ou já tenha sido incluído.
CE4 Tenha sido publicado antes de 2006.
CE5 Não tenha sido publicado em anais de eventos ou revistas, como
capítulos de livros.
7

3 Processo de Pesquisa

Para a realização da busca, foram utilizadas fontes de pesquisa digitais com


grande acervo e que são fortemente reconhecidas pela comunidade científica.
São elas: ACM (ACM Digital Library), Scopus, EI Compendex (Engineering
Village, IEEE (IEEE Xplore Digital Library), SciELO, Web of Science e Science
Direct/Elsevier (DYBAet al. 2007). Essas bases podem ser vistas elencadas na
tabela 3.1.

Tabela 3.1. Fontes de pesquisa utilizadas na busca de estudos primários

Fonte de Pesquisa URL


Scopus https://www.scopus.com/
ScienceDirect https://www.sciencedirect.com/
IEEE Xplore Digital Library https://ieeexplore.ieee.org/
ACM Digital Library https://dl.acm.org/
EI Compendex https://www.engineeringvillage.com/
SciELO http://www.scielo.org

Para realizar a busca nas bases citadas, foi utilizada a query proposta na seção
2. Após sua aplicação, foram retornados 496 resultados, como pode ser observado
na tabela 3.2. Com a query em questão, a base de dados Scopus retornou 40
resultados; a ScienceDirect, 357; a IEEE retornou 6; a EI Compedex obteve 92
resultados; a ACM, por sua vez, retornou apenas 1 resultado; e a SciELO não
mostrou estudo algum.

Tabela 3.2. Resultados das buscas

Sigla Fonte de Busca Resultados


SCO Scopus 40
SCD ScienceDirect 357
IEEE IEEE Xplore Digital Library 6
ACM ACM Digital Library 1
EIC EI Compendex 92
SCI SciELO 0

Como o número de resultados retornados foi elevado e não há a possibilidade


ou mesmo a necessidade da revisão de todos os estudos obtidos, foram aplicados
os critérios de exclusão a fim de refinar a busca e obter resultados mais condi-
zentes com o objetivo desejado. Disso consiste a fase de seleção dos estudos.
Os 496 estudos obtidos foram avaliados quanto aos critérios de inclusão, idi-
oma, ano de publicação, meio de publicação, estado de inclusão e disponibilidade.
8

Assim, após a aplicação de CE1, CE2, CE3, CE4 e CE5, todos os estudos ob-
tidos contemplam os critérios de inclusão, ou seja, tratam de coleta de dados
de fenotipagem de plantações obtidos por imagens provenientes de drones. O
total de resultados, assim, diminuiu para 40 estudos selecionados, como pode ser
observado na tabela 3.3.

Tabela 3.3. Resultados após a seleção de estudos

Base Resultados CE1 CE2 CE3 CE4 CE5 Total


SCO 40 -4 -2 -17 0 -4 11
SCD 357 -115 0 -1 -133 -91 17
IEEE 6 -2 0 0 0 0 4
ACM 1 -1 0 0 0 0 0
EIC 92 -21 -7 -51 0 -5 8
SCI 0 0 0 0 0 0 0

Os estudos selecionados foram, então, adicionados a uma ferramenta de ge-


renciamento de referências para facilitar a sua visualização (Mendeley[2]). A ne-
cessidade do conteúdo essencial para a extração de dados pôde ser considerada,
enfim, satisfeita.

4 Extração de Dados
A extração de dados consiste na obtenção de informações a partir dos estudos
selecionados (listados nas tabelas 4.1, 4.2, 4.3 e 4.4). Para tal, foi elaborado,
primeiramente, o formulário de extração de dados 4.1 a fim de extrair as infor-
mações básicas dos estudos. A seguir, foi gerado o formulário 4.2, com o intuito
de filtrar e registrar informações técnicas provindas de cada um dos estudos em
questão.

Formulário 4.1. Formulário básico de extração de dados

1. Título;
2. Ano de publicação;
3. Objetivos;
4. Relevância (extrema, alta, média e baixa);
5. Resultados.

É importante ressaltar que o formulário 4.2 é apenas um ponto de partida


para a busca de informações e que nem todos os estudos são capazes de emitir
todos os dados ali enumerados. A altura de voo, no entanto, é um dos fatores mais
9

Tabela 4.1. Estudos selecionados do ano de 2018

Identificador Título Ano


SCD1 Assessing yield and fertilizer response in heterogeneous smallhol- 2018
der fields with UAVs and satellites
SCD2 Combined use of agro-climatic and very high-resolution remote 2018
sensing information for crop monitoring
SCD3 Detecting newly grown tree leaves from unmanned-aerial-vehicle 2018
images using hyperspectral target detection techniques
SCD4 Estimation of plant height using a high throughput phenotyping 2018
platform based on unmanned aerial vehicle and self-calibration:
Example for sorghum breeding
SCD5 High-throughput field phenotyping in dry bean using small un- 2018
manned aerial vehicle based multispectral imagery
SCD6 Improved estimation of leaf area index and leaf chlorophyll content 2018
of a potato crop using multi-angle spectral data – potential of
unmanned aerial vehicle imagery
SCD7 Multitemporal field-based plant height estimation using 3D point 2018
clouds generated from small unmanned aerial systems high-
resolution imagery
SCD8 Multi-temporal high-resolution imaging spectroscopy with hypers- 2018
pectral 2D imagers – From theory to application
EIC1 Comparison of segmentation methods on images of energy plants 2018
obtained by UAVs
EIC2 Time-Series Multispectral Indices from Unmanned Aerial Vehicle 2018
Imagery Reveal Senescence Rate in Bread Wheat
EIC3 Estimation of Vegetable Crop Parameter by Multi-temporal UAV- 2018
Borne Images
EIC4 Extracting leaf area index using viewing geometry effects—A new 2018
perspective on high-resolution unmanned aerial system photo-
graphy
EIC5 Quantitative Estimation of Wheat Phenotyping Traits Using 2018
Ground and Aerial Imagery
IEEE1 Locating Crop Plant Centers From UAV-Based RGB Imagery 2018
SCO1 Phenotyping Conservation Agriculture Management Effects on 2018
Ground and Aerial Remote Sensing Assessments of Maize Hybrids
Performance in Zimbabwe
SCO2 Unmanned aerial system assisted framework for the selection of 2018
high yielding cotton genotypes
10

Tabela 4.2. Estudos selecionados do ano de 2017

Identificador Título Ano


SCD9 Dynamic monitoring of NDVI in wheat agronomy and breeding 2017
trials using an unmanned aerial vehicle
SCD10 Exploring Robots and UAVs as Phenotyping Tools in Plant Bre- 2017
eding
SCD11 Estimates of plant density of wheat crops at emergence from very 2017
low altitude UAV imagery
EIC6 Unmanned Aerial System (UAS)-based phenotyping of soybean 2017
using multi-sensor data fusion and extreme learning machine
EIC7 Super-Resolution of Plant Disease Images for the Acceleration of 2017
Image-based Phenotyping and Vigor Diagnosis in Agriculture
IEEE2 Plant Leaf Segmentation for Estimating Phenotypic Traits 2017
IEEE3 Improving Orthorectification of UAV-Based Push-Broom Scanner 2017
Imagery Using Derived Orthophotos From Frame Cameras
IEEE4 Prediction of Sorghum Biomass Based on Image Based Features 2017
Derived from Time Series of UAV Images
SCO3 The DOM Generation and Precise Radiometric Calibration of a 2017
UAV-Mounted Miniature Snapshot Hyperspectral Imager
SCO4 UAV Localization in Row Crops 2017
SCO5 Phenological analysis of unmanned aerial vehicle based time series 2017
of barley imagery with high temporal resolution
SCO6 Digital Counts of Maize Plants by Unmanned Aerial Vehicles 2017
(UAVs)
SCO7 High Throughput Phenotyping of Blueberry Bush Morphological 2017
Traits Using Unmanned Aerial Systems
11

Tabela 4.3. Estudos selecionados do ano de 2016

Identificador Título Ano


SCD12 Field phenotyping system for the assessment of potato late blight 2016
resistance using RGB imagery from an unmanned aerial vehicle
SCD13 Evaluation of ground, proximal and aerial remote sensing techno- 2016
logies for crop stress monitoring
SCD14 Machine Learning for High-Throughput Stress Phenotyping in 2016
Plants
EIC8 Development of methods to improve soybean yield estimation and 2016
predict plant maturity with an unmanned aerial vehicle based
platform
SCO8 Automated Ortho-Rectification of UAV-Based Hyperspectral 2016
Data over an Agricultural Field Using Frame RGB Imagery
SCO9 Application of unmanned aerial systems for high throughput phe- 2016
notyping of large wheat breeding nurseries
SCO10 Unmanned Aerial Vehicles for High- Throughput Phenotyping and 2016
Agronomic Research
SCO11 High Throughput Field Phenotyping of Wheat Plant Height and 2016
Growth Rate in Field Plot Trials Using UAV Based Remote Sen-
sing

Tabela 4.4. Estudos selecionados dos anos anteriores a 2016

Identificador Título Ano


SCD15 Low-altitude, high-resolution aerial imaging systems for row and 2015
field crop phenotyping: A review
SCD16 Field-based crop phenotyping: Multispectral aerial imaging for 2015
evaluation of winter wheat emergence and spring stand
SCD17 Green area index from an unmanned aerial system over wheat and 2014
rapeseed crops
12

Formulário 4.2. Formulário técnico de extração de dados

1. Região e bioma nos quais o estudo foi realizado;


2. Altura de voo do VANT ;
3. Ângulo da câmera utilizada;
4. Modelo e tipo da câmera utilizada;
5. Distância de amostra de solo (GSD).

importantes, pois afeta a velocidade máxima de voo para manter a sobreposição


de imagens, a resolução e a duração do voo. A distância de amostra de solo
(GSD), por sua vez, é relacionada a essa altura e, quanto maior seu valor, menor é
a resolução espacial e, assim, menor a quantidade de detalhes visíveis na imagem.

4.1 Estudo SCD1

Relevância: Média

O estudo SCD1, intitulado "Assessing yield and fertilizer response in he-


terogeneous smallholder fields with UAVs and satellites"[3], de 2018, tem por
objetivo testar imagens obtidas de VANTs e avaliar se essas podem ser usa-
das para aferir interceptação de luz e rendimento de colheitas em campos de
pequenos produtores, assim como respostas aos fertilizantes naquela região.
SCD1 foi realizado na região da África subsariana, contando, assim, com
uma grande diversidade de condições ambientais. Para a realização do estudo,
foi utilizado o VANT eBee da empresa SenseFly, em conjunto com uma câmera
Canon S110 NIR com filtros verde, vermelho e infravermelho próximo (NIR).
As imagens foram coletadas a cada quinze dias entre as dez horas da manhã
e o meio-dia, com o eBee voando a 286 m acima do nível do solo e resultando em
tamanhos de pixel de aproximadamente 10×10 cm. Para o processamento das
imagens resultantes, foi utilizado o software de imagem CAN-EYE. A obtenção
dos resultados encontrou algumas limitações, tais como sobreposição espectral
nas bandas vermelha e verde e grande banda passante (0.1 µm à meia altura).
O eBeePVI está fortemente relacionado à cobertura do solo com um valor de
R2 de 0.85. Em teoria, quando o eBeePVI é zero, a cobertura do solo também
deve ser zero. No entanto, a intercepção da relação é negativa, indicando que
alguns pixels do solo também podem ser encontrados entre 0 e 0.053. O eBeePVI
se mostrou menos sensível à variação quando comparado ao NDVI via satélite,
mais notavelmente a valores de NDVI acima de 0.6, onde mosaicos eBee sempre
apresentam valores de CV muito mais altos do que as imagens de satélite, pois
o campo de visão instantâneo do eBee é muito menor e resulta em um maior
número de valores contribuintes por parcela. Essa resolução espacial mais alta
elucida as plantas individuais ausentes nas linhas e as lacunas menores nas copas
das plantas que não são visíveis nas imagens do WorldView-2.
13

As estimativas de interceptação de luz procedentes dos mosaicos referentes


ao VANT foram significativamente correlacionadas com o rendimento das co-
lheitas; e o índice de vegetação perpendicular (PVI) obtido do eBee se mostrou
fortemente relacionado à cobertura do solo e interceptação de luz pela safra.

4.2 Estudo SCD2

Relevância: Baixa

O estudo SCD2, intitulado "Combined use of agro-climatic and very high-


resolution remote sensing information for crop monitoring"[4], de 2018, busca
avaliar os índices vegetativos (VIs) tradicionais quanto a importância para esti-
mativa de bimassa de milho; e estabelecer e avaliar modelos baseados na com-
binação de variáveis agro-climáticas, evapotranspiração referência e os índices
propostos.
Foi executado na região da Tarazona de La Mancha (Albacete, Espanha),
com características agronômicas relativamente uiformes e é classificada como
semi-árida. SCD2 utilizou o quadricóptero md4-200 da empresa Microdrones,
Inc., munido de uma câmera PENTAX A40 RGB com lente de zoom integrada.
O sensor foi um CCD 7.2×5.4 mm, com 12 milhões pixels e tamanho de pixel
1.8×1.8µm. O tamanho da imagem foi de 4000×3000 e a largura focal de 7.9
mm. A fim de obter uma resolução de 1.03 cm pixel−1 , voos foram realizados a
48 m de altura.
Vergara-Díaz et al.[5] analisou diferentes condições de adubação nitrogenada
do milho comparando VIs derivados de imagens RGB (ao nível do solo) e ima-
gens NDVI obtidas de um VANT na fase de floração. Este autor concluiu que
o NDVI permaneceu praticamente inalterado de 4.000 a 13.000 kg ha-1, o que
corresponde a um dossel denso (IAF > 4). As relações obtidas entre os índices
levam a conclusão de que a inclusão de informações agroclimáticas junto com VIs
melhora a estimativa de TDB; os melhores índices para obter esses relacionamen-
tos foram GLI e VARI; e mais pesquisas devem ser realizadas para desenvolver
procedimentos padronizados de fácil aplicação para obter valores radiométricos
mais precisos com câmeras de baixo custo montadas em VANTs de baixo custo.

4.3 Estudo SCD3

Relevância: Baixa

O estudo SCD3, intitulado "Detecting newly grown tree leaves from unman-
-ned-aerial-vehicle images using hyperspectral target detection techniques"[6], de
2018, procura investigar a possibilidade de se detectar nova folhagem de bitmaps
de VANTs com espectro limitado usando técnicas hiperespectrais de detecção de
alvos, as performances de técnicas ativas e passivas de detecção de alvos, e a
possibilidade de uma detecção bem-sucedida de nova folhagem usando imagens
de sensoriamento remoto em escala de decímetro.
14

SCD3 foi efetuado o sul do Taiwan, utilizando um drone eBee RTK da em-
presa SenseFly e uma câmera Canon PowerShot S110. Os ortomosaicos foram
gerados a partir de imagens com 4000×3000 pixels de resolução com o software
de pós-processamento Postflight Terra 3D.
Na área A, ocorreu de o alvo específico ser amostrado do centro de um cluster
de novos pixels de folhagem e houve a ocorrência de uma contaminação rara
causada por pixels adjacentes. Embora as imagens a nível de decímetro tenham
sido derivadas usando uma técnica de média de blocos de 5× ou 10× pixels,
as assinaturas resultantes apareceram ligeiramente deslocadas da imagem de
resolução centimétrica original. A amostragem na área B exibiu um padrão de
assinatura quase idêntico ao da área A.
Por vezes, os alvos podem acabar por ser misturados com outros materiais,
alguns dos quais podem estar embutidos em um espaço de sub-pixel, visto que
seu tamanho é claramente menor que a resolução de pixels; por exemplo, a de-
tecção de folhagem usando imagens de satélite. Neste caso, os alvos só podem
ser detectados a nível de sub-pixel. Ao diferenciar novos pixels de folhagem de
folhas maduras, grama, solo e materiais de concreto sobre florestas, a detecção
de alvos pôde ser alcançada com uma precisão geral de mais de 90%. À medida
que novas folhas são introduzidas no lado inferior de um dossel de alta densi-
dade, o sombreamento das folhas das árvores causará algumas dificuldades na
recuperação de novas folhas com um sensor RGB-VANT.

4.4 Estudo SCD4

Relevância: Média

O estudo SCD4, intitulado "Estimation of plant height using a high through-


put phenotyping platform based on unmanned aerial vehicle and self-calibration:
Example for sorghum breeding"[7], de 2018, tem como objetivo estimar a altura
de uma criação de teste de sorgo usando fenotipagem de larga escala em uma
plataforma de VANT.
SCD4 ocorreu em Hermitage, Queensland, Australia. O estudo fez uso do
drone X8, da empresa Skywalker Technology Co.. Planos de voo autônomo
foram construidos utilizando o software Mission Planner, com altura de voo
de 20 m e velocidade de 3 m/s. A câmera utilizada foi a Sony DSC-RX100M3 com
5472×3648 pixels. O tamanho do pixel foi de aproximadamente 0.45 cm.
O método da nuvem de pontos pressupõe que o nível do solo é visível em uma
parcela e/ou ao redor do campo a partir do ar, sendo adequado apenas para copa
com menor cobertura do solo e/ou onde há grandes lacunas entre as parcelas. A
principal alternativa para uma análise de nuvem de pontos de um único voo é
usar uma referência onde uma pesquisa de drone foi realizada no mesmo campo
sem culturas (antes da emergência ou após a colheita) para representar o nível
do solo de todo o campo.
O erro total foi de 19% para a população reprodutora de sorgo e é aceitável
nas gerações iniciais, uma vez que um número maior de candidatos será selecio-
15

nado pelos melhoristas e essas linhas devem ser identificadas em fases posteriores
da seleção.
O método resultou em uma precisão razoável e pode ser potencialmente ex-
tendida a outras características em fenotipagem de larga escala através da fusão
de dados medidos manualmente e obtidos por VANTs, o que é um ótimo com-
promisso entre precisão de estimativa, tempo de medição manual e investimento
para estimar a altura do dossel com precisão.

4.5 Estudo SCD5

Relevância: Baixa

O estudo SCD5, intitulado "High-throughput field phenotyping in dry bean


using small unmanned aerial vehicle based multispectral imagery"[8], de 2018,
propõe a validação de imagens multi-espectrais provindas de VANTs para a
fenotipagem em grande escala de testes de reprodução de feijão seco através de
diversos ambientes e estações.
O estudo foi realizado em múltiplas localidades em Washington, EUA. O
veículo utilizado foi o octocóptero HiSystems GmbH com o controlador de trans-
missor de rádio MX20 Hott. A plataforma foi integrada com a câmera multi-
espectral XNiteCanon SX230 NDVI. Os voos foram realizados a 120 m acima do
nível do solo e o GSD para imagens termais foi de aproximadamente 10.4 cm
pixel−1 .
Em geral, a área média do GNDVI e do dossel a 45 DAP e a média do GNDVI
a 60 DAP foram as mais correlacionadas (r > 0.73) com o rendimento de semen-
tes. Ademais, os recursos derivados de dados de sensoriamento remoto foram
comparados entre si através de painéis a fim de determinar a inter-relação tem-
poralmente, ou seja, em diferentes estágios de crescimento; e todas as correlações
foram significativas com P < 0.0001.
Para testes de estresse hídrico, SCD5 obteve imagens com forte e significante
correlação com variáveis de resposta. No entanto, testes de estresse de nitrogê-
nio mostraram baixa correlação entre os dados obtidos a partir das imagens e as
variáveis obtidas a partir da referência terrestre. Finalmente, dados de tempera-
tura se mostraram altamente correlacionados com o rendimento de sementes e
classificação de biomassa.

4.6 Estudo SCD6

Relevância: Baixa

O intuito do estudo SCD6, intitulado "Improved estimation of leaf area index


and leaf chlorophyll content of a potato crop using multi-angle spectral data –
potential of unmanned aerial vehicle imagery"[9], de 2018, é estudar o potencial
das medidas multi-angulares coletadas por VANTs para a obtenção do índice de
área foliar (IAF) e tabela de cores foliares pela inversão do model PROSAIL.
16

Realizado em um campo de batatas na fronteira entre a Holanda e a Bélgica,


SCD6 utiliza uma câmera multi-espectral da empresa Rikola Ltd. acoplada a
um octocóptero Altura AT8. As imagens coletadas são de 1010×1010 pixels. A
câmera possui um campo de visão horizontal e vertical de 36.5◦ . O drone foi
programado para voar a 120 m do solo, a uma velocidade de 4 m/s. Após a
georreferência, as imagens foram exportadas com tamanho de pixel de 5 m.
Foi observado que quanto mais e melhor-distribuídos ângulos, mais precisos
os resultados. Em geral, a inversão baseada em dados de nadir[10] e baseada
em dados angulares produziram resultados muito semelhantes. As diferenças
entre o nadir IAF e o IAF invertido multi-angular foram geralmente pequenas
(diferença média de -0.05 ± 0.43). Quando apenas o espectro de reflectância
medido na posição nadir foi utilizado para a inversão, o IAF foi obtido com um
RMSE de 0.7 e para a linha de regressão foi obtido um R2 de 0.91.
No geral, a inversão do PROSAIL produziu bons resultados para a recu-
peração do IAF, mas resultados ruins para a recuperação do teor de clorofila
foliar.

4.7 Estudo SCD7


Relevância: Média

O estudo SCD7, intitulado "Multitemporal field-based plant height estima-


tion using 3D point clouds generated from small unmanned aerial systems high-
resolution imagery"[11], de 2018, busca avaliar técnicas de estrutura de movi-
mento baseadas em sistemas aéreos não-tripulados para modelar colheitas em 3D
repetidamente e consistentemente; desenvolver e aplicar um fluxo de trabalho de
processamento replicável para obter altura de plantas ao longo do tempo; e inves-
tigar a precisão de estimativas de altura de plantas via estrutura de movimento
quando comparadas a medidas de campo.
SCD7 foi conduzido na fazenda de pesquisa da universidade do Texas, EUA.
O estudo utilizou um drone Phantom 3 Pro da empresa DJI, com a câmera da
própria aeronave e o software de pilotagem automática Pix4Dcapture. Os voos
foram realizados a uma altitude de 20 m e sobreposição de imagem de 90%. A
câmera foi configurada de modo a ter uma resolução de 12 megapixels e largura
focal de 20. O GSD obtido variou entre 0.81 e 0.88, dependendo do voo.
A geração multi-temporal de dados de altura das plantas provou a capaci-
dade de sistemas aéreos não-tripulados para a coleção de dados necessários em
programas de melhoramento de plantas. Uma distância média da amostra do
solo (GSD) de 0.85 cm foi alcançada para mosaicos com densidades de nuvens
de pontos de mais de 2000 pontos/m2 . O erro de geolocalização (raiz quadrada
média RMS) dos dados gerados, calculados usando as localizações iniciais e re-
construídas do ponto de controle do solo, variou de 1.5 a 4 cm com o tempo e foi
considerado razoável e aceitável devido ao erro do ponto de controle no solo (<
10 cm) e os tamanhos das parcelas. No entanto, vale ressaltar que as precisões
de geologia listadas são um tanto subjetivas, já que pontos de verificação de
controle de solo independentes não foram usados.
17

4.8 Estudo SCD8

Relevância: Baixa

O estudo SCD8, intitulado "Multi-temporal high-resolution imaging spec-


troscopy with hyperspectral 2D imagers – From theory to application"[12], de
2018, investiga o fluxo de trabalho de espectroscopia de imagem com imagens
2D.
O trabalho foi realizado em Rheinbach, Alemanha. Foi utilizado a câmera
instantânea hiperespectral UHD 185-Firefly em um gimbal MK HiSight SLR2
e um drone não mencionado no artigo. Os voos foram realizados a 30 m acima
do solo e as imagens geradas possuem resolução de 50×50 pixels.
Em comparação com observações sem imagens, onde apenas um número li-
mitado de medições pode ser realizado, centenas de pixels são capturados de
uma inspeção ótica automatizada. O campo de visão específico (SFOV) define
a composição dos pixels e suas propriedades que são usadas para caracterizar
um AOI. O campo de visão (FOV) da UHD é composto pelos FOVs individu-
ais de cada pixel. Quando o UHD é aplicado em um drone, a pegada aumenta
conforme a altitude de voo aumenta. Simultaneamente, a área de interesse é
coberta por uma parte menor do FOV e, consequentemente, a SFOV também
muda. Os resultados mostram, ainda, que os dados de imagem e não imagem
não são intrinsecamente comparáveis.

4.9 Estudo EIC1

Relevância: Baixa

O estudo EIC1, intitulado "Comparison of segmentation methods on images


of energy plants obtained by UAVs"[13], de 2018, tem como objetivo encontrar
o melhor algoritmo de segmentação com o propósito de segmentar a floresta
energética onde híbridos da mesma espécie estão presentes. A finalidade é en-
contrar um método que seja tanto eficiente quanto robusto no sentido de não ser
fortemente dependente dos parâmetros de entrada.
Efetuado em Kompolt, Hungria, EIC1 utilizou um quadricóptero Phantom
2 da empresa DJI. A câmera foi uma GoPro Hero4 com um sensor CMOS de
12.1 megapixel e resolução de 4000×3000. O voo ocorreu a 60 m acima do alvo
e velocidade de 5 m/s.
Foi usado o processo de segmentação semi-automático do eCognition para
criar o melhor resultado de segmentação possível pelos métodos do estado da
arte implementados neste pacote de software. É uma abordagem supervisionada
que possui muitos parâmetros de entrada e requer interação do usuário na seleção
de regiões que precisam de segmentação adicional.
A utilização das imagens obtidas pelo drone e o processo de segmentação
eCognition resultaram em uma precisão de 74.85% ao operar em imagens con-
tendo diversos híbridos, tarefa difícil até mesmo para o olho humano. O método
de MSS da Orfeo ToolBox, no entanto, atingiu apenas 43,02%. A implementação
18

do Matlab do algoritmo MSS foi o método insensível a parâmetros que atingiu


a maior precisão com 66.12%.

4.10 Estudo EIC2


Relevância: Média

O estudo EIC2, intitulado "Time-Series Multispectral Indices from Unman-


ned Aerial Vehicle Imagery Reveal Senescence Rate in Bread Wheat"[14], de
2018, visa avaliar as associações entre os índices de vegetação espectral (SVI)
derivados do VANT e traços fisiológicos medidos por instrumentos de mão; pre-
ver a taxa de senescência de SVIs baseados em drones, bem como seu impacto
em características relacionadas ao rendimento; e avaliar a diversidade de germo-
plasma de trigo para taxa de senescência sob dois tratamentos de irrigação.
EIC2 foi realizado em algumas cidades no norte da China. O projeto utilizou
uma câmera multi-espectral Sequoia 4.0 acoplada a um drone DJI Inspire-1
T600. A Sequoia 4.0 obteve imagens com resolução de 1280×960 pixels. A dis-
tância média de amostragem do solo foi entre 2.5 e 2.8 para voos entre 30 e 40
m de altitude, respectivamente.
Fortes correlações foram detectadas entre SVIs e características fisiológicas
medidas no solo em ambas as análises de regressão (R2 = 0.69 a 0.78) e cor-
relações de Pearson (r = 0.55 a 0.78) no enchimento médio a tardio de grãos,
enquanto houve correlações negativas significativas (-0.43 a -0.76) entre SVI e
temperatura de dossel. Correlações negativas a positivas (r = -0.17 a 0.17) en-
tre SVIs baseadas em VANT e medições de clorofila usando sensores portáteis
provavelmente foram graças a erros de observação durante a aquisição de dados
baseados em terra. O erro, por sua vez, pode ser devido ao fato de que as ob-
servações baseadas no solo são baseadas em 5 a 10 plantas, enquanto as SVIs
derivadas de drone eram representativas de toda a unidade experimental.
Esses resultados mostraram que SVIs derivadas de VANT forneceram valores
fenotípicos mais precisos com custo muito menor e menos tempo, em compara-
ção com os dados coletados por dispositivos portáteis. Assim, a dinâmica de
crescimento das culturas pode ser prevista a partir das diferenças de SVI em
ambientes contrastantes.
Cinco índices vegetativos espectrais mensurados utilizando uma plataforma
VANT mostraram as vantagens de velocidade e precisão sobre ferramentas de
base terrestre. Um rápido declínio nesses índices, no entanto, foi observado do
enchimento de grãos tardios sob irrigação limitada, mostrando altas taxas de se-
nescência com impacto negativo nas características relacionadas ao rendimento.

4.11 Estudo EIC3


Relevância: Alta

O estudo EIC3, intitulado "Estimation of Vegetable Crop Parameter by


Multi-temporal UAV-Borne Images"[15], de 2018, tem como objetivo aferir a
19

aplicabilidade de imagens RGB transmitidas por VANTs para capturar informa-


ções sobre a altura das colheitas de três vegetais (berinjela, tomate e repolho)
durante toda a temporada de cultivo.
Conduzido em Bengaluru, Índia, EIC3 contou com um drone DJI 3 Profes-
sional e uma câmera padrão DJI FC300X com largura focal de 3.61 mm. As
imagens obtidas possuem resolução de 4000×3000 pixels e a altitude de voo
foi estabelecida para 20 m, com oscilações de 17 m a 24 m devido a variações
no GPS do próprio VANT. Devido a tais variações, a resolução média do solo
flutuou entre 6 e 8 mm por pixel.
Os resultados indicam que uma estimativa bem-sucedida da altura de cul-
turas para hortaliças com formas de crescimento muito diferentes pode ser al-
cançada (com valor de R2 variando de 0.89 para tomate a 0.97 para repolho).
O experimento mostra que as imagens obtidas dos VANTs, em combinação com
técnicas de estrutura de movimento, podem ser usadas para estimar a altura da
cultura de legumes durante todo o período de crescimento.
Métodos modernos de aprendizado de máquina podem manipular variáveis
altamente inter-relacionadas melhor que modelos de regressão de mínimos qua-
drados ordinários e, portanto, devem ser a ferramenta de escolha para a previsão
da altura de culturas baseada em múltiplas métricas de altura de cultura de
imagens RGB suportadas por drones. Os resultados não mostraram uma superi-
oridade clara de regressão de floresta aleatória (RFR) sobre regressão de suporte
vetorial (SVR), embora a RFR sempre produzisse resultados ligeiramente me-
lhores, que pode ser explicado pela menor sensibilidade à assimetria de dados.
Valores de altura da cultura obtidos por drones indicam um desvio sistemá-
tico dos medidos em campo, indicando uma superestimativa crescente da altura
da cultura vegetal pelo modelo de predição. Como a data de amostragem foi
a mesma para ambos, essa divergência não pode ser atribuída a diferenças de
tempo entre as medições. Embora as precisões dos modelos de previsão de bi-
omassa com base na altura estimada sejam semelhantes à biomassa prevista
com base na altura medida da cultura, cerca de 10% da variação nos valores de
biomassa permaneceu inexplicada.

4.12 Estudo EIC4


Relevância: Média

O estudo EIC4, intitulado "Extracting leaf area index using viewing geo-
metry effects — A new perspective on high-resolution unmanned aerial system
photography"[16], de 2018, foca na melhoria de medições com a visualização de
informações de geometria ao combinar medições de refletância não calibradas
(pelo uso de fotografias RGB).
O estudo foi realizado em Eschikon-Lindau, Suíça, contando com um solo
cambissolo rico em esqueletos com 21% de argila, 21% de silte e 3.5% de matéria
orgânica, e um pH de 6.7. O drone utilizado foi um GreenCopter Imager-Quadro
DualCam da empresa RUCON Engineering baseado em uma configuração Mikro-
kopter (HiSystems). O VANT foi operado em modo piloto automático com o
20

software Mikrokopter tool 2.14e, com altura de 30 m acima do solo e velo-


cidade de 3 m/s. A câmera Sony RX100 II foi operada com uma resolução de
5472×3648 pixels e largura focal de 10.4 mm.
EIC4 mostra que a visualização de estimativas de LAI de geometria com base
em imagens RGB não calibradas representa um substituto válido para medições
de validação de solo na plantação de soja. O processamento de imagens oblí-
quas originais evita a necessidade de orto-retificação e geração de ortomosaico
e, portanto, permite processar cenas complexas, como campos de agricultura.
Com base em uma verificação manual de cem imagens de plotagem seleci-
onadas aleatoriamente por campanha, nenhuma imagem precisou ser excluída.
Portanto, assumiu-se uma segmentação válida para as imagens restantes.
O georreferenciamento neste estudo gerou erros de referência de até 0.09 m
com desvios padrão de até 0.06 m, podendo ser considerado apropriado para
amostras de 1 × 3 m.

4.13 Estudo EIC5


Relevância: Baixa

O estudo EIC5, intitulado "Quantitative Estimation of Wheat Phenotyping


Traits Using Ground and Aerial Imagery"[17], de 2018, proporciona uma com-
paração entre a performance de dois métodos de obtenção de imagem — via
plataforma terrestre móvel (PTM) e veículo aéreo não tripulado (VANT). Essa
comparação é realizada por meio de uma estimativa quantitativa de caracterís-
ticas de fenotipagem do trigo em um ensaio de campo.
EIC5 foi executado em Mallala, no sul da Austrália. O sistema de imagens
com VANT contou com um quadricóptero 3DR Solo da empresa 3D Robotics
Inc., uma câmera digital compacta Sony RX100 III com resolução de 20.1 me-
gapixels, e o software de planejamento de voo Mission Planner (ArduPilot).
Os voos foram realizados a uma altitude de 30 m, que resultou em uma sobrepo-
sição de imagens de mais de 80%. O processamento das imagens foi dado, ainda,
pelo software de fotogrametria Pix4Dmapper v4.0.
As estimativas de altura do dossel de imagens do PTM tiveram um melhor
ajuste geral (RMSE = 3.95 cm, R2 = 0.94) com medidas manuais, em compara-
ção com estimativas derivadas de imagens do VANT (RMSE = 6.64 cm, R2 =
0.85). Porém, em contraste com a situação com estimativas de altura, os modelos
de regressão linear associados às estimativas de vigor do dossel por imagem de
drone tiveram uma concordância ligeiramente melhor com as medições de refe-
rência (RMSE = 0.057, R2 = 0.57) do que as estimativas baseadas em imagens
de PTM (RMSE = 0.063, R2 = 0.42).
As imagens de traços a partir de drones quase não contêm informações tão
detalhadas quanto as imagens de traços provindas de PTM. No entanto, eles
ainda são capazes de fornecer estimativa global razoável de traços da informação
ruidosa, mas completa.
A obtenção de imagens por PTM mostrou melhores estimativas de altura
usando imagens de alta resolução da cobertura vegetal, enquanto as imagens por
21

VANT fornecem melhores estimativas do vigor dessa cobertura. O uso de VANTs


é um meio rápido e eficiente de cobrir uma grande área de terra em um curto
espaço de tempo e é suficientemente preciso para a estimativa de características
a nível de cobertura vegetal. A utilização de PTMs, por sua vez, é capaz de
capturar estruturas detalhadas de folhagem com alto nível de fidelidade.

4.14 Estudo IEEE1

Relevância: Média

O estudo IEEE1, intitulado "Locating Crop Plant Centers From UAV-Based


RGB Imagery"[18], de 2018, descreve a estimativa do centro de sorgo vegetal a
partir de imagens de VANTs. É utilizado o Aprendizado de Múltipla Instância.
IEEE1 não menciona o drone ou a câmera utilizados. Tampouco menciona a
região de coleta das imagens. As imagens foram obtidas a uma altitude de 40 m
e velocidade de 8 m/s. A resolução é de 0.59 cm/pixel.
Os resultados mostram que o método funciona melhor quando as plantas
apresentam baixa densidade foliar e a limitação do uso de características simples
para descrever diversas plantas de sorgo; e obtiveram uma precisão geral média
de 66%, e um recall de 64%.
Como plantas têm diferentes números de folhas em várias orientações, uma
combinação de características simples pode não ser suficiente para descrever
plantas de sorgo heterogêneas; além disso, os dados de treinamento negativos
podem ter rótulos falsos devido a erro humano durante a rotulagem. Centros de
plantas podem ser facilmente perdidos durante a rotulagem, e acidentalmente
podem ser usados como dados negativos de treinamento.

4.15 Estudo SCO1

Relevância: Média

O estudo SCO1, intitulado "Phenotyping Conservation Agriculture Mana-


gement Effects on Ground and Aerial Remote Sensing Assessments of Maize
Hybrids Performance in Zimbabwe"[19], de 2018, buscou avaliar a eficiência de
um conjunto de índices de sensoriamento remoto ao aferir as diferenças de ren-
dimento de diferentes híbridos de milho em fases iniciais de crescimento em
condições convencionais de lavoura (CL) e plantio direto (CD).
Baseado em Harare, Zimbabwe, o projeto utilizou um drone OktoXL 6S12
da empresa Mikrokopter e dois tipos de voos foram realizados — um com
uma câmera digital RGB Panasonic Lumix GX7, e outro com, simultaneamente,
uma câmera multi-espectral Tetracam micro-MCA e uma termal TEAX Thermal
Capture. As imagens RGB utilizaram uma lente de 20 mm e tamanho do sensor
de 17.3×13.0, com resolução de 4592×3448 pixels. As imagens multi-espectrais
foram alinhadas e calibradas para reflectância usando o PixelWrench II versão
1.2.2.2.
22

A média dos índices RGB e multiespectral para as imagens terrestres e aé-


reas em cada condição de crescimento podem ser vistas na tabela 4.5. A altitude
do sensor do dossel teve um efeito negativo na resolução das imagens ao usar
câmeras com a mesma resolução (16 megapixels tanto no ar quanto no solo). No
entanto, apesar dessa perda de resolução, os índices aéreos tiveram um desem-
penho muito semelhante ou até melhor do que as medições do solo.

Tabela 4.5. Efeito das práticas de lavoura e localização dos sensores (terrestre versus
aéreo) nos índices RGB

Intensidade Matiz Saturação Claridade


CL 0.37±0.00 48.04±0.97 0.19±0.00 44.01±0.28
Terrestre
CD 0.36±0.00 39.96±0.91 0.25±0.00 42.81±0.19
CL 0.49±0.00 38.25±0.75 0.19±0.00 54.96±0.35
Aéreo
CD 0.49±0.00 31.38±0.49 0.19±0.00 55.25±0.48

Os resultados sugerem que, mesmo nos estágios iniciais de crescimento da


safra, os diferentes índices RGB e multiespectrais têm o potencial de avaliar
efetivamente as diferenças de rendimento sob condições de CL, mesmo que seu
desempenho seja menor do que nas condições de CD.

4.16 Estudo SCO2

Relevância: Extrema

O estudo SCO2, intitulado "Unmanned aerial system assisted framework for


the selection of high yielding cotton genotypes"[20], de 2018, tem como obje-
tivo desenvolver uma estrutura sistemática para selecionar cultivares de alto
rendimento usando dados adquiridos de drones para que a estrutura desenvol-
vida possa ser usada para capacitar melhoristas para aprimorar seu processo de
seleção de cultivares.
Um ensaio de campo em terra firme foi estabelecido no Texas, EUA. SCO2 foi
realizado com o VANT DJI Phantom 2 Vision Plus e sua câmera padrão, com
resolução de 14 megapixels e campo de visão de 110◦ horizontais e 85◦ verticais.
O drone foi programado para voar a 30 m de altura, com 85% de sobreposição
de imagem. A missão foi traçada utilizado a aplicação Pix4D.
A imagem ortomosaica foi classificada em classes de copa e não-copa apli-
cando o algoritmo de Canopeo[21]. Ao reduzir a população original de 144 par-
celas para as melhores 5, 4 de 5 parcelas estavam presentes nas listas de drone e
de colheita de campo, o que represent uma precisão de 80% para o procedimento
de seleção baseado em drone.
No lado UAS, o rendimento médio de pluma das últimas 32 parcelas, a partir
do procedimento de seleção por etapas, foram calculados, o que resultou em
uma lista de 24 genótipos individuais. Destes, 15 genótipos foram selecionados
23

para comparação com a lista de produção de pluma colhida. Assim, 11 dos


15 genótipos estavam presentes em ambas as listas, o que representa 73% de
precisão.
O processo de seleção aumentou o rendimento mínimo e médio de fibra da
população restante em 7.4 e 10%, respectivamente. Entradas e genótipos selecio-
nados dos drones corresponderam a 80 e 73%, respectivamente, as mesmas listas
classificadas pelas medições reais de colheita de campo. É importante notar, no
entanto, que essa tecnologia e as metodologias a ela associadas não buscam, de
maneira alguma, substituir melhoristas vegetais. Os melhoristas devem conside-
rar a tecnologia como uma ferramenta para auxiliar e acelerar seu trabalho.

4.17 Estudo SCD9

Relevância: Baixa

O estudo SCD9, intitulado "Dynamic monitoring of NDVI in wheat agro-


nomy and breeding trials using an unmanned aerial vehicle"[22], de 2017, bus-
cou desenvolver um fluxo de trabalho de fenotipagem de alta produtividade a
fim de estimar o índice de vegetação de diferença normalizada (NDVI) no nível
da parcela através de um veículo aéreo não tripulado (VANT) e uma câmera
espectral múltipla; comparar o NDVI medido a partir de VANTs a um sensor
portátil de mão; melhorar a precisão do NDVI do VANT através da fusão de
dados de câmera de mão de alta resolução; e caracterizar NDVI para contrastes
de cultivares, manejos e ambientes.
SCD9 ocorreu em Queensland, Austrália. A princípio, foi utilizado um drone
movido a gasolina da marca PhenoCopter; no entanto, ele foi substituído por
um modelo elétrico comercial (Iris + quadricóptero da empresa 3DR Robotic
Systems). Além disso, usou-se a câmera multi-espectral Micasense RedEdge
com uma resolução de 1280×800 com 5 bandas (azul, verde, vermelho, infraver-
melho próximo e red edge). Os voos foram programados para ocorrer a 30 ou
50 m de altura e velocidade de 3 m/s, com sobreposição de 70% frontal e 80%
lateral. O tamanho de pixel foi aproximadamente 1.8 cm para voos de 30 m e 3
cm para voos de 50 m de altitude.
O experimento mostrou que retirar o fundo do solo das imagens pode fornecer
resultados mais precisos para alguns índices. O NDVI ajustado ao solo (NDVI-A)
no momento de florescimento e o rendimento final apresentaram uma correlação
relativamente maior (R2 = 0.87) do que o NDVI bruto (NDVI-R, R2 = 0.82)
após minimizar a influência do solo. Também é possível usar uma câmera de alta
resolução no drone ao invés de tirar fotos no chão.
As medições dadas por VANT e câmera aérea foram fortemente relacionadas
aos valores medidos por sensores portáteis, com a vantagem de serem coletadas
mais rapidamente.
24

4.18 Estudo SCD10

Relevância: Baixa

O estudo SCD10, intitulado "Exploring Robots and UAVs as Phenotyping


Tools in Plant Breeding"[23], de 2017, explora como imagens multi-espectrais
podem ser usadas como uma tecnologia de fenotipagem na pesquisa de melhora-
mento vegetal. Isso inclui o desenvolvimento e teste de imagens em comprimentos
de onda visíveis e próximas ao infravermelho de plantações em teste de campo,
usando câmeras acopladas a robôs autônomos de campo e veículos aéreos não
tripulados (VANTs).
O estudo foi realizado no sudeste da Noruega. Foi utilizado o drone Phantom
3 da empresa DJI e uma câmera multi-espectral Parrot Sequoia com três canais
espectrais de banda larga (verde, vermelho e infravermelho próximo), um canal
de banda estreita, e um sensor RGB. A altitude de voo se deu a 15 m acima do
solo.
A integração de sensores multiespectrais em VANT e robô fornece uma solu-
ção de levantamento medida aprimorada e flexível com dados precisos capturados
no local. As imagens NDVI calibradas obtidas por detecção aérea confirmam as
medições realizadas no nível do solo e podem ser usadas para calcular as datas
de projeção e estimativa de produção. No entanto, as imagens do robô exibem
detalhes próximos das plantas que podem ser exploradas por meio de análise
avançada de imagens.

4.19 Estudo SCD11

Relevância: Baixa

O estudo SCD11, intitulado "Estimates of plant density of wheat crops at


emergence from very low altitude UAV imagery"[24], de 2017, tem como objetivo
principal adaptar as observações por VANT do método desenvolvido por Liu para
estimativa de densidade vegetal e avaliação da precisão de estimativa associada.
O experimento foi realizado nas regiões de Gréoux e Avignon, com clima
mediterrâneo; e Clermont, com clima continental. O drone usado foi um hexa-
cóptero da empresa Atechsys com uma câmera de RBG SonyILCE α5100L de
alta resolução. A câmera estava apontada para a plantação a um ângulo de 45◦
zenite e acoplada a um gimbal de dois eixos. Os voos foram realizados a uma
velocidade de 1 m/s e uma altitude que variou entre 3 e 7 m, dependendo da re-
gião. A resolução da câmera era de 6024×4024 pixels; ela usou um sensor CMOS
de 23.5×15.6 mm com tamanho de pixel de 3.88 µm e estava equipada com uma
lente focal de 60 mm.
Sob as condições variáveis avaliadas, os desempenhos de recuperação da den-
sidade da planta fornecem RMSE entre 21.66 e 52.35 plantas/m2 para densidades
que variam de 79 a 388 plantas/m2 , correspondedo a valores relativos de RMSE
que variam de 9.24% a 17.12%, ou seja, perto das incertezas de 10%, muitas
25

Tabela 4.6. Resumo das principais características de voo para três locais experimentais

Sobreposição
Resolução do Tamanho da
Localidade Altitude (m) (paralelo/
solo (mm) subamostra
transversal) (%)
Gréoux 3 0.2 38/80 1.5 m×3 linhas
Avignon 5 0.33 62/80 0.5 m×2 linhas
Avignon 7 0.45 73/80 0.5 m×2 linhas
Clermont 7 0.45 73/80 2.5 m×3 linhas

vezes consideradas como a precisão alvo a ser alcançada. Os melhores desem-


penhos requerem uma resolução espacial melhor que 0.40 mm para facilitar a
classificação dos pixels verdes e a recuperação do número de plantas por objetos
de imagem feitos de várias plantas sobrepostas.
Os objetos de imagem foram identificados usando a função bwlabel do MA-
TLAB. Os voos de baixa altitude necessários induzem potenciais problemas para
as técnicas fotogramétricas usadas para recuperar as posições precisas das câ-
meras quando a imagem é adquirida. Alternativamente, o uso de um sistema de
precisão centimétrica combinado com a informação da IMU (unidade de medida
inercial) permite orientar diretamente a imagem na superfície do solo com pre-
cisão suficiente: devido à baixa altitude, as incertezas na orientação da câmera
vinda da IMU irão se traduzir em erros de posicionamento limitados.
A geometria das observações afeta significativamente as estimativas de densi-
dade de plantas e, devido à maneira relativamente fácil e automática de coletar e
processar as imagens, a estimativa da densidade de plantas poderia ser aplicada
sobre grandes amostras.

4.20 Estudo EIC6

Relevância: Alta

O estudo EIC6, intitulado "Unmanned Aerial System (UAS)-based phenoty-


ping of soybean using multi-sensor data fusion and extreme learning machine"[25],
de 2017, procura estimar os teores de clorofila a (Chl a), clorofila b (Chl b) e
clorofila a + b (Chl a + b), concentração de nitrogênio, biomassa fresca e seca
acima do solo, e índice de área foliar (IAF) combinando dados RGB, multies-
pectrais, e térmicos adquiridos por drones usando ambos os métodos estatísticos
empíricos selecionados de Regressão Parcial dos Mínimos Quadrados (PLSR) e
Machine Learning (ML).
Uma campanha de campo, destinada a coletar imagens RGB, multiespectrais
e térmicas baseadas em drone, bem como métricas fenotípicas do solo, foi con-
duzida em Columbia, Missouri, EUA. Experimentos utilizaram um hexacóptero
DJI S900 com uma câmera RGB Sony Alpha ILCE-7R e um gimbal Ronin de
três eixos. Imagens termais e multi-espectrais foram obtidas a partir de sensores
26

ICI 8640 P-series e Parrot Sequoia, respectivamente. Voos foram conduzi-


dos a uma altitude de 3 m para uma sobreposição desejada de 90% frontal e 80%
lateral a fim de garantir redundância de imagem.
Na predição das características da soja a partir da fusão de dados multi-
sensor, a ELR demonstra um desempenho relativamente superior em comparação
com a PLSR e a RVS. A fusão de dados multi-espectrais e térmicos forneceu a
melhor estimativa para a concentração de nitrogênio e clorofila a. Em contraste,
os índices baseados em informações de cores RGB e fusão de dados multies-
pectrais exibiram o maior RMSE (22.6%). A fusão dos três sensores superou a
combinação de quaisquer dois sensores, bem como sensores únicos para previsão
de Chl a + b (menor RMSE - 11,6%).
Entre as características biofísicas da planta, a fusão de dados RGB e térmi-
cos, que combina cor, estrutura da copa e informações de temperatura, resultou
em melhores previsões para o IAF, enquanto a fusão de dados térmicos e multi-
espectrais foi melhor para estimativa de biomassa.
Os resultados deste estudo demonstram que a fusão de baixo custo de dados
de múltiplos sensores dentro de uma estrutura de aprendizado de máquina podem
fornecer estimativas precisas relativas de fenótipos de plantas. Vale ressaltar
que a fusão de dados pode melhorar a precisão das estimativas de fenótipo; no
entanto, para identificar os dados do sensor combinados de forma mais precisa
e eficiente para a fusão, estudos mais abrangentes são necessários, incluindo
estudos sobre diferentes espécies de culturas. Além disso, a fusão de dados nem
sempre melhora drasticamente a exatidão da previsão. Assim, uma troca entre a
melhoria da precisão e o custo do uso de múltiplos sensores deve ser considerada
para uma aplicação específica.

4.21 Estudo EIC7


Relevância: Alta

O estudo EIC7, intitulado "Super-Resolution of Plant Disease Images for the


Acceleration of Image-based Phenotyping and Vigor Diagnosis in Agriculture"[26],
de 2017, teve como objetivo avaliar o desempenho de métodos de super-resolução
em aplicações agrícolas, especialmente classificação de doenças de plantas.
Os resultados de avaliação quantitativa, observados nas figuras 4.1, 4.2 e 4.3,
indicam que o SRCNN apresentou o melhor dentre todos os métodos em qualquer
escala de ampliação em termos de MSE, PSNR e SSIM. No SRCNN, o MSE foi
menor em pelo menos 1428, e o PSNR e o SSIM foram maiores em pelo menos
0.51 e 0.02 do que outros métodos.
A precisão alcançada em relação à classificação de doenças foi mais alta
quando imagens originais foram usadas para testes. A precisão obtida usando
imagens de super-resolução foi melhor que a obtida usando imagens de baixa
resolução geradas por qualquer tipo de método em todas as escalas de ampliação
(figura 4.4).
O resultado das avaliações qualitativas mostrou que as imagens produzidas
pela SRCNN foram mais claras e menos desfocadas do que as imagens de baixa
27

Figura 4.1. Comparação dos resultados quantitativos médios produzidos pelo MSE
para diferentes escalas de ampliação

Figura 4.2. Comparação dos resultados quantitativos médios produzidos pelo PSNR
para diferentes escalas de ampliação

Figura 4.3. Comparação dos resultados quantitativos médios produzidos pelo SSIM
para diferentes escalas de ampliação
28

Figura 4.4. Precisão da classificação de doenças usando imagens de alta resolução,


baixa resolução e super-resolução em diferentes escalas de ampliação

resolução geradas por 5 métodos convencionais diferentes. Isso significa que o


SRCNN foi capaz de restaurar a informação que estava nas imagens originais e
foi perdida nas imagens de baixa resolução. O resultado da avaliação quantitativa
demonstrou o resultado de avaliações qualitativas: MSE de imagens originais foi
menor e PSNR e SSIM foram maiores do que para imagens de baixa resolução
em todas as escalas de ampliação.
Além disso, SRCNN superou os outros métodos convencionais na classificação
da doença por uma grande margem em escalas de ampliação de 2 a 5, e uma
pequena margem (≥0.03) em escala 6. A falha de super-resolução ocorreu por
cerca de 2% das imagens de teste. Algumas das falhas foram devidas a objetos
inesperados, principalmente o dedo do fotógrafo.

4.22 Estudo IEEE2

Relevância: Baixa

O estudo IEEE2, intitulado "Plant Leaf Segmentation for Estimating Phe-


notypic Traits"[27], de 2017, estima características fenotípicas ao nível da planta
a partir de imagens de VANTs. É descrito, ainda, um método para segmentar
folhas individuais.
IEEE2 foi realizado em West Lafayette, Indiana, EUA. O voo do drone se
deu a 40 m de altitude e velocidade de 8 m/s.
Puderam ser obtidas características fenotípicas como a área e o comprimento
de cada folha e a contagem foliar de cada planta.
O método foi avaliado usando 10 plantas selecionadas, com 82 folhas. Destas
82 folhas, um total de 57 folhas verdadeiras positivas foram corretamente detec-
tadas, um total de 18 folhas falso-positivas foram detectadas, o que significa que
29

18 segmentos ruidosos da imagem foram detectados incorretamente como folhas.


Dessas 82 folhas, o método produziu um total de 25 amostras falso-negativas, o
que significa que 25 folhas não puderam ser detectadas, levando a uma precisão
de 69.5% e recall de 76.0%. O comprimento e a área da folha, por sua vez, foram
estimados em 98 pixels e 1000 pixels quadrados, respectivamente.

4.23 Estudo IEEE3

Relevância: Baixa

O objetivo do estudo IEEE3, intitulado "Improving Orthorectification of


UAV-Based Push-Broom Scanner Imagery Using Derived Orthophotos From
Frame Cameras"[28], de 2017, é analisar resultados experimentais de conjuntos
de dado reais adquiridos por VANTs para demonstrar a viabilidade e o desem-
penho do procedimento proposto para melhorar as características geométricas
das ortofotos hiperespectrais.
IEEE3, assim como IEEE2, foi realizado em West Lafayette, Indiana, EUA.
O estudo utilizou um quadricóptero Phantom 2 da empresa DJI e uma câmera
GoPro Hero 3+ (Black Edition) com largura focal nominal de 3 mm. Os voos
ocorreram a uma velocidade de 8 m/s e altura de 15 m.
O procedimento de registro proposto foi bem-sucedido na redução da quali-
dade do ajuste entre características de amarração e verificação, de aproximada-
mente ± 2.5 m para quase ± 0.25 m. Usar um número maior de pontos de amar-
ração e recursos lineares não melhora significativamente a qualidade do ajuste,
assim como a utilização de um polinômio de interpolação de segunda ordem en-
tre os pontos de referência. Usar um maior número de pontos de referência, no
entanto, o faz.
O procedimento proposto pode funcionar na ausência de recursos de ponto
de amarração e é mais prático usar um número maior de pontos de referência
e reduzir a ordem do polinômio de interpolação entre os pontos de referência, o
que evitará problemas de excesso de parametrização.
Apesar de VANTs equipados com RGB e sistemas hiper-espectrais de imagem
serem plataformas promissoras para fenotipagem de alta produtividade a baixo
custo, as restrições de carga útil e resistência de tais plataformas impõem a utili-
zação de unidades de georreferenciamento direto do consumidor com a modesta
capacidade de determinar a posição e a orientação dos sensores envolvidos.

4.24 Estudo IEEE4

Relevância: Baixa

O estudo IEEE4, intitulado "Prediction of Sorghum Biomass Based on Image


Based Features Derived from Time Series of UAV Images"[29], de 2017, investiga
dois algoritmos de aprendizagem estatísticos não lineares, MLP e SVR, para
predição de biomassa seca.
30

O estudo ocorreu em West Lafayette, Indiana, EUA. O drone utilizado foi um


multi-rotor S1000+ da empresa DJI, com uma câmera Sony Alpha 7R de lente
35 mm. Os voos aconteceram a 55 m de altura e velocidade de 10 m/s. A câmera
em questão possuia resolução de 35 megapixels, resultando em uma distância da
amostra de solo de 0.75 cm. Os dados hiper-espectrais foram obtidos a partir de
um sistema de varredura eletrônica Headwall Nano-Hyperspec.
Os modelos SVR e MLP foram treinados e dez experimentos foram con-
duzidos com diferentes recursos de entrada. Os resultados médios da validação
cruzada estão listados na tabela 4.7 e mostram que combinar altura e dados
espectrais melhorou a capacidade de previsão. Além disso, o R2 aumentou a me-
dida que mais recursos de várias datas foram incorporados, especialmente para
o modelo SVR.

Tabela 4.7. Precisões de previsão de biomassa para diferentes experimentos

SVR MLP
Experimento
RMSE (g/m2 ) R2 RMSE (g/m2 ) R2
1 205.28 0.48 213.83 0.43
2 179.33 0.58 180.36 0.60
3 265.17 0.13 274.88 0.04
4 220.44 0.46 239.00 0.37
5 187.42 0.61 188.40 0.61
6 178.89 0.65 199.19 0.55
7 174.11 0.66 199.19 0.55
8 161.31 0.71 188.38 0.61
9 15.41 0.73 184.15 0.62
10 48.02 0.76 196.30 0.57

O modelo SVR, em geral, funciona melhor que o modelo MLP. Isso provavel-
mente ocorre porque os dados de referência do solo para biomassa foram extrema-
mente limitados, e o grande número de parâmetros de ponderação associados às
características de alta dimensão não puderam ser aprendidos apropriadamente.
Os resultados mostram que combinar recursos espectrais e de altura em várias
datas pode resultar em um melhor desempenho de previsão do que usar um único
tipo de recurso ou recursos de uma única data. No entanto, devido à quantidade
limitada de dados de referência do solo, os desempenhos dos modelos foram sub-
ótimos, especialmente para MLP, uma vez que normalmente é necessária uma
grande quantidade de amostras de treinamento para aprender os pesos ideais.
31

4.25 Estudo SCO3

Relevância: Baixa

O estudo SCO3, intitulado "The DOM Generation and Precise Radiometric


Calibration of a UAV-Mounted Miniature Snapshot Hyperspectral Imager"[30],
de 2017, buscou gerar um mapa de ortofoto digital a partir de cubos hiper-
espectrais capturados por um espectrômetro leve de imagem montado em uma
plataforma de VANT equipado com um sistema de posição e orientação e uma
unidade de medição inercial que executa uma calibração radiométrica precisa.
SCO3 foi conduzido em Xiaotangshan, Beijing, China, e contou com um
VANT multi-rotor Spreading Wings S1000+ da DJI, assim como uma câmera
digital Sony DSC-QX100 associada a um espectrômetro UHD 185. Os voos foram
realizados a uma altitude de 50 m, com velocidade de 5 m/s, e as distâncias de
amostra de solo foram de 0.017 m e 0.34 m para imagens PAN e hiper-espectrais.
Sobreposições de imagens se deram em 70% frontal e 60 % lateral.
Os resultados indicaram que o dispositivo de carga acoplada do sensor hipe-
respectral exibiu um notável efeito de vinheta e tiras. Medidas foram tomadas
para corrigir o desvio espectral e a variação da resposta radiométrica. A variação
da resposta radiométrica foi significativamente eliminada após a correção. O sen-
sor hiperespectral UHD 185 tem vantagens em relação à eficiência de imagem.
Resultados de calibração robusta foram alcançados após a calibração espectral e
rediométrica, não mostrando predisposições significantes para imagens calibra-
das; discrepâncias ficaram abaixo de 5% para todas as bandas.
Foi avaliada a exatidão geométrica do método introduzido para calcular as in-
formações de POS de imagens hiperespectrais, comparando os mapas de ortofoto
digital (DOM) e modelos de elevação digital (DEM) gerados pela fotogrametria
convencional de VANT com os de uma câmera digital comercial; a diferença
horizontal relativa foi menor que 0.05 m. O portfólio de pré-processamento pro-
posto mostrou-se robusto, confiável, eficaz em termos de tempo e eficiente em
recursos. As vantagens de usar os imageadores hiperespectrais instantâneos in-
cluem um aumento significativo na eficiência da coleta de luz, falta de artefatos
de varredura e maior robustez ou compactação devido à falta de componentes
móveis.

4.26 Estudo SCO4

Relevância: Média

O estudo SCO4, intitulado "UAV Localization in Row Crops"[31], de 2017,


desenvolve um procedimento para estimar a altitude e a posição lateral do VANT
para uma linha de milho usando apenas o scanner a laser e unidade de Medida
Inercial (IMU).
Nesse trabalho, é usado um hexacóptero Firefly da empresa Ascending
Technologies. Micro-VANTs são as plataformas ideais para esse estudo, devido
à sua alta mobilidade e capacidade de voar acima das culturas, mostrando-se útil
32

onde um robô de solo apresentaria dificuldades. O sensor primário utilizado é um


scanner a laser Hokuyo UBG-04LX-F01 2D, escolhido graças ao seu desempenho
externo, invariância às condições de iluminação, alta resolução de dados espaciais
e rápida taxa de detecção. O drone é equipado com um IMU de 9-DOF, um
altímetro barométrico, uma câmera mvBlueFOX MLC200wC de 752×480 pixels, e
um GPS.
Fechando o circuito de detecção e controle permite que o drone controle sua
postura em 2-DOFs em um campo de teste de fenotipagem ao ar livre. Esta
experiência demonstra a capacidade do sistema de voar e localizar-se de forma
estável para uma linha de campo de destino. A tabela 4.8 mostra as métricas
de erro para todos os voos. Os erros com a maior magnitude demonstram que o
drone e os observadores sempre concordam com a localização do drone em uma
linha. A média combinada (-0.053), desvio padrão (0.294), e mediana (-0.057)
mostram que os erros tendem em uma direção. Apesar da grande variação nas
estimativas, o drone voa de forma estável ao longo da linha alvo.
Os erros são, por vezes, resultado do drone ou da incorreta identificação
do observador sobre qual linha ele está sobrevoando. No entanto, os erros não
parecem ter uma dependência do tempo ou da distância percorrida pelo VANT
e mostram que o drone não perde o controle da linha de destino em longo prazo.

Tabela 4.8. Estatísticas de erro para voos 2-DOF

Voo Média (m) Desvio padrão Mediana (m) Max (m)


1 0.164 0.226 0.192 0.482
2 -0.031 0.296 -0.093 0.932
3 -0.322 0.387 -0.070 1.012
4 -0.172 0.251 -0.139 0.904
5 -0.113 0.108 -0.144 0.256
6 0.141 0.260 0.078 0.800
7 -0.026 0.293 -0.095 0.808
8 -0.142 0.129 -0.165 0.313
9 -0.315 0.322 -0.195 1.038
10 0.045 0.180 0.027 0.553
11 -0.056 0.227 -0.109 0.591
Combinados -0.053 0.294 -0.057 1.038

Para 3-DOF, em vez de seguir a linha de destino, o drone segue a linha


adjacente durante a maior parte do voo. Adicionando um offset de ±rw , o ex-
perimento mostra que o drone, ao detectar corretamente a rota para uma fila
adjacente mesmo que apenas uma vez, melhorará drasticamente seu desempe-
nho de rastreamento. Os resultados são vistos na tabela 4.9 e, embora o sistema
ainda tenha uma grande variação e, ocasionalmente, desvalorize sua posição, o
erro é quase zero. Isso demonstra que os erros não se acumulam e que o drone
pode controlar eficientemente as linhas.
33

Tabela 4.9. Estatísticas de erro para voos 3-DOF

Voo Média (m) Desvio padrão Mediana (m) Max (m)


1 0.134 0.921 0.083 1.625
2 0.214 0.713 0.210 1.448
3 0.069 0.354 0.098 1.076
4 -0.204 0.354 -0.160 1.117
5 -0.032 0.678 0.145 1.655
6 0.071 0.278 0.067 0.641
7 -0.085 0.520 -0.075 1.121
Combinados 0.028 0.611 0.043 1.655

Em todos os casos estudados, a diferença na posição relatada pelo GPS está


próxima da distância entre as fileiras de milho em um estudo de fenotipagem.
Este nível de precisão é insuficiente para caracterizar as respostas das plantas
nos ensaios de fenotipagem, motivando a necessidade de soluções de localização
adicionais.
O sistema baseado em laser apresentado é vulnerável a trocar a linha que está
rastreando; então, a fusão de uma estimativa de sensor adicional na estimativa
de posição que reduz esse ruído pode melhorar muito o sistema. Um sistema
mais confiável pode fornecer estimativas de localização robustas, permitindo na-
vegação livre de GPS, tolerância a falhas quanto às falhas do GPS, e um meio
de localizar precisamente o veículo sem a necessidade de sistemas de GPS RTK.

4.27 Estudo SCO5


Relevância: Baixa

O estudo SCO5, intitulado "Phenological analysis of unmanned aerial vehi-


cle based time series of barley imagery with high temporal resolution"[32], de
2017, avalia o potencial de analisar imagens RGB simples através de um campo
de cevada de primavera experimental com alta frequência temporal e resolução
espacial, com o intuito de correlacionar o resultado com os estágios de desenvol-
vimento da safra.
SCO5 foi realizado em Rheinbach, Alemanha. O drone usado durante o es-
tudo foi um Falcon-8 da empresa Asctec GmbH, equipado com uma câmera
RGB Sony NEX 5n com resolução de 4912×3264 pixels e lente focal de largura
16 mm. O voo se deu a uma altitude de 100 m acima do solo, resultando em
uma resolução de 20×20 mm por pixel.
A cadeia de processamento de dados simples é rápida e mostrou-se robusta
contra diferentes condições de iluminação. Porém, o uso de imagens RAW e uma
câmera totalmente calibrada radiometricamente poderia aumentar ainda mais a
precisão dos dados.
A alta resolução temporal do conjunto de dados é um pré-requisito para
observar as rápidas mudanças na refletância do dossel, que não podem ser de-
34

tectadas por apenas alguns sobrevoos de drones. É notável que o padrão para
cultivares de cevada e ambos os anos são conservados, portanto, é provável que
a abordagem também possa ser aplicada a outras culturas para acompanhar seu
desenvolvimento sazonal.
Enquanto fenotipagem acontece em uma escala espacial relativamente pe-
quena em campos experimentais limitados, pecuária de precisão depende de
informações sobre regiões maiores. Então, imagens poderiam ser fornecidas para
fenotipagem por pequenas plataformas voadoras, que podem ser implantadas di-
ariamente, como os drones usados neste estudo. Devido ao seu modo ineficiente
de voar, drones apresentam performance pior que aviões não tripulados ou até
mesmo tripulados, que podem cobrir grandes áreas em um tempo relativamente
curto.

4.28 Estudo SCO6


Relevância: Alta

O estudo SCO6, intitulado "Digital Counts of Maize Plants by Unmanned


Aerial Vehicles (UAVs)"[33], de 2017, busca avançar o uso de VANTs e análise
de imagens como uma possível técnica de fenotipagem de alta produtividade.
O experimento de campo foi conduzido em Dürnast, no sul da Bavaria, com
temperatura média de 8.1 ◦ C e 791 mm de precipitação. SCO6 utilizou o VANT
MK Basicset Okto2 da empresa KS Model Company Ltd. e uma câmera digital
Canon G12, com 10 megapixels, largura focal de 28 mm, e qualidade de imagem
de 180 pixels/polegada. As imagens obtidas apresentaram sobreposição de, em
média, um terço. Os voos ocorreram a uma altura de 50 m.
A correlação entre a porcentagem de pixels verdes e as plantas registradas
visualmente nas parcelas indicou pouca relação (R2 = 0.023), o que sugere que
não existe relação entre cobertura do solo e número de plantas. A detecção digital
de plantas, portanto, não foi possível. Para registrar o número digital de plantas
em cada imagem, a imagem original foi processada com o procedimento de realce
de contraste decorrstretch[34].
O script de processamento de imagens pôde ser usado nos primeiros está-
gios de desenvolvimento de folhas em ambos os sistemas de plantio, permitindo
a segmentação bem-sucedida de plantas jovens. Uma segmentação boa e clara,
no entanto, depende do tipo de objeto e/ou da região. Imagens desfocadas não
representaram erros significativos na diferenciação de plantas contadas visual-
mente e digitalmente.
A propagação das diferenças entre plantas contadas digital e visualmente
foi inferior a 10% para todas as cultivares, com apenas três outliers excedendo
essa faixa. Essas diferenças podem ser devidas a vários fatores - imagens tardias
demais do crescimento das plantas podem não permitir a separação das folhas
mais jovens das mais velhas; e as plantas que estão muito juntas, com efeitos de
sobreposição aumentados, podem resultar na contagem de menos plantas.
O uso de VANTs fornece dados de economia de custos e tempo para posterior
processamento e permite coletas de dados flexíveis e independentes do tempo.
35

Os resultados deste estudo demonstram a capacidade de processamento de ima-


gens em campos agrícolas para detectar pós-emergência de plantas. A detecção
da cobertura do solo não se correlacionou com o número de plantas no nível
da parcela. Tornou-se possível a contagem de plantas apenas introduzindo o co-
mando decorrstretch do MATLAB. Efeitos de embaçamento e detecção de ervas
daninhas em imagens podem levar a erros de contagem, que podem ser evitados
selecionando manualmente os limites e agrupando os pixels.

4.29 Estudo SCO7

Relevância: Alta

O estudo SCO7, intitulado "High Throughput Phenotyping of Blueberry


Bush Morphological Traits Using Unmanned Aerial Systems"[35], de 2017, pos-
sui como objetivo geral objetivo geral determinar a viabilidade e precisão do uso
de um sistema VANT para adquirir imagens a fim de extrair características mor-
fológicas de arbusto de mirtilo que são relevantes para colheitas realizadas por
máquinas. Entre os objetivos específicos estão: determinar parâmetros ótimos
para o drone e câmeras a bordo para coleta de dados de imagens aéreas; usar
imagens para gerar nuvens de pontos e extrair características morfológicas do
modelo 3D; e quantificar as métricas de forma para uma capacidade de colheita
da máquina desejável e comparar variedades de arbustos.
SCO7 foi conduzido em Athens, Georgia, EUA; e utilizou um quadricóptero
Phantom 3 Advanced da DJI, com sua câmera padrão de largura focal de 20
mm. Para a obtenção das imagens, a câmera foi direcionada à plantação perpe-
dicularmente, assim como a um ângulo de 45 graus para a esquerda e direita,
como pode ser observado na figura 4.5. Os voos ocorreram de 3 a 8 m de alti-
tude e velocidade de 0.4 m/s. Os ângulos de visão horizontal e vertical foram
determinados em aproximadamente 82.5 e 66.5 graus, respectivamente.

Figura 4.5. Campo de visão do quadricóptero


36

Os resultados revelaram que as características morfológicas obtidas das ima-


gens aéreas foram muito próximas das características medidas manualmente,
como extensão do arbusto (altura e largura), área do dossel e volume, podendo
substituir medições manuais em campo a fim obter uma economia significativa
de mão-de-obra.
Quando comparadas ao sistema baseado em LiDAR (terrestre ou aéreo),
imagens de baixa altitude por drone não apenas oferecem um alto rendimento e
baixo custo de coleta de dados morfológicos, como também fornecem informações
de cor que ajudam a diferenciar as touças da grama ou outra vegetação.
Este estudo confirma a viabilidade da utilização de imagens de estruturas
aéreas não tripuladas e de algoritmos de movimento para gerar modelos 3D de
arbustos dos quais traços morfológicos podem ser extraídos. As nuvens de pon-
tos geradas a partir das imagens tinham dimensões comparáveis àquelas medi-
das manualmente em campo. Imagens georreferenciadas tiradas de uma altitude
baixa e de vários ângulos forneceram dados adequados para caracterizar arbus-
tos de forma confiável. Resultados semelhantes poderiam ter sido atingidos com
menos fotos tiradas a uma altura mais elevada, o que forneceria maior cobertura
em menos tempo.

4.30 Estudo SCD12


Relevância: Baixa

No estudo SCD12, intitulado "Field phenotyping system for the assessment


of potato late blight resistance using RGB imagery from an unmanned aerial
vehicle"[36], de 2016, um drone com uma câmera digital é utilizado como uma
plataforma de fenotipagem para a avaliação da resistência de batatas à requeima.
SCD12 foi realizado em Hokkaido, Japão. As imagens foram obtidas a partir
de um drone HiSystems GmbH Mikrokopter e uma câmera Sony NEX-5N. A
câmera possuía ângulos de visão de 52.4◦ verticais e 73.1◦ horizontais, e a imagem
apresentava 3264×4912 em dimensão de pixel, e resolução espacial de 2.4 cm
pixel−1 . Os voos ocorreram a 80 m do solo.
O coeficiente de determinação entre as áreas abaixo das curvas de progresso
da doença (AACPDs) pelo processamento de imagem e avaliação visual foi de
0.73, como pode ser observado na figura 4.6. A linha contínua mostra a linha de
regressão, y = 0.83x + 217.11.
Os resultados da gravidade da doença e estimativas de AACPD foram ligei-
ramente piores do que os do ano anterior; no entanto, os criadores concluíram
que a precisão ainda era aceitável para a gravidade da doença e medições de
AACPD. Portanto, o método desenvolvido com base no processamento de ima-
gens foi validado como uma ferramenta efetiva de fenotipagem de resistência à
requeima.
Os resultados sugerem que o método aéreo baseado em imagens RGB poderia
ser um sistema de fenotipagem de larga escala para avaliar a resistência à doença.
Ficou claro que a avaliação da gravidade e da resistência à doença por meio de
imagens são muito mais eficientes do que a avaliação visual convencional.
37

Figura 4.6. Correlação entre as AACPDs dos métodos de processamento de imagem


e avaliação visual no conjunto de dados de validação do ano seguinte

4.31 Estudo SCD13

Relevância: Média

O estudo SCD13, intitulado "Evaluation of ground, proximal and aerial re-


mote sensing technologies for crop stress monitoring"[37], de 2016, buscou de-
terminar a viabilidade do uso de imagens multiespectrais proximais terrestres e
imagens multiespectrais baseadas em VANT para o monitoramento rápido do
estresse de culturas em lavouras em fileiras irrigadas no cultivo de feijão cari-
oca; e compreender o efeito da resolução sobre a quantificação do estresse das
culturas nas fases iniciais do crescimento.
A região de SCD13 é próxima à cidade de Prosser, EUA, onde foram planta-
das oito cultivares de feijão carioca. Foi utilizado o VANT ARF OktoXL 6S12 da
empresa HiSystems GmbH em conjunto com uma câmera multi-espectral Nite
Canon ELPH110 LDP LLC com bandas infravermelho próximo (NIR), verde e
azul. Os sensores de imagem possuíram 4 mm de largura focal e resolução de
4608×3456 pixels. Os voos ocorreram a 100 m de altitude, resultando em dis-
tâncias de amostra de solo de 35.2 mm.pixel−1 .
No geral, a correlação entre o rendimento da cultura e o GNDVI foi forte em
todo o gráfico de sensoriamento remoto aéreo (r = 0.71), que foi semelhante às
correlações entre rendimento e indicadores de cobertura de dossel (CD) de ima-
gens de sensoriamento remoto e IAF de sensoriamento do solo, mas ligeiramente
38

superior aos dados de sensoriamento remoto proximal, como pode ser observado
na tabela 4.10.
A possível razão para a correlação relativamente fraca dos dados de detecção
proximal pode ser a variação da condição de luz, resultando em grande variação
no GNDVI e na CD de diferentes subparcelas, uma vez que as imagens foram
tiradas em diferentes momentos em um dado dia de coleta de dados.

Tabela 4.10. Coeficientes de correlação (r) entre o rendimento da cultura e indicadores


baseados em dados de detecção desenvolvidos

GNVI Cobertura de dossel


Cultivar IAF
Aéreo Proximal Aéreo Proximal
C1 0.75 0.86 0.78 0.89 0.74
C2 0.86 0.86 0.80 0.82 0.88
C3 0.72 0.61 0.67 0.46 0.44
C4 0.58 0.81 0.70 0.78 0.68
C5 0.81 0.92 0.73 0.89 0.80
C6 0.58 0.50 0.61 0.44 0.56
C7 0.69 0.84 0.70 0.84 0.69
C8 0.69 0.80 0.48 0.80 0.56
Geral 0.70 0.71 0.65 0.72 0.64

Resultados indicam que ambos sensoriamentos remotos proximal e aéreo fo-


ram capazes de detectar a resposta das culturas a diferentes tratamentos de ir-
rigação e preparo do solo, usando o GNDVI como índice indicador. No entanto,
o índice de área foliar medido com sensoriamento proximal não conseguiu dis-
tinguir a diferença entre as culturas com dois tratamentos de cultivo no mesmo
nível de irrigação; e a correlação com o rendimento foi mais forte nos dados
de sensoriamento remoto aéreo. Em suma, o sensoriamento remoto aéreo com
resolução espacial reduzida tem melhor potencial para monitorar o estresse da
cultura em comparação com outros dois métodos estudados.

4.32 Estudo SCD14


Relevância: Extrema

O estudo SCD14, intitulado "Machine Learning for High-Throughput Stress


Phenotyping in Plants"[38], de 2016, fornece uma visão geral abrangente e uma
taxonomia amigável de ferramentas de Machine Learning (ML) para permitir
que a comunidade de plantas aplique de forma fácil e correta as ferramentas
apropriadas de ML e as diretrizes de melhores práticas para vários traços de
estresse bióticos e abióticos.
SCD14 proporciona uma visão geral do trabalho realizado no campo da fe-
notipagem do estresse vegetal usando ML na identificação, classificação, quanti-
ficação e predição (ICQP), assim como uma visão geral das questões gerais em
39

ML para desenvolver uma estratégia para uma aplicação mais ampla e adaptável
à agricultura; contribuir para uma estrutura técnica para a aplicação de ML no
melhoramento de plantas para resolver problemas práticos, especialmente feno-
tipagem de estresse de plantas usando imagens digitais; e discutir as vantagens
e desvantagens de vários algoritmos de ML na fenotipagem de estresse com o
objetivo de permitir uma exploração mais aprofundada dessas ferramentas para
facilitar o uso prático no melhoramento de plantas.
O estudo explora as diferentes abordagens de ML em diversos estudos indi-
vidualmente (tabelas 4.11, 4.12 e 4.13).
Um ingrediente chave para o sucesso da aplicação em grande escala do ML
é a integração perfeita da análise de dados no pipeline de coleta de dados e
de curadoria. Esta revisão permite que essas equipes forneçam uma linguagem
comum de comunicação relacionada às ferramentas de ML.

4.33 Estudo EIC8


Relevância: Média

O estudo EIC8, intitulado "Development of methods to improve soybean


yield estimation and predict plant maturity with an unmanned aerial vehicle
based platform"[39], de 2016, teve como objetivo estabelecer uma plataforma de
fenotipagem de larga escala baseada em um VANTs equipados com um sistema
multiespectral de sensores, através da aquisição de dados de imagens de alta re-
solução, seguido de uma análise de aprendizado de máquina de floresta aleatória
para melhorar a eficiência da produção de soja.
Realizado em Urbana, Ilinois, EUA, EIC8 utilizou um octocóptero X8 da
empresa 3D Robotics. O drone foi equipado com duas câmeras digitais Canon
S110 de 12 megapixels, cujas larguras focais foram reguladas para 5.2 mm. Os
voos ocorreram a 95 m de altura e 6 m/s de velocidade. As imagens foram obtidas
com sobreposição de 88% frontal e 60% lateral. A resolução espacial foi de 3.5
cm/pixel.
Mais de 93% de precisão na previsão de maturidade foi mostrada no modelo
de floresta aleatória no teste de seleção genômica, e resultados semelhantes fo-
ram validados em um estudo de campo independente (teste de mapeamento de
associação aninhada), onde variedades de soja com fundo genético distinto foram
cultivadas em diferentes planos.
Com a plataforma de fenotipagem de larga escala e o modelo de floresta
aleatória, foi possível alcançar até 63% de correspondência exata entre as classi-
ficações tiradas da maneira tradicional e as maturidades previstas; porém é im-
portante notar que erros de previsão e têndencias humanas existiam no conjunto
de dados de referência. Quando uma diferença de até uma data (aproximada-
mente três dias corridos) de amostragem é aceita entre as maturidades previstas
e registradas, o modelo alcançou uma precisão quase perfeita (> 95%) para os
dois testes de campo independentes.
Resultados mostraram a capacidade da plataforma em melhorar a eficiência
da criação de soja e sua conveniência e produtividade ao possibilitar diversos
40

Tabela 4.11. Abordagens de ML em Espécies de Plantas para Fenotipagem de Estresse

Aplicação do Tipo do Traços Tipo de


Sensor Espécie
Algoritmo Algoritmo Fenotipados Estresse
Identificação SVMa com Termal; Tomate Oídio Doença
kernel linear luz visível (Solanum
estéreo lycopersicum
L.)
Identificação SAMb Remoto Beterraba Heterodera Doença;
(Solanum schachtii; Rhi- peste
lycopersicum zoctonia solani
L.)
Identificação SVM; GPCc Imagens Espinafre Seca Abiótico
visíveis e (Spinacia
termais oleracea L.)
Identificação Fator de Imagens Cevada Oídio; ferrugem; Doença
Bayes; DAR hiper- (Hordeum mancha
espectrais vulgare L.)
Identificação SVM Espec- Citrus Huanglongbing Doença
troscopia (Citrus si- (HLB)
por fluo- nensis (L.)
rescência Osbeck )
Identificação OBIAd Imagens Girassol Erva daninha Biótico
RGB e (Helianthus
multi- annuus L.)
espectrais
Identificação SVM; kernel Imagem Tomate Vírus da folha Doença
linear; kernel RGB amarela do to-
quadrático; mate; doença da
função de folha amarela do
base radial; tomate
perceptron
multi-camada;
kernel polino-
mial
Identificação variante de Imagem Orquídea Podridão mole Doença
ANNe RGB (Phalaenop- bacteriana;
sis) podridão negra
Phythopthora;
mancha marrom
bacteriana
Identificação SVM Drone e Citrus Huanglongbing Doença
aeronave (HLB)
a
máquina de vetores de suporte
b
Spectral Angle Mapper
c
Gaussian Processes Classifier
d
Object-based Image Analysis
e
Artificial neural network
41

Tabela 4.12. Abordagens de ML em Espécies de Plantas para Fenotipagem de Estresse

Aplicação do Tipo do Traços Tipo de


Sensor Espécie
Algoritmo Algoritmo Fenotipados Estresse
Identificação KNNa ; análise Espec- Citrus Huanglongbing Doença
discriminante trorradiô- (HLB)
quadrática; metro
análise dis-
criminante
linear
Identificação SViM Hiper- Tomate Estresse hídrico Seca
espectral
Identificação Modelo mis- Imagens Trigo (Tri- Vírus do mo- Doença
tura Gaussi- RGB ticum aesti- saico estriado
ana vum L.)
Identificação Variante de Imagens Arroz (Oryza Estresse de Deficiência
SVM digitali- sativa L.) nitrogênio, fós- de nutri-
zadas foro e potássio ente
(NPK)
Identificação/ HBBE, Imagens Pimenta Aflatoxinas Metabólitos
classificação MLPNNsb , CCDd Chili (Capsi- tóxicos
LDAc cum annuum
L.)
Identificação/ SVM Refletân- Beterraba Mancha foliar Doença
classificação cia hipe- de Cercospora;
respectral ferrugem da
beterraba; oídio
Identificação/ LDA; K- Imagens Trevo (Trifo- Ozônio Poluição
classificação means RGB lium subter-
raneum L.)
Identificação/ SOMe Imagens Tomate Oídio Doença
classificação RGB
Identificação/ Classificador Imagens Tomate Oídio Doença
classificação bayesiano RGB
Identificação/ NBf ; SLg ; Imagens Colza ole- Alternaria Doença
classificação LibSVM; Li- hiper- aginosa alternata, Alter-
bLINEAR; espectrais ((Brassica naria brassicae,
MLP (BNN); napus L.) Alternaria
FTh ; RFi ; brassicicola,
J48j Alternaria dauci
Classificação SVM Imagens Arabidopsis Salmonella Doença
RGB (Arabidopsis
thaliana L.)
a
k-nearest neighbors
b
Multi-Layer Perceptron Neural Networks
c
latent Dirichlet allocation
d
charged coupled device
e
Self-organizing map
f
Naive Bayes
g
logística simples
h
árvores funcionais
i
florestas aleatórias
j
classificador para gerar uma árvore de decisão C4.5 enxertada
42

Tabela 4.13. Abordagens de ML em Espécies de Plantas para Fenotipagem de Estresse

Aplicação do Tipo do Traços Tipo de


Sensor Espécie
Algoritmo Algoritmo Fenotipados Estresse
Classificação Floresta alea- - - Larvas da mosca Insetos
tória e kernel de pedra
de correspon-
dência espacial
SVM
Classificação k-NN e classi-Fusão de Beterraba Uromyces be- Doença
ficador bayesi-
imagem tae, Cercospora
ano RGB e beticola
multies-
pectral
Classificação classificador Imagem Arabidopsis Salmonella Doença
bayesiano RGB
Quantificação SVM Imagem Tomate Minador Inseto
RGB
e refle-
tância
espectral
Quantificação SVM e LDA Sensor Azeitona Verticillium Doença
hiper- dahliae
espectral
e imagens
térmicas
Predição DARa Imagens Cevada Seca Abiótico
hiper-
espectrais
Predição SVM; GRNNb Classifica- Arroz Fungo da bru- Doença
ção de sone do arroz
seve-
ridade
manual
Predição SVM Imagens Cevada Seca Abiótico
hiper-
espectrais
a
Dirichlet aggregation regression
b
rede neural de regressão generalizada
43

estudos de campo em grande escala, muitos dos quais podem ser aplicáveis a
outras culturas. Espera-se que o uso de plataformas de sensoriamento remoto
para fenotipagem de larga escala reduza o atual desequilíbrio entre fenotipagem
e produção de genotipagem, e aumente a eficiência da coleta de dados fenotípicos
em programas de melhoramento genético em larga escala.

4.34 Estudo SCO8

Relevância: Alta

O estudo SCO8, intitulado "Automated Ortho-Rectification of UAV-Based


Hyperspectral Data over an Agricultural Field Using Frame RGB Imagery"[40],
de 2016, procura introduzir uma abordagem automatizada para melhorar a retifi-
cação geométrica de imagens hiper-espectrais na presença de dados de navegação
de baixa qualidade através da incorporação de imagens de quadros.
SCO8 foi efetuado em Lafayette, Indiana, EUA. Foi utilizzado um quadricóp-
tero DJI Phantom 2 e uma câmera GoPro. O drone voou a aproximadamente 15
m de altura, movendo-se a 8 m/s com sobreposição de 60%. Os voos resultaram
em um GSD de 1.5 cm. Dados hiper-espectrais, por sua vez, foram obtidos a
partir de um sistema de varredura eletrônica Headwall Nano-Hyperspec. Para
a coleta desses dados, a velocidade utilizada foi de 16 m/s a uma altitude de 120
m. O GSD para essa configuração foi de aproximadamente 5 cm.
Embora a qualidade do ajuste para os parâmetros de transformação manuais
seja melhor que a dos automáticos, a abordagem proposta é capaz de melhorar
a qualidade das ortofotos hiperespectrais parcialmente retificadas sem a neces-
sidade de intervenção manual. A abordagem automatizada proposta melhorou
a qualidade do ajuste de aproximadamente 5 m para quase 0.6 m. A este res-
peito, deve-se notar que a qualidade de ajuste utilizada é tendenciosa para os
parâmetros de transformação manuais.
A abordagem proposta tende, ainda, a mostrar melhor desempenho quando
as informações originais de georreferenciamento direto são relativamente preci-
sas. Ou seja, sempre que a qualidade de ajuste antes do refinamento é relati-
vamente alta (isto é, pequeno valor de RMSE), a qualidade de ajuste após o
refinamento correspondente é significativamente melhorada.
O número de tie points identificados automaticamente não tem impacto sig-
nificativo na qualidade do refinamento da ortofotografia hiperespectral. Pode
ser visto, a partir da avaliação da precisão da qualidade de ajuste, que o RMSE
entre os pontos de empate, usando os parâmetros de transformação estimados,
mostrou valores semelhantes, independentemente do número de tie points iden-
tificados.
A integração de imagens de varredura eletrônica e de câmera de quadros pode
ajudar a mitigar o impacto negativo das informações de georreferenciamento,
melhorando a qualidade geométrica das ortofotos hiperespectrais retificadas.
44

4.35 Estudo SCO9

Relevância: Alta

O estudo SCO9, intitulado "Application of unmanned aerial systems for high


throughput phenotyping of large wheat breeding nurseries"[41], de 2016, teve
como objetivo primário desenvolver e validar um pipeline para processamento
de dados capturados por câmeras digitais de nível de consumidor usando um
VANT de baixo custo para avaliar pesquisas baseadas em campo de pequenas
parcelas típicas de programas de melhoramento de plantas.
O estudo ocorreu em Ciudad Obregon, Sonora, México. Foram usados dois
VANTs: um IRIS+ da empresa 3D Robotics, com uma câmera Canon S100 mo-
dificada pela empresa MaxMax para Azul-Verde-NIR, e um gimbal para compen-
sar o movimento; e um drone eBee Ag da empresa senseFly, com uma câmera
Airinov MultiSpec 4C, com bandas verde, vermelha, ponta vermelha e infra-
vermelha próxima.
O IRIS+ voou a uma altitude de 30 m e velocidade de 2 m/s, enquanto o
eBee Ag voou a 48 m do solo e 10 m/s de velocidade.
Com base na correlação com as leituras espectrais e avaliação da herdabili-
dade, a Canon S100 teve um desempenho melhor do que a MultiSpec 4C montado
no drone de asa fixa, que foi provavelmente o resultado de uma maior resolução
do sensor, menor altitude e menor velocidade de deslocamento da Canon S100
no quadcóptero IRIS+.
Para gerar ortomosaicos, foram testados os dois métodos de mesclagem: mo-
saico e média. O ortomosaico gerado pelo método mosaico mostrou uma maior
qualidade do que o modo médio. Por outro lado, o modo de mesclagem de mo-
saico gerou artefatos na imagem, uma vez que usa menos imagens ao selecionar
pixels com a menor distância do centro da imagem. Foi examinada a correlação
entre os ortomosaicos gerados a partir dessas duas abordagens e os dados do solo
e foi determinado que o método de média tem correlação ligeiramente superior
(0.68) em comparação com o método de mosaico (0.65).
Foram examinadas três maneiras diferentes de extração de trigo: grade sim-
ples, mapa de campo e classificação de imagem. A técnica baseada no mapa de
campo se mostrou mais precisa e rápida em comparação com outras técnicas, e
teve uma correlação mais alta com os dados de campo. A vantagem desse método
é que ele é aplicável a qualquer tipo de cultura, desde que o mapa de campo seja
fornecido, e o método é totalmente automatizado em Python.
Com a visão de integrar múltiplas medições extraídas de VANT (altura de
plantas, cobertura do solo, etc.) com simulações de crescimento de plantas para
maximizar a utilidade biológica dos fenótipos estimados, novos caminhos serão
abertos aos criadores para prever o rendimento.
45

4.36 Estudo SCO10


Relevância: Extrema

O estudo SCO10, intitulado "Unmanned Aerial Vehicles for High-Throughput


Phenotyping and Agronomic Research"[42], de 2016, possui três objetivos prin-
cipais:
– fornecer dados de imagens de alta resolução e alta qualidade a um grupo
diversificado de pesquisadores agrícolas em vários campos e terrenos em uma
grande fazenda de pesquisa;
– estabelecer o fluxo de trabalho de coleta e processamento de dados, bem
como a comunicação e coordenação entre os especialistas necessários para
tal empreendimento;
– desenvolver métodos para criadores de plantas e agrônomos para incorpo-
rar dados de sensoriamento remoto coletados pelo drone a fim de melhorar
resultados e capacidade de tomada de decisão.
Foram utilizados três drones (dois de asa fixa e um de asa giratória). O
Anaconda da empresa ReadyMadeRC realizou voos a 120 m de altitude e 15 m/s de
velocidade, com uma câmera multi-espectral Sentek GEMS; o Lancaster Mark
III Rev 3 da PrecisionHawk também voou a 120 m, mas sua velocidade oscilou
entre 12 e 15 m/s, com duas câmeras (uma por vez) - uma Nikon J3 com cor
verdadeira e uma Nikon J3 modificada com infravermelho; e o X88 (asa giratória)
da TurboAce efetuou os voos a alturas entre 15 e 10 m e 6 m/s, com uma cãmera
DJI P3-005 4K.
Como o estudo utilizou quatro câmeras distintas, foi montada a tabela 4.14
a fim de melhorar a visualização dos dados.

Tabela 4.14. Detalhes técnicos do estudo 4.36

Sentek GEMS Nikon J3 Nikon J3 DJI P3-005 4K


modificada
Veículo Anaconda Lancaster Lancaster X88
Altitude de voo (m) 120 120 120 15-20
GSD (cm) 6.5 1.86 3.44 0.8
Velocidade (m/s) 15 12-15 12-15 6

As imagens de VANT não são apenas imagens de sensoriamento remoto com


uma resolução espacial mais elevada (mm a cm), os dados de imagem dos dro-
nes devem ser manipulados de uma maneira diferente dos dados tradicionais de
sensoriamento remoto. Há a necessidade de juntar as imagens para cobrir uma
área mais ampla, e, em resoluções tão altas, é necessário garantir que não haverá
pixels borrados causados por movimento.
A resolução da câmera e a altura acima do solo limitam o GSD teórico. O
tempo mínimo de exposição limita o GSD real ao longo da trajetória de voo,
46

pois, em pequenos GSDs, a velocidade do veículo aéreo pode cobrir a distância


de pixel em menos tempo do que a câmera requer para exposição; isso significa
que os pixels podem, teoricamente, ter um GSD pequeno, mas serão efetivamente
"espalhados"por uma distância maior. A taxa de quadros da câmera, por sua
vez, unida à velocidade do veículo aéreo, limita a quantidade de sobreposição, o
que é essencial para criar bons mosaicos. Ou seja, uma câmera ideal teria alta
resolução, alta taxa de quadros, e curto tempo de exposição.
É necessário, ainda, que as imagens sejam capturadas o mais perto possível
do ponto de nadir [10]. Isso pode ser alcançado com a combinação de um veículo
aéreo estável e um gimbal para fazer com que a câmera fique apontada para
baixo independentemente do comportamento do veículo.
Finalmente, é comum descobrir no final de uma missão de voo que a sobre-
posição de imagens não era adequada em certas áreas. Um cálculo em tempo
real durante o voo da necessidade de revisitar parte da trajetória minimizaria a
possibilidade de mosaicos ruins causados por sobreposição inadequada de ima-
gens.

4.37 Estudo SCO11


Relevância: Média

O estudo SCO11, intitulado "High Throughput Field Phenotyping of Wheat


Plant Height and Growth Rate in Field Plot Trials Using UAV Based Remote
Sensing"[43], de 2016, visa avaliar quão precisos são os modelos e alturas de
culturas geradas quando comparados ao padrão existente na indústria; quão
replicável é o método ao longo do ciclo de desenvolvimento das culturas de trigo,
particularmente entre os estágios GS30 e GS61 na escala Zadoks (o crescimento
pode ser monitorado?); e se esses métodos são aplicáveis em pesquisa de culturas
e se oferece uma melhor qualidade de dados em comparação com o método de
regra.
SCO11 foi realizado no Centro de Pesquisa Rothamsted, Reino Unido. Foi
utilizado o octocóptero Cinestar, carregando uma câmera Sony NEX 7 de 24.3
megapixels. O drone voou a 90 e 40 m e a trajetória buscou assegurar uma
sobreposição de 80% frontal e 60% lateral. As imagens obtiveram resolução de
1.4 cm/pixel (para voos de 90 m de altura) e 0.7 cm/pixel (para 40 m).
Para os resultados do VANT, menores altitudes produziram alturas de co-
lheita significativamente mais precisas, graças a maior resolução de solo alcan-
çada a menores altitude. Houve uma clara vantagem em usar “filtragem de pro-
fundidade moderada” durante o processamento para alcançar maior precisão na
altura da safra, provavelmente devido à redução na “suavização” do modelo,
permitindo que mais das pequenas características da planta de interesse perma-
necessem durante a etapa de filtragem.
Avaliações de precisão das alturas das culturas coletadas pelo VANT mos-
traram que o método foi capaz de produzir medidas de altura comparáveis em
precisão àquelas medidas pelo manual existente. A alta resolução espacial dos
dados derivados do VANT permite avaliar a variabilidade espacial da altura da
47

cultura tanto na escala de campo como na de plotagem. As campanhas de voo


dos VANTs ao longo da temporada permitiram o monitoramento das mudanças
na altura das culturas, bem como o cálculo da taxa de crescimento.
A comparação entre alturas de culturas obtidas por VANT e medições terres-
tres indica consistentes altos níveis de precisão. Os dados produzidos forneceram
boa concordância com o procedimento atualmente aplicado de medição manual
com uma régua (R2 ≥ 0.93, Erro Quadrático Médio da Raiz (RMSE) ≤ 0.077
m), mas essa abordagem é mais consistente e espacialmente extensa, reduzindo
o erro do usuário associado à medição da régua. A avaliação do modelo de um
LiDAR terrestre de alta precisão (5 mm) (R2 = 0.97, RMSE = 0.027 m) e o
melhor modelo de drone (R2 = 0.99, RMSE = 0.03 m) mostra a capacidade
do sistema de produzir resultados altamente precisos; no entanto, os custos ex-
tremamente altos e a baixa eficiência de tempo do LiDAR, devido ao grande
número de varreduras individuais necessárias, reduzem seriamente a adequação
do LiDAR para esta aplicação.
O drone mostrou uma subestimação das alturas das culturas, porém, no geral,
os resultados mostraram uma melhora na precisão em comparação com estudos
semelhantes, mesmo quando o método foi aplicado em um número significativa-
mente maior de parcelas experimentais (300).

4.38 Estudo SCD15

Relevância: Extrema

O estudo SCD15, intitulado "Low-altitude, high-resolution aerial imaging


systems for row and field crop phenotyping: A review"[44], de 2015, examina o
potencial de usar imagens aéreas de baixa altitude e alta resolução com VANTs
para fenotipagem rápida de culturas no campo.
Para isso, SCD15 propõe e avalia os sensores listados nas tabelas 4.15 e 4.16,
com suas diferentes aplicações, assim como as safras mostradas na tabela 4.17,
na qual são listados alguns parâmetros usados para a obtenção de estimativas
de rendimento.
A implementação bem sucedida de drones para fenotipagem de campo de-
pende de dois fatores principais - as características do VANT, como estabilidade,
segurança, controle, confiabilidade, posicionamento, autonomia, montagem do
sensor e controlador; e as características do sensor, como comprimentos de onda
espectrais específicos, resolução, peso, calibração e campo de visão. A operação
do VANT é frequentemente limitada pela carga útil do sensor (tamanho/peso),
pela altitude de operação (questões regulatórias) e pelo tempo de voo. Uma so-
lução alternativa de tempo de voo seria usar um cabo de alimentação para o
drone, o que forneceria uma fonte contínua de energia e também satisfaria os
requisitos regulamentares.
48

Tabela 4.15. Diferentes tipos de sensores usados na caracterização de fenótipo de


plantas

Tipo de Sensor Detalhes Aplicações Limitações


RGB Escala de cinza ou Propriedades visí- Limitado a bandas
imagens coloridas veis, defeitos ex- e propriedades es-
ternos, cor, cresci- pectrais visuais
mento
Câmera multi- Poucas bandas Múltiplas respostas Limitado a poucas
espectral/ infra- espectrais para de plantas à defici- bandas espectrais
vermelha cada pixel na ência de nutrientes,
região do visível- estresse hídrico, do-
infravermelho enças, etc
Câmera hiper- Espectros contí- Estresse da planta, Processamento de
espectral nuos ou discretos qualidade do pro- imagem é desafi-
para cada pixel na duto e controle de ador; e sensores
região do visível- segurança podem ser caros
infravermelho
Sensor termal Temperatura de Condutância esto- Condições ambien-
cada pixel (para mática, respostas tais afetam o de-
sensor com calibra- das plantas ao sempenho; diferen-
ção radiométrica) estresse hídrico e ças de temperatura
relacionada a emis- doenças muito pequenas não
sões térmicas de são detectáveis; e
infravermelho câmeras de alta re-
solução são mais
pesadas
Espectrômetro Espectros de in- Detectar doenças, Contexto, como
fravermelho visível estresse e respostas solo, pode afetar
próximo da média das culturas a qualidade dos
em um determi- dados; possibili-
nado campo de dades de mistura
visão espectral; mais
aplicável para sis-
temas baseados em
terra
Câmera 3D Detecção baseada Atributos físicos, Menores precisões;
em laser infra- como a altura da e aplicações de
vermelho usando planta e a densi- campo podem ser
informações de dade da cobertura limitantes
tempo de voo
49

Tabela 4.16. Diferentes tipos de sensores usados na caracterização de fenótipo de


plantas

Tipo de Sensor Detalhes Aplicações Limitações


Sensor de detecção de Medidas físicas re- Estimativas preci- Sensível a pequenas
luz e alcance sultantes do tempo sas de altura e vo- variações no com-
de voo do laser lume da planta primento do cami-
(600–1000 nm) nho
Sensor de navegação A propagação de Mapeamento e Sensibilidade limi-
sonora e variação som é usada para quantificação dos tada pela absorção
detectar objetos volumes da copa, acústica, ruído de
com base no tempo controle digital das fundo, etc; e me-
de voo taxas de aplicação nor taxa de amos-
em pulverizadores tragem do que a de-
ou espalhador de tecção baseada em
adubo laser

4.39 Estudo SCD16

Relevância: Média

O estudo SCD16, intitulado "Field-based crop phenotyping: Multispectral


aerial imaging for evaluation of winter wheat emergence and spring stand"[45], de
2015, avalia o potencial da tecnologia de sensoriamento remoto de baixa altitude
como uma ferramenta de fenotipagem de alta produtividade para avaliação da
emersão de trigo de inverno e sobrevivência no inverno (resistência ao inverno)
sob condições de campo.
SCD16 foi realizado em Kahlotus, EUA. O estudo contou com um drone
HiSystems GmbH e uma câmera digital multiespectral XNiteCanon SX230 NDVI
modificada, com bandas verde, azul e infravermelho próximo; e 12.1 megapixels
(4000×3000). Durante avaliações preliminares, a altitude de voo foi ajustada
usando uma câmera digital simples Sony NEX-5N a fim de estimar a resolução
espacial a diferentes altitudes. A Sony possuía 16.1 megapixels com uma reso-
lução de 4912×3264. As imagens foram obtidas a alturas de 100, 75 e 55 m;
e resoluções espaciais de 2.3 cm/pixel, 2.0 cm/pixel e 1.4 cm/pixel, respectiva-
mente, para as imagens RGB, e 3.0 cm/pixel, 2.3 cm/pixel e 1.6 cm/pixel nas
imagens multi-espectrais.
Uma boa correlação entre a emersão de inverno baseada em imagens aéreas
(%) e a medição do solo foi observada com o coeficiente de correlação de Pearson
(r) variando de 0.82 a 0.93. Foi observada, ainda, uma alta correlação entre os
dados da imagem do solo e dos dados multiespectrais do drone. Da mesma forma,
os dados de emersão e suporte de nascente estimados usando imagens aéreas
para cada variedade foram calculados e comparados com avaliações de verdade
do solo. Uma alta correlação (> 0.92) foi observada entre as estimativas e os
dados do solo para as variedades brancas brancas e vermelhas duras.
50

Tabela 4.17. Parâmetros usados para a obtenção de estimativas de rendimento

Safra Detalhes de Detecção


Trigo (17 ge-
nótipos)
– Plataforma: Power glider (L’Avion Jaune); e Pixy (ABS-
Aeroligt)
– Sensores: Canon EOS350D de três canais; e Sony DSC-F828
de quatro canais com filtro personalizado.
– Resolução: 5cm/pixel a 20–100 m
– Intervalo de Obtenção das Imagens: 6 voos Feve-
reiro–Junho
– Software de Análise: -

Arroz
– Plataforma: X-Cell Fury 91 (Miniature Aircraft)
– Sensores: Tetracam ADC de três canais
– Resolução: 0.71 m/pixel a 20 m
– Intervalo de Obtenção das Imagens: 65 dias após o plan-
tio
– Software de Análise: Pixelwrench

Batata
– Plataforma: Piper Seneca
– Sensores: Câmeras Kodak Megaplus 4.2i customizadas para
o verde
– Resolução: 1 m
– Intervalo de Obtenção das Imagens: 3 voos (mensal-
mente) entre Julho e Agosto
– Software de Análise: ERDAS

Milho
– Plataforma: E-Trainer 182 (Graupner GmbH) customizado
– Sensores: Espectrômetro monolítico em miniatura MMS1
(Carl Zeiss GmbH)
– Resolução: 8–100 m de altitude
– Intervalo de Obtenção das Imagens: 3 voos (mensal-
mente) entre Agosto e Outubro
– Software de Análise: ArcGIS (ESRI), SigmaStat 3.5 (Dun-
das Software, Ltd.)
51

4.40 Estudo SCD17

Relevância: Baixa

O estudo SCD17, intitulado "Green area index from an unmanned aerial sys-
tem over wheat and rapeseed crops"[46], de 2014, tem como objetivo desenvolver
e avaliar um método de estimativa de índice de área verde (IAV) a partir de me-
dições de refletância de drones no contexto de aplicações agrícolas de precisão,
com ênfase em culturas de trigo e colza.
Houve seis áreas de estudo na França: uma em Auzeville, duas em Poitou
e duas em Dijon. Foi usado um drone planar de 2 metros de envergadura da
empresa Airinov, assim como uma câmera patenteada, composta por quatro
sensores CMOS e desenvolvida pela mesma empresa. A câmera conta com quatro
bandas espectrais (verde, vermelho, red edge e infravermelho próximo). Cada
sensor CMOS tem 752×480 pixels.
O VANT fez trilhas paralelas a cada 37 m. À altitude típica de 150 m, a
resolução espacial foi de aproximadamente 0.15 m com uma faixa transversal
de 112 m. Essa configuração resultou em uma sobreposição de 80% entre ima-
gens paralelas, e 66% em imagens transversais.A direção da vista era geralmente
próxima do nadir[10], com ângulo zenital máximo próximo a 30◦ .
Um estudo dedicado foi realizado para avaliar a precisão absoluta da geolo-
calização de cada pixel. Os pixels no ortomosaico foram deslocados, em média,
por 2 cm na direção norte e 0.6 cm na direção oeste, com um desvio padrão de
cerca de 4 cm em cada direção, o que parece ser uma precisão muito boa em
relação à resolução espacial de 15 cm.
Como o IAV deve mudar apenas marginalmente dentro de um dia, a esta-
bilidade das estimativas obtidas no mesmo dia em dois voos diferentes precisou
ser verificada. Os voos estavam em bom acordo para as funções de custo ab-
soluto e relativo. No entanto, o uso da função de custo relativo, Jrel degradou
ligeiramente a consistência entre os voos; principalmente para os maiores va-
lores de IAV. Ademais, as estimativas GAI dos drones estavam em muito boa
concordância com as medições no solo.
O erro quadrático médio (EQM), calculado a partir das várias repetições de
medições GAI no solo, foi relativamente pequeno para a colza, mas muito maior
para as culturas de trigo, devido à maior heterogeneidade das culturas de trigo
da amostra. Para IAV maior que 2, o EQM associado a estimativas do drone e
de medições do solo geralmente aumentou com o valor do IAV, com uma maior
variabilidade entre as unidades elementares de amostragem. De fato, a estimativa
do IAV é mais difícil para os maiores valores, devido aos efeitos de saturação.
52

5 Comparação com o Estudo Proposto

O diagrama de Venn representa os estudos que mais condizem com os parâmetros


buscados a fim de realizar o estudo proposto. Eles são separados em estudos que
usam o drone DJI Phantom e estudos que usam Machine Learning, assim como
a intersecção entre esses dois conjuntos para que, assim, a visualização se dê de
maneira mais eficiente.

Phantom Machine Learning

EIC7
SCD10
IEEE1

SCD7 EIC3

SCO7 SCO2 EIC8

SCD14
SCO8 EIC6

EIC1 EIC4

6 Documentação da Revisão
O próximo passo, segundo Barbara Kitchenham[1], é a distribuição e dissemina-
ção desse mapeamento sistemático às partes interessadas para que as informações
aqui descritas possam ser utilizadas em novos estudos, assim como auxiliar pes-
quisadores e melhoristas quanto à utilização de drones, possivelmente seguindo
os parâmetros apresentados.
53

Referências
1. Barbara Kitchenham. Guidelines for performing systematic literature reviews in
software engineering. EBSE Technical Report, 2007-01, 2007.
2. Mendeley. https://www.mendeley.com/. [Acesso em: 8 de Agosto de 2018].
3. Antonius G.T. Schut, Pierre C.Sibiry Traore, Xavier Blaes, and Rolf A. de By.
Assessing yield and fertilizer response in heterogeneous smallholder fields with
UAVs and satellites. Field Crops Research, 221(June 2017):98–107, 2018.
4. R. Ballesteros, J.F. Ortega, D. Hernandez, A. del Campo, and M.A. Moreno. Com-
bined use of agro-climatic and very high-resolution remote sensing information for
crop monitoring. International Journal of Applied Earth Observation and Geoin-
formation, 72(May):66–75, 2018.
5. Omar Vergara-Díaz, Mainassara A. Zaman-Allah, Benhildah Masuka, Alberto Hor-
nero, Pablo Zarco-Tejada, Boddupalli M. Prasanna, Jill E. Cairns, and José L.
Araus. A novel remote sensing approach for prediction of maize yield under diffe-
rent conditions of nitrogen fertilization. Frontiers in Plant Science, 7:666, 2016.
6. Chinsu Lin, Shih Yu Chen, Chia Chun Chen, and Chia Huei Tai. Detecting newly
grown tree leaves from unmanned-aerial-vehicle images using hyperspectral target
detection techniques. ISPRS Journal of Photogrammetry and Remote Sensing,
142(May):174–189, 2018.
7. Pengcheng Hu, Scott C. Chapman, Xuemin Wang, Andries Potgieter, Tao Duan,
David Jordan, Yan Guo, and Bangyou Zheng. Estimation of plant height using
a high throughput phenotyping platform based on unmanned aerial vehicle and
self-calibration: Example for sorghum breeding. European Journal of Agronomy,
95(January):24–32, 2018.
8. Sindhuja Sankaran, Jianfeng Zhou, Lav R. Khot, Jennifer J. Trapp, Eninka Mn-
dolwa, and Phillip N. Miklas. High-throughput field phenotyping in dry bean
using small unmanned aerial vehicle based multispectral imagery. Computers and
Electronics in Agriculture, 151:84–92, aug 2018.
9. Peter P.J. Roosjen, Benjamin Brede, Juha M. Suomalainen, Harm M. Bartholo-
meus, Lammert Kooistra, and Jan G.P.W. Clevers. Improved estimation of leaf
area index and leaf chlorophyll content of a potato crop using multi-angle spec-
tral data – potential of unmanned aerial vehicle imagery. International Journal of
Applied Earth Observation and Geoinformation, 66(July 2017):14–26, 2018.
10. Nadir. https://en.wikipedia.org/wiki/Nadir. [Acesso em: 21 de Agosto de 2018].
11. L. Malambo, S. C. Popescu, S. C. Murray, E. Putman, N. A. Pugh, D. W. Horne,
G. Richardson, R. Sheridan, W. L. Rooney, R. Avant, M. Vidrine, B. McCut-
chen, D. Baltensperger, and M. Bishop. Multitemporal field-based plant height
estimation using 3D point clouds generated from small unmanned aerial systems
high-resolution imagery. International Journal of Applied Earth Observation and
Geoinformation, 64(August 2017):31–42, 2018.
12. Helge Aasen and Andreas Bolten. Multi-temporal high-resolution imaging spec-
troscopy with hyperspectral 2D imagers – From theory to application. Remote
Sensing of Environment, 205(December 2017):374–389, 2018.
13. Melinda Pap and Sandor Kiraly. Comparison of segmentation methods on images
of energy plants obtained by UAVs. 2018 IEEE International Conference on Future
IoT Technologies, Future IoT 2018, 2018-Janua:1–8, 2018.
14. Muhammad Adeel Hassan, Mengjiao Yang, Awais Rasheed, Xiuliang Jin, Xian-
chun Xia, Yonggui Xiao, and Zhonghu He. Time-series multispectral indices from
unmanned aerial vehicle imagery reveal senescence rate in bread wheat. Remote
Sensing, 10(6), 2018.
54

15. Thomas Moeckel, Supriya Dayananda, Rama Rao Nidamanuri, Sunil Nautiyal,
Nagaraju Hanumaiah, Andreas Buerkert, and Michael Wachendorf. Estimation of
vegetable crop parameter by multi-temporal UAV-borne images. Remote Sensing,
10(5):1–18, 2018.
16. Lukas Roth, Helge Aasen, Achim Walter, and Frank Liebisch. Extracting leaf
area index using viewing geometry effects—A new perspective on high-resolution
unmanned aerial system photography. ISPRS Journal of Photogrammetry and
Remote Sensing, 141:161–175, 2018.
17. Zohaib Khan, Joshua Chopin, Jinhai Cai, Vahid Rahimi Eichi, Stephan Haefele,
and Stanley J. Miklavcic. Quantitative estimation of wheat phenotyping traits
using ground and aerial imagery. Remote Sensing, 10(6):1–19, 2018.
18. Yuhao Chen, Javier Ribera, Christopher Boomsma, and Edward Delp. Locating
Crop Plant Centers from UAV-Based RGB Imagery. Proceedings - 2017 IEEE
International Conference on Computer Vision Workshops, ICCVW 2017, 2018-
Janua:2030–2037, 2018.
19. Adrian Gracia-Romero, Omar Vergara-Díaz, Christian Thierfelder, Jill E. Cairns,
Shawn C. Kefauver, and José L. Araus. Phenotyping conservation agriculture
management effects on ground and aerial remote sensing assessments of maize
hybrids performance in Zimbabwe. Remote Sensing, 10(2):1–21, 2018.
20. Jinha Jung, Murilo Maeda, Anjin Chang, Juan Landivar, Junho Yeom, and
Joshua McGinty. Unmanned aerial system assisted framework for the selection
of high yielding cotton genotypes. Computers and Electronics in Agriculture,
152(February):74–81, 2018.
21. Andres Patrignani and Tyson E. Ochsner. Canopeo: A powerful new tool for
measuring fractional green canopy cover. Agronomy Journal, 107(6):2312–2320,
2015.
22. T. Duan, S. C. Chapman, Y. Guo, and B. Zheng. Dynamic monitoring of NDVI
in wheat agronomy and breeding trials using an unmanned aerial vehicle. Field
Crops Research, 210(March):71–80, 2017.
23. Ingunn Burud, Gunnar Lange, Morten Lillemo, Eivind Bleken, Lars Grimstad,
and Pål Johan From. Exploring Robots and UAVs as Phenotyping Tools in Plant
Breeding. IFAC-PapersOnLine, 50(1):11479–11484, 2017.
24. Xiuliang Jin, Shouyang Liu, Frédéric Baret, Matthieu Hemerlé, and Alexis Comar.
Estimates of plant density of wheat crops at emergence from very low altitude
UAV imagery. Remote Sensing of Environment, 198:105–114, 2017.
25. Maitiniyazi Maimaitijiang, Abduwasit Ghulam, Paheding Sidike, Sean Hartling,
Matthew Maimaitiyiming, Kyle Peterson, Ethan Shavers, Jack Fishman, Jim Pe-
terson, Suhas Kadam, Joel Burken, and Felix Fritschi. Unmanned Aerial System
(UAS)-based phenotyping of soybean using multi-sensor data fusion and extreme
learning machine. ISPRS Journal of Photogrammetry and Remote Sensing, 134:43–
58, dec 2017.
26. Kyosuke Yamamoto, Takashi Togami, and Norio Yamaguchi. Super-resolution of
plant disease images for the acceleration of image-based phenotyping and vigor
diagnosis in agriculture. Sensors (Switzerland), 17(11), nov 2017.
27. Yuhao Chen, Javier Ribera, Christopher Boomsma, and Edward J Delp. PLANT
LEAF SEGMENTATION FOR ESTIMATING PHENOTYPIC TRAITS Video
and Image Processing Laboratory ( VIPER ), Purdue University , West Lafayette
, Indiana , USA. pages 3884–3888, 2017.
28. Ayman Habib, Weifeng Xiong, Fangning He, Hsiuhan Lexie Yang, and Melba Craw-
ford. Improving Orthorectification of UAV-Based Push-Broom Scanner Imagery
55

Using Derived Orthophotos from Frame Cameras. IEEE Journal of Selected Topics
in Applied Earth Observations and Remote Sensing, 10(1):262–276, 2017.
29. Zhou Zhang, Ali Masjedi, Jieqiong Zhao, and Melba M. Crawford. Prediction of
sorghum biomass based on image based features derived from time series of UAV
images. International Geoscience and Remote Sensing Symposium (IGARSS),
2017-July:6154–6157, dec 2017.
30. Guijun Yang, Changchun Li, Yanjie Wang, Huanhuan Yuan, Haikuan Feng, Bo Xu,
and Xiaodong Yang. The DOM generation and precise radiometric calibration of a
UAV-mounted miniature snapshot hyperspectral imager. Remote Sensing, 9(7):1–
21, 2017.
31. David Anthony and Carrick Detweiler. UAV Localization in Row Crops. Journal
of Field Robotics, 34(7):1275–1296, 2017.
32. A. Burkart, V. L. Hecht, T. Kraska, and U. Rascher. Phenological analysis of
unmanned aerial vehicle based time series of barley imagery with high temporal
resolution. Precision Agriculture, 19(1):1–13, 2017.
33. Friederike Gnädinger and Urs Schmidhalter. Digital counts of maize plants by
Unmanned Aerial Vehicles (UAVs). Remote Sensing, 9(6), 2017.
34. decorrstretch function. https://goo.gl/nCgVyn. [Acesso em: 30 de Agosto de 2018].
35. Aaron Patrick and Changying Li. High throughput phenotyping of blueberry bush
morphological traits using unmanned aerial systems. Remote Sensing, 9(12), 2017.
36. Ryo Sugiura, Shogo Tsuda, Seiji Tamiya, Atsushi Itoh, Kentaro Nishiwaki, No-
riyuki Murakami, Yukinori Shibuya, Masayuki Hirafuji, and Stephen Nuske. Field
phenotyping system for the assessment of potato late blight resistance using RGB
imagery from an unmanned aerial vehicle. Biosystems Engineering, 148:1–10, aug
2016.
37. Jianfeng Zhou, Lav R. Khot, Haitham Y. Bahlol, Rick Boydston, and Phillip N.
Miklas. Evaluation of ground, proximal and aerial remote sensing technologies for
crop stress monitoring. IFAC-PapersOnLine, 49(16):22–26, 2016.
38. Arti Singh, Baskar Ganapathysubramanian, Asheesh Kumar Singh, and Soumik
Sarkar. Machine Learning for High-Throughput Stress Phenotyping in Plants.
Trends in Plant Science, 21(2):110–124, 2016.
39. Neil Yu, Liujun Li, Nathan Schmitz, Lei F. Tian, Jonathan A. Greenberg, and
Brian W. Diers. Development of methods to improve soybean yield estimation and
predict plant maturity with an unmanned aerial vehicle based platform. Remote
Sensing of Environment, 187:91–101, dec 2016.
40. Ayman Habib, Youkyung Han, Weifeng Xiong, Fangning He, Zhou Zhang, and
Melba Crawford. Automated ortho-rectification of UAV-based hyperspectral data
over an agricultural field using frame RGB imagery. Remote Sensing, 8(10):1–22,
2016.
41. Atena Haghighattalab, Lorena González Pérez, Suchismita Mondal, Daljit Singh,
Dale Schinstock, Jessica Rutkoski, Ivan Ortiz-Monasterio, Ravi Prakash Singh,
Douglas Goodin, and Jesse Poland. Application of unmanned aerial systems for
high throughput phenotyping of large wheat breeding nurseries. Plant Methods,
12(1):1–15, 2016.
42. Yeyin Shi, J. Alex Thomasson, Seth C. Murray, N. Ace Pugh, William L. Rooney,
Sanaz Shafian, Nithya Rajan, Gregory Rouze, Cristine L. S. Morgan, Haly L. Neely,
Aman Rana, Muthu V. Bagavathiannan, James Henrickson, Ezekiel Bowden, John
Valasek, Jeff Olsenholler, Michael P. Bishop, Ryan Sheridan, Eric B. Putman, Sorin
Popescu, Travis Burks, Dale Cope, Amir Ibrahim, Billy F. McCutchen, David D.
Baltensperger, Robert V. Avant Jr, Misty Vidrine, and Chenghai Yang. Unmanned
56

Aerial Vehicles for High- Throughput Phenotyping and Agronomic Research. PLoS
ONE, c:1–26, 2016.
43. Fenner H. Holman, Andrew B. Riche, Adam Michalski, March Castle, Martin J.
Wooster, and Malcolm J. Hawkesford. High throughput field phenotyping of wheat
plant height and growth rate in field plot trials using UAV based remote sensing.
Remote Sensing, 8(12), 2016.
44. Sindhuja Sankaran, Lav R. Khot, Carlos Zúñiga Espinoza, Sanaz Jarolmasjed,
Vidyasagar R. Sathuvalli, George J. Vandemark, Phillip N. Miklas, Arron H. Car-
ter, Michael O. Pumphrey, Richard R.N. Knowles, and Mark J. Pavek. Low-
altitude, high-resolution aerial imaging systems for row and field crop phenotyping:
A review. European Journal of Agronomy, 70:112–123, 2015.
45. Sindhuja Sankaran, Lav R. Khot, and Arron H. Carter. Field-based crop phenoty-
ping: Multispectral aerial imaging for evaluation of winter wheat emergence and
spring stand. Computers and Electronics in Agriculture, 118:372–379, oct 2015.
46. Aleixandre Verger, Nathalie Vigneau, Corentin Chéron, Jean Marc Gilliot, Alexis
Comar, and Frédéric Baret. Green area index from an unmanned aerial system
over wheat and rapeseed crops. Remote Sensing of Environment, 152:654–664,
2014.

View publication stats

Você também pode gostar