Mais

Importar imagens aéreas do Google para o QGIS?


QGIS 2.6.1, Windows 7

Estou procurando importar uma imagem do Google Earth para um projeto QGIS existente. É possível baixar imagens georreferenciadas do google maps (ou google earth) e importá-las para o QGIS? Em que CRS provavelmente estão?


Existe um plugin que vai resolver isso para você, chamado de plugin OpenLayers, que permite adicionar mapas base do Google, Bing e MapQuest ao seu projeto. Com relação ao CRS, verifique esta resposta: Por que a camada de satélite do Google altera o CRS do projeto? (Você também pode usar a reprojeção em tempo real para ajudar nisso)

Lembre-se também de que há limitações de licença para as imagens do Google, dependendo de como você planeja usá-las.


Com QGIS 3.0 você pode adicioná-lo como um Bloco XYZ. Uma lista de serviços pode ser encontrada na página NextGIS QMS (do plugin QuickMapServices do QGIS 2.8). Basta definir Nome, URL, Min. Nível de zoom e Máx. Nível de zoom:


Você pode querer usar o plugin Openlayers, que inclui imagens do Google Satellite.


Também existe um plugin simples chamado Tile +. Este plug-in fornece alguns mapas de base populares como OSM, Bing, ESRI, Google, Stamen e também alguns dados atualizados da terra como taxa de precipitação, visibilidade da terra, temperatura da superfície do mar, etc. Este plug-in permite ao usuário carregar o mapa de base facilmente para QGIS 3.


Importar imagens aéreas do Google para o QGIS? - Sistemas de Informação Geográfica

As imagens de drones demonstraram ter um valor cada vez maior no monitoramento e análise de diferentes tipos de processos relacionados à agricultura e silvicultura. Em tarefas de monitoramento e observação de longo prazo, grandes quantidades de dados de imagem são produzidas e armazenadas. Os conjuntos de dados de imagens de drones ambientais podem ter valor além dos estudos que produziram os dados. Uma coleção de conjuntos de dados de imagens de vários produtores de dados pode, por exemplo, fornecer uma entrada de treinamento mais diversa para um modelo de aprendizado de máquina para classificação de vegetação, em comparação com um único conjunto de dados limitado em tempo e localização. Para garantir uma pesquisa reproduzível, os dados de pesquisa, como conjuntos de dados de imagens, devem ser publicados de forma utilizável e não degradada, com metadados suficientes. O armazenamento oportuno em um repositório de dados de pesquisa estável é recomendado, para evitar perda de dados. Este trabalho apresenta conjuntos de dados de pesquisa de imagens de drones de 2020 adquiridas de locais de pesquisa agrícola e florestal da Universidade de Ciências Aplicadas de Häme e de áreas urbanas de Hämeenlinna. As imagens que não contêm dados pessoais são disponibilizadas gratuitamente sob uma licença Creative Commons Attribution. Para imagens que contêm dados pessoais, como imagens de residências, formas de compartilhamento de dados que preservam a privacidade podem ser possíveis no futuro.

Introdução

O desenvolvimento de tecnologias de digitalização e medição nas últimas décadas tem permitido que dispositivos digitais e sensores produzam grandes quantidades de dados com grande potencial na otimização de processos relacionados a cadeias produtivas ou produção de serviços. No campo da bioeconomia, os principais processos de produção estão relacionados à produção de alimentos e biomassa. A digitalização oferece uma ampla variedade de oportunidades para apoiar, gerenciar e monitorar a produção com base nos dados coletados no campo.

A coleta e a análise de dados com base em imagens oferecem um enorme potencial para apoiar esses objetivos. Os dados visuais coletados de campos agrícolas permitem tarefas de análise automatizadas e podem fornecer informações em tempo real sobre o status da produção. Para adquirir informações visuais adequadas, existem basicamente duas alternativas diferentes: sensoriamento remoto baseado em imagens de satélite e imagens de drones (isto é, veículos aéreos não tripulados, UAV). Neste artigo, os principais campos de aplicação estudados são agricultura, silvicultura e jardins urbanos privados, em todos os quais as imagens de sensoriamento remoto podem ter muitas finalidades diferentes.

As tecnologias de agricultura de precisão visam otimizar o uso de insumos agrícolas tanto espacial quanto temporalmente para melhores resultados econômicos e redução dos impactos ambientais da agricultura. Na agricultura de precisão, um campo é considerado uma entidade heterogênea com topografia, propriedades do solo, infestação de ervas daninhas e potencial de rendimento variáveis, em que as práticas de manejo são adaptadas espacial e temporalmente (Finger et al., 2019). A agricultura de precisão, portanto, depende fortemente da detecção específica do local de variáveis ​​que são essenciais para as decisões de manejo. Técnicas de georreferenciamento e mapeamento espacial são elementos importantes na agricultura de precisão. As informações espaciais podem ser coletadas com scanners montados em tratores (Pallatino et al., 2019) ou usando imagens de satélite (Segarra et al., 2020).

Da mesma forma, drones têm sido cada vez mais usados ​​para coletar dados sobre vários recursos relevantes para a agricultura de precisão (Tsouros et al., 2019). Em comparação com o sensoriamento remoto baseado em satélite, a tecnologia drone pode produzir imagens com resolução espacial consideravelmente mais alta na faixa de centímetros. Além disso, a resolução temporal das imagens baseadas em drones pode ser decidida pelo usuário, o que proporciona flexibilidade em comparação com os dados de satélite. Drones também têm sido usados ​​para fins de pesquisa em experimentos de campo de monitoramento (Viljanen et al., 2018, Dehkordi et al., 2020). O monitoramento não destrutivo da vegetação é um grande benefício para a agronomia prática, bem como para uso em pesquisas. Imagens aéreas de drones têm sido utilizadas em uma ampla gama de aplicações agrícolas.

Algumas das aplicações mais comuns de imagens de drones na agricultura de precisão são mapeamento e manejo de ervas daninhas, monitoramento do crescimento da vegetação e estimativa de produção, monitoramento da saúde da vegetação e manejo da irrigação (Tsouros et al., 2019). A imagem tem sido usada no monitoramento de muitas características da vegetação, por exemplo, quantidade de biomassa (ten Harkel et al., 2020), status de nitrogênio (Caturegli et al., 2016), umidade e status de estresse hídrico da planta (Hoffmann et al., 2016) , temperatura (Sagan et al., 2019) e vários índices de vegetação (Viljanen et al., 2018). A previsão do rendimento da colheita baseada em aprendizagem profunda a partir de imagens aéreas de drones também mostrou resultados promissores (Nevavuori et al., 2019, Nevavuori et al., 2020).

No campo da silvicultura, os métodos fotogramétricos baseados em drones podem ser usados ​​de várias maneiras diferentes. Os métodos usados ​​podem fornecer dados gerais de inventário florestal que se concentram em variáveis ​​comuns do povoamento, como volume e altura (Tuominen et al., 2017). O planejamento florestal prático na Finlândia com base em dados fotogramétricos coletados por drones está avançando rapidamente e atualmente está sendo testado. Os drones têm se mostrado especialmente úteis na detecção e inventário de várias áreas de danos florestais, como áreas de vento (Mokros et al., 2017, Panagiotidis et al., 2019) e áreas de surto de escaravelho (Näsi et al., 2015, Briechle et al. ., 2020). Os drones têm sido usados ​​com sucesso em várias tarefas de prevenção e supressão de incêndios florestais por vários anos (Ollero et al., 2006, Akhloufi et al., 2020). A crescente demanda para salvaguardar a biodiversidade florestal também tem incentivado o uso de métodos baseados na fotogrametria. Esses métodos provaram ser uma ferramenta de inventário útil, quando fatores estruturais importantes, como espécies-chave como aspen (Viinikka et al., 2020), árvores mortas em pé (Briechle et al., 2020) ou detritos lenhosos grosseiros (Thiel et al. ., 2020) estão localizados em uma paisagem florestal.

Na área de jardinagem urbana privada, imagens baseadas em drones podem fornecer novas abordagens para monitorar os efeitos das práticas de jardinagem na vegetação e no sequestro de carbono. Em áreas habitacionais de baixa densidade, o padrão de cobertura da superfície é tipicamente muito diverso, consistindo em vários lotes e jardins individuais. Os proprietários remodelam e modificam os jardins domésticos privados com base nas preferências pessoais e nas práticas de jardinagem individuais. O papel e o significado da vegetação e das práticas de jardinagem variam, resultando em variações plot-to-plot no sequestro e evapotranspiração de carbono, o que afeta o manejo das águas pluviais e o grau de redução do fenômeno das ilhas de calor urbanas. As abordagens para o desenvolvimento urbano sustentável aumentaram o interesse em áreas habitacionais de baixa densidade que cobrem grandes áreas nas cidades. Um único enredo não é o foco principal, mas sim a entidade que eles formam juntos. Isso levanta o desafio de encontrar métodos adequados para estudar facilmente as mudanças em curso em várias escalas para fornecer dados sobre a qualidade e quantidade da vegetação. As opções de escala e elementos de plotagem e bloco definem os atributos de escala da área de habitação.

Este artigo descreve a aquisição de imagens aéreas relacionadas ao monitoramento da vegetação pela Häme University of Applied Sciences (HAMK) usando drones, em 2020, tanto os processos quanto as experiências adquiridas. Além dos dados de imagem, as principais pesquisas em três áreas serão publicadas separadamente. No total, aproximadamente 200.000 arquivos de imagem, aproximadamente 1 TB de tamanho, estão em processo de publicação aberta (consulte Disponibilidade de dados) Características particulares dos conjuntos de dados apresentados incluem os arquivos de imagem originais, usando uma câmera multiespectral, e que um dos locais de pesquisa, o campo Mustiala biochar, foi fotografado várias vezes durante a estação de cultivo com algumas imagens de satélite quase simultâneas disponíveis de fontes públicas. Com base em uma pesquisa feita pelos autores usando o Google Dataset Search (https://datasetsearch.research.google.com/) no momento em que este artigo foi escrito, os conjuntos de dados de imagens aéreas de drones estão aumentando rapidamente em número, mas normalmente são ordens de magnitude menores que o conjuntos de dados apresentados neste trabalho e geralmente não incluem os arquivos de imagem originais, embora possam estar disponíveis mediante solicitação. Neste artigo, também discutimos os benefícios e desafios da publicação de conjuntos de dados de imagens de drones.

Os conjuntos de dados de imagens aéreas de drones foram coletados de vários locais em Kanta-Häme, no sul da Finlândia. Três dos sites (Fig. 1) são apresentados neste trabalho.

Figura 1. Localizações de sites de pesquisa (pontos brancos) na Finlândia.

  1. Campo Mustiala Biocarvão(Fig. 6) está localizado na fazenda educacional e de pesquisa Mustiala da Universidade de Ciências Aplicadas de Häme, em Tammela (60 ° 49 'N, 23 ° 45'24' 'E). O experimento do biochar consiste em 10 parcelas adjacentes, cada uma com tamanho de 10 m × 100 m (1000 m²), e com área total de 1 ha. O corretivo de solo com biochar foi aplicado em cinco das parcelas a uma taxa de ca. 20 t / ha. As outras cinco parcelas eram tratamentos controle sem correção de biochar. Pontos de controle de solo (GCPs) foram colocados cobrindo o campo em um padrão de face-5 de aproximadamente 100 m × 100 m (ver Fig. 6). Os GCPs eram recortes em estilo xadrez 2x2 em preto e amarelo de 29 cm x 29 cm de impressões A3. Eles foram georreferenciados com o auxílio de um receptor GPS portátil Trimble Geo 7X (H-Star) capaz de cinemática em tempo real (RTK).
  2. Floresta velha de evo (Fig. 3) consiste em sete talhões separados, todos localizados na floresta do estado de Evo. As arquibancadas, com uma área total de 160 ha, são dominadas por abetos da Noruega maduros (Picea abies) com uma faixa etária de 80 a 120 anos. Todos os povoamentos têm uma quantidade bastante elevada de árvores mortas, conhecidas por serem importantes para a biodiversidade, por exemplo, para pássaros que nidificam em cavidades. As árvores mortas em pé foram catalogadas em 2019-2020 para funcionar como dados de referência para métodos fotogramétricos.
  3. Jardins urbanos privados Hämeenlinnaconsistem em aproximadamente 5-10 jardins domésticos nas áreas urbanas escassamente povoadas de Hämeenlinna.

Figura 2. O cronograma de missão de imagem para 2020 para os locais de pesquisa, com a carga útil da câmera indicada.

O drone usado em todas as missões de imagem foi um drone de câmera quadricóptero DJI Matrice 210 RTK V2. A carga útil da câmera para cada missão foi selecionada (ver Fig. 2) a partir das seguintes câmeras:

  1. DJI ZenMuse X5S FC6520 - uma câmera RGB estabilizada por cardan de 3 eixos com uma lente de distância focal de 15 mm, operada no modo sRGB JPEG, versão de software 01.07.0044,
  2. DJI ZenMuse XT2(radiométrico)- uma câmera estabilizada por cardan de 3 eixos com uma lente de comprimento focal de 13 mm para o sensor térmico operado no modo JPEG radiométrico e uma lente de comprimento focal de 8 mm para o sensor RGB, versão de software 06.02.20, e
  3. Micasense Altum - uma câmera multiespectral radiométrica com ótica dedicada para cada canal, cronometrada e disparada separadamente das demais câmeras, software versão 1.3.6, com sensor de luz solar DLS2.

Os voos foram planejados no software Dji Pilot. Os parâmetros de voo foram especificados como os mais adequados para o ambiente atual, condições de luz e clima, tamanho da área e tipo de câmera. Os parâmetros de voo para a floresta antiga de Evo foram os seguintes: altitude 120 m acima do solo, sobreposição lateral 80%, sobreposição frontal 80%, velocidade 3-5 m / s, modo de disparo da câmera: intervalo de tempo. Para o campo Mustiala biochar, os seguintes parâmetros foram usados ​​principalmente: altitude 80 m, sobreposição lateral 85%, sobreposição frontal 83% e velocidade 2-3 m / s. O campo foi fotografado várias vezes durante a estação de cultivo, usando parâmetros idênticos. Para os jardins urbanos privados de Hämeenlinna, os parâmetros de voo foram os seguintes: altitude 50 m, sobreposição lateral 85%, sobreposição frontal 85% e velocidade 3 m / s. Quando as câmeras foram usadas simultaneamente, a sobreposição foi especificada para o Micasense Altum, resultando em uma sobreposição maior para outras câmeras. Os voos foram programados (Fig. 2) entre as 11h00 e as 15h00 (UTC + 3), de maio a agosto de 2020.

As câmeras do balancim DJI estavam apontando para o nadir, ou seja, diretamente para baixo, e disparadas de forma síncrona pelo software DJI Pilot. O Micasense Altum foi acionado por seu próprio cronômetro e apontado diretamente para baixo no sistema de coordenadas interno do drone. As imagens Micasense Altum de um painel de refletância calibrado Micasense (Fig. 5) foram tiradas antes ou depois de cada missão de imagem, ou ambos. Uma estação RTK virtual Geotrim Trimnet VRS foi usada, enquanto as câmeras DJI receberam informações RTK GPS do drone. O Micasense Altum utilizou seu próprio receptor GPS.

Para as figuras usadas neste artigo, o Agisoft Metashape Professional versão 1.7.0 (Agisoft 2020a) foi usado para corrigir as cores das imagens Micasense Altum e gerar um ortomosaico do campo de biochar Mustiala usando o fluxo de trabalho descrito em Agisoft (2020b), sem o uso de pontos de controle no solo. Para as Figuras 5 e 7, fotos únicas Micasense Altum da missão de campo de biocarbono Mustiala datado de 2020-05-22, 10: 00-12: 00 (UTC), foram exportadas em forma calibrada de Agisoft MetaShape, e seu azul, verde e canais espectrais vermelhos foram empilhados (alinhados) no Adobe PhotoShop versão 21.2.4 com correção de distorção. As imagens de radiância e refletância Micasense Altum (Figs. 4-7) e a imagem de satélite Sentinel-2 da Figura 6 foram convertidas para o espaço de cores sRGB no GIMP versão 2.10.18 atribuindo um perfil de cor sRGB gama = 1, ajustando o brilho na ferramenta de curvas usando uma rampa linear cruzando a origem e convertendo para o perfil de cor sRGB usando uma intenção de renderização colorimétrica relativa. As ilustrações geográficas foram feitas no QGIS versão 3.12.2 (QGIS Development Team 2020).

Para uma comparação com as imagens aéreas, uma imagem de satélite Sentinel-2 (Fig. 6) do campo Mustiala biochar foi selecionada manualmente e recuperada do Copernicus Open Access Hub (Copernicus Sentinel Data 2020) para um dia sem nuvens que coincidiu com uma missão de imagem drone em 2020-05-22. Para a Figura 7, a segmentação de imagem de aprendizado de máquina de imagens de espaço de cor sRGB em resolução de 0,1 m / pixel foi feita usando o modelo U-Net DroneDeploy Aerial Segmentation Benchmark "keras baseline" executado gg1z3jjr por Stacey Svetlichnaya (DroneDeploy 2019), usando um tamanho de bloco de 300 × 300 pixels.

Os dados de localização do GCP e a maioria das imagens aéreas adquiridas estão sendo disponibilizados publicamente, consulte a seção Disponibilidade de dados. A Figura 3 mostra os locais das câmeras para todas as imagens individuais tiradas durante as antigas missões de imagem da floresta Evo. A Figura 4 mostra uma imagem de amostra de cada câmera de uma missão de imagem de campo Mustiala biochar em 2020-05-22. Antes desse vôo, foi feita uma imagem do painel de refletância calibrado (Fig. 5). Imagens de drone e satélite quase simultâneas daquele dia são mostradas para comparação na Figura 6. Uma única imagem e um ortomosaico construído a partir de várias imagens são apresentadas para comparação na Figura 7, junto com sua segmentação de imagem de aprendizado de máquina. Para o campo Mustiala biochar, a localização dos GCPs foi resolvida com uma precisão horizontal e vertical de 0,1 m, conforme relatado no arquivo de forma do receptor portátil RTK GPS.

Figura 3. Evo antigos locais de pesquisa florestal (áreas coloridas) e localizações de câmeras GPS de imagens individuais de drones (pontos pretos). Algumas imagens do Micasense Altum foram tiradas no caminho de ida ou volta do local de decolagem e pouso devido à falta de comunicação entre o drone e a câmera. (Mapa: Levantamento Nacional de Terras do Banco de Dados Topográficos da Finlândia 01/2021.)

Figura 4. Imagens de drones de amostra não calibradas do campo de Mustiala biochar, capturadas com o drone voando a uma altitude de 80 m do solo. As imagens do canal espectral Micasense Altum são (da esquerda para a direita): azul, verde, vermelho, infravermelho próximo, borda vermelha e térmica. As imagens DJI XT2 foram obtidas em um vôo separado e são visíveis (esquerda) e térmicas (direita).

Figura 5. Um painel de refletância calibrado (Micasense) colocado no campo de biochar Mustiala, capturado manualmente usando a câmera multiespectral Micasense Altum.

Figura 6. O campo Mustiala biochar em 2020-05-22. Esquerda: Um drone ortomosaico com resolução de 4 cm, uma visão artificial direto para baixo, feito de imagens de câmeras multiespectrais Micasense Altum sem o uso de pontos de controle de solo (GCPs), tempo de aquisição 10:20 a 10:27 (UTC). O erro de geolocalização dos GCPs foi de no máximo 0,8 m. À direita: Uma imagem de refletância corrigida da parte inferior da atmosfera do satélite Sentinel-2 com resolução de 10 m (Copernicus Sentinel Data 2020), hora de aquisição 09:50 (UTC).

Figura 7. Uma única imagem de drone (canto superior esquerdo) alinhada a um drone ortomosaico (canto superior direito), ambos usando a câmera Altum Micasense. A imagem única mostra detalhes finos de objetos complexos melhor do que a ortomosaica, ao custo de não ser uma ortoimagem. Usando um modelo de aprendizado de máquina U-Net pronto para uso e treinado em ortomosaicos (DroneDeploy 2019), as imagens foram segmentadas em classes: solo (branco), vegetação (verde), construção (vermelho), água (laranja) e carros e desordem (não encontrado), sobreposto na imagem única (canto inferior esquerdo) e a ortomosaica (canto inferior direito).

Discussão e Conclusões

Encontramos muitos desafios técnicos durante a coleta de dados. Problemas de interoperabilidade entre o drone e os sistemas de câmera de diferentes fabricantes impediram o acionamento da câmera pelo drone e a marcação de imagens com informações de GPS RTK de alta precisão. Uma possível configuração incorreta de fuso horário afetou a marcação de horário da imagem. Embora logs de voo automáticos tenham sido gerados, eles foram insuficientes para responder a todas as questões surgidas na interpretação posterior dos dados coletados, o que resultou em aumento do trabalho de wrangling dos dados. Seria aconselhável para trabalhos futuros complementar os registros automáticos com notas sobre as configurações usadas e a intenção e as ações do operador.

Selecionar os parâmetros de vôo se tornou uma espécie de “arte em si”. Velocidade de vôo, altitude, sobreposição lateral e frontal, orientação da câmera e modo de disparo influenciaram significativamente os resultados da imagem. Por exemplo, a altitude de vôo requer um compromisso entre a resolução da imagem e o tempo de vôo. Abaixar a altitude aumenta o tempo de vôo, que é acompanhado pelo possível esgotamento da bateria durante o vôo, tornando o uso das imagens mais complicado por cenas mais dinâmicas.

Para aplicações fotométricas, as mudanças rápidas nas condições de luz podem ser um problema, mesmo para voos curtos. Da mesma forma, o movimento da combinação de clima ventoso e vegetação invalida a suposição de uma cena estática, feita por exemplo em um pipeline de pós-processamento que produz uma nuvem de ponto 3-d estática, seja como uma etapa intermediária ou como o produto final. O planejamento de imagens aéreas de drones foi estudado e revisado por (Tmušić et al., 2020), que abrange escolhas como ângulo da câmera e padrão de voo.

Muita consideração deve ser dada ao processo de publicação de dados de pesquisa de missões de imagem aérea de alta resolução. Os aspectos a serem considerados incluem armazenamento e disponibilidade de dados, compatibilidade de software, direitos dos produtores de dados, direitos de possíveis titulares de dados, contratos de licença de software de processamento e outros.

A publicação aberta de dados de pesquisa melhora a reprodutibilidade da ciência e reduz as barreiras à participação na ciência e à utilização de dados e resultados científicos, especialmente para participantes com poucos recursos e representados. Para produtores de dados acadêmicos, o crescente reconhecimento de dados como resultado de pesquisa (veja a Declaração de São Francisco sobre Avaliação de Pesquisa 2012) pode trazer incentivos financeiros para uma publicação mais ampla de dados de pesquisa. Os incentivos dos financiadores da ciência podem ser aplicados retroativamente. Uma das principais razões práticas para publicar dados de pesquisa é a possibilidade de que um conjunto de dados possa ter um valor de utilidade tremendo fora do projeto de pesquisa, muito além da organização que o produziu. Muitos usos posteriores possíveis dos dados não podem ser previstos no momento de sua criação e coleta.

Nem todos os dados de pesquisa publicados abertamente permanecem disponíveis. Como exemplo, Khan et al. (2021) só conseguiram recuperar 94 de 121 conjuntos de dados de imagens de oftalmologia médica de acesso aberto. Armazenar dados de pesquisa em um repositório estabelecido como o Zenodo (https://zenodo.org/) oferece um nível de garantia de longevidade de dados. Também permite obter um Digital Object Identifier (DOI) para compartilhar e citar os dados. Após uma recente aplicação bem-sucedida de cotas de armazenamento pela HAMK, os conjuntos de dados de imagens apresentados neste artigo estão sendo armazenados e publicados nos serviços Fairdata, financiados pelo Ministério da Educação e Cultura (Finlândia). A publicação de dados de pesquisa em um repositório força efetivamente o armazenamento dos dados junto com os metadados que descrevem os dados, a propriedade dos dados e sua licença de uso. As informações adicionais resolvem muitas ambigüidades ao usar os dados. Metadados estruturados em repositórios garantem que o conjunto de dados seja indexado em bancos de dados de pesquisa.

Um repositório também pode permitir a publicação incremental de dados. Se a publicação dos dados ocorrer dessa forma, já durante a coleta, em vez de no final de um projeto de pesquisa, o uso e a citação dos dados fora da organização produtora de dados pode começar muito mais cedo. A publicação acelerada também garante que os dados ou informações de interesse não sejam perdidos durante o projeto ou quando o pessoal deixa o projeto. Os produtores de dados acadêmicos normalmente têm interesse na publicação prioritária de suas pesquisas. A publicação antecipada de dados de pesquisa de uso geral, como os conjuntos de dados de imagens apresentados neste artigo, tem menos probabilidade de entrar em conflito com esse interesse, em comparação com a publicação aberta antecipada de todos os dados vitais para a publicação principal.

Os dados de localização de uma imagem ou outras informações sobre uma pessoa ou objeto que podem ser associados a uma pessoa, seja diretamente ou usando informações adicionais, são provavelmente considerados "dados pessoais" pelo Regulamento Geral de Proteção de Dados (GDPR) da UE. Exemplos de tais objetos em imagens aéreas incluem veículos, terrenos e edifícios administrados por particulares ou por sua família. O GDPR exige que antes que os dados pessoais possam ser tratados para uma finalidade, o consentimento voluntário do titular dos dados para essa finalidade deve ser obtido. O titular dos dados também tem o direito de ser esquecido, ou seja, de solicitar vinculativamente que os seus dados pessoais sejam apagados sem demora excessiva. As leis nacionais ainda podem permitir pesquisas científicas legítimas que protejam a privacidade dos dados. No entanto, os direitos de um titular dos dados podem impedir a redistribuição ou publicação aberta de dados pessoais sob uma licença irrevogável, como qualquer uma das licenças Creative Commons populares, possivelmente mesmo quando o titular dos dados cria proativamente os dados como liberdade de expressão.

O conjunto de dados de imagens relativos aos jardins urbanos privados de Hämeenlinna foi recolhido com consentimento informado dos sujeitos dos dados, os proprietários. Foi considerado necessário depositar os dados de forma totalmente fechada, pelo menos por enquanto, enquanto o panorama jurídico dos dados pessoais ainda está em desenvolvimento. A UE propôs uma Lei de Governança de Dados (COM / 2020/767 final) na sequência de uma Estratégia Europeia para os Dados (COM / 2020/66 final). A Lei de Governança de Dados define funções e mecanismos para compartilhamento altruísta de dados em ecossistemas de dados gerenciados. Entre outras coisas, o ato visa agilizar o tratamento das solicitações de usuários autorizados para acessar os dados, desde que o titular dos dados tenha consentido com o tratamento dos dados para a finalidade solicitada.

Voltando ao nosso estudo de caso, ao contrário das imagens aéreas apresentadas capturadas principalmente a 80 m acima do solo, imagens de um alcance mais próximo (Fig. 5) permitiriam distinguir não apenas árvores, mas também pequenas plantas individuais. Da mesma forma, seria possível identificar e contar as plantas e analisar suas características físicas (alometria) e sanidade.

Os dados de imagens de drones estão sendo cada vez mais utilizados no aprendizado de máquina, conforme exemplificado pela pesquisa citada acima na Introdução. O objetivo de um modelo de aprendizado de máquina pode ser, por exemplo, segmentar uma imagem de entrada em diferentes rótulos de classe (Fig. 7). Máscaras de rótulo de classe de imagens de drones podem ser convertidas em dados de densidade de classe de verdade terrestre de resolução inferior para interpretar imagens de satélite. Dentro aprendizagem semi-supervisionada, imagens não rotuladas também seriam incluídas para ajudar o modelo a capturar melhor a distribuição de probabilidade conjunta natural das imagens e segmentação. Esses usos tornam os dados não rotulados de uso geral valiosos como uma saída de pesquisa, complementando assim a situação existente e o futuro dos dados rotulados e não rotulados. O aprendizado de máquina também se beneficia de dados mais diversos, por exemplo, de conjuntos de dados de imagens coletados em um conjunto ecologicamente diverso de locais. Nesses casos, o big data pode vir de muitos pequenos dados.

Os produtores de dados podem ter motivos para não divulgar seus dados brutos. Nesses casos, outras formas um tanto futurísticas de compartilhamento de informações podem ser possíveis. Dentro aprendizagem federada, os detentores de dados combinam seus esforços de forma coordenada para treinar um modelo de aprendizado de máquina compartilhado, sem comunicar seus dados originais. Alternativamente, um modelo gerador poderia ser usado para coletar amostras artificiais não privadas da distribuição aproximada dos dados originais, preservando a privacidade dos pontos de dados originais, normalmente medidos por privacidade diferencial. Dependendo da quantidade de dados originais e do grau de privacidade exigido, as amostras geradas podem ser de qualidade suficiente para serem usadas de forma semelhante aos dados originais. Para um método gerador de preservação de privacidade adequado para imagens, consulte Chen et al. (2020).

O autor de um conjunto de dados que consiste em imagens de drones pode desejar limitar o uso de dados. É improvável que uma fotografia tirada para fins científicos por equipamento sob controle automático seja considerada um trabalho criativo e não seja protegida por direitos autorais como tal. Nos Estados Unidos, um conjunto de dados pode ser protegido por direitos autorais como uma compilação se for suficientemente original na seleção, coordenação ou arranjo, mas os direitos autorais do conjunto de dados não se estendem a quaisquer itens de dados sem direitos autorais (U.S. Copyright Office, 2021). Da mesma forma, para autores baseados na UE, as implementações nacionais da Diretiva de Bancos de Dados (96/9 / EC) permitem os direitos autorais de um conjunto de dados como uma coleção criativa. Separadamente do copyright, a diretiva permite sui generis proteção de conjuntos de dados não criativos com base em investimentos substanciais, com um prazo de proteção de 15 anos (Comissão Europeia, 2018). Em qualquer caso, se um contrato separado for feito entre o detentor do conjunto de dados e seu recuperador, as cláusulas vinculativas no contrato podem limitar a redistribuição e o uso do conjunto de dados pelo recuperador. Por exemplo, o uso comercial de um conjunto de dados por seu recuperador pode ser proibido.

Aspectos jurídicos à parte, ao coletar e compartilhar dados, deve-se ter cuidado para garantir que os dados sejam entregues em um formato que preserve a qualidade suficiente, de preferência em um formato que seja abertamente padronizado, ou seja, não um formato proprietário específico do software . Artefatos de compactação que surgem de métodos de compactação de imagem com perdas, como JPEG, podem interferir nas análises radiométricas. Por outro lado, em comparação com a compactação com perdas, a compactação de imagens sem perdas resulta em arquivos de imagem significativamente maiores, aumentando o custo de armazenamento e transferência. Os requisitos de espaço de armazenamento de conjuntos de dados de imagem podem ser facilitados pela recodificação de arquivos TIFF sem perdas, usando um método sem perdas mais eficiente do que o que está disponível na câmera. No entanto, regravar os arquivos de imagem também pode afetar negativamente os metadados ou outros dados extras, reduzindo a usabilidade dos arquivos. Os metadados do arquivo de imagem podem ser restaurados transferindo-os do arquivo original usando ferramentas como ExifTool e Exiv2. A usabilidade de quaisquer arquivos originais modificados deve ser testada pelo menos nos pipelines de processamento mais prováveis ​​disponíveis. Pode ser necessário reescrever arquivos de imagem para mascarar informações pessoais.

Para dados de imagens geográficas, é importante também publicar metadados que descrevam a qualidade radiométrica e a precisão da localização. Informações sobre coisas que afetam a iluminação, como nuvens e sol, bem como imagens de calibração e dados do sensor de luz, podem ser importantes para futuros usuários. Os pipelines de processamento devem ser descritos e, quando possível, o código-fonte e o ambiente operacional ou as informações também incluídas. Para obter mais informações sobre dados de garantia de qualidade e outros metadados importantes, consulte Aasen et al. (2018) e Tmušić et al. (2020).

Os conjuntos de dados de imagens apresentados neste trabalho consistem principalmente de imagens brutas inalteradas diretamente de câmeras. Publicar os dados brutos sem embargo também se tornou uma maneira eficaz de distribuir os dados dentro da organização HAMK, bem como fora dela. Outra razão por trás da decisão de publicar não apenas produtos de dados pós-processados, mas também dados primários brutos, foi que os usuários de dados podem desejar aplicar seus próprios pipelines de processamento para garantir o processamento uniforme de todos os seus dados de entrada. Um exemplo de produto de dados é um ortomosaico (Fig. 6), que é simples de usar em várias aplicações e valioso para fornecer uma visão geral dos dados. Conforme demonstrado na Figura 7, a clareza visual de um ortomosaico pode não ser tão alta quanto a do material de origem, as imagens individuais, com diferenças que afetam a rotulagem por um modelo de aprendizado de máquina. No futuro, novos pipelines de fotogrametria provavelmente resultarão em produtos de dados de maior qualidade do que é possível usar as ferramentas de hoje - se os dados brutos ainda estiverem disponíveis.

Disponibilidade de dados

Os conjuntos de dados de imagens agrícolas e florestais coletados estão em processo de publicação incremental sob a licença de acesso aberto Creative Commons by Attribution 4.0 International (CC-BY 4.0), e disponibilizados para download em (Häme University of Applied Sciences, 2021a https: / /doi.org/10.23729/895dfb4d-9a14-41cc-a624-727375275631 and 2021b https://doi.org/10.23729/d083d6ad-aa68-4826-8792-7a169e2d2dd9). The Hämeenlinna private urban gardens drone image dataset (Häme University of Applied Sciences 2121c) has restricted access due to personal data content. Other associated data such as calibration data and GCP coordinates are published with the datasets.

Acknowledgements

This research is part of a Carbon 4.0 research project that has been funded by the Ministry of Education and Culture (Finland). The authors wish to thank Olli Nevalainen and the anonymous reviewers for their feedback, and Roman Tsypin for computation of the image segmentation in Figure 7.

Aasen, H., Honkavaara, E., Lucieer, A., & Zarco-Tejada P.J. 2018. Quantitative Remote Sensing at Ultra-High Resolution with UAV Spectroscopy: A Review of Sensor Technology, Measurement Procedures, and Data Correction Workflows. Remote Sensing. 10(7): 1091. DOI: 10.3390/rs10071091

Agisoft 2020a. Agisoft MetaShape Professional (Version 1.7.0) (Software). http://www.agisoft.com/downloads/installer/.

Akhloufi, M., Castro, N., & Couturier, A. 2020. Unmanned Aerial Systems for Wildland and Forest Fires: Sensing, Perception, Cooperation and Assistance. arXiv:2004.13883 [cs.RO]. Drones, 5(1): 15. DOI: 10.3390/drones5010015

Briechle, S., Krzystek, P., & Vosselman, G. 2020. Classification of tree species and standing dead trees by fusing UAV-based lidar data and multispectral imagery in the 3D deep neural network PointNet++. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2: 203-210. DOI: doi.org/10.5194/isprs-annals-v-2-2020-203-2020

Carlini N., Tramer F., Wallace E., Jagielski M., Herbert-Voss A., Lee K., Roberts A., Brown T., Song D., Erlingsson U., Oprea A., & Raffel C. 2020. Extracting Training Data from Large Language Models. DOI: arXiv:2012.07805 [cs.CR].

Caturegli, L., Corniglia, M., Gaetani, M., Grossi, N., Magni, S., Migliazzi, M., Angelini, L., Mazzoncini, M., Silvestri, N., Fontanelli, M. & Raffaelli, M. 2016. Unmanned aerial vehicle to estimate nitrogen status of turfgrasses. Plos One, 11(6): 0158268. DOI: 10.1371/journal.pone.0158268

Chen, D., Orekondy, T., Fritz, M. 2020. Gs-wgan: A gradient-sanitized approach for learning differentially private generators. DOI: arXiv:2006.08265 [cs.LG]

Dehkordi, R.H., Denis, A., Fouche, J., Burgeon, V., Cornelis, J.T., Tychon, B., Gomez, E.P., Meersmans, J. 2020. Remotely-sensed assessment of the impact of century-old biochar on chicory crop growth using high-resolution UAV-based imagery. International Journal of Applied Earth Observation and Geoinformation, 91: 102147. DOI: 10.1016/j.jag.2020.102147

Finger, R., Swinton, S.M., El Benni, N., Walter, A. 2019. Precision Farming at the Nexus of Agricultural Production and the Environment. Annual Review of Resource Economics, 11(1): 313-335. DOI: 10.1146/annurev-resource-100518-093929

ten Harkel, J., Bartholomeus, H., Kooistra, L. 2020. Biomass and Crop Height Estimation of Different Crops Using UAV-Based Lidar. Remote Sensing, 12(1): 17. DOI: /10.3390/rs12010017

Hoffmann, H., Jensen, R., Thomsen, A., Nieto, H., Rasmussen, J., & Friborg, T. 2016. Crop water stress maps for an entire growing season from visible and thermal UAV imagery. Biogeosciences, 13(24): 6545-6563. DOI: /10.5194/bg-13-6545-2016

Häme University of Applied Sciences 2021a. Drone image dataset: Evo old forest 2020. https://doi.org/10.23729/895dfb4d-9a14-41cc-a624-727375275631

Häme University of Applied Sciences 2021b. Drone image dataset: Mustiala biochar field 2020. https://doi.org/10.23729/d083d6ad-aa68-4826-8792-7a169e2d2dd9

Häme University of Applied Sciences 2021c. Drone image dataset: Hämeenlinna private urban gardens 2020. https://doi.org/10.23729/0b8dba76-0e7f-48ad-9979-462ed9d49021

Khan, S.M., Liu, X., Nath, S., Korot, E., Faes, L., Wagner, S.K., Keane, P.A., Sebire, N.J., Burton M.J, Denniston, A.K. 2020. A global review of publicly available datasets for ophthalmological imaging: barriers to access, usability, and generalisability. The Lancet Digital Health, 3 (1): e51-e66. DOI: 10.1016/s2589-7500(20)30240-5

Mokros, M., Výbošťok, J., Merganič, J., Hollaus, M., Barton, I., Koreň, M., Tomaštík, J., Čerňava, J. 2017. Early Stage Forest Windthrow Estimation Based on Unmanned Aircraft System Imagery. Forests, 8(9): 306. DOI: 10.3390/f8090306

Nevavuori, P., Narra, N., Lipping, T. 2019. Crop yield prediction with deep convolutional neural networks. Computers and electronics in agriculture, 163: 104859. DOI: //doi.org/10.1016/j.compag.2019.104859

Nevavuori, P., Narra, N., Linna, P., & Lipping, T. 2020. Crop Yield Prediction Using Multitemporal UAV Data and Spatio-Temporal Deep Learning Models. Remote Sensing, 12(23): 4000. DOI: 10.3390/rs12234000

Näsi, R., Honkavaara, E., Lyytikäinen-Saarenmaa, P., Blomqvist, M., Litkey, P., Hakala, T., Viljanen, N., Kantola, T., Tanhuanpää, T.-M., Holopainen, M. 2015. Using UAV-based photogrammetry and hyperspectral imaging for mapping bark beetle damage at tree-level. Remote sensing, 7(11): 15467-15493. DOI: 10.3390/rs71115467

Ollero, A. and Merino, L., 2006. Unmanned aerial vehicles as tools for forest-fire fighting. Forest Ecology and Management, 234(1): S263. DOI: 10.1016/j.foreco.2006.08.292

Panagiotidis, D., Abdollahnejad, A., Surový, P. and Kuželka, K., 2019. Detection of fallen logs from high-resolution UAV Images. New Zealand Journal of Forestry Science, 49. DOI: 10.33494/nzjfs492019x26x

QGIS Development Team (2020). QGIS Geographic Information System. Open Source Geospatial Foundation Project. http://qgis.osgeo.org

Sagan, V., Maimaitijiang, M., Sidike, P., Eblimit, K., Peterson, K.T., Hartling, S., Esposito, F., Khanal, K., Newcomb, M., Pauli, D., Ward, R., 2019. UAV-based high resolution thermal imaging for vegetation monitoring, and plant phenotyping using ICI 8640 P, FLIR Vue Pro R 640, and thermomap cameras. Remote Sensing, 11(3): 330. DOI: 10.3390/rs11030330

San Francisco Declaration on Research Assessment. 2012. https://sfdora.org/read/

Segarra, J., Buchaillot, M.L., Araus, J.L., Kefauver, S.C. 2020. Remote sensing for precision agriculture: Sentinel-2 improved features and applications. Agronomy, 10(5): 641. DOI: 10.3390/agronomy10050641

Thiel, C., Mueller, M.M., Epple, L., Thau, C., Hese, S., Voltersen, M., & Henkel, A., 2020. UAS Imagery-Based Mapping of Coarse Wood Debris in a Natural Deciduous Forest in Central Germany (Hainich National Park). Remote Sensing, 12(20): 3293. DOI: 10.3390/rs12203293

Tmušić G., Manfreda S., Aasen H., James M.R., Gonçalves G., Ben-Dor E., Brook A., Polinova M., Arranz J.J., Mészáros J., Zhuang R., Johansen K., Malbeteau Y., de Lima M. .I. P., Davids C., Herban S. and McCabe M. F. 2020. Current Practices in UAS-based Environmental Monitoring. Remote Sens. 12(6): 1001. DOI: https://doi.org/10.3390/rs12061001

Tsouros, D.C., Bibi, S., Sarigiannidis, P.G. 2019. A review on UAV-based applications for precision agriculture. Information, 10(11): 349.

Tuominen, S., Balazs, A., Honkavaara, E., Pölönen, I., Saari, H., Hakala, T. and Viljanen, N., 2017. Hyperspectral UAV-imagery and photogrammetric canopy height model in estimating forest stand variables. Silva Fennica, 51(5). Doi: 10.14214/sf.7721

U.S. Copyright Office. 2020. Compendium of U.S. Copyright Office Practices § 101 (3d ed.), Chapter 500 & Chapter 600. https://copyright.gov/comp3/

Viinikka, A., Hurskainen, P., Keski-Saari, S., Kivinen, S., Tanhuanpää, T., Mäyrä, J., Poikolainen, L., Vihervaara, P., Kumpula, T. 2020. Detecting European Aspen (Populus tremula L.) in Boreal Forests Using Airborne Hyperspectral and Airborne Laser Scanning Data. Remote Sensing, 12(16): 2610. DOI: 10.3390/rs12162610

Viljanen, N., Honkavaara, E., Näsi, R., Hakala, T., Niemeläinen, O., & Kaivosoja, J. 2018. A Novel Machine Learning Method for Estimating Biomass of Grass Swards Using a Photogrammetric Canopy Height Model, Images and Vegetation Indices Captured by a Drone. Agriculture, 8(5): 70. DOI: 10.3390/agriculture8050070


Introduction

On 10 April 2020, Yemen recorded its first laboratory-confirmed COVID-19 case in the Southern governorate of Hadhramout. By the end of May, cases and deaths had been reported in the governorates of Aden, Taiz, Lahj and Sanaa.1 The pandemic’s impact on Yemen was expected to be severe, despite its comparatively young population.2 3 Transmission models parameterised based on China and Europe evidence initially predicted some 85 000 virus deaths, approaching the number reported killed during the country’s ongoing armed conflict.4–6 Additional risk factors of concern resulting from this 5-year protracted crisis included disrupted health services (only half of pre-existing health facilities were fully functional as of early 2020), shortage of health workers, overcrowding due to internal displacement, food insecurity and shrinking humanitarian aid.3 5 7–9

During May 2020, videos posted on social media showing large numbers of fresh graves suggested a spike in burial activity across several Yemeni governorates including Sana’a, Aden, Ibb and Al Bayda.10–12 In the southern city of Aden, the use of mechanical excavators in place of human gravediggers suggested that demand exceeded routine capacity.13 14 The medical organisation Médecins sans Frontières also reported a peak in hospital admissions, with a high case–fatality ratio in Aden during the same period.10 Separately, a shortage of personal protective equipment forced several hospitals to close or reject patients exhibiting COVID-19 symptoms.3 12 15

As of 9 October 2020, Yemen had reported 2049 confirmed SARS-CoV-2 infections with 593 deaths,16 but the reliability of these official numbers is undermined by low testing capability.17 18 A high COVID-19 case–fatality ratio (28.9%) is indicative of case underascertainment.19 20 The virus could thus be circulating undetected and unmitigated within communities, and the true mortality figures could be far higher than reported, as suggested elsewhere.21–23 Moreover, in Yemen’s protracted crisis, an epidemic could result in increased population mortality both directly (from SARS-CoV-2 infection) and indirectly (due to reduced access to healthcare, lack of healthcare workers and/or medical supplies, and/or the socioeconomic costs of the pandemic and related control measures, including worsened food security). Information on excess deaths can inform the ongoing response and provide evidence for additional resource mobilisation.24 Moreover, it may be combined with transmission dynamic modelling to infer the local state of progression of the epidemic.21

In this study, we used a novel method based on analysis of satellite imagery to remotely estimate excess mortality during a COVID-19 epidemic in Aden, Yemen. Our study had the secondary aim of establishing the method for possible application elsewhere.


Sources

Base mapping data including topography, elevation (contours) and vegetation are sourced from theLIST (Tasmania), NSW Spatial Web Services and VicMap Spatial Data. Mapping is also credit © OpenStreetMap contributors and through the Leaflet Open Source library for interactive maps (see Leaflet).

Google Earth views: Google, CNES/Airbus Data LDEO-Columbia, NSF, NOAA, US Navy, NGA, GEBCO Landsat/Copernicus TerraMetrics.

GIS mapping for this work is provided by QGIS.org, 2020. QGIS Geographic Information System. QGIS Association. http://www.qgis.org

Microsoft Flight Simulator 2020 and Google Earth are used to provide a general perspective on terrain around an aircraft landing area.


3.2 Environmental impact and assessment

From the point of view of the impact over the territory, small reservoirs, usually in activity by decades, also highlight the need for assessments on their degree of safety. This analysis is still at a preliminary stage however, two fundamental problems were immediately revealed:

the increase of hydraulic risk, due to the land use change in the downstream area of the dam (presence of built-up areas).

The surface spillways are always present however, there is a high number of cases in which the structure is not operative because of lack of maintenance. In most of the cases, they have rectangular sections, made with a base slab and vertical walls in reinforced concrete, with dimensions congruent with regulations in force in the 1970s–1980s. In smaller reservoirs one or more elements of reinforced concrete pipes, with a diameter between 500 and 1000 mm, are sometimes used, leading therefore to obstructions of the outflow section. However, the most compelling problem concerns the tendency of owners and managers of reservoirs to implement not technically adequate interventions on the spillway structure (Fig. 3b). These kinds of actions can lead to the complete occlusion of the spillway section (Fig. 3a) and consequent generation of secondary natural or induced spillways, in any case insufficient to maintain safety standards. This problem has a significant impact on the connected hydraulic risk therefore, it has to be examined in detail: at the initial stage a remote survey and check can be organized, but targeted inspections in situ must be foreseen.

Figure 3Surface spillway maintenance status: partially efficient (a), completely obstructed (b).

Figure 4Examples of small reservoirs with densely built-up areas. ©Google Map source: Immagini©2018 TerraMetrics, Dati Cartografici©2018.

A similar consideration can be made for the problem of land use change in downstream areas and for the connected hydraulic risk, as shown in the examples reported in Fig. 4.


Base mapping data including topography, elevation (contours) and vegetation are sourced from theLIST (Tasmania), NSW Spatial Web Services and VicMap Spatial Data. Mapping is also credit © OpenStreetMap contributors and through the Leaflet Open Source library for interactive maps (see Leaflet).

Google Earth views: Google, CNES/Airbus Data LDEO-Columbia, NSF, NOAA, US Navy, NGA, GEBCO Landsat/Copernicus TerraMetrics.

GIS mapping for this work is provided by QGIS.org, 2020. QGIS Geographic Information System. QGIS Association. http://www.qgis.org

Microsoft Flight Simulator 2020 and Google Earth are used to provide a general perspective on terrain around an aircraft landing area.


Foreign Language Abstract Resumen

  1. Recientes evaluaciones del progreso hacia metas de conservación globales han revelado una escasez de indicadores adecuados para evaluar el estado de ecosistemas y su cambio. Asimismo, los responsables de la ordenación y gestión territorial raramente tienen acceso oportuno a mapas requeridos para apoyar la toma de decisiones de rutina. Esta deficiencia se debe parcialmente a la falta de datos adecuados sobre el cambio en el estado de los ecosistemas, debido principalmente al alto nivel de conocimiento técnico requerido para elaborar mapas de ecosistemas usando datos de teledetección.
  2. Hemos desarrollado una aplicación de acceso en línea gratuito de modelaje medioambiental y monitoreo de teledetección, Remote Sensing Monitoring and Assessment Pipeline ( Remap https://remap-app.org) la cual permite que voluntarios, gestores y científicos con poca experiencia en teledetección generen clasificaciones (mapas) de los cambios temporales en la ocupación o el uso de suelo.
  3. Remap requiere únicamente datos espaciales para definir clases (p.ej. tipo de ecosistema), y utiliza el almacenamiento de datos geoespaciales y la capacidad de análisis de Google Earth Engine para asignar clases definidas a pixeles sin datos en un área focal. Los datos de entrenamiento, los cuales pueden ser cargados o anotados interactivamente en Remap , se utilizan en una clasificación estadística con hasta 13 tipos de predictores, los cuales están públicamente disponibles. Remap incluye predictores que son fundamentales para la distribución de los ecosistemas y los tipos de cobertura terrestre. Estos predictores incluyen datos de variables topográficas (p. ej. pendiente, elevación), espectrales (archivos de composiciones de imágenes Landsat) y climáticas (precipitación, temperatura).
  4. La capacidad de Remap para elaborar y exportar mapas clasificados de alta calidad en un corto plazo de tiempo (<10 minutos) representa un avance considerable en las tecnologías de teledetección a nivel mundial, y facilita su aplicación gratuita y accesible. Por lo que Remap puede acelerar el monitoreo del uso y cambio de suelo facilitando el acceso de datos y simplificando la clasificación de ecosistemas usando teledetección. Por ende, Remap apoya la conservación del medioambiente en varios frentes, incluyendo el desarrollo de inventarios de biodiversidad, la identificación de puntos de alta biodiversidad, la conservación espacial de ecosistemas, la documentación cartográfica espacial de perdida de ecosistemas a escalas locales y el apoyo de iniciativas de educación ambiental.

Sources

Base mapping data including topography, elevation (contours) and vegetation are sourced from theLIST (Tasmania), NSW Spatial Web Services and VicMap Spatial Data. Mapping is also credit © OpenStreetMap contributors and through the Leaflet Open Source library for interactive maps (see Leaflet).

Google Earth views: Google, CNES/Airbus Data LDEO-Columbia, NSF, NOAA, US Navy, NGA, GEBCO Landsat/Copernicus TerraMetrics.

GIS mapping for this work is provided by QGIS.org, 2020. QGIS Geographic Information System. QGIS Association. http://www.qgis.org

Microsoft Flight Simulator 2020 and Google Earth are used to provide a general perspective on terrain around an aircraft landing area.


Fundo

Increased residential greenspace (e.g., parks) or greenness (e.g., street trees) has shown to be associated with beneficial health, such as better self-reported health and reduced all-cause and cardiovascular mortality [55]. Research has now progressed to explore potential causal mechanisms. As strong links have been made between physical activity (PA) and numerous health outcomes, particularly for cardiovascular outcomes [59], an important pathway to health may be access to areas in which to engage in PA. Moreover, though still an active research area, exercise specifically undertaken in green areas may enhance the proven benefits of PA [46].

Nevertheless, research on the importance of greenspace for exercise has produced mixed results. Cross-sectional studies relying on self-reported data to assess the relationship between residential greenspace and PA identified positive associations in populations in Australia [2], Canada [35], and the US [52], while other work in Denmark [44], Netherlands [33], and Scotland [37] found no such links. With the emergence of low-cost GPS-equipped sensors and devices [32], researchers can now better track objective measures of PA and actual greenspace use, though these studies too have found equivocal results: the amount of residential greenspace was related to higher levels of overall moderate to vigorous PA (MVPA) [23], but in another study, associations were found only with PA when undertaken within green areas (i.e., not overall PA) [53].

Recommendations from agencies, including the World Health Organization (WHO), prescribe a minimum weekly dose of 150 min of moderate intensity or 75 min of vigorous PA, yet a recent global survey found over a quarter of individuals were not achieving these salubrious levels [18]. Though greenspace may help promote active travel and facilitate outdoor PA, for example, through appealing tree-lined streets or accessible parks, other neighbourhood attributes, such as overall walkability (e.g., street connectivity, population density, mixed use development) and access to services, have been found to be more important [14, 22]. Even if a positive link with greenspace is established, a further complicating factor is that self-selection may bias findings if healthier individuals choose to live in greener areas with more options for outdoor exercise [10] if present, this bias would result in exaggerated health benefits of greenspace.

Our study explored two distinct research questions to advance our understanding of the association of greenspace and PA within the built environment: 1) whether the availability of residential greenspace is associated with increased MVPA and 2) whether individuals choose routes with on average higher greenspace levels for longer/more active journeys. In addition, for the second question, we also assessed the greenspace associations separately for walking and cycling trips.


Acknowledgements

Discussions with M. Futter, B. Obrador and C. Gudasz improved the manuscript. A. M. Kellerman commented on an early version of the manuscript. We thank B. Koehler for the data set on litter decay. We thank J. Schewe for his assistance with the interpretation of runoff change maps. The study was funded by grants from the Swedish Research Council, the Swedish Research Council for Environment, Agricultural Sciences and Spatial Planning (FORMAS) and the Knut and Alice Wallenberg Foundation to L.J.T. N.C. holds a Wenner-Gren foundation post-doctoral fellowship (2014–2016, Sweden). The participation of R.M. was supported by project REMEDIATION (CGL2014-57215-C4-2-R), funded by the Spanish Ministry of Economy and Competitiveness.