Más

¿Importar imágenes aéreas de Google a QGIS?

¿Importar imágenes aéreas de Google a QGIS?


QGIS 2.6.1, Windows 7

Estoy buscando importar una imagen de Google Earth a un proyecto QGIS existente. ¿Es posible descargar imágenes con referencias geográficas de Google Maps (o Google Earth) e importarlas a QGIS? ¿En qué CRS es probable que se encuentren?


Hay un complemento que resolverá esto por usted llamado el complemento OpenLayers que le permite agregar mapas base de Google, Bing y MapQuest a su proyecto. Con respecto al CRS, consulte esta respuesta: ¿Por qué la capa de satélite de Google cambia el CRS del proyecto? (También puede usar la reproyección sobre la marcha para ayudar con esto)

También tenga en cuenta que existen limitaciones de licencia para las imágenes de Google dependiendo de cómo planee usarlas.


Con QGIS 3.0 puede agregarlo como un Azulejo XYZ. Se puede encontrar una lista de servicios en la página NextGIS QMS (del complemento QuickMapServices de QGIS 2.8). Solo configurar Nombre, URL, Min. Nivel del zoom y Max. Nivel del zoom:


Es posible que desee utilizar el complemento Openlayers, que incluye imágenes de Google Satellite.


También hay un complemento simple llamado Tile +. Este complemento proporciona un mapa base popular como OSM, Bing, ESRI, Google, Stamen y también algunos datos terrestres actualizados como la tasa de lluvia, la visibilidad de la tierra, la temperatura de la superficie del mar, etc. Este complemento permite al usuario cargar el mapa base fácilmente en QGIS 3.


¿Importar imágenes aéreas de Google a QGIS? - Sistemas de Información Geográfica

Se ha demostrado que las imágenes de drones tienen un valor creciente en el seguimiento y análisis de diferentes tipos de procesos relacionados con la agricultura y la silvicultura. En las tareas de seguimiento y observación a largo plazo, se producen y almacenan grandes cantidades de datos de imágenes. Los conjuntos de datos de imágenes de drones ambientales pueden tener un valor más allá de los estudios que produjeron los datos. Una colección de conjuntos de datos de imágenes de varios productores de datos puede, por ejemplo, proporcionar una entrada de entrenamiento más diversa para un modelo de aprendizaje automático para la clasificación de la vegetación, en comparación con un único conjunto de datos limitado en tiempo y ubicación. Para garantizar una investigación reproducible, los datos de investigación, como los conjuntos de datos de imágenes, deben publicarse en forma utilizable y no degradada, con suficientes metadatos. Se recomienda el almacenamiento oportuno en un repositorio de datos de investigación estable, para evitar la pérdida de datos. Este trabajo presenta conjuntos de datos de investigación de imágenes de drones 2020 adquiridas de sitios de investigación agrícola y forestal de la Universidad de Ciencias Aplicadas de Häme y de las áreas urbanas de Hämeenlinna. Las imágenes que no contienen datos personales están disponibles gratuitamente bajo una licencia Creative Commons Attribution. En el caso de imágenes que contienen datos personales, como imágenes de casas privadas, es posible que en el futuro sean posibles formas de intercambio de datos que preserven la privacidad.

Introducción

El desarrollo de las tecnologías de digitalización y medición en las últimas décadas ha permitido que los dispositivos y sensores digitales produzcan enormes cantidades de datos que tienen un gran potencial para optimizar los procesos relacionados con las cadenas de producción o la producción de servicios. En el campo de la bioeconomía, los principales procesos productivos están relacionados con la producción de alimentos y biomasa. La digitalización brinda una amplia variedad de oportunidades para respaldar, administrar y monitorear la producción en función de los datos recopilados en el campo.

La recopilación y el análisis de datos basados ​​en imágenes ofrecen un enorme potencial para respaldar estos objetivos. Los datos visuales recopilados de los campos agrícolas permiten realizar tareas de análisis automatizadas y pueden proporcionar información en tiempo real sobre el estado de la producción. Para adquirir la información visual adecuada, existen básicamente dos alternativas diferentes: la teledetección basada en imágenes de satélite y la imagen de drones (es decir, vehículos aéreos no tripulados, UAV). En este trabajo, los principales campos de aplicación estudiados son la agricultura, la silvicultura y los huertos urbanos privados, en los cuales las imágenes de teledetección pueden tener diferentes propósitos.

Las tecnologías de agricultura de precisión tienen como objetivo optimizar el uso de insumos agrícolas tanto espacial como temporalmente para mejorar los resultados económicos y reducir los impactos ambientales de la agricultura. En la agricultura de precisión, un campo se considera una entidad heterogénea con topografía variable, propiedades del suelo, infestación de malezas y potencial de rendimiento, por lo que las prácticas de manejo se adaptan espacial y temporalmente (Finger et al., 2019). Por lo tanto, la agricultura de precisión se basa en gran medida en la detección específica del sitio de las variables que son esenciales para las decisiones de gestión. Las técnicas de georreferenciación y la cartografía espacial son elementos importantes en la agricultura de precisión. La información espacial se puede recopilar con escáneres montados en tractores (Pallatino et al., 2019) o utilizando imágenes satelitales (Segarra et al., 2020).

Además, los drones se han utilizado cada vez más para recopilar datos sobre varias características relevantes para la agricultura de precisión (Tsouros et al., 2019). En comparación con la teledetección basada en satélites, la tecnología de drones puede producir imágenes con una resolución espacial considerablemente más alta en el rango de centímetros. Además, el usuario puede decidir la resolución temporal de las imágenes basadas en drones, lo que genera flexibilidad en comparación con los datos satelitales. Los drones también se han utilizado con fines de investigación en el seguimiento de experimentos de campo (Viljanen et al., 2018, Dehkordi et al., 2020). El monitoreo no destructivo de la vegetación es un beneficio importante tanto para la agronomía práctica como para el uso en investigación. Las imágenes aéreas de drones se han utilizado en una amplia gama de aplicaciones agrícolas.

Algunas de las aplicaciones más comunes de las imágenes de drones en la agricultura de precisión son el mapeo y el manejo de malezas, el monitoreo del crecimiento de la vegetación y la estimación del rendimiento, el monitoreo de la salud de la vegetación y el manejo del riego (Tsouros et al., 2019). Las imágenes se han utilizado para monitorear muchos rasgos de la vegetación, por ejemplo, la cantidad de biomasa (ten Harkel et al., 2020), el estado del nitrógeno (Caturegli et al., 2016), la humedad y el estado de estrés hídrico de la planta (Hoffmann et al., 2016) , temperatura (Sagan et al., 2019) y varios índices de vegetación (Viljanen et al., 2018). La predicción del rendimiento de los cultivos basada en el aprendizaje profundo a partir de imágenes aéreas de drones también ha mostrado resultados prometedores (Nevavuori et al., 2019, Nevavuori et al., 2020).

En el campo de la silvicultura, los métodos fotogramétricos basados ​​en drones se pueden utilizar de varias formas diferentes. Los métodos utilizados pueden proporcionar datos de inventario forestal general que se centran en variables comunes de los rodales, como el volumen y la altura (Tuominen et al., 2017). La planificación forestal práctica en Finlandia basada en datos fotogramétricos recopilados por drones está avanzando rápidamente y actualmente se está probando. Los drones han demostrado ser especialmente útiles en la detección e inventario de varias áreas de daños forestales, como las áreas de viento (Mokros et al., 2017, Panagiotidis et al., 2019) y las áreas de brotes de escarabajos de la corteza (Näsi et al., 2015, Briechle et al. ., 2020). Los drones se han utilizado con éxito en diversas tareas de prevención y extinción de incendios forestales durante varios años (Ollero et al., 2006, Akhloufi et al., 2020). La creciente demanda para salvaguardar la biodiversidad forestal también ha alentado el uso de métodos basados ​​en fotogrametría. Estos métodos han demostrado ser una herramienta de inventario útil, cuando factores estructurales importantes como especies clave como el álamo temblón (Viinikka et al., 2020), árboles muertos en pie (Briechle et al., 2020) o desechos leñosos gruesos (Thiel et al., 2020). ., 2020) se encuentran en un paisaje forestal.

En el área de la jardinería urbana privada, las imágenes basadas en drones pueden proporcionar nuevos enfoques para monitorear los efectos de las prácticas de jardinería en la vegetación y en el secuestro de carbono. En áreas de viviendas de baja densidad, el patrón de cobertura de la superficie es típicamente muy diverso, y consta de numerosas parcelas y jardines individuales. Los propietarios remodelan y modifican los jardines domésticos privados según sus preferencias personales y prácticas de jardinería individuales. El papel y el significado de la vegetación y las prácticas de jardinería varían, lo que resulta en variaciones de parcela a parcela en el secuestro de carbono y la evapotranspiración, lo que afecta la gestión de las aguas pluviales y el grado de reducción del fenómeno de las islas de calor urbano. Los enfoques del desarrollo urbano sostenible han puesto un interés creciente en las áreas de viviendas de baja densidad que cubren grandes áreas en las ciudades. Una sola trama no es el foco principal, sino la entidad que forman juntos. Esto plantea el desafío de encontrar métodos adecuados para estudiar fácilmente los cambios en curso a múltiples escalas para proporcionar datos tanto sobre la calidad como sobre la cantidad de vegetación. Las opciones y los elementos de escala de parcela y bloque definen los atributos de escala del área de vivienda.

Este artículo describe la adquisición de imágenes aéreas relacionadas con el monitoreo de la vegetación por parte de la Universidad de Ciencias Aplicadas de Häme (HAMK) utilizando drones, en 2020, tanto los procesos como las experiencias adquiridas. Aparte de los datos de imágenes, la investigación principal en tres áreas se publicará por separado. En total, aproximadamente 200.000 archivos de imágenes, de aproximadamente 1 TB de tamaño, están en proceso de publicación abierta (ver Disponibilidad de datos). Las características particulares de los conjuntos de datos presentados incluyen los archivos de imágenes originales, utilizando una cámara multiespectral, y que uno de los sitios de investigación, el campo de biocarbón Mustiala, fue fotografiado varias veces durante la temporada de crecimiento con algunas imágenes satelitales casi simultáneas disponibles de fuentes públicas. Según una búsqueda realizada por los autores mediante la búsqueda de conjuntos de datos de Google (https://datasetsearch.research.google.com/) en el momento de redactar este artículo, los conjuntos de datos de imágenes aéreas de drones están aumentando rápidamente en número, pero normalmente son órdenes de magnitud más pequeños que los Los conjuntos de datos presentados en este trabajo y por lo general no incluyen los archivos de imagen originales, aunque pueden estar disponibles a pedido. En este artículo, también discutimos los beneficios y desafíos de publicar conjuntos de datos de imágenes de drones.

Se recopilaron conjuntos de datos de imágenes aéreas de drones de varios sitios en Kanta-Häme, en el sur de Finlandia. En este trabajo se presentan tres de los sitios (Fig. 1).

Figura 1. Ubicaciones de los sitios de investigación (puntos blancos) en Finlandia.

  1. Campo de biocarbón Mustiala(Figura 6) se encuentra en la granja educativa y de investigación Mustiala de la Universidad de Ciencias Aplicadas de Häme, en Tammela (60 ° 49 ’N, 23 ° 45 ’24’ ’E). El experimento de biocarbón consta de 10 parcelas adyacentes, cada una de 10 m × 100 m (1000 m²) y con un área total de 1 ha. Se aplicó enmienda de suelo de biocarbón en cinco de las parcelas a una tasa de aprox. 20 t / ha. Las otras cinco parcelas fueron tratamientos de control sin enmienda de biocarbón. Los puntos de control del suelo (GCP) se colocaron cubriendo el campo en un patrón de cara 5 del dado de aproximadamente 100 m × 100 m (ver Fig. 6). Los GCP eran recortes de tamaño de 29 cm × 29 cm en negro y amarillo 2x2 estilo tablero de ajedrez de impresiones A3. Fueron georreferenciados con la ayuda de un receptor GPS portátil Trimble Geo 7X (H-Star) con cinemática en tiempo real (RTK).
  2. Evo bosque viejo (Fig. 3) consta de siete rodales separados, todos ubicados en el bosque estatal de Evo. Los rodales, con una superficie conjunta de 160 ha, están dominados por abetos maduros de Noruega (Picea abies) con un rango de edad de 80-120 años. Todos los rodales tienen una cantidad bastante alta de árboles muertos en pie, que se sabe que son importantes para la biodiversidad, por ejemplo, para las aves que anidan en cavidades. Los árboles muertos en pie se catalogaron en 2019-2020 para que funcionen como datos de referencia para los métodos fotogramétricos.
  3. Huertos urbanos privados de Hämeenlinnaconsisten en aproximadamente 5-10 huertos domésticos en las áreas urbanas escasamente pobladas de Hämeenlinna.

Figura 2. El calendario de la misión de imágenes de 2020 para los sitios de investigación, con la carga útil de la cámara indicada.

El dron utilizado en todas las misiones de imágenes fue un dron con cámara quadcopter DJI Matrice 210 RTK V2. La carga útil de la cámara para cada misión se seleccionó (ver Fig.2) de las siguientes cámaras:

  1. DJI ZenMuse X5S FC6520 - una cámara RGB estabilizada por cardán de 3 ejes con una lente de distancia focal de 15 mm, operada en modo fijo sRGB JPEG, versión de software 01.07.0044,
  2. DJI ZenMuse XT2(radiométrico)- una cámara estabilizada por cardán de 3 ejes con una lente de distancia focal de 13 mm para el sensor térmico operada en modo JPEG radiométrico, y una lente de distancia focal de 8 mm para el sensor RGB, versión de software 06.02.20, y
  3. Micasense Altum - una cámara radiométrica multiespectral con óptica dedicada para cada canal, temporizada y disparada por separado de las otras cámaras, versión de software 1.3.6, con sensor de luz solar DLS2.

Los vuelos se planificaron en el software Dji Pilot. Los parámetros de vuelo se especificaron como los más adecuados para el entorno actual, las condiciones de luz y meteorológicas, el tamaño del área y el tipo de cámara. Los parámetros de vuelo para el bosque antiguo de Evo fueron los siguientes: altitud 120 m sobre el suelo, superposición lateral 80%, superposición frontal 80%, velocidad 3-5 m / s, modo de disparo de la cámara: intervalo de tiempo. Para el campo de biocarbón de Mustiala, se utilizaron principalmente los siguientes parámetros: altitud 80 m, superposición lateral 85%, superposición frontal 83% y velocidad 2-3 m / s. Se tomaron imágenes del campo varias veces durante la temporada de crecimiento, utilizando parámetros idénticos. Para los jardines urbanos privados de Hämeenlinna, los parámetros de vuelo fueron los siguientes: altitud 50 m, superposición lateral 85%, superposición frontal 85% y velocidad 3 m / s. Cuando se usaron cámaras simultáneamente, se especificó la superposición para el Micasense Altum, lo que resultó en una superposición más alta para otras cámaras. Los vuelos se programaron (Fig.2) entre las 11.00 y las 15.00 horas (UTC + 3), de mayo a agosto de 2020.

Las cámaras de cardán DJI apuntaban al nadir, es decir, hacia abajo, y se activaban sincrónicamente mediante el software DJI Pilot. El Micasense Altum se activó con su propio temporizador y apuntó directamente hacia abajo en el sistema de coordenadas internas del dron. Las imágenes Micasense Altum de un panel de reflectancia calibrado Micasense (Fig. 5) se tomaron antes o después de cada misión de obtención de imágenes, o ambos. Se utilizó una estación RTK virtual Geotrim Trimnet VRS, mientras que las cámaras DJI recibieron información GPS RTK del dron. El Micasense Altum utilizó su propio receptor GPS.

Para las figuras utilizadas en este artículo, se utilizó Agisoft Metashape Professional versión 1.7.0 (Agisoft 2020a) para corregir el color de las imágenes de Micasense Altum y generar un ortomosaico del campo de biocarbón de Mustiala utilizando el flujo de trabajo descrito en Agisoft (2020b), sin el uso de puntos de control en tierra. Para las Figuras 5 y 7, se exportaron fotos individuales de Micasense Altum de la misión de campo de biocarbono Mustiala con fecha 2020-05-22, 10: 00-12: 00 (UTC), en forma calibrada de Agisoft MetaShape, y sus colores azul, verde y Los canales espectrales rojos se apilaron (alinearon) en Adobe PhotoShop versión 21.2.4 con corrección de distorsión. Las imágenes de radiancia y reflectancia de Micasense Altum (Figs.4-7) y la imagen de satélite Sentinel-2 de la Figura 6 se convirtieron al espacio de color sRGB en GIMP versión 2.10.18 asignando un perfil de color sRGB gamma = 1, ajustando el brillo en la herramienta de curvas usando una rampa lineal que cruza el origen, y convirtiendo al perfil de color sRGB usando una intención de reproducción colorimétrica relativa. Las ilustraciones geográficas se realizaron en QGIS versión 3.12.2 (QGIS Development Team 2020).

Para una comparación con las imágenes aéreas, se seleccionó manualmente una imagen satelital Sentinel-2 (Fig.6) del campo de biocarbón de Mustiala y se recuperó del Copernicus Open Access Hub (Copernicus Sentinel Data 2020) para un día sin nubes que coincidió con una misión de imágenes de drones el 2020-05-22. Para la Figura 7, la segmentación de imágenes de aprendizaje automático de las imágenes del espacio de color sRGB en una resolución de 0,1 m / píxel se realizó utilizando el modelo U-Net de referencia de segmentación aérea de DroneDeploy "keras baseline" ejecutado gg1z3jjr por Stacey Svetlichnaya (DroneDeploy 2019), utilizando un tamaño de mosaico de 300 × 300 píxeles.

Los datos de ubicación de GCP y la mayoría de las imágenes aéreas adquiridas se ponen a disposición del público, consulte la sección Disponibilidad de datos. La Figura 3 muestra las ubicaciones de las cámaras para todas las imágenes individuales tomadas durante las misiones de imágenes de bosques antiguos de Evo. La Figura 4 muestra una imagen de muestra de cada cámara de una misión de imágenes de campo de biocarbón de Mustiala el 22/05/2020. Antes de ese vuelo, se tomó una imagen del panel de reflectancia calibrado (Fig. 5). Las imágenes casi simultáneas de drones y satélites de ese día se muestran para comparar en la Figura 6. Una sola imagen y un ortomosaico construido a partir de múltiples imágenes se presentan para su comparación en la Figura 7, junto con su segmentación de imágenes de aprendizaje automático. Para el campo de biocarbón de Mustiala, la ubicación de los GCP se resolvió con una precisión horizontal y vertical de 0,1 m, como se informa en el shapefile del receptor GPS RTK portátil.

Figura 3. Evo antiguos sitios de investigación forestal (áreas coloreadas) y ubicaciones GPS de cámara de imágenes de drones individuales (puntos negros). Algunas imágenes de Micasense Altum se tomaron en el camino hacia o desde el lugar de despegue y aterrizaje debido a la falta de comunicación entre drones y cámaras. (Mapa: Base de datos topográfica del Servicio Nacional de Tierras de Finlandia 01/2021.)

Figura 4. Imágenes de dron de muestra sin calibrar del campo de biocarbón de Mustiala, capturadas con el dron volando a una altitud de 80 m del suelo. Las imágenes del canal espectral Micasense Altum son (de izquierda a derecha): azul, verde, rojo, infrarrojo cercano, borde rojo y térmico. Las imágenes de DJI XT2 se obtuvieron en un vuelo separado y son visibles (izquierda) y térmicas (derecha).

Figura 5. Un panel de reflectancia calibrado (Micasense) colocado en el campo de biochar de Mustiala, fotografiado de forma manual usando la cámara multiespectral Micasense Altum.

Figura 6. El campo de biochar de Mustiala el 22-05-2020. Izquierda: Ortomosaico de un dron de 4 cm de resolución, una vista artificial hacia abajo, hecha de imágenes de la cámara multiespectral Micasense Altum sin el uso de puntos de control terrestre (GCP), tiempo de adquisición de 10:20 a 10:27 (UTC). El error de geolocalización de los GCP fue de 0,8 m como máximo. Derecha: Imagen de reflectancia corregida en el fondo de la atmósfera del satélite Sentinel-2 con resolución de 10 m (Copernicus Sentinel Data 2020), hora de adquisición 09:50 (UTC).

Figura 7. Una sola imagen de un dron (arriba a la izquierda) alineada con un ortomosaico de un dron (arriba a la derecha), ambos usando la cámara Micasense Altum. La imagen única muestra los detalles finos de los objetos complejos mejor que el ortomosaico, a costa de no ser una ortoimagen. Usando un modelo de aprendizaje automático U-Net listo para usar entrenado en ortomosaicos (DroneDeploy 2019), las imágenes se segmentaron en clases: suelo (blanco), vegetación (verde), edificio (rojo), agua (naranja) y automóviles. y desorden (no encontrado), superpuestos en la imagen única (abajo a la izquierda) y el ortomosaico (abajo a la derecha).

Discusiones y conclusiones

Encontramos muchos desafíos técnicos durante la recopilación de datos. Los problemas de interoperabilidad entre los drones y los sistemas de cámaras de diferentes fabricantes impidieron que el dron disparara la cámara y etiquetar las imágenes con información GPS RTK de alta precisión. Una posible configuración incorrecta de la zona horaria afectó el sello de tiempo de la imagen. Aunque se generaron registros de vuelo automáticos, fueron insuficientes para responder a todas las preguntas que surgieron en la interpretación posterior de los datos recopilados, lo que resultó en un mayor trabajo en la manipulación de los datos. Sería aconsejable seguir trabajando para complementar los registros automáticos con notas sobre la configuración utilizada y la intención y las acciones del operador.

La selección de los parámetros de vuelo se convirtió en una especie de "arte en sí mismo". La velocidad de vuelo, la altitud, la superposición lateral y frontal, la orientación de la cámara y el modo de disparo influyeron significativamente en los resultados de la imagen. Por ejemplo, la altitud de vuelo requiere un compromiso entre la resolución de la imagen y el tiempo de vuelo. Bajar la altitud aumenta el tiempo de vuelo, lo que se acompaña de un posible agotamiento de la batería en vuelo, lo que complica el uso posterior de las imágenes con escenas más dinámicas.

Para aplicaciones fotométricas, las condiciones de luz que cambian rápidamente pueden ser un problema incluso para vuelos cortos. Además, el movimiento de la combinación de clima ventoso y vegetación invalida la suposición de una escena estática, realizada, por ejemplo, en una tubería de posprocesamiento que produce una nube de puntos tridimensional estática, ya sea como paso intermedio o como producto final. (Tmušić et al., 2020) ha estudiado y revisado la planificación de imágenes aéreas de drones, que cubre opciones como el ángulo de la cámara y el patrón de vuelo.

Debería prestarse mucha atención al proceso de publicación de datos de investigación de misiones de imágenes aéreas de alta resolución. Los aspectos a considerar incluyen el almacenamiento y la disponibilidad de datos, la compatibilidad del software, los derechos de los productores de datos, los derechos de los posibles interesados, los acuerdos de licencia del software de procesamiento, entre otros.

La publicación abierta de datos de investigación mejora la reproducibilidad de la ciencia y reduce las barreras para participar en la ciencia y utilizar datos y resultados científicos, especialmente para participantes de escasos recursos y representación insuficiente. Para los productores de datos académicos, el creciente reconocimiento de datos como resultado de la investigación (ver la Declaración de San Francisco sobre Evaluación de la Investigación 2012) puede traer incentivos financieros para publicar más ampliamente los datos de investigación. Los incentivos de los patrocinadores de la ciencia se pueden aplicar retroactivamente. Una razón práctica importante para publicar datos de investigación es la posibilidad de que un conjunto de datos pueda tener un enorme valor de utilidad fuera del proyecto de investigación, mucho más allá de la organización que lo produjo. Muchos posibles usos posteriores de los datos no se pueden anticipar en el momento de su creación y recopilación.

No todos los datos de investigación que se publican abiertamente permanecen disponibles. Como ejemplo, Khan et al. (2021) solo pudieron recuperar 94 de 121 conjuntos de datos de imágenes de oftalmología médica de acceso abierto. El almacenamiento de datos de investigación en un repositorio establecido como Zenodo (https://zenodo.org/) ofrece un nivel de garantía de longevidad de los datos. También permite obtener un Identificador de Objeto Digital (DOI) para compartir y citar los datos. Tras una reciente solicitud exitosa de cuota de almacenamiento por parte de HAMK, los conjuntos de datos de imágenes presentados en este artículo se almacenan y publican en los servicios de Fairdata, financiados por el Ministerio de Educación y Cultura (Finlandia). La publicación de datos de investigación en un repositorio fuerza de manera efectiva el almacenamiento de los datos junto con los metadatos que describen los datos, la propiedad de los datos y su licencia de uso. La información adicional resuelve muchas ambigüedades al utilizar los datos. Los metadatos estructurados en los repositorios garantizan que el conjunto de datos se indexe en las bases de datos de investigación.

Un repositorio también puede permitir la publicación incremental de datos. Si la publicación de los datos se lleva a cabo de esta manera, ya durante su recopilación en lugar de al final de un proyecto de investigación, entonces el uso y la cita de los datos fuera de la organización productora de datos puede comenzar mucho antes. La publicación acelerada también garantiza que los datos o la información de interés no se pierdan durante el proyecto o cuando el personal abandona el proyecto. Los productores de datos académicos suelen tener interés en la publicación prioritaria de su investigación. Es menos probable que la publicación temprana de datos de investigación de uso general, como los conjuntos de datos de imágenes presentados en este artículo, entre en conflicto con ese interés, en comparación con la publicación abierta temprana de todos los datos vitales para la publicación principal.

Es probable que los datos de ubicación de una imagen u otra información sobre una persona u objeto que pueda asociarse con una persona, ya sea directamente o utilizando información adicional, se consideren como "datos personales" según el Reglamento general de protección de datos (GDPR) de la UE. Ejemplos de tales objetos en imágenes aéreas incluyen vehículos, terrenos y edificios administrados por una persona privada o por su familia. GDPR requiere que antes de que los datos personales puedan manejarse con un propósito, se debe obtener el consentimiento voluntario del interesado para ese propósito. El interesado también tiene derecho al olvido, es decir, a solicitar de forma vinculante que se borren sus datos personales sin demora excesiva. Las leyes nacionales aún pueden permitir la investigación científica legítima que protege la privacidad de los datos. Sin embargo, los derechos de un interesado pueden prohibir la redistribución o la publicación abierta de datos personales bajo una licencia irrevocable, como cualquiera de las licencias populares de Creative Commons, posiblemente incluso cuando un interesado crea proactivamente los datos como libertad de expresión.

El conjunto de datos de imágenes sobre los jardines urbanos privados de Hämeenlinna se recopiló con el consentimiento informado de los interesados, los propietarios. Se consideró necesario depositar los datos de manera totalmente cerrada, al menos por el momento, mientras el panorama legal de los datos personales aún se está desarrollando. La UE ha propuesto una Ley de gobernanza de datos (COM / 2020/767 final) siguiendo una estrategia europea de datos (COM / 2020/66 final). La Ley de Gobernanza de Datos define roles y mecanismos para el intercambio altruista de datos en ecosistemas de datos administrados. Entre otras cosas, la ley tiene como objetivo agilizar el tratamiento de las solicitudes de los usuarios autorizados para acceder a los datos, con la condición de que el interesado haya dado su consentimiento para el tratamiento de los datos para la finalidad solicitada.

Volviendo a nuestro estudio de caso, a diferencia de las imágenes aéreas presentadas capturadas principalmente a 80 m sobre el suelo, las imágenes de un rango más cercano (Fig. 5) permitirían distinguir no solo árboles, sino también plantas pequeñas individuales. Asimismo, sería posible identificar y contar las plantas y analizar sus características físicas (alometría) y sanidad.

Los datos de imágenes de drones se utilizan cada vez más en el aprendizaje automático, como lo demuestra la investigación citada anteriormente en la Introducción. El propósito de un modelo de aprendizaje automático podría ser, por ejemplo, segmentar una imagen de entrada en diferentes etiquetas de clase (Fig. 7). Las máscaras de etiquetas de clase de imágenes de drones podrían convertirse en datos de densidad de clase de verdad terrestre de menor resolución para interpretar imágenes de satélite. En aprendizaje semi-supervisado, también se incluirían imágenes sin etiquetar para ayudar al modelo a capturar mejor la distribución de probabilidad conjunta natural de las imágenes y la segmentación. Dichos usos hacen que los datos no etiquetados de uso general sean valiosos como resultado de la investigación, complementando así la situación actual y el futuro de los datos etiquetados y no etiquetados. El aprendizaje automático también se beneficia de datos más diversos, por ejemplo, de conjuntos de datos de imágenes recopilados en un conjunto de ubicaciones ecológicamente diverso. En tales casos, los macrodatos pueden provenir de muchos datos pequeños.

Los productores de datos pueden tener motivos para no revelar sus datos sin procesar. En tales casos, pueden ser posibles otras formas algo futuristas de compartir información. En aprendizaje federado, los poseedores de datos combinan sus esfuerzos de manera coordinada para entrenar un modelo de aprendizaje automático compartido, sin comunicar sus datos originales. Alternativamente, un modelo generativo podría usarse para recolectar muestras artificiales no privadas de la distribución aproximada de los datos originales, mientras se preserva la privacidad de los puntos de datos originales, generalmente medidos por privacidad diferencial. Dependiendo de la cantidad de datos originales y del grado de privacidad requerido, las muestras generadas pueden tener la calidad suficiente para usarse de manera similar a los datos originales. Para conocer un método generativo de preservación de la privacidad adecuado para imágenes, consulte Chen et al. (2020).

Es posible que el autor de un conjunto de datos que consta de imágenes de drones desee limitar el uso de datos. Es poco probable que una fotografía tomada con fines científicos por un equipo bajo control automático se considere un trabajo creativo y no estaría protegida por derechos de autor como tal. En los Estados Unidos, un conjunto de datos puede tener derechos de autor como compilación si es suficientemente original en la selección, coordinación o disposición, pero los derechos de autor del conjunto de datos no se extienden a ningún elemento de datos que no esté sujeto a derechos de autor (U.S. Copyright Office, 2021). De manera similar, para los autores con sede en la UE, las implementaciones nacionales de la Directiva sobre bases de datos (96/9 / EC) habilitan los derechos de autor de un conjunto de datos como una colección creativa. Independientemente de los derechos de autor, la directiva permite sui generis protección de conjuntos de datos no creativos basados ​​en inversiones sustanciales, con un plazo de protección de 15 años (Comisión Europea, 2018). En cualquier caso, si se realiza un contrato por separado entre el titular del conjunto de datos y su recuperador, las cláusulas vinculantes del contrato pueden limitar la redistribución y el uso del conjunto de datos por parte del recuperador. Por ejemplo, el uso comercial de un conjunto de datos por parte de su recuperador puede estar prohibido.

Dejando de lado los aspectos legales, al recopilar y compartir datos, se debe tener cuidado para garantizar que los datos se entreguen en un formato que conserve la calidad suficiente, preferiblemente en un formato que esté estandarizado abiertamente, es decir, no en un formato específico de software propietario. . Los artefactos de compresión que surgen de métodos de compresión de imágenes con pérdida, como JPEG, pueden interferir con los análisis radiométricos. Por otro lado, en comparación con la compresión con pérdida, la compresión de imágenes sin pérdida da como resultado archivos de imagen significativamente más grandes, lo que aumenta el costo de almacenamiento y transferencia. Los requisitos de espacio de almacenamiento de los conjuntos de datos de imágenes podrían aliviarse un poco recodificando archivos TIFF sin pérdida, utilizando un método sin pérdida más eficiente que el disponible en la cámara. Sin embargo, la reescritura de los archivos de imagen también puede afectar negativamente a los metadatos u otros datos adicionales, lo que reduce la usabilidad de los archivos. Los metadatos del archivo de imagen se pueden restaurar transfiriéndolos desde el archivo original utilizando herramientas como ExifTool y Exiv2. La usabilidad de cualquier archivo original modificado debe probarse al menos en las canalizaciones de procesamiento más probables disponibles. Es posible que sea necesario volver a escribir los archivos de imágenes para enmascarar la información personal.

Para los datos de imágenes geográficas, es importante publicar también metadatos que describan la calidad radiométrica y la precisión de la ubicación. La información sobre los elementos que afectan la iluminación, como las nubes y el sol, así como las imágenes de calibración y los datos del sensor de luz, pueden ser importantes para los futuros usuarios. Se deben describir las canalizaciones de procesamiento y, cuando sea posible, también se debe incluir el código fuente y el entorno de operación o la información. Para obtener más información sobre los datos de garantía de calidad y otros metadatos importantes, consulte Aasen et al. (2018) y Tmušić et al. (2020).

Los conjuntos de datos de imágenes presentados en este trabajo consisten principalmente en imágenes sin procesar directamente de las cámaras. La publicación de los datos sin procesar sin embargo también se convirtió en una forma eficaz de distribuir los datos dentro de la organización HAMK, así como fuera de ella. Otro motivo detrás de la decisión de publicar no solo productos de datos posprocesados, sino también datos primarios sin procesar, fue que los usuarios de datos podrían desear aplicar sus propios canales de procesamiento para garantizar un procesamiento uniforme de todos sus datos de entrada. Un ejemplo de un producto de datos es un ortomosaico (Fig. 6), que es fácil de usar en varias aplicaciones y valioso para proporcionar una descripción visual de los datos. Como se demuestra en la Figura 7, la claridad visual de un ortomosaico podría no ser tan alta como la del material de origen, las imágenes individuales, con diferencias que afectan el etiquetado de un modelo de aprendizaje automático. En el futuro, las nuevas canalizaciones de fotogrametría probablemente darán como resultado productos de datos de mayor calidad de lo que se puede lograr con las herramientas actuales, si los datos sin procesar aún están disponibles.

Disponibilidad de datos

Los conjuntos de datos de imágenes agrícolas y forestales recopilados están en proceso de ser publicados gradualmente bajo la licencia de acceso abierto Creative Commons by Attribution 4.0 International (CC-BY 4.0), y están disponibles para su descarga en (Universidad de Ciencias Aplicadas de Häme, 2021a https: / /doi.org/10.23729/895dfb4d-9a14-41cc-a624-727375275631 and 2021b https://doi.org/10.23729/d083d6ad-aa68-4826-8792-7a169e2d2dd9). The Hämeenlinna private urban gardens drone image dataset (Häme University of Applied Sciences 2121c) has restricted access due to personal data content. Other associated data such as calibration data and GCP coordinates are published with the datasets.

Acknowledgements

This research is part of a Carbon 4.0 research project that has been funded by the Ministry of Education and Culture (Finland). The authors wish to thank Olli Nevalainen and the anonymous reviewers for their feedback, and Roman Tsypin for computation of the image segmentation in Figure 7.

Aasen, H., Honkavaara, E., Lucieer, A., & Zarco-Tejada P.J. 2018. Quantitative Remote Sensing at Ultra-High Resolution with UAV Spectroscopy: A Review of Sensor Technology, Measurement Procedures, and Data Correction Workflows. Remote Sensing. 10(7): 1091. DOI: 10.3390/rs10071091

Agisoft 2020a. Agisoft MetaShape Professional (Version 1.7.0) (Software). http://www.agisoft.com/downloads/installer/.

Akhloufi, M., Castro, N., & Couturier, A. 2020. Unmanned Aerial Systems for Wildland and Forest Fires: Sensing, Perception, Cooperation and Assistance. arXiv:2004.13883 [cs.RO]. Drones, 5(1): 15. DOI: 10.3390/drones5010015

Briechle, S., Krzystek, P., & Vosselman, G. 2020. Classification of tree species and standing dead trees by fusing UAV-based lidar data and multispectral imagery in the 3D deep neural network PointNet++. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2: 203-210. DOI: doi.org/10.5194/isprs-annals-v-2-2020-203-2020

Carlini N., Tramer F., Wallace E., Jagielski M., Herbert-Voss A., Lee K., Roberts A., Brown T., Song D., Erlingsson U., Oprea A., & Raffel C. 2020. Extracting Training Data from Large Language Models. DOI: arXiv:2012.07805 [cs.CR].

Caturegli, L., Corniglia, M., Gaetani, M., Grossi, N., Magni, S., Migliazzi, M., Angelini, L., Mazzoncini, M., Silvestri, N., Fontanelli, M. & Raffaelli, M. 2016. Unmanned aerial vehicle to estimate nitrogen status of turfgrasses. Plos One, 11(6): 0158268. DOI: 10.1371/journal.pone.0158268

Chen, D., Orekondy, T., Fritz, M. 2020. Gs-wgan: A gradient-sanitized approach for learning differentially private generators. DOI: arXiv:2006.08265 [cs.LG]

Dehkordi, R.H., Denis, A., Fouche, J., Burgeon, V., Cornelis, J.T., Tychon, B., Gomez, E.P., Meersmans, J. 2020. Remotely-sensed assessment of the impact of century-old biochar on chicory crop growth using high-resolution UAV-based imagery. International Journal of Applied Earth Observation and Geoinformation, 91: 102147. DOI: 10.1016/j.jag.2020.102147

Finger, R., Swinton, S.M., El Benni, N., Walter, A. 2019. Precision Farming at the Nexus of Agricultural Production and the Environment. Annual Review of Resource Economics, 11(1): 313-335. DOI: 10.1146/annurev-resource-100518-093929

ten Harkel, J., Bartholomeus, H., Kooistra, L. 2020. Biomass and Crop Height Estimation of Different Crops Using UAV-Based Lidar. Remote Sensing, 12(1): 17. DOI: /10.3390/rs12010017

Hoffmann, H., Jensen, R., Thomsen, A., Nieto, H., Rasmussen, J., & Friborg, T. 2016. Crop water stress maps for an entire growing season from visible and thermal UAV imagery. Biogeosciences, 13(24): 6545-6563. DOI: /10.5194/bg-13-6545-2016

Häme University of Applied Sciences 2021a. Drone image dataset: Evo old forest 2020. https://doi.org/10.23729/895dfb4d-9a14-41cc-a624-727375275631

Häme University of Applied Sciences 2021b. Drone image dataset: Mustiala biochar field 2020. https://doi.org/10.23729/d083d6ad-aa68-4826-8792-7a169e2d2dd9

Häme University of Applied Sciences 2021c. Drone image dataset: Hämeenlinna private urban gardens 2020. https://doi.org/10.23729/0b8dba76-0e7f-48ad-9979-462ed9d49021

Khan, S.M., Liu, X., Nath, S., Korot, E., Faes, L., Wagner, S.K., Keane, P.A., Sebire, N.J., Burton M.J, Denniston, A.K. 2020. A global review of publicly available datasets for ophthalmological imaging: barriers to access, usability, and generalisability. The Lancet Digital Health, 3 (1): e51-e66. DOI: 10.1016/s2589-7500(20)30240-5

Mokros, M., Výbošťok, J., Merganič, J., Hollaus, M., Barton, I., Koreň, M., Tomaštík, J., Čerňava, J. 2017. Early Stage Forest Windthrow Estimation Based on Unmanned Aircraft System Imagery. Forests, 8(9): 306. DOI: 10.3390/f8090306

Nevavuori, P., Narra, N., Lipping, T. 2019. Crop yield prediction with deep convolutional neural networks. Computers and electronics in agriculture, 163: 104859. DOI: //doi.org/10.1016/j.compag.2019.104859

Nevavuori, P., Narra, N., Linna, P., & Lipping, T. 2020. Crop Yield Prediction Using Multitemporal UAV Data and Spatio-Temporal Deep Learning Models. Remote Sensing, 12(23): 4000. DOI: 10.3390/rs12234000

Näsi, R., Honkavaara, E., Lyytikäinen-Saarenmaa, P., Blomqvist, M., Litkey, P., Hakala, T., Viljanen, N., Kantola, T., Tanhuanpää, T.-M., Holopainen, M. 2015. Using UAV-based photogrammetry and hyperspectral imaging for mapping bark beetle damage at tree-level. Sensores remotos, 7(11): 15467-15493. DOI: 10.3390/rs71115467

Ollero, A. and Merino, L., 2006. Unmanned aerial vehicles as tools for forest-fire fighting. Forest Ecology and Management, 234(1): S263. DOI: 10.1016/j.foreco.2006.08.292

Panagiotidis, D., Abdollahnejad, A., Surový, P. and Kuželka, K., 2019. Detection of fallen logs from high-resolution UAV Images. New Zealand Journal of Forestry Science, 49. DOI: 10.33494/nzjfs492019x26x

QGIS Development Team (2020). QGIS Geographic Information System. Open Source Geospatial Foundation Project. http://qgis.osgeo.org

Sagan, V., Maimaitijiang, M., Sidike, P., Eblimit, K., Peterson, K.T., Hartling, S., Esposito, F., Khanal, K., Newcomb, M., Pauli, D., Ward, R., 2019. UAV-based high resolution thermal imaging for vegetation monitoring, and plant phenotyping using ICI 8640 P, FLIR Vue Pro R 640, and thermomap cameras. Remote Sensing, 11(3): 330. DOI: 10.3390/rs11030330

San Francisco Declaration on Research Assessment. 2012. https://sfdora.org/read/

Segarra, J., Buchaillot, M.L., Araus, J.L., Kefauver, S.C. 2020. Remote sensing for precision agriculture: Sentinel-2 improved features and applications. Agronomy, 10(5): 641. DOI: 10.3390/agronomy10050641

Thiel, C., Mueller, M.M., Epple, L., Thau, C., Hese, S., Voltersen, M., & Henkel, A., 2020. UAS Imagery-Based Mapping of Coarse Wood Debris in a Natural Deciduous Forest in Central Germany (Hainich National Park). Remote Sensing, 12(20): 3293. DOI: 10.3390/rs12203293

Tmušić G., Manfreda S., Aasen H., James M.R., Gonçalves G., Ben-Dor E., Brook A., Polinova M., Arranz J.J., Mészáros J., Zhuang R., Johansen K., Malbeteau Y., de Lima M. .I. P., Davids C., Herban S. and McCabe M. F. 2020. Current Practices in UAS-based Environmental Monitoring. Remote Sens. 12(6): 1001. DOI: https://doi.org/10.3390/rs12061001

Tsouros, D.C., Bibi, S., Sarigiannidis, P.G. 2019. A review on UAV-based applications for precision agriculture. Information, 10(11): 349.

Tuominen, S., Balazs, A., Honkavaara, E., Pölönen, I., Saari, H., Hakala, T. and Viljanen, N., 2017. Hyperspectral UAV-imagery and photogrammetric canopy height model in estimating forest stand variables. Silva Fennica, 51(5). Doi: 10.14214/sf.7721

U.S. Copyright Office. 2020. Compendium of U.S. Copyright Office Practices § 101 (3d ed.), Chapter 500 & Chapter 600. https://copyright.gov/comp3/

Viinikka, A., Hurskainen, P., Keski-Saari, S., Kivinen, S., Tanhuanpää, T., Mäyrä, J., Poikolainen, L., Vihervaara, P., Kumpula, T. 2020. Detecting European Aspen (Populus tremula L.) in Boreal Forests Using Airborne Hyperspectral and Airborne Laser Scanning Data. Remote Sensing, 12(16): 2610. DOI: 10.3390/rs12162610

Viljanen, N., Honkavaara, E., Näsi, R., Hakala, T., Niemeläinen, O., & Kaivosoja, J. 2018. A Novel Machine Learning Method for Estimating Biomass of Grass Swards Using a Photogrammetric Canopy Height Model, Images and Vegetation Indices Captured by a Drone. Agriculture, 8(5): 70. DOI: 10.3390/agriculture8050070


Introducción

On 10 April 2020, Yemen recorded its first laboratory-confirmed COVID-19 case in the Southern governorate of Hadhramout. By the end of May, cases and deaths had been reported in the governorates of Aden, Taiz, Lahj and Sanaa.1 The pandemic’s impact on Yemen was expected to be severe, despite its comparatively young population.2 3 Transmission models parameterised based on China and Europe evidence initially predicted some 85 000 virus deaths, approaching the number reported killed during the country’s ongoing armed conflict.4–6 Additional risk factors of concern resulting from this 5-year protracted crisis included disrupted health services (only half of pre-existing health facilities were fully functional as of early 2020), shortage of health workers, overcrowding due to internal displacement, food insecurity and shrinking humanitarian aid.3 5 7–9

During May 2020, videos posted on social media showing large numbers of fresh graves suggested a spike in burial activity across several Yemeni governorates including Sana’a, Aden, Ibb and Al Bayda.10–12 In the southern city of Aden, the use of mechanical excavators in place of human gravediggers suggested that demand exceeded routine capacity.13 14 The medical organisation Médecins sans Frontières also reported a peak in hospital admissions, with a high case–fatality ratio in Aden during the same period.10 Separately, a shortage of personal protective equipment forced several hospitals to close or reject patients exhibiting COVID-19 symptoms.3 12 15

As of 9 October 2020, Yemen had reported 2049 confirmed SARS-CoV-2 infections with 593 deaths,16 but the reliability of these official numbers is undermined by low testing capability.17 18 A high COVID-19 case–fatality ratio (28.9%) is indicative of case underascertainment.19 20 The virus could thus be circulating undetected and unmitigated within communities, and the true mortality figures could be far higher than reported, as suggested elsewhere.21–23 Moreover, in Yemen’s protracted crisis, an epidemic could result in increased population mortality both directly (from SARS-CoV-2 infection) and indirectly (due to reduced access to healthcare, lack of healthcare workers and/or medical supplies, and/or the socioeconomic costs of the pandemic and related control measures, including worsened food security). Information on excess deaths can inform the ongoing response and provide evidence for additional resource mobilisation.24 Moreover, it may be combined with transmission dynamic modelling to infer the local state of progression of the epidemic.21

In this study, we used a novel method based on analysis of satellite imagery to remotely estimate excess mortality during a COVID-19 epidemic in Aden, Yemen. Our study had the secondary aim of establishing the method for possible application elsewhere.


Sources

Base mapping data including topography, elevation (contours) and vegetation are sourced from theLIST (Tasmania), NSW Spatial Web Services and VicMap Spatial Data. Mapping is also credit © OpenStreetMap contributors and through the Leaflet Open Source library for interactive maps (see Leaflet).

Google Earth views: Google, CNES/Airbus Data LDEO-Columbia, NSF, NOAA, US Navy, NGA, GEBCO Landsat/Copernicus TerraMetrics.

GIS mapping for this work is provided by QGIS.org, 2020. QGIS Geographic Information System. QGIS Association. http://www.qgis.org

Microsoft Flight Simulator 2020 and Google Earth are used to provide a general perspective on terrain around an aircraft landing area.


3.2 Environmental impact and assessment

From the point of view of the impact over the territory, small reservoirs, usually in activity by decades, also highlight the need for assessments on their degree of safety. This analysis is still at a preliminary stage however, two fundamental problems were immediately revealed:

the increase of hydraulic risk, due to the land use change in the downstream area of the dam (presence of built-up areas).

The surface spillways are always present however, there is a high number of cases in which the structure is not operative because of lack of maintenance. In most of the cases, they have rectangular sections, made with a base slab and vertical walls in reinforced concrete, with dimensions congruent with regulations in force in the 1970s–1980s. In smaller reservoirs one or more elements of reinforced concrete pipes, with a diameter between 500 and 1000 mm, are sometimes used, leading therefore to obstructions of the outflow section. However, the most compelling problem concerns the tendency of owners and managers of reservoirs to implement not technically adequate interventions on the spillway structure (Fig. 3b). These kinds of actions can lead to the complete occlusion of the spillway section (Fig. 3a) and consequent generation of secondary natural or induced spillways, in any case insufficient to maintain safety standards. This problem has a significant impact on the connected hydraulic risk therefore, it has to be examined in detail: at the initial stage a remote survey and check can be organized, but targeted inspections in situ must be foreseen.

Figure 3Surface spillway maintenance status: partially efficient (a), completely obstructed (b).

Figure 4Examples of small reservoirs with densely built-up areas. ©Google Map source: Immagini©2018 TerraMetrics, Dati Cartografici©2018.

A similar consideration can be made for the problem of land use change in downstream areas and for the connected hydraulic risk, as shown in the examples reported in Fig. 4.


Base mapping data including topography, elevation (contours) and vegetation are sourced from theLIST (Tasmania), NSW Spatial Web Services and VicMap Spatial Data. Mapping is also credit © OpenStreetMap contributors and through the Leaflet Open Source library for interactive maps (see Leaflet).

Google Earth views: Google, CNES/Airbus Data LDEO-Columbia, NSF, NOAA, US Navy, NGA, GEBCO Landsat/Copernicus TerraMetrics.

GIS mapping for this work is provided by QGIS.org, 2020. QGIS Geographic Information System. QGIS Association. http://www.qgis.org

Microsoft Flight Simulator 2020 and Google Earth are used to provide a general perspective on terrain around an aircraft landing area.


Foreign Language Abstract Resumen

  1. Recientes evaluaciones del progreso hacia metas de conservación globales han revelado una escasez de indicadores adecuados para evaluar el estado de ecosistemas y su cambio. Asimismo, los responsables de la ordenación y gestión territorial raramente tienen acceso oportuno a mapas requeridos para apoyar la toma de decisiones de rutina. Esta deficiencia se debe parcialmente a la falta de datos adecuados sobre el cambio en el estado de los ecosistemas, debido principalmente al alto nivel de conocimiento técnico requerido para elaborar mapas de ecosistemas usando datos de teledetección.
  2. Hemos desarrollado una aplicación de acceso en línea gratuito de modelaje medioambiental y monitoreo de teledetección, Remote Sensing Monitoring and Assessment Pipeline ( Remap https://remap-app.org) la cual permite que voluntarios, gestores y científicos con poca experiencia en teledetección generen clasificaciones (mapas) de los cambios temporales en la ocupación o el uso de suelo.
  3. Remap requiere únicamente datos espaciales para definir clases (p.ej. tipo de ecosistema), y utiliza el almacenamiento de datos geoespaciales y la capacidad de análisis de Google Earth Engine para asignar clases definidas a pixeles sin datos en un área focal. Los datos de entrenamiento, los cuales pueden ser cargados o anotados interactivamente en Remap , se utilizan en una clasificación estadística con hasta 13 tipos de predictores, los cuales están públicamente disponibles. Remap incluye predictores que son fundamentales para la distribución de los ecosistemas y los tipos de cobertura terrestre. Estos predictores incluyen datos de variables topográficas (p. ej. pendiente, elevación), espectrales (archivos de composiciones de imágenes Landsat) y climáticas (precipitación, temperatura).
  4. La capacidad de Remap para elaborar y exportar mapas clasificados de alta calidad en un corto plazo de tiempo (<10 minutos) representa un avance considerable en las tecnologías de teledetección a nivel mundial, y facilita su aplicación gratuita y accesible. Por lo que Remap puede acelerar el monitoreo del uso y cambio de suelo facilitando el acceso de datos y simplificando la clasificación de ecosistemas usando teledetección. Por ende, Remap apoya la conservación del medioambiente en varios frentes, incluyendo el desarrollo de inventarios de biodiversidad, la identificación de puntos de alta biodiversidad, la conservación espacial de ecosistemas, la documentación cartográfica espacial de perdida de ecosistemas a escalas locales y el apoyo de iniciativas de educación ambiental.

Sources

Base mapping data including topography, elevation (contours) and vegetation are sourced from theLIST (Tasmania), NSW Spatial Web Services and VicMap Spatial Data. Mapping is also credit © OpenStreetMap contributors and through the Leaflet Open Source library for interactive maps (see Leaflet).

Google Earth views: Google, CNES/Airbus Data LDEO-Columbia, NSF, NOAA, US Navy, NGA, GEBCO Landsat/Copernicus TerraMetrics.

GIS mapping for this work is provided by QGIS.org, 2020. QGIS Geographic Information System. QGIS Association. http://www.qgis.org

Microsoft Flight Simulator 2020 and Google Earth are used to provide a general perspective on terrain around an aircraft landing area.


Fondo

Increased residential greenspace (e.g., parks) or greenness (e.g., street trees) has shown to be associated with beneficial health, such as better self-reported health and reduced all-cause and cardiovascular mortality [55]. Research has now progressed to explore potential causal mechanisms. As strong links have been made between physical activity (PA) and numerous health outcomes, particularly for cardiovascular outcomes [59], an important pathway to health may be access to areas in which to engage in PA. Moreover, though still an active research area, exercise specifically undertaken in green areas may enhance the proven benefits of PA [46].

Nevertheless, research on the importance of greenspace for exercise has produced mixed results. Cross-sectional studies relying on self-reported data to assess the relationship between residential greenspace and PA identified positive associations in populations in Australia [2], Canada [35], and the US [52], while other work in Denmark [44], Netherlands [33], and Scotland [37] found no such links. With the emergence of low-cost GPS-equipped sensors and devices [32], researchers can now better track objective measures of PA and actual greenspace use, though these studies too have found equivocal results: the amount of residential greenspace was related to higher levels of overall moderate to vigorous PA (MVPA) [23], but in another study, associations were found only with PA when undertaken within green areas (i.e., not overall PA) [53].

Recommendations from agencies, including the World Health Organization (WHO), prescribe a minimum weekly dose of 150 min of moderate intensity or 75 min of vigorous PA, yet a recent global survey found over a quarter of individuals were not achieving these salubrious levels [18]. Though greenspace may help promote active travel and facilitate outdoor PA, for example, through appealing tree-lined streets or accessible parks, other neighbourhood attributes, such as overall walkability (e.g., street connectivity, population density, mixed use development) and access to services, have been found to be more important [14, 22]. Even if a positive link with greenspace is established, a further complicating factor is that self-selection may bias findings if healthier individuals choose to live in greener areas with more options for outdoor exercise [10] if present, this bias would result in exaggerated health benefits of greenspace.

Our study explored two distinct research questions to advance our understanding of the association of greenspace and PA within the built environment: 1) whether the availability of residential greenspace is associated with increased MVPA and 2) whether individuals choose routes with on average higher greenspace levels for longer/more active journeys. In addition, for the second question, we also assessed the greenspace associations separately for walking and cycling trips.


Acknowledgements

Discussions with M. Futter, B. Obrador and C. Gudasz improved the manuscript. A. M. Kellerman commented on an early version of the manuscript. We thank B. Koehler for the data set on litter decay. We thank J. Schewe for his assistance with the interpretation of runoff change maps. The study was funded by grants from the Swedish Research Council, the Swedish Research Council for Environment, Agricultural Sciences and Spatial Planning (FORMAS) and the Knut and Alice Wallenberg Foundation to L.J.T. N.C. holds a Wenner-Gren foundation post-doctoral fellowship (2014–2016, Sweden). The participation of R.M. was supported by project REMEDIATION (CGL2014-57215-C4-2-R), funded by the Spanish Ministry of Economy and Competitiveness.