Archive for the ‘statistique’ Category

UPDATED TODAY! Enfoque “Open data” para la toma de decisiones en tiempos de Coronavirus COVID-19

2020/04/21

Decenas de medios y redes sociales, algunos poco fiables por incapaces o partidistas (o las dos cosas), muchos datos, no necesariamente bien extraídos y analizados, varios criterios no armonizados y cambiantes (en los últimos días dos veces han cambiado los criterios del Ministerio de Sanidad español!) me convencieron para hacer los análisis yo mismo pero esto, claro, requiere un poco de desarrollo y tiempo. Los periodistas no tienen por qué tener nociones de estadística o de análisis espacial pero yo sí. Tengo acceso a OPEN DATA (Datos Abiertos) y ganas de análisis? Vamos a ver qué sale de esto…

De momento accedo a diario al boletín o update del Ministerio de Sanidad https://www.mscbs.gob.es/en/profesionales/saludPublica/ccayes/alertasActual/nCov-China/situacionActual.htm de donde me descargo el PDF con los sumarios actualizados desde que contaron las diez primera muertes, si no estoy equivocado (por favor corregidme si es así). Luego es necesaria un poco de ingeniería inversa porque el PDF no permite muchas oportunidades para los análisis personales y el copia pega directo no fuciona (qué pena!) Muchos otros diagramas y muchas gráficas estándar, sí. Pero un PDF no te permite mucha capacidad para hacerlo tú mismo, no.

Una vez que copias y pegas los datos en un excel te das cuenta la gran cantidad de edición que tienes que hacer para poder empezar a ver cosas. De momento geocodifiqué las capitales de las CCAA dado que no los datos no estaban desagregados por provincias, lo que hubiera sido ideal. Bueno en estas cosas nada es ideal en el sentido de que a nadie en su sano juicio se le ocurre hacer un seguimiento de estas características con un criterio cambiante y no aunado por cada uno de los límites administrativos. Pero bueno la cuestión es que empecé con una tabla más o menos legible en el update 51 (21.03.2020 (datos consolidados a las 21:00 horas del 20.03.2020)).

Mi idea era salirme un poco del catastrofismo que tenían todos los medios en esas fechas, donde todo eran muertos por todos lados y UCIs a punto de colapsar así que me decidí por analizar los incrementos a la baja de las UCIs y los Fallecidos. Mientras todo subía, me di cuenta de que esto bajaba. Poco a poco, eso sí, pero bajaba.

Luego pasaron los días y añadí los incrementos a la baja de las hospitalizaciones. Ahí estaban mis tres parámetros a la vez, bajando cual llaneros solitarios rodeados de muerte y abatimiento por todas partes. ¿Para qué vale esto? alguien dirá, pues para no perder el norte y darse cuenta que como decía Mark Twain “Hay tres clases de mentiras: las mentiras, las malditas mentiras y las estadísticas.”. Ahora en serio, bueno, yo quería creer que las cosas se iban a arreglar. Basta. :-).

Otra cosa, particularicé el análisis en Madrid, es decir, además de fusilar los datos de todo el país, copiaba una línea extra donde analizaba específicamente el trascurrir del corona virus o COVID-19 en la capital, por cierto, el centro neurálgico del desastre en España.

Fui añadiendo parámetros a analizar y métodos de control visual, cosas sencillas como el formato condicional, colores que dependen de las cifras o tipos combinados de tablas. De curvas o de columnas, ejes secundarios a casco porro, todo para ver cómo combinaban unos atributos con otros y si había algo que cambiaba en el tiempo…

Pero los muertos seguían subiendo. Una cosa buena es que tenía datos de capacidad máximas de estructuras, por ejemplo, en Madrid había en principio 1500 camas de UCI, cifras que fueron subiendo a medida que se iban inaugurando los centros de apoyo como los de IFEMA. El día 4 de Abril se llegó a una ocupación UCI de 1499. Qué miedo. Afortunadamente, todo bajó desde entonces.

En fin, este fue mi trascurrir conforme pasaban los días y lo cierto es que aunque no comunicaba estos resulltados más que con mi grupo familiar de Whatsapp y a mis 90 (o menos) seguidores de Instagram (que como solo publico cosas de running, estaba semi-abandonado), esto, de verdad me hacía sentirme útil en el sentido de que eran datos esperanzadores y no eran mentira. Ya sé que Mark Twain no diría lo mismo pero Gauss decía algo todavía más gracioso, “Tengo mis resultados hace tiempo, pero no sé cómo llegar a ellos“. Esto es exactamente lo que pasaba por mi cabeza (Gracias Karl Friederich!).

Bajan los hospitalizados en el eje secundario y también las UCIs en el primario… muy lentamente sí, pero bajan!

Este diagrama de arriba muestra que el pico ha pasado y que en el trascurso de diez días las cosas habían cambiado bastante. En casa ya llevábamos 30 días de confinamiento aproximadamente y los ánimos no eran muchos porque mis niños (dos) por muy majos que sean, son niños y los análisis no salen cuando hay marejada y en confinamiento no hay marejada en mi casa, hay maremoto. Así que vamos a por más estadística. O mejor, “Más madera!!!!!” (Esta es de Groucho). Fin de las citas, lo prometo.

Quizá mi querido Fernando Simón averiguó que estaba haciendo estas estadísticas y prefirió cambiar el método de contabilización… Se pasó de medir 8 atributos a el doble, incluyendo por ejemplo Positivos por test de anticuerpos, PCRs, tests rápidos, etc, datos que aparecen solo en algunas de las provincias, excepciones por todos lados, asteriscos explicativos… plofffff.

Entre tanto averigué que los de Blue Marble Geographics (Global Mapper) habían añadido una capa de datos online, una conexión WMS con datos georreferenciados de todos los países del mundo, con actualizaciones diarias. Oh yeah! (Gracias al Professor Lauren Gardner, un Ingeniero Civil y de Sistemas de la Universidad Johns Hopkins).

Esto al menos para los datos internacionales.

https://coronavirus.jhu.edu/map-faq

Por otro lado, a una escala más local, mis tablas y mis geocodificaciones de capitales de CCAA (previo paso por ArcGIS para transformar las coordenadas en puntos, darle proyección y luego añadirles los datos mediante un SPATIAL JOIN) me permitían una visualización del análisis con un enfoque particular en España (que me perdonen mis buenos amigos Canarios, en este caso no incluyo las islas por temas de diseño).

En resumidas cuentas, de momento ahí sigo, traduciendo los PDF del Ministerio en hojas de excel legibles por mí mismo y que me permiten tocar los datos desde diferentes enfoques, no necesariamente bien ponderados pero sí frescos y liberados de toda atadura. Podrían parecer unos análisis sencillos (que lo son) pero requieren la alineación de muchas cosas, entre ellas el conocimiento de las herramientas GIS, las proyecciones, distribuciones estadísticas, pero la más importante, la curiosidad por extraer datos para posteriormente tomar decisiones acertadas.

PD: Puedes descargar el EXCEL (en bruto) con todos los datos que se han podido “comprender” después de todos los cambios en los modelos de contabilización de variables desde aquí (última actualización, 108, 20200517):
https://www.dropbox.com/s/h2hebz66btpied0/analisis%20corona.xls?dl=0

Fuentes:
*https://cnecovid.isciii.es/covid19/#documentaci%C3%B3n-y-datos
*https://www.mscbs.gob.es/en/profesionales/saludPublica/ccayes/alertasActual/nCov-China/situacionActual.htm
*https://www.datoscovid.es/
*https://datos.comunidad.madrid/catalogo/dataset/covid19_tia_muni_y_distritos


Alberto CONCEJAL
Geógrafo / MSc GIS y Teledetección

Census differential Privacy Exploration: the change in population for every Congressional district after applying Differential Privacy

2019/11/18

How differences in population count could have implications for service provision, allocation of funds, & political representation.

Source: https://www.caliper.com/census-differential-privacy-maps/

The U.S. Census Bureau has changed the way it ensures privacy for the 2020 Census. The new method is called Differential Privacy (DP).

To help people assess some of the implications and unintended consequences of Differential Privacy, Caliper® is providing several maps for public inspection. This map, created with Maptitude®, shows the change in population for every Congressional district after applying Differential Privacy.

The map illustrates that the current 116th Congressional District populations would have been different in many instances, with possible implications for service provision, allocation of funds, and political representation.

Because this method distorts populations for Census Blocks and for all political subdivisions within each State, state legislatures would have drawn different district boundaries had Differential Privacy been used in the 2010 Census.

The non-adjusted PL 94-171 demographics were used for this comparison for consistency with the Differential Privacy 2010 Demonstration Data Product.

El láser desvela toda la grandeza de la civilización maya (Fuente: El País)

2018/09/28

Esta mañana encontré este interesante reportaje sobre el LIDAR (Laser Imaging Detection and Ranging, detección y localización de imágenes por láser) la tecnología con la que trabajo desde hace años y que a algunos les parece recién inventada, jeje.

Varias anotaciones a hacer, desde el punto de vista geográfico. El “Lídar aporta una visión extremadamente precisa de la geografía y topografía del paisaje” (Universidad de California en Santa Barbara (EE UU), Anabel Ford). De nuevo haciendo referencia a la Geografía con mayúsculas como a la forma del terreno. Gran error. Le recordaría a Anabel Ford que la Geografía es una CIENCIA. Ella es arqueóloga y tira para su campo “Siempre se va a necesitar de arqueólogos con experiencia para reconocer los rasgos documentados por el lídar” pues bien, lo mismo hago yo 🙂

lidar01.png

Otro tema, parece magia pero no lo es. Dice que la zona se cubre con 30.000 millones de puntos pero eso no determina al 100% la precisión: Ha sido coordinado con puntos de Control en tierra?  De cuándo data el vuelo, qué año? En qué epoca del año fue ejecutado? (verano? primavera? nada que ver en cuando a densidad de vegetación, por ejemplo) Además si realmente hay 15 pulsos por m2, hay entonces 15,000,000 de pulsos por km2. Es decir, la zona de la que habla son 2,000 km2? Creo que esto es un error de bulto pues la zona a la que se refiere el artículo parece muy pequeña.

lidar02.png

LIDAR no es la panacea, es una fuente que mejora la resolución de los modelos digitales a todos los niveles pero que tiene que ser acompañada de una buena política de Control de Calidad, limpieza de outliers, clasificación semi-automática, etc. La verdadera potencia de esta herramienta (que por cierto no es nueva que lleva más de 15 años en el mercado) es la combinación con otras plataformas hoy día disponibles, como por ejemplo imágenes oblícuas PICTOMETRY (tampoco algo nuevo pero sí más desarrollado en los últimos años) o la inclusión de análisis de visibilidad (viewshed analysis), medición de volúmenes (cut and fill volume) o análisis de visibilidad en línea (path profiles). Y por último y no menos importante, la capacidad de algunos software actuales en manejar cantidades ingentes de datos como si se tratara de una simple hoja de excel (por ejemplo Global Mapper v20 toma 10 segundos en abrir un fichero LIDAR de 5 millones de pulsos)

Resumiendo, no es la mera visualización de una correspondencia casi ridícula con la realidad sino el hecho de que ese modelado no se queda en lo meramente superficial sino que combinado con otras técnicas la potencial de análisis se hace verdaderamente increíble en comparación a otros modelados stereo fotogramétricos por ejemplo.

lidar03.png

Otro punto a tener en cuenta es la predisposición de los gobiernos desarrollados de generar y costear  (nada baratos por cierto) estos datos dentro del entorno de Planes Nacionales de Ortofotogrametría, por ejemplo  compartir estos datos de manera sistemática con los ciudadanos (Open Data) y no tan solo con técnicos hipercualificados del sector público, como ocurría antes. Ahora yo mismo, el último mono, puedo hacer un anális de cierta significación.

En España el CNIG tiene uno de los mejores portales para compartir datos de este tipo en todo el mundo, nada que envidiar al USGS estadounidense o al IGN francés.

En breve un nuevo post relativo a la optimización de puestos de caza puntuales y lineales usando la tecnología LIDAR y análisis de visibilidad.

WhatsApp Image 2018-09-27 at 13.33.56.jpeg

Aquí el link al reportaje referido:

https://elpais.com/elpais/2018/09/27/ciencia/1538033539_490188.html

Ya sabéis, si os gusta, compartid, y si no ¡No se os ocurra!!!!

Alberto CONCEJAL
MSc GIS and Remote Sensing

Indicateur Avancé Sanitaire IAS® – SYNDROME GRIPPAL [FR]

2017/01/23

(Cartograma creado para contribuir a la vigilancia de los síndromes gripales aportando informaciones complementarias a las de la Red ‘Centinelas’ [FR])

L’objectif de l’Indicateur Avancé Sanitaire (IAS®) “Syndrome Grippal” est de contribuer à la surveillance des syndromes grippaux en France en apportant des informations complémentaires à celles du réseau Sentinelles. Cet indicateur a été validé par comparaison avec les données du réseau Sentinelles. Au niveau national, La corrélation croisée avec le réseau Sentinelle est forte (0,88). Cette corrélation valide la pertinence de l’IAS®. L’IAS® est calculé chaque jour en employant une méthode de lissage temporel : les informations des sept jours précédents et des 7 jours suivants sont prises en compte pour calculer la valeur d’un jour donné. Ceci fait que l’indice d’un jour J peut légèrement évoluer jusqu’à J+7.

IAS® Syndrome Grippal : le dernier cartogramme quotidien en haute définition

Openhealth_S-Grippal_DernierCartogramme.jpg

Données issues des sorties consommateurs des officines du réseau CELTIPHARM.

Plus d’infos sur nos méthodes: http://ias.openhealth.fr/methode

http://ias.openhealth.fr/

Les données sont mises à jour quotidiennement. Adopter le J+1 !

source: http://www.data.gouv.fr/fr/datasets/indicateur-avance-sanitaire-ias-syndrome-grippal/

Homicidio doloso en Ciudad de México 2013-2015

2016/11/02

Recibí este link por Facebook hace un rato (Gracias Paco!)… https://hoyodecrimen.com/mapa#/19.4052/-99.0987/12 y me dediqué unos minutos a analizar un hecho puntual, el homicidio doloso, en un periodo concreto de tiempo, de 2013 a 2015. Veamos la previsualización de todos los homicidios ocurridos en 2013 en CARTO.

El autor de la página llamada CRIMEN POR TU RUMBO donde están volcados estos datos es Diego Valle. Desde luego el planteamiento es interesante e inquietante. Quién quisiera saber los crímenes que se han cometido por la zona por donde me voy a mover. Yo?. Yo no, desde luego porque no saldría pero en términos de análisis es sin duda muy, muy interesante.

density-map-mexico-20161102-02-05.jpg

Los datos de incidencia delictiva vienen de una solicitud de información a la SSPDF. El mapa de cuadrantes es de Consulta de Cuadrantes. La población está basada en información del censo 2010 por Manzana.

Mi aproximación era mostrar más que un mapa estático con datos puntuales, un mapa dinámico, que permitiera ver una evolución global de cada uno de los acontecimientos estudiados.Esto son todos los datos en bruto, todos los crímenes

all-crimes-mexico-city-20161102.jpg

Todos los crímenes desglosados. De todos ellos se podría intentar sacar un patrón espacial. Dónde se roba más a los negocios? a los transeúntes, a los taxis? dónde son más comúnes las violaciones? Cuál es la evolución en el tiempo? Tiende a ocurrir más al Norte o más al Oeste? Va la cosa a mejor o a peor?.

density-map-mexico-20161102-02-04.jpg

El resultado preliminar es el siguiente:

density-map-mexico-20161102-02-03.jpgdensity-map-mexico-20161102-02-03d.jpg

Claramente la tendencia es a aumentar y a descentralizarse, veamos a través del maravilloso Carto (ex CartoDB).

Software utilizado: ArcGIS 10.3 + Geostatistical analyst
Global Mapper 17.2 +density maps
Free Video Capture 7.8.3

Algún otro enfoque que os resultaría interesante? No tenéis más que proponerlo.

Un saludo cordial,

Alberto CONCEJAL
MSc GIS

Allocation analysis: Attaching customers to facilities

2016/09/20

Allocates a set of demand points (Customers) to user specified number of supply points (Facilities) out of a Facilities point dataset based on the Euclidian distance between the Customers and Facilities.

customers

100 customers anywhere in the World

In other words the function selects N Facilities out of K candidates to service a set of M Customer locations in such a way that each Customer is allocated to a single Facility (based on Euclidean distance) and the total distance between the Customers and selected Facilities is minimized.

asignation

Customers attached to 3 pre-defined facilities

In a more simple way: take a bunch of customers and assign them the closest facility (using euclidean distance, the “ordinary” (i.e. straight-line) distance between two points)). In this particular theoretical analysis I have also selected a maximum range of 5000 meters so anything beyond won’t be taken into consideration.

Questions:  Am i giving a proper service with those facilities i have already deployed?. Is there any of them way too far away so we cannot service at all?. Is there any of them over populated and in the end we cannot provide a proper service?. If you happen to come across any other question, please add it to comments so i can modify the post.

Result table:

FID Shape Id FacilityID Facility Type Num_Alloc Max_Dist Total_Dist
0 Point 0 2 2 Selected 4 4852.68 15362.93
1 Point 0 1 1 Selected 11 4110.57 37839.93
2 Point 0 0 0 Selected 18 4991.27 73591.27

This ArcGIS video shows some light over these type of analysis:

This links shows how to create a network dataset
http://desktop.arcgis.com/en/arcmap/latest/extensions/network-analyst/exercise-1-creating-a-network-dataset.htm

 

Software used: ArcGIS 10.3; ET Geowizards 11.1

Hope you guys have liked it, if so, share or let me know about it.

Alberto CONCEJAL
Geographer and MSc GIS

Running en Nantes

2016/09/13

Cada vez que corría por esta maravillosa ciudad, lo grababa con la aplicación Runkeeper, así que he superpuesto todas las ocasiones para ver dónde exactamente se concentran las rutas que más he usado y las zonas por las que he pasado más veces. Esto es lo mal de concentrar en la misma persona alguien al que le gusta correr, apuntar cosas, visualizarlas, analizarlas…

Creo que hacer tracking de rutas, tiempos, ritmos, etc, me ayuda a enfocar lo importante que es para mí la regularidad y la constancia. No es correr en sí lo que me gusta, que sí, sino demostrarme que soy capaz de hacer algo que me entretiene, me relaja, de forma periódica y con contadísimas excepciones (lo único que me deja en casa es una lesión o un cabreo).

running-nantes

Y se ve claramente en rojo cuáles son esas zonas!!! He exportado las líneas a puntos y he creado un mapa de densidad en Global Mapper 17, al que he superpuesto un layer de Open Street Maps.

running-nantes-02

Cómo echo de menos correr por el Loira, sus parques, sus puentes, sus riachuelos… ahora corro en Madrid y también me gusta mucho pero me trae muy buenos recuerdos puesto que fue allí donde empecé a hacerlo en serio.

running

Bueno en serio quiero decir, a hacerlo siempre.

Descargas del CNIG. Open Source bien hecho!

2016/02/08

Hola amigos del GIS,
Por motivos de trabajo que no vienen al caso, he tenido que bucear de manera sistemática la web de descargas del CNIG. http://centrodedescargas.cnig.es/CentroDescargas/inicio.do
Una maravilla.

cnig-20160208-01

Por motivos que tampoco viene al caso, he de hacer esto mismo de vez en cuando en todos los Institutos cartográficos del mundo y el del CNIG es sin duda en el que me resulta más fácil, en el que el modelo de datos en más lógico y en el que los links son más fiables de todo el mundo. La única obligación es la atribución obligatoria de los datos. ¿No es mucho pedir, no? Desde el día 27 de diciembre, los datos del IGN son libres CC By 4.0.
https://creativecommons.org/licenses/by/4.0/

Por tanto es obligatorio que mencione la procedencia a pie de imagen, créditos, etc.., sobre todo en publicaciones, usos comerciales, artículos, etc… (Por ejemplo puede poner “<tal dato> CC by instituto Geográfico Nacional” o más bien “derivado de <tal dato” CC by ign.es” o similares…).

cnig-20160208-02

Ya sea porque necesitemos las imágenes del PNOA (Plan Nacional de Ortofotografía Aérea), un modelo digital del terreno de alta resolución o imágenes históricas de nuestro pueblo… tan solo hay que bucear un poco en el catálogo de geodatos del Instituto Geográfico Nacional (Centro Nacional de Información Geográfica) y los conseguiremos.

Por ejemplo, la semana pasada tuve que encontrar datos sobre algunas ciudades españolas para hacer varios escenarios 3D para un cliente y aquí encontré por un lado un DSM 5m elaborado con fuentes LIDAR, por otro lado me bajé de Cartociudad los datos relativos a vectores lineales, manzanas y luego desde la web de CATASTRO (https://www.sedecatastro.gob.es/OVCFrames.aspx?TIPO=TIT&a=masiv) me bajé las geometrías de todos los edificios de la ciudad (que planeo geoprocesar para eliminar las formas no deseadas y para adjudicar alturas precisas gracias al LIDAR bajado con anterioridad).

Por qué no añadir geometrías de Open Street Maps (https://www.openstreetmap.org/export) o de la propia Base Topográfica Nacional BTN25 para completar dicho escenario?

barcelona-bldg-osm-capture-20160112
MADRID-GISDATA

La verdad amigos es que desde que empezó a funcionar el Open Data, los Geógrafos y derivados tenemos mucho con lo que ‘jugar’ para hacer nuestros análisis.
http://idee.es/

Espero que os resulte interesante.

Un saludo cordial,

Alberto
Geógrafo/ Máster SIG UAH/ Diseñador Multimedia

Change detection – Detección de cambios en polígonos

2015/10/22

change-detection-bogota-telemediciones-20151023-02
THE IDEA: DEMONSTRATING HOW DYNAMIC A CITY IS, THUS HOW IMPORTANT IS HAVING AN UPDATED DATASET
bogota-change-detection-20151105-02

THE FACTS: THE CITY OF BOGOTÁ IN COLOMBIA 2012-2014

Overall growth rate: -0.12% ONLY HAVING INTO ACCOUNT THE DIFFERENCE OF BUILDINGS CAPTURED BETWEEN 2012 AND 2014 (We can do this because we have used the same data capture model in both years)

(De acuerdo al censo catastral, para 2015 la ciudad incorporó 51.531 predios nuevos urbanos. En total, hay 2’402.581 predios en la ciudad, de esos, 266,9 millones de metros cuadrados son de área totalmente edificada. Source: http://www.eltiempo.com/bogota/crecimiento-bogota-/15394797)

bogota-change-detection-20151105

THE PROCEDURE: Centroids of buildings; Spatial join showing presence-absence, considering a 10m accuracy threshold, meaning if the centroid has not moved more than 10m, its the same building. If the centroid in 2012 is not in 2014, its considered as demolished. If a new centroid appears its considered new building.

DENSITY MAPS+3D buildings
Help to quickly focus on the highlights
bogota-change-detection-news-20151021

 

Pearson correlation and GIS

2014/11/28


pearson-01
Do these two variables have a correlation?. To answer this important question first of all we have to know that only if it’s a linear relationship and there are no outliers we can take advantage of Mr Pearson’s correlation statiscal tool.

If i love chocolate, does this mean i have tendency of being chuby? or on the other hand there’s no relationship at all. Let’s figure it out.

For this particular occasion, input data XY are two DTM heights, my guess is the following: if correlation is too big, i may deduce they’re not independent products and one might been created from the other, in other words, we might have tried to cheat and we are using a different source that the one we have stated… In GIS sometimes things are not exactly as expected and there’s need to be assertive and making a plan for discovering this minor issues.

 

 

 

Let’s start from the beginning, if source 1 is the same as source 2, the correlation would be perfect, is this correct?. The answer is yes. r (Person correlation) would be = 1. So yes, if this was asking about chocolate and fleshiness this would be 100% right but this hardly or never happens in real life (direct and no other explanation or variable interaction… why is always so0o complicated?).

pearson-formula

pearson-04

With real data, you would not expect to get values of r of exactly -1, 0, or 1. For example, the data for spousal ages (white couples) has an r of 0.97. Don’t ask me where i got this weird source (well, just in case: http://onlinestatbook.com/2/describing_bivariate_data/intro.html)

age_scatterplot

If i fill source 2 with a random number, the correlation would be almost none accordingly (in this case r=0.17)

pearson-06

Now if we see the diagram of the first two sources and we get the Pearson correlation coefficient (r=0.24) which means the correlation is very weak.

pearson-03

But that was only a very small part of the table (only 30 iterations), so if i do the same calculation out of the +13,000 iterations i really need, i get these figures (by the way, theres no need to use such a complicated formula above, you can use this one in EXCEL: =PEARSON(A1:An;B1:Bn))

pearson-07

So the correlation now its moderate, which makes me deduct at least the sources seem different and i’d need more clues to think my customer might have tried to actually cheat me using the same source for both datasets.

Summarizing:

r=1, correlation is PERFECT

0.75<r<1, correlation is STRONG

0.5<r<0.75, correlation is MODERATE

0.25<r<0.5, correlation is WEAK

<0.25, almost NO correlation, both variables are hardy related

I hope you guys have found this post interesting,
looking forward to hear where could you use it and/or your feedback,

Regards,

Alberto Concejal
MSc GIS