Estándares de calidad para Datos (Data quality standards) – Investigación Datlas

Los sistemas de datos y analítica avanzada son cada vez más complejos. Nuevas herramientas, formatos, técnicas y métodos son implementados para descifrar hallazgos de una manera más automatizada acercándonos cada vez más a la verdadera analítica prescriptiva. Además, MIT estima que una mala calidad de datos puede representar entre el 15%-25% de costos sobre los ingresos de una compañía. (Fuente: https://sloanreview.mit.edu/article/seizing-opportunity-in-data-quality/) Pero, volviendo a los fundamentales, o como dicen en inglés «Back to basics» ¿Cómo podríamos monitorear que estos procesos funcionen con calidad? ¿Cómo asegurarme que todos los proyectos de analítica en mi organización tengan un mínimo nivel de calidad?

En esta columna revisaremos los principios de calidad de los datos y compartiremos algunas prácticas básicas que en el equipo Datlas hemos aprendido durante la trayectoria de varios proyectos. Esta columna te interesará si lideras o buscas liderar iniciativas de analítica en tu organización.

I) ¿Qué son los estándares de calidad?

Según el libro de «Managing Data Quality» la calidad de los datos se puede definir como: El efecto fundamental de la calidad de los datos es que los datos correctos estén disponibles en el momento correcto para los usuarios correctos, para tomar la decisión correcta y lograr el resultado correcto. Esto se puede ampliar considerando que los datos de buena calidad son seguros, legales y se procesan de manera justa, correcta y segura .

Cuando nos referimos a calidad de datos tenemos en cuenta el método, la organización y la habilitación de sistemas que nos permitan generar una base sostenible de calidad de datos durante el tiempo

II) ¿Cuáles son los términos más importantes en calidad de datos?

  • Proveedores de datos: Los creadores de fuentes de datos
  • Recipientes de datos: Recipientes dinámicos y estáticos de fuentes de información
  • Fuentes primarias: Referencias de primera mano de información, también conocidos como los datos que provienen de la fuente original
  • Fuentes secundarias: Referencias de segunda mano, que un intermediario integro, alteró, agrego o modificó para fines de desarrollo de métricas

** También te puede interesar: «Arquitectura de proyectos de datos» . Liga: https://blogdatlas.wordpress.com/2021/02/08/arquitectura-de-proyectos-de-datos-data-warehouses-vs-data-lake-vs-data-mart-datlas-manuales/

III) ¿Cuáles son las dimensiones de calidad de los datos?

  • Que los datos no estén incompletos, es decir que el nivel de cobertura sea cercano al 100%. Ejemplo si estamos hablando de una base de datos transaccional de una gran cadena comercial ¿ A la fecha del corte, cuánta información tenemos disponible?
  • Qué existe integridad entre la relación de los datos
  • Los datos disponibles son lo más actualizados posibles. Y son vigentes para los escenarios de análisis que requiere la organización
  • Cumplimiento de la estructura de datos, de acuerdo a los parámetros establecidos. Ejemplo que todos los campos temporales sean consistentes en todo el sistema. Si se registran a nivel minuto-segundo, que así sea. Si la semana comienza en domingo, que sea así para todos los sistemas
  • Disponibilidad de los datos cuando se requieren. Es decir, que la fuente permita tener información de manera oportuna
  • Que las herramientas disponibles para registrar datos sean las correctas. Buenos métodos y registros en las unidades que el sistema lo requiere. Recomendable que existan registros de identificadores únicos
  • Finalmente, pero no menos importante, que los datos sean consistentes entre sistemas . Es decir, que entre áreas y equipos tengan los mismos estándares de consultas para que , por ejemplo, todos tengan la misma venta

IV) 10 Consejos prácticos para mantener calidad de los datos

En materia práctica ¿Qué podemos utilizar? En nuestra investigación queremos citar y complementar los consejos de Talend.

1) Hay que volver a la calidad de los datos una prioridad

2) Establece buenas métricas de calidad de datos con base a las dimensiones establecidas

3) Profundiza en investigar las fallas en la calidad de los datos

4) Invierte en entrenamiento interno

5) Establece, implementa y monitorea buenas guías de gobernanza de datos

6) Genera procesos de auditoría buscando: Bases de datos incompletos, faltantes, datos erróneos, inconsistencias, datos viejos, entre otros

7) Asigna un administrador de calidad de datos en cada departamento

8) Declara y gestiona una fuente única de referencia de datos

9) Automatiza los flujos de datos de buena calidad

10) Impulsa el uso de la nube y la cultura de trabajo colaborativo con «plantillas y glosarios» de datos

V) Sobre el ISO relacionado a la calidad de los datos

Finalmente y, en cumplimiento a los estándares con la que muchas compañías trabajan, se puede poner en práctica lo que dice el compendio «Data quality — Part 61: Data quality management: Process reference model».

** También te puede interesar: Metodologías para preparar tus bases de datos. Liga: https://blogdatlas.wordpress.com/2020/07/09/4-pasos-para-preparar-tus-bases-de-datos-para-analisis/

Hasta aqui la columna de hoy . Y tu ¿Qué prácticas de calidad de datos tienes en tu día a día o con tu equipo? ¿Quién monitorea la calidad de información y que los hallazgos en sus análisis vengan de buenas fuentes?

Comparte tu conocimiento con la comunidad en redes con @datlasmx

Ahora puedes revivir gratuitamente el SIMPOSIUM DE DATLAS ACADEMY donde tuvimos a expertas y expertos de corporativos en México charlando de sus grandes proyectos

Equipo Datlas

– Keep it weird –

Fuentes:

Análisis de Detección de Incendios y Vegetación : Caso de Uso Sierra de Santiago, Nuevo León, México – Manuales Datlas

Ante el incendio que se registro hace algunas semanas en la Sierra de Santiago en Nuevo León nos hemos dado a la tarea a desarrollar un ejercicio con una herramienta la cual permite identificar ciertos análisis de capas tales como índices de detección de incendio, vegetación, penetración atmosférica entre otros esto por medio de capturas vía satélite.

Durante este blog te presentaremos esta herramienta llamada LandViewer que nos ha ayudado a realizar este ejercicio, así como también un caso de uso el cual nos va a permitir sensibilizar la dimensión de lo qué es un incendio forestal y el cómo más de 2,000 hectáreas afectadas repercuten en la calidad de aire de una ciudad.

LandViewer – Herramienta de Análisis Satelital

Esta herramienta es una aplicación online la cuál nos permite navegar en cualquier parte del mundo y visualizar imágenes satelitales con capas como agricultura, vegetación, cobertura forestal, detección de incendios y muchas más.

Esta herramienta es creada por EOS Data Analytics y reúne imágenes por parte de los satélites Landsat-7, Landsat-8, Sentinel-2 y Modis para hacer posible cualquier tipo de análisis por medio de un interfaz en su página web.

Te puede interesar este estudio de escasez de agua en presas para Nuevo León, México:

Caso de Uso – Sierra de Santiago Nuevo León, México

¿Qué sabemos de este incendio?

El pasado 14 de marzo inicio un incendio en la Sierra de Santiago a las afueras de la Ciudad de Monterrey a causas de la poca conciencia de quemas de basura en la comunidades rurales, este incendio logro contenerse al 90% el 3 de abril afectando más de 2,000 hectáreas de vegetación.

De esta manera el interés de poder hacer un análisis por capturas satelitales surgió de un tweet por parte del Astronauta Thomas H. Marshburn el cual mostro imágenes de la Sierra Madre Oriental específicamente en la Ciudad de Monterrey.

Eso sucedió un 11 de febrero, un mes después aproximadamente se desató el incendio en la Sierra de Santiago y en Datlas nos hicimos la pregunta ¿Y por que no realizar un análisis satelital de lo sucedido en Santiago por medio de LandViewer?

Te puede interesar también ¿Cómo hacer isocronas en QGIS?

¿Qué nos permite identificar LandViewer a partir del incendio?

De primera identificamos a la Ciudad de Monterrey Nuevo León y en la parte de abajo podemos percatarnos del Municipio de Santiago, del lado derecho LandViewer nos permite activar una considerable cantidad de análisis en cuestión de vegetación, drenaje, índices de incendios y otros más.

Captura Satelital al 30 de marzo de 2022

Hallazgos LandViewer

Por medio de la capa «Penetración Atmosférica» podemos identificar la Sierra de Santiago de color azul e identificando una parte del incendio en varias marcas color rojo.

«El Índice de Diferencia Normalizada de la Vegetación o NDVI (Normalized Differential Vegetation Index) es a menudo usado para monitorear las sequías, para monitorear y predecir la producción agrícola, para ayudar a la predicción de zonas susceptibles de incendios y para los mapas de desertización.»

Así de esta manera citamos lo que LandViewer es posible identificar en la siguiente capa y es que encontramos una oportunidad de visualizar las zonas susceptibilidad de incendios en la Sierra como tal.

En la capa de nubosidad podemos visualizar la parte de abajo del mapa que la Sierra se encuentra en un tono más rojizo esto afecta tanto a su alrededor como a la Ciudad de Monterrey como tal.

Conclusión

La concientización de lo que estamos haciendo con nuestra Ciudad y el cómo podemos identificar estas áreas de oportunidad de zonas de riesgo de incendio, a partir de conocer el dimensionamiento de la vegetación en zonas rurales son oportunidades que nos dan esta y más herramientas de análisis de datos.

Afortunadamente la Sierra de Santiago estos últimos días se ha contenido y ha arrojado aire limpio, del que nuestra ciudad respira, siendo los cerros pulmones de la Ciudad que debemos cuidar con medidas de precaución y concientización.

Análisis 9 abril 2022 «Fuego Activo» vs 24 abril 2022 «Contención de Incendio». Observa la nubosidad de la ciudad con respecto a la captura más reciente con aire más limpio después de la contención.

¿Quieres aprender acerca de esta y otras herramientas de análisis de datos?

Equipo Datlas

– Keep it weird –

¿Qué es y para qué sirve el análisis topológico de datos? – Columna de Investigación Datlas

La generación de información es algo que ha sobrepasado límites que hace no mucho tiempo eran impensables. Para 2020, la media de información almacenada mundial en internet ha sobrepasado los 35 zetabytes (1 zetabyte = 1 billón de terabytes), lo cual ha llevado tanto a la ciencia de datos como al Big Data a convertirse en herramientas clave para conseguir el éxito de organizaciones y empresas. Sin embargo, en ocasiones, es simplemente demasiada información con la cual lidiar, por lo que el proceso de análisis y de obtención de recomendaciones basadas en datos, se vuelve más lento y contraintuitivo.

Ante esta problemática, es de esperarse que nuevas técnicas y metodologías comiencen a ver la luz conforme la tecnología avanza y el poder computacional al que somos capaces de acceder aumenta también. Entre estas nuevas técnicas, hay una que se está volviendo cada vez más relevante por sus excelentes capacidades para lidiar con grandes nubes de datos y poder extraer información de utilidad de ellas; el Análisis Topológico de Datos (o TDA por sus siglas en inglés).

Para entenderla, primero tenemos que entender qué es la topología. La topología es una rama de las matemáticas relativamente joven (nació apenas en el siglo 17), y su objetivo es el estudio de las propiedades invariantes de las figuras en el espacio… Bien, lo anterior podría no tener mucho sentido a menos que se esté un tanto familiarizado con el argot matemático, por lo que ahora, para ponerlo en términos simples, usaremos el siguiente ejemplo:

Imagina por un momento una bola típica de plastilina en tus manos, todos estamos de acuerdo en que la plastilina es un material maleable, ¿verdad? Uno puede usar esa bola para hacer distintas figuras, por ejemplo, con suficiente dedicación, podemos moldear un cubo, una pirámide u otros poliedros. En matemáticas, al acto de moldear esas figuritas de plastilina, le llamamos transformación. Bueno, con esto en mente, podemos decir que una bola de plastilina es topológicamente equivalente a un cubo de la misma plastilina, puesto que podemos formar uno a partir del otro. Sin embargo, tenemos una sola regla: No se puede romper la plastilina ni se le pueden hacer hoyos. Entonces, las preguntas que se haría un topólogo sobre la plastilina son: ¿Qué es lo que hace que podamos formar un cubo a partir de una esfera? ¿o viceversa? ¿Qué aspectos de la figura siguen igual a pesar de aplicarle una transformación?

Para un topólogo, un circulo es lo mismo que una elipse, una esfera es lo mismo que un cubo, y se aplica un razonamiento similar para otras figuras. Incluso, existe un chiste un tanto popular entre matemáticos, que dice que un topólogo no puede distinguir entre una taza de café y una dona.

Ahora bien, volviendo al punto principal. ¿Qué tienen que ver las figuras de plastilina con el análisis de datos?

Si nosotros tomamos una figura y colocamos dos puntos cualesquiera sobre ella, esos puntos van a estar a cierta distancia uno del otro, ¿cierto? Por ejemplo, la distancia del trabajo a casa es un ejemplo de colocar dos puntos sobre una esfera (la tierra). Pero, ¿Qué pasa con esa distancia si la figura original se deforma siguiendo la única regla de la topología? Pues evidentemente, dependiendo de la transformación, esa distancia puede hacerse mas grande o más pequeña. Por ejemplo, si La Tierra fuera de plastilina, y la convirtiéramos en otra figura, entonces la distancia entre la casa y el trabajo evidentemente cambiaría, ¿verdad?

Bueno, el ejemplo anterior fue solamente utilizando dos puntos, la casa, y el trabajo. Pero ahora imagina una base de datos gigantesca, con millones de puntos, como las que empresas como Facebook o Google generan todos los días. ¿Esos puntos sobre qué figura están? La respuesta es muy simple, están sobre el plano cartesiano en algo que los matemáticos llamamos Rn (R a la n potencia)  . Es decir, en el espacio. Como recordaremos de la secundaría, el plano cartesiano es algo así para 2 y 3 dimensiones.

Entonces, aplicando lo que hemos aprendido, si yo tomara el plano cartesiano y lo deformo, ¿Qué les sucede a los puntos que están sobre él? Evidentemente la distancia entre ellos cambia y puntos que estarían lejos entre sí, ahora puede que estén más cerca, u otras cosas muy interesantes pueden pasar.

Además, recordemos que muchos métodos de clasificación utilizan la “distancia” como forma de afirmar si existe una similitud fuerte o no entre varias observaciones. Por lo tanto, si deformamos el plano de forma correcta, es posible que podamos encontrar patrones en los datos que de otra forma estarían ocultos para nosotros y para nuestros algoritmos. Entonces, estas nubes enormes de datos pueden ser subdivididas en clústeres más pequeños y cada uno de estos, ser unido con sus vecinos en relación con la distancia que exista entre ellos, formando así, lo que en topología conocemos como complejos simpliciales.

El TDA definitivamente es mucho más complicado matemáticamente hablando, sin embargo, es una herramienta muy poderosa que está siendo desarrollada para facilitar el trabajo con grandes cantidades de datos.

¿Quieres aprender acerca de esta y otras técnicas innovadoras de análisis de datos?

Equipo Datlas

– Keep it weird –

Referencias:

Carlsson, G.: Topology and Data., Bulletin of the American Mathematical Society no. 46 (2009) 255–308.

Eaton, C., Deroos, D., Deutsch, T., Lapis, G., Zikopoulos, P.: Understanding Big Data. Analytics for enterprise class Hadoop and Streaming Data, The McGraw Hill Companies, 2012

Kahle, M.: Random geometric complexes., Discrete and Computational Geometry 45 no. 3 (2011).

«La clase media: Los que no son pobres ni son Carlos Slim» ¿En realidad existe la clase media? (Una revisión de desigualdad social en México y niveles socioeconómicos para Nuevo León) – COLUMNA DE INVESTIGACIÓN DATLAS

Conceptos a ver en este blog:

  • Pobreza
  • Canasta básica
  • Desigualdad Social
  • Coeficiente de Gini
  • Curva de Lorenz
  • Nivel Socio Económico
  • Posibles causas de la desigualdad social
  • Porque es importante hablar de desigualdad y pobreza

México es un país rico en cultura, especies, y comida, hemos tenido artistas reconocidos internacionalmente como Juan Gabriel, contamos con especies únicas de animales endémicos y sorprendentes como el Axolote, y sazones que a cualquier mexicano le duele no tener en el extranjero. Por el otro lado, lamentablemente también somos un país con demasiada pobreza en cuestión de calidad de vida, tanta y tan variada, que para un análisis más robusto no basta con medidir las clases sociales en 3 niveles (alto, mediano, y bajo), si no, en 7. Enterate en este blog cuales son estos 7 niveles y cómo son medidos.

Antes de empezar con el tema fuerte de este blog, creemos es pertinente hablar del título, y es que es probable que al existir gente famosa en nuestro país con una riqueza enorme como lo son Carlos Slim, Germán Larrea, Alberto Baillères y Ricardo Salinas Pliego (quienes se supone tienen el 9% de la riqueza del país), pero al mismo tiempo mucha gente que muere de hambre, nos hayamos hecho alguna vez las preguntas: ¿México es un país rico o pobre? y ¿Cómo y quién mide la pobreza?

Para la primera pregunta habría que esperar al final de este blog, pero para la segunda, seremos lo más breves posibles.

Gráficas por elaboración propia. Fuente: INEGI, CONEVAL

En México la organización encargada de medir la situación de pobreza, es el CONEVAL, el cual tiene diferentes metodologías, pero la más sencilla es mediante la canasta básica. Aquí mediante muchos cálculos que buscan representar la cantidad mínima de dinero para comprar una canasta de bienes considerados indispensables, definen esta cantidad de dinero como una línea de pobreza, y si los hogares ganan menos de esa cantidad, son considerados que viven en situación de pobreza.

Nota: Es importante mencionar que para determinar esta canasta con bienes indispensables, se calcula el gasto de las familias en función de las calorías necesarias (su energía). Así como existen otras medidas de la pobreza tales como: Rezago educativo, acceso a los servicios de salud, acceso a la seguridad social, calidad y espacios de la vivienda, acceso a los servicios básicos en la vivienda, y acceso a la alimentación nutritiva y de calidad.

En la gráfica podemos contemplar cómo ha aumentado la línea de pobreza a lo largo de los años, en la izquierda tenemos su comportamiento estacional en las áreas urbanas, y a la derecha su parentezco con la inflación, pues a principios del año aumenta, para bajar en abirl, y luego seguir aumentando hasta finales del año. Esto mostrando un poco que a las personas en situación de pobreza les es más difícil sobrellevar la inflación, pues al estar la mayoría en el sector informal, sus gastos aumentan pero sus salarios no.

** También te puede interesar leer nuestra columna: “La inflación: un enemigo silencioso”

Mapa por elaboración propia. Fuente: CONEVAL

A partir de lo antes mencionado, creamos este mapa con los porcentajes de hogares en situación de pobreza según cada estado de la república. Aquí empezamos a ver uno de los temas principales de este blog, mientras que en Nuevo León el 24.33% de las personas en el 2020 se encontraban en situación de pobreza, en Chiapas el porcentaje era del 75.49%, lo cual refleja un contexto de calidad de vida completamente diferente, este fenómeno, es conocido como desigualdad social. Y aquí estamos viendo cifras comparando estado con estado, pero ¿Cómo podríamos entonces comparar a todos los ciudadanos del país?

Coeficiente de Gini y Curva de Lorenz

Para responder a esta última pregunta, una manera muy útil de medir la desigualdad, es mediante el Coeficiente de Gini, este al igual que la canasta básica, es una cifra en función del ingreso de las personas, la gran diferencia, es que esta cifra va del 0 al 1, donde 0 es igualdad absoluta (todos en México tienen la misma cantidad de dinero), y 1 es desigualdad absoluta (1 persona tiene todo el dinero del país).

En el 2021, el Coeficiente de Gini de México era de 0.503, pero en el 2018 era de 0.454 cuando al mismo tiempo en países europeos como Francia y España el el coeficiente era de 0.285 y 0.335, y en países latinoamericanos como Uruguay era de 0.397. A nivel estatal el Coeficiente de Nuevo León es de 0.447.

Gráfica por elaboración propia. Fuente: INEGI, Data NL, y European Data Lab

Al obtener los Coeficientes de Gini podemos ver que tanto vamos mejorando en materia de desigualdad y cómo están otros países. Sin embargo, si queremos ver esta desigualdad de manera gráfica y obtener otras conclusiones podemos utilizar la Curva de Lorenz. Gracias a las gráficas anteriores podemos ver dónde se acumula mayormente la desigualdad, y que el 10% de la población en México tiene el 32% del ingreso y gasto (1 – 68%), mientras que en Nuevo León solo es del 29%, y en Francia el 23%.

Nivel Socio Económico

Imagen con los Niveles Socio Económicos: A/B, C-, D, y E

Ojo, muchas veces la conversación se queda en estas cifras y distribuciones, pero después de indagar en el tema, hay algo muy importante que no estamos calculando. Y es que el Coeficiente de Gini nos muestra sólo la desigualdad de ingresos, que si bien es una de las variables más importantes para determinar la calidad de vida en la sociedad. En Datlas llevamos rato trabajando con un concepto que nos mostrará un panorama mucho más amplio de la calidad de vida en México y en Nuevo León, este concepto es el dichoso Nivel Socio Económico.

Como bien comentamos en el blog de la paridad de compra, poco importa el ingreso de las personas, si no vemos su poder adquisitivo. Un apartamento y un desayuno no cuestan igual en Ciudad Victoria y en Monterrey, entonces si alguien con cierto ingreso puede vivir muy bien en Cd. Victoria, probablemente batalle mucho más si con ese ingreso viviera en Monterrey.

** También te puede interesar leer nuestra columna: “El dólar USD está muy caro, pero ¿Más de lo que debería? – Entérate aquí cómo saber si una divisa está sobrevalorada (Poder de Paridad de Compra)”

Retomando el tema del NSE, esta métrica es medida por el AMAI y se divide en 7 niveles: A/B, C+, C, C-, D+, D, y E. Cada uno cuenta con características las cuales describen un contexto de calidad de vida diferente como se puede observar en la imagen anterior.

El A/B por ejemplo, en su mayoría el jefe de familia tiene estudios profesionales o posgrado (80%). Siete de cada diez viviendas (72.5%) tienen al menos 3 dormitorios y un 67% cuentan con al menos dos automóviles. Mientras que el nivel E, la mayoría (82%) tienen un jefe del hogar con estudios no mayores a primaria. Siete de cada diez viviendas tienen solamente un dormitorio y 83% no cuentan con baño completo. La tenencia de internet en la vivienda es muy bajo (0.3%), y más de la mitad del gasto se asigna a alimentos (52%) y solo el 1% a educación. Todas estas características están en la página del AMAI dedicada al NSE, y vale la pena leerlas para saber en cuál NSE estamos.

Fuente: AMAI

Como podemos observar, ya no solo estamos hablando de ingreso, si no, de la educación del jefe del hogar, equipamiento (si tienen televisión, refri, etc), transporte y demás. Pero, ¿Cómo se distribuye esto en los diferentes estados del país? Una Manera de verlo es mediante las distribuciones presentadas en el manual del AMAI, donde podemos ver la gran diferencia de estado a estado. En este caso en el 2020 en Nuevo León el 44% está en los primeros 3 niveles y solo el 38% está en los últimos 3. Mientras que en Chiapas solo el 15% está en los primeros 3 niveles y mucho más de la mitad (79%) está en los últimos tres niveles.

Mapa inteligente de Datlas en Monterrey, con los 7 NSE

Otra manera de ver esta distribución es en un mapa inteligente como los que tenemos en Datlas de todos los estados de la república, y de los cuales podemos obtener los datos del Censo 2020 entre otras fuentes de datos de cierto polígono de interés en cualquier punto del mapa para evaluar una ubicación.

Hasta este punto ya hemos tenido un buen recorrido por los temas más relevantes de la desigualdad social, y al mismo tiempo de la pobreza del país. Para cerrar estos temas, vale la pena mencionar que México se encuentra en el 25% de los países más desiguales del mundo, y es el segundo más desigual de la OCDE. Según Esquivel Hernández, G. (2016), mientras el PIB per cápita crece a menos del 1% anual, la fortuna de los 16 mexicanos más ricos se multiplica por cinco.

Posibles causas de la desigualdad

Cuando hablamos de causas mucho se le atribuye a que las personas tienen problemas de diversidad geográfica, étnica, política y social. Tenemos comunidades en muchos lugares rurales que son casi impenetrables y que hacen muy difícil que haya calidad educativa, acceso al crédito, etc. Sin embargo, no hay que irnos tan lejos, el problema de la pobreza se hace más grande incluso en los lugares menos margniados.

Al vivir en situación de pobreza, todo es más caro, los traslados son más difíciles por la ubicación y el tiempo del transporte, no alcanaza para comprar a mayoreo, los bancos y casas de préstamo cobran una comisión más alta para todo, por la poca confianza, y como vimos en el NSE E, el 52% del ingreso familiar se va a la comida, y con el otro 48% se debe de destinar a necesidades básicas, sin tomar en cuenta que todos estamos expuestos a algún gasto grande e inesperado como algún problema médico, alguna pandemia, sequía, o algun aumento acelerado de la inflación (pero no de los salarios). Por ende, tendría sentido pensar que el vivir en situación de pobreza es un círculo vicioso y cada vez es más difícil de salir.

Este círculo vicioso claro que es más fácil de caer en un país con las siguientes caractarísticas:

  • Corrupción. El desvío de fondos reducen los recursos destinados a las inversiones en la población más vulnerable.
  • Desempleo. La falta de empleos productivos hace que un importante segmento de la población se dedique a actividades informales de baja remuneración. En el 2021 el porcentaje de mexicanos en situación informal era del 55.8%.
  • Discriminación. Al juzgar a las personas por su situación y/o apariencia, hace que sea más difícil conseguir mejores oportunidades.

** También te puede interesar leer nuestra columna: “¿ESCASEZ DE AGUA EN NL? POR DÓNDE COMENZAR A INVESTIGAR (UNA REVISIÓN CON MAPAS Y RESPONSABLES DE LA IP)…”

¿Por qué es relevante hablar de pobreza y desigualdad?

Después de ver cómo México tiene escenarios muy diferentes a lo largo del país, esperemos y se hayan llevado la conclusión de que esto implica oportunidades diferentes, y el evadir esta clase de temas, significa no ver la imagen completa de gran parte de la población y sus problemas. De la misma manera, nos invita a reducir desde nuestra trinchera las posibles causas de desigualdad social.

Que el privilegio no te nuble la empatía

– Ita María

Hasta aquí la columna de hoy, esperemos se hayan quedado con varios conceptos interesantes de economía, y cómo muchas veces los aplicamos los analistas de datos. Y ustedes, ¿En qué NSE se encuentran? ¿Qué les pareció la columna?


Equipo Datlas

– Keep it weird-

Fuentes:

¿ESCASEZ DE AGUA EN NL? POR DÓNDE COMENZAR A INVESTIGAR (UNA REVISIÓN CON MAPAS Y RESPONSABLES DE LA IP)… – DATLAS COLUMNA DE INVESTIGACIÓN

Los niveles del agua han estado muy bajos en Nuevo León por sequías prolongadas, previsiones de hace 3 ó 4 años que no se ejecutaron correctamente por gobiernos, consumos importantes de empresas y , seamos honestos, un descuido en algunos casos por parte de los ciudadanos. Tan pronto terminó el caos por el COVID-19 ahora toca la situación del agua y en esta columna queremos aportar nuestro granito a la investigación de la situación de escasez del agua.

En esta columna instruiremos de cómo consultar mapas satelitales para identificar impactos en las presas de Nuevo León así como tocaremos base con fuentes secundarias que han encontrado alternativas ágiles para confrontar a esta problemática.

Escucha nuestro podcast sobre este tema:

Situación Actual

La demanda de tambos y ROTOPLAS a la alza y preocupación generalizada por la baja presión del agua. Las alternativas de almacenaje de agua son reducidas, además a un menor flujo de agua, se ha detectado un líquido más impuro ¿La ocasión? Principalmente la escasez de agua provocada por niveles de lluvia menores a la media. Adicional , según MILENIO con datos de Agua y Drenaje Monterrey, el consumo de agua en hogares incrementó un 30%.

En consecuencia, los niveles de las presas están muy bajo. Llama la atención porque, aún y cuando más del 50% del agua que llega a los regiomontanos viene de arroyos, ríos y ___ . Las presas son el reflejo de

En algunos momentos las autoridades regionales han recomendado almacenar agua previo a los cortes.

¿Cómo monitorear una presa?

Podríamos comenzar utilizando la plataforma de GOOGLE TIMELAPSE. Esta es gratuita y está en línea.

Después de encontrar zonas de enfoque, por ejemplo, la presa de la Boca en Nuevo León. Podemos usar plataformas como LANDVIEWER para consultar imágenes satelitales de distintas fechas.

Paso 1 – Se registran coordenadas y se dimensiona el cuadrante de dónde se quieren obtener imágenes satelitales

Paso 2 – Se carga el raster y se puede ir modificando por fechas

Paso 3 – Se puede usar la herramienta de contraste para evaluar el antes y el después

Resultados de Pasos a seguir

Febrero 2022 Vs. Diciembre 2022

¿Qué cuidados inmediatos pueden acordarse? (IP y Ciudadanos)

Buscar el 80/20 ; esa concentración de pocos usuarios que consumen niveles altos de agua. Si nos enfocamos en esto, tendríamos que voltear a las empresas de Nuevo León. De acuerdo @tonyo_hernandez Entre las 14 empresas con más altos volúmenes se encuentran las siguientes:

Para los ciudadanos, la receta es cortes programados.

¿Cuál es el siguiente paso? Mayores controles si es que en los meses que siguen no llegan lluvias. Pero por otro lado, hay suficiente información para plantear mejores escenarios de negociación con otras empresas. También así solicitar apoyos a la federación y seguir concretando charlas como con gobiernos de Veracruz para trasladar más agua. Platícanos tu opinión en @datlasmx y dinos ¿Cómo deberíamos de seguir cuidante el agua?

Fuentes:

¿Que es la Web 3.0? (Parte 2/2) – COLUMNA DE INVESTIGACIÓN DATLAS

Web 3.0– Investigación Datlas

** Para ver la Parte 1 de este blog puedes dar click aqui: Web 3.0 (Parte 1/2)

Parte 2 de 2

Esta columna que habla de la nueva generación del internet, la web 3.0 es la segunda parte, te invitamos a leer la columna anterior si no lo has hecho aún.

Previamente hablamos un poco de la historia del internet, dese su inicio al público en general en los 90’s y de cómo actualmente nos encontramos en la segunda generación del internet.

Las diferencias más grandes entre la primera y la segunda siendo la conectividad en cantidad de personas y velocidad de acceso, así como la bidireccionalidad, antes éramos solo el público y ahora participamos activamente creando contendió.

En la columna pasada tocamos algunos conceptos de la web 3.0, como la web semántica. Pero hay muchos otros conceptos que forman parte de esta nueva generación del internet, a continuación, platicaremos de algunos de ellos.

dApps

Las dApps o Aplicaciones Descentralizadas de primera vista parecen ser igual que las aplicaciones a las que estamos acostumbrados y esto es porque en si la interfaz, el diseño visual y la manera en la que interactuamos con ella, es prácticamente igual a una app tradicional.

El cambio sucede detrás de cámaras, la ingeniera atrás de cómo funciona la aplicación, las acciones que toma al salir de tu celular. Actualmente la mayoría de las aplicaciones se comunican con los servidores de la compañía que es dueña de es aplicación, es decir si mandamos mensajes por WhatsApp, esa información está siendo procesada por los servidores de Meta (antes Facebook). Las dApps no tienen un servidor central que procese la información, el código y los protocolos de esa aplicación corren en una red descentralizada, actualmente la manera más popular de hacer esto es mediante el uso del Blockchain de Ethereum, la cual se utiliza para su almacenamiento y contratos inteligentes.

Imagínate una maquina despenadora de tu marca de refrescos favorita, esta máquina tiene un set de reglas o lógica, si le das el monto adecuado para la selección que estás haciendo, te da el producto que gustas. Estas reglas para una dApp se almacenan en esta red descentralizada donde se administra las transacciones o acuerdos entre usuarios.

Un efecto de este sistema que podríamos hacer el argumento a favor o en contra seria que una vez que se despliega la lógica en el Blockhain de Ethereum no se puede alterar ni por el usuario ni por la compañía.

NFT

Los NFT por sus siglas en ingles Non Fungible Tokens son un activo digital usado para validar la autenticidad de un activo.

Sin duda has visto la definición de NFT en varias ocasiones, pero si quieres conocer más, te invitamos a leer nuestra columna acerca del tema:

Por el momento quédate con la idea de que un NFT es: Digital, usado para verificar autenticad y uno de sus aspectos más importantes, No duplicable.

¿Pero que contexto toman los NFTs en la Web 3.0?

Hasta el momento hemos hablado de como la nueva generación del internet va a explicarse mejor a las maquinas que la leen y de como una aplicación puede dejar de correr en los servidores de una empresa y correr en una red descentralizada. Pero pregúntate quien es dueño de que en este nuevo internet. La respuesta a esa pregunta depende muchos de las circunstancias, pero lo que te podemos decir ahorita es que hay una tecnología que vive en internet de manera descentralizada para otorgar y verificar el estado de “dueño” de un activo.

Actualmente los NFTs parecen ser usados para verificar quien es el dueño de imágenes, sin duda una utilización interesante de esta tecnología. Tarjetas de béisbol o Pokémon + Blockchain.

Ten en mente que esta es solo una aplicación que se le da actualmente a los NFTs, en el futuro podríamos ver que esta tecnología se aplica para verificar quien es el dueño de un activo que actualmente se verifica en papel.

Alunas propuestas e ideas que existen es el de verificar con NFTs quien es el dueño de un vehículo, adiós instituto de control vehicular o una propiedad inmueble, ¿te imaginas comprar una propiedad desde tu celular? Igual y algún día.

Realidad aumentada y realidad virtual

Desde mucho tiempo tenemos estas tecnólogas y parece ser que siempre las promueven como lo que sigue y la sustitución de cualquier forma de entretenimiento. La realidad ha sido muy diferente, desde proyectos fallidos de Google con Google Glass en el 2003 hasta el Niño Virtual de Nintendo (Nintendo Virtual Boy) en 1995.

Pero estas tecnologías siguen poniéndose más interesantes cada año y podemos mencionar más casos de éxito a como pasa el tiempo.

Algunos casos interesantes que podemos mencionar son el uso de realidad aumentada es en el campo de los videojuegos, como Ingress o el éxito más popular, Pokémon Go.

Pero el uso de realidad aumenta tiene muchos otros usos en distintas industrias. Se usa en manufactura para aplicaciones de control de calidad, en la construcción para asistir en la colocación de materiales, en medicina para entrenar a nuevas generaciones de doctores, enfermeras y cirujanos, entre otras aplicaciones.

Una de las compañías que esta más interesada en que se adopte de manera masiva la realidad virtual es Meta (antes: Facebook), te invitamos a leer más en la siguiente columna:

Monetización

El modelo actual de generar dinero en la web 2 es donde te alias con una compañía, generas contenido y la riqueza generada se divide de alguna manera entre los 2.

Algunos de los primeros casos es el programa de monetización de YouTube (YouTube Partner Program).

Si lo vemos desde el lado de la compañía podemos enlistar los siguientes pasos:

  1. Compañía lanza una aplicación.
  2. Introduce como usuarios a la cantidad máxima posible.
  3. Monetiza a esos usuarios.

Una de las maneras más comunes es mediante la colocación de anuncios entre el contenido generado por los usuarios.

Este es tan solo un modelo sencillo de muchos, otras maneras de monetizar actualmente son mediante el uso de donaciones, Patreon (https://www.patreon.com/) siendo una de las plataformas más populares o mediante el uso de suscripciones, las cuales son muy comunes en la plataforma de Twitch (https://www.twitch.tv/), pero otras compañías se han dado cuenta del valor de estos mecanismos y están desarrollando sistemas similares.

Estos sistemas tienen algo en común, no son relaciones directas ente un generador de contenido y su audiencia, tienen un intermediario que toma un % de la transacción.

La web 3.0 propone una nueva manera de monetizar el contenido generado, uno que es más directo entre autor y público.

El primer ejemplo de esta relación nueva es la creación de un Token. Como lo platicamos anteriormente una persona puede crear un NFT que no se duplica y es transferible. Qué pasa si les vendemos a nuestros fans un NFT que les de acceso a nuestro contendió o algún extra. Hay muchas maneras de hacer uso de los Tokens, puedes darles acceso a chats privados, galerías de imágenes reservadas para los suscriptores o algún otro incentivo para que compren tu Token.

Otro caso que hemos visto que no es muy común, pero se nos hizo interesante, es el de un deportista profesional. Este individuo propuso generar tokens que representen un % de sus ganancias en este deporte, es decir que estaba generando acciones en su carrera profesional.

Las personas que compraran un Token tendrían acceso a los dividendos al final de cada año.

Estos conceptos y otros serán la norma de la monetización en el futuro del internet, pero aun un montón de retos que superar, desde los marcos regulatorios hasta el cambio que se va a generar en el contexto artístico. ¿Crear arte por el arte o por el dinero?

Blockchains de acceso libere

Un Blockchain, aunque este descentralizado tienen barreras de entrada. Existen operadores que pueden o no limitar acceso. El futuro de la web 3.0 se construirá en Blockchains que estén libres de porteros o “gatekeepers” que limiten el acceso.

Interoperabilidad

El futuro del desarrollo para la web 3.0 seria cada vez más sencillo, el marco para desarrollar dApps es igual para cualquier celular. En un futuro desarrollar software que corra en una televisión, celular o computadora será más fácil de lo que es actualmente. O por lo menos esa es la propuesta de la nueva generación del internet.

Conclusión

El internet y la infraestructura que lo acompaña ha sido una maquina en evolución desde sus primeros inicios en 1973 con ARPANET y la creación del World Wide Web en 1989 en CERN. Algunos cambios más actuales son la sustitución de líneas de cobre por fibra óptica y quien sabe de qué manera nos llegará el internet en el futuro, si le preguntamos a Elon Musk será mediante el uso de su constelación de satélites conocida como Starlink.

Algunas ideas del futuro ya incluyen la 4ª generación del internet, un concepto muy abstracto que dice que el internet va a desaparecer, no realmente, pero se refieren a que se va a integrar tanto a nuestras vidas, que lo vamos a dejar de notar. Como un pez en el lago ya no nota el agua.

-Equipo Datlas-

¿Que es la Web 3.0? (Parte 1/2) – COLUMNA DE INVESTIGACIÓN DATLAS

Parte 1 de 2

¿Qué es la web 3 o 3.0 y de qué manera va a cambiar la forma en la que navegamos en internet? ¿Cuáles son los grandes aspectos o conceptos que hay que dominar en la web 3.0 para tener una experiencia positiva?

Si estas leyendo este blog, lo más probable es que domines el uso del internet y hay pocas cosas que te sorprendan al navegar.

Si quieres estar preparado para la nueva generación del internet y tener una experiencia agradable, te ayudamos con una explicación sencilla de los cambios que están por venir.

Esta Investigación Datlas de la Web 3.0 estará dividida en dos partes.

En esta primera parte veremos la historia de la web hasta la fecha y una introducción de la web 3.0, acompáñanos la síguete semana a leer más a profundidad de la web 3.0 hasta una pequeña visión de que sigue más adelante con la web 4.0.

** También te puede interesar la historia de las TICs:

Historia

Para explicar bien en que consiste la nueva generación del internet, la web 3.0, necesitamos irnos al pasado y entender bien que comprenden las primeras dos generaciones de internet, la web 1 y la web 2.

Web 1.0

1990 al 2005

Sin duda no es el inicio de lo que ahora conocemos como el internet, pero si es el inicio de un uso común o no especializado.

Iniciando en 1990 el acceso al internet se veía como páginas web básicas, los protocolos de conexión iniciaban con HTTP y XML.

Nacieron los proveedores de internet y habilitaron la conexión vía modem con línea telefónica.

¿Quién recuerda ese ruido que se escuchaba al levantar el teléfono de una línea conectada a internet?

Sonido de MODEM

Al mismo tiempo inicia el desarrollo de la web con lenguajes de programación como Java y Javascript.

Era el inicio del internet y aunque mucha gente no entendía que era o el potencial que tenía, cambiaria la vida de todos de una manera sorprendente.

Web 2.0

2006 a la fecha

El termino Web 2.0 fue creado por Darcy DiNucci, usando el termino en una edición de “Print Magazine” con el propósito de ponerle nombre a un nuevo paradigma en comunicación, donde el principal cambio seria la comunicación bidireccional.

Piensa en una revista, periódico o una página de internet de la web 1.0, ¿Qué tienen en común estos medios? Todos se comunican en una sola dirección, yo publico, tu lees y se termina la relación.

Este fue el gran cambio que se logró al brincar a la segunda generación del internet, comunicación bidireccional, yo púbico y tu comentas.

Pero este cambio no solo fue poner una sección de comentarios al final de la columna como en este blog. Los cambios van más allá de solo eso, piensa en los grandes cambios del internet alrededor del 2006, estamos hablando de Facebook, YouTube, Instagram, Twitter, y por qué no, los que se adelantaron a sus tiempos, MySpace, Bebo y hasta Fotolog.

Todas estas tienen algo en común, ya no solo es un grupo editorial generando contenido, si no que habilitan a los usuarios a generarlo. Habilitando una comunicación directa entre un creador de contenido y su audiencia. Ya sean tus tías en Facebook o tus seguidores en Instagram, estas habilitando una nueva experiencia web, la web 2.0

¿Cuáles son otros grandes cambios de estos tiempos?

El acceso al internet y por acceso son dos cosas, una la manera en la que lo consumimos, de una computadora de escritorio a una portátil a un celular. Recuerdo la primera vez que revise una página web en mi celular, lo inservible que era. Y ahora parece que las grandes compañías diseñan para un internet de celular primero. Tenemos granes experiencias en nuestros celulares que solían ser impensables antes, ¿Cómo una pequeña pantalla puede generar una experiencia igual o superior a la de una computadora? Años de desarrollo en UI y UX lo han logrado.

Otro acceso que tenemos que mencionar el porcentaje de gente que tiene acceso a internet.

No solo en México, si no en el mundo entero. Ahorita mucha gente ve el internet como una necesidad, y con justa razón dado que nos ha habilitado a estudiar, trabajar, aprender, hacer amistades y jugar a distancia. Sin duda el internet es una herramienta que ha transformado la manera que vivimos, y estos últimos 2 años y medio han logrado convencer a muchos que antes tenían sus dudas.

Porcentaje de usuarios de internet en México, 2000 -2019

Fuente: Statista

La manera en la que navegamos también se ha transformado desde que inicio la era del celular inteligente.

Antes eran solamente páginas de internet para el usuario común, ahora lo consumimos mediante el uso de aplicaciones.

Miles de aplicaciones en la punta de tus dedos y cientos llegando cada día, y estas siendo de todos los tipos posibles, unas indispensables y otras que usas una vez y ni te acuerdas de que tienes en algún rincón de tu celular.

Otro gran cambio relacionado a los celulares es que estos se han convertido en pequeños estudios para generar contenido. Desde grandes avances tecnológicos en micrófonos, cámaras y almacenamiento de información, hasta la habilidad de transmitir gran información de manera instantánea.

Es común que se transmita en vivo desde cualquier lado, un derecho reservado que antes solo las grandes cadenas de noticias internacionales podían lograr y esto mediante el uso de satélites y antenas satelitales ancladas en los techos de grandes vehículos. ¿imagínate el costo de algo así?

Fuente: BBC

El ultimo concepto que queremos tocar en esta columna de Web 2.0 es los datos, creo que es un tema importante para el blog de una startup de analítica de datos.

¿Cuántos datos se generan en el mundo?

La cantidad de información generada ha y seguirá creciendo exponencialmente.

Cada año que pasa hay más usuarios de internet, y cada uno de ellos genera más información mediante la generación de contenido más pesado, antes subíamos una foto de baja resolución, ahora queremos subir nuestro contenido en alta resolución. ¿Por qué no grabar en 4K la posada si nuestro celular puede hacerlo?

¿Quién está generando todos estos datos?

Sin duda nosotros los usuarios generamos muchos datos, pero ahora tenemos millones de usuarios de internet que no son personas.

El internet de las cosas o el “IOT” por sus siglas en inglés, genera una cantidad considerable de datos. Cada pregunta para Alexa, Siri o Google o cada vez que le pides a tu foco inteligente que cambie de color, o tu timbre que ahora está conectado a internet para ver que toca desde tu celular. Sin duda nos podemos imaginar cientos de ejemplos donde interactuamos con un dispositivo conectado a internet en nuestras vidas. Antes nos teníamos que preocupar por lo que visitamos en internet, ahora nos preguntamos qué hacen nuestros tostadores con el acceso a internet que les damos.

¿Quién es dueño de estos datos generados?

Esta pregunta es difícil de contestar, no todos los datos se generan igual. Y si hay situaciones donde la respuesta es menos complicada, si tomo una foto con mi celular de manera casual y no en un contexto profesional con contratos, yo soy el dueño. Pero: ¿Quién es el dueño de los clics que hago al navegar por una tienda en línea?

Digamos que navego por una tienda en internet, esta tienda va a almacenar toda mi interacción, cada clic que hago, los tiempos que estoy en la página, la ruta que tomo entre distintas partes de la página y en algunos casos la posición de mi cursor.

Qué pasa si hay una compañía que su modelo de negocio se enfoca en saber más de nosotros y hace un esfuerzo de almacenar nuestra interacción con el internet, no solo su página, si no que le da servicio a otras páginas y esta compañía puede seguirte y tus clics entre muchas de la paginas que utilizas.

El día de hoy esto es una realidad, hay herramientas para monitorear y grabar las interacciones que tenemos con el internet, esto por lo general se hace para hacer un perfil de nosotros que posteriormente se puede utilizar como herramienta de marketing. Estas compañías son dueñas de los datos que almacenan de nosotros y claro esta que es un tema complejo y lleno de regulaciones y leyes, las cuales cambian dependiendo del país o región donde nos ubiquemos.

** Te puede interesar «Los 5 perfiles para analítica en una organización»

Web 3.0

El termino web 3.0 actualmente se les atribuye a varias personas, pero el primer uso de este término fue por Tim Berners-Lee al hablar de la “red semántica” en su visión del futuro.

El internet semántico es tan solo un aspecto de la nueva generación del internet, también tenemos que considerar las dApps, nos NFTs, realidad aumentada y realidad virtual, inteligencia artificial, el futuro de la monetización por los usuarios de su contenido, blcokchains de acceso libre e interoperabilidad, entre otros conceptos.

¿Qué es el internet semántico?

Este concepto describe un aspecto de la nueva generación de internet. Es una extensión del internet actual en donde las maquinas son capaces de leer los datos que hay en internet.

El “World Wide Web Consortium” ha propuesto iniciativas para lograr que la nueva manera de construir páginas web, incluyan este tipo de información.

En la practica la manera que se vería esto es añadiendo metadatos semánticos y ontológicos en internet.

Estos contenidos que se proponen agregar describen el contenido, el significado y la relación entre los datos.  Los metadatos semánticos describen y dan contexto a los recursos de la web y los metadatos ontológicos le explican a las maquinas que leen las páginas web la jerarquía de conceptos con atributos y relaciones. La ontología es explícita por que define los conceptos, formal por que es legible e interpretable por las máquinas, y es una conceptualización porque es un modelo abstracto y una vista simplificada.

El internet semántico es una parte importante de la web 3.0, pero no es la única, te invitamos a leer la siguiente columna de este blog donde tocaremos otros temas relacionados a la nueva generación del internet.

-Equipo Datlas-

Caso de Estudio: Popular Times de Google para 20 lugares de Nuevo León – COLUMNA DE INVESTIGACIÓN DATLAS

En este blog se explica cuál fue el análisis del cambio en recurrencia de 20 lugares característicos en Nuevo León, a través de una API se logró obtener información del Popular Times de Google para los años 2020 y 2022

¿Qué es y cómo funciona un api?

La expresión Application Programming Interface o en español, Interfaz de Programación de Aplicaciones, originó el acrónimo API. Las API son «traductores» cuya función es conectar sistemas, software y aplicaciones. Con las API es posible ofrecerle una experiencia de uso más familiar a las personas

¿Qué es y cómo funciona Popular Times de Google?

Para determinar los horarios populares, los tiempos de espera y la duración de las visitas, Google utiliza datos agregados y anónimos de los usuarios que han optado por el Historial de ubicaciones de Google. Los horarios populares, los tiempos de espera y la duración de las visitas se muestran para su empresa si recibe suficientes visitas de estos usuarios. No puedes agregar manualmente esta información a tu ubicación, y solo aparece si Google tiene suficientes datos de visitas para tu empresa

Los datos de la visita pueden incluir:

  • Gráfico de horas populares
  • Datos de visitas en vivo
  • Duración de la visita
  • Estimaciones de tiempo de espera

Visualizar la información de visitas comparando los años 2020 y 2022 con información de calificación, número de calificaciones y conteo de popularidad

Fuente: Elaboración propia con Popular Times de Google

Fuente: Popular Times de Google

El caso de estudio contempla 20 lugares dentro de Nuevo León, la intención es observar con datos de Google como se califica ese lugar, cuántas calificaciones se dieron y su actual popularidad tomando como referencia el mes donde se hizo la captura de la información. En este caso se obtuvieron datos de 20 lugares característicos de Nuevo León, la primera captura se realiza en Julio del 2020, la segunda se hace en Febrero de 2020. Los lugares que se analizaron son los siguientes:

  • Arena Monterrey
  • Bioparque Estrella
  • Cintermex
  • Cola de Caballo
  • Estadio BBVA
  • Estadio de Béisbol Monterrey
  • Estadio Universitario
  • Grutas de García
  • Macroplaza
  • Mirador del Obispado
  • Museo de Historia Mexicano
  • Museo del Noreste
  • Museo del Palacio Municipal
  • Museo MARCO
  • Palacio del Obispado
  • Parque Ecológico Chipinque
  • Parque Ecológico La Huasteca
  • Parque Fundidora
  • Paseo Santa Lucía
  • Presa de la Boca

Cabe destacar que se tienen ciertos alcances en el análisis de la información ya que algunos lugares no presentaban información al momento de la captura de información.

Diferencia de calificación por año 2020 vs 2022

Mueso MARCO, La Huasteca, Chipinque son los lugares que tenían una mayor calificación comparado con el 2022, por otro lado el lugar Cola de Caballo es mejor calificada por los usuarios en 2022

Fuente: Popular Times de Google

Diferencia de conteo calificación por año 2020 vs 2022

Reiterando el alcance del estudio: No todas las ubicaciones presentan información. Por ende se analizan solo los lugares que cuentan con información

La Macroplaza se lleva el #1 del conteo de calificaciones por los usuarios en ambos años, cabe destacar que el conteo de información es mayor en 2022 dado que las calificaciones que se toman del lugar es un acumulado de años previos

Fuente: Popular Times de Google

Diferencia de popularidad por año 2020 vs 2022

Cintermex es de los lugares más concurridos durante el 2022, mientras que la popularidad del Parque Chipinque se reduce en estos daños pudiéndose explicar por la reducción en el aforo de las personas

Fuente: Popular Times de Google

Como conclusión existen oportunidades inexploradas de los datos de Google en horarios populares dentro de la academia y los negocios

  1. Los datos populares de Google representan una mina de oro de datos hasta ahora inexplorada para los investigadores
  2. Construir un propio visualizador de mapas de Google y recopilar datos en tiempos populares en las ubicaciones registradas en el mapa de Nuevo León
  3. Mostrar cómo se puede geo-codificar y mapear todas estas ubicaciones sin costo alguno, y cómo puede aprovechar estos rastros digitales para obtener información sobre las diferencias interculturales en los presupuestos de tiempo (es decir, cómo las personas en una cultura en particular tienden a pasar su tiempo)
  4. Enfocar las fuentes de sesgo y otras trampas potenciales al usar los datos de Google Popular Times con los que los futuros investigadores deberían lidiar al configurar su investigación

** Te puede interesar nuestro ejercicio de levantamiento de información usando sensores, cámaras y antenas en festivales masivos.

Hasta aqui la columna de hoy. Síguenos en @DatlasMX para mantenerte al tanto de nuestros nuevos episodios de PODCAST «CAFÉ DE DATOS» TEMPORADA 5 o los lanzamientos de DATLAS ACADEMY.

Equipo Datlas

– Keep it weird –

San Valentin Geográfico para Nuevo León ¿Dónde hay más Casad@s y Solter@s? – Columna de Investigación DATLAS

Es día de San Valentin. Una festividad que, al menos en México , se celebra cada 14 de Febrero y nos hace recordar el amor en las parejas. Y aunque no solamente se tiene/debe expresar un día el año, es importante traer a la mesa su significado. Los Institutos estadísticos de los países, por reglas oficiales, cuantifican la cantidad de Población soltera, casada, separada y/ viuda en sus censos. En este blog tomaremos esas y otras estadísticas para compartir algunos hallazgos para el Estado Norteño de Nuevo León, México

Nuevo León es un Estado donde se cuantifican poco más de 5M de habitantes en sus zonas urbanas.  Particularmente en este Estado, en contraste con México en general, habitan más hombres que mujeres.

En cuanto a las estadísticas básicas, y cuando hablamos de personas de 12 y más años de edad, nos encontramos con que la mayoría de sus habitantes están Casados. Después la categoría de solteros y finalmente Separados y/o Viudos.

En términos comparables, y para el resto del ejercicio, usamos una base de 1000 habitantes para generar los siguientes indicadores:

556 personas por cada mil están casadas. 334 por cada mil están solteras y 110 por cada mil están viúdas o separadas

A Niveles Totales

Generamos una tabla de datos para 3 condiciones: Solteras, Casados y/o Separados-Viudos. En esta imagen el ordenamiento es por casados.

Top Municipios por Casados

Municipios a las afueras de la zona metropolitana es donde se excede por 100 personas, aproximadamente, el nivel a nivel Estatal de Población Casada.

Top Municipios por Solteras

Podemos «rankear» los municipios por orden de personas solteras. San Pedro y San Nicolás son las zonas con más solteros mayores de 12 años, según datos del CENSO INEGI 2020

Top Municipios por Separados y/o Viudos

Finalmente, de Separados y Viudos, algunas zonas también a las afueras de la ciudad

A nivel Suburbio (AGEB)

Top Suburbios por Población Casada

Top Suburbios por Población Soltera

Top Suburbios por Población Separada y/o Viuda

Para el cierre, revisamos la fuente «Exploding Topics» registramos que «autoamor» o «self-love» es de lo más revisado

Hasta aqui la columna de hoy . ¿Qué te parecieron las imágenes de nuestros mapas? ¿Ya ubicaste dónde dar serenata? Cuéntanos cómo la pasarás este día en nuestras redes @DatlasMX y si encuentras algún otro dato interesante

Equipo Datlas

– Keep it weird-

Las 5 de Datlas en tendencias camino al SuperBowl LVI – COLUMNA DE INVESTIGACIÓN DATLAS

Estamos a muy pocos días de vivir uno de los eventos más grandes del Futbol Americano para aquellos conocedores y apasionados a este deporte en dónde los Bengalies de Cincinnati se enfrentarán en la casa de los Rams de los Ángeles en el SoFi Stadium el próximo domingo.

En Datlas nos gusta monitorear datos en tiempo real y más si son temas que dan mucho de que hablar, pues esta columna esta dedicada a todas aquellas tendencias de los fieles seguidores de la NFL que han estado haciendo estas búsquedas camino al SuperBowl.

Acompáñanos en la siguiente columna para explicarte más acerca de esta metodología y las 5 tendencias más buscadas en la internet por parte del próximo partido de la NFL.

Para la realización de este ejercicio se utilizo la herramienta de Google Trends para analizar cada una de las tendencias que mostraremos durante el blog.

Tendencias Google (Google Trends, en inglés) es una aplicación de Google que permite monitorear las búsquedas de ciertos términos claves a través de los motores de búsqueda de Google y su red.

Qué es Google Trends y cómo podemos sacarle partido - ProximaHost

La herramienta permite ver el histórico de búsquedas, comparar contra otras palabras claves, segregar las búsquedas por geografía y más.

La medición de estas tendencias es con base a un indicador de 0 a 100 que se va contabilizando por día. El valor de 100 significa que, durante el horizonte temporal analizado, ese día se llego al nivel máximo de búsquedas relativo a otros momento durante ese período de análisis

1. «NFL»

Comenzamos con el termino «NFL» en los últimos 5 años, uno de los insights más relevantes que podemos observar es que el incremento en las búsquedas en relación a los demás años es notorio para la actual temporada de 2021-2022 como se muestra en la siguiente gráfica:

*Consulta «NFL« vía Google Trends realizada el 10 de febrero de 2022

Además de que podemos analizar que EEUU es unos de los países con mayor número de búsquedas para «NFL» le sigue Canadá, México, República Dominicana y después Irlanda como su TOP 5.

2. «Super Bowl»

*Consulta «Super Bowl» vía Google Trends realizada el 10 de febrero de 2022

«Super Bowl» es uno de los términos más buscados en estas fechas debido a la proximidad del evento de acuerdo a los datos de últimos 5 años, notamos que 2018 fue uno de los mejores años en búsquedas vía Google pues en ese entonces el Super Bowl LIII dónde las Águilas de Philadephia derrotaron a los Patriotas de Nueva Inglaterra.

NFL: Super Bowl 2018: Resumen y resultado de la victoria de los Eagles en  la final de la NFL | Marca.com
Super Bowl 2018

Dentro de la gráfica en esta terminología podemos notar que a diferencia de los años pasados se encuentran un número bajo de búsquedas debido a que el Super Bowl de este año se recorrió una semana por temas agregación de partidos.

*Consulta «Super Bowl« vía Google Trends realizada el 10 de febrero de 2022

Hablemos de los temas y consultas más relacionados al buscar «Super Bowl» por nuestro navegador de Google, dentro de este análisis podemos observar una búsqueda guiada a eventos pasados como 2018 y 2019 ¿Será que la gente le gusta estar informada de la historia antes de ver esta edicions?

*Consulta «Super Bowl« vía Google Trends realizada el 10 de febrero de 2022

3. «Super Bowl Tickets»

Quien quiera ir al Super Bowl deberá estar ahorrando todo el año para poder pagar su entrada y es asi como las tendencias se comportan de una manera extraña (color amarillo) para empezar a realizar sus proyecciones de cuanto pagaran por un boleto para ver a los mejores equipos de la NFL antes del evento.

*Consulta «Super Bowl Tickets» vía Google Trends realizada el 10 de febrero de 2022

2018 ha sido uno de los mejores años en dónde a las personas les ha interesado asistir al Super Bowl en relación a los demás años, ¿pero que ocurrió en 2020? vemos de que manera la tendencia es muchísimo más baja en contraste a los otros años…esta pandemia !si que pego duro!

Mientras observamos 2021 es uno de los años prometedores pues la tendencia va a la alza ¿crees que las personas hayan ahorrado lo suficiente resguardadas del COVID?

A continuación te mostramos los precios promedios de las zonas para asistir al Super Bowl LVI:

Puede ser una imagen de texto que dice "SEAT Super Bowl LVI: Cincinnati Bengals GEEK Sun Feb 13 at 3:30pm Quantity $5,474 Low prices $6,703 Best seats Inclu $6,162 $5,979 F447 $10,182 $9,345 $5,874 $14,960 $6,942 $9,719 $15,487 6,632 $8,415 $22,902 $10,413 $7,241 $12,809 RAMS 6,229 $10,182 $5,785 $9,326 $6,374 $13,115 403 $9,812 $6,959 $23, $23,141 212 $16,267 $5,193 334 $9,111 $7,868 VIP219 $15,4 From $6,556 $8,1 Section 422 listing $5,724 4110 $6,259 $5,682 View list"
Precios en USD en diferentes zonas del SoFi Stadium para el Super Bowl LVI, Fuente: Seat Geek
Puede ser una imagen de texto que dice "ACADEMY DATLAS SIMPOSIUM datlasacademy.com POWERED 24 de Febrero Miércoles 23 de Febrero Conferencias Horario del evento 2:30a7p.m DANIEL MONTOYA INNOVATION JUAN ANTONIO GONZÁLEZ HEAD OF DATA AND ANALYTICS RAGASA PANEL MAURICIO MAGDALENO DIRECTOR CLÚSTER DE TURISMO LEON LUCÍA GARZA P OSVALDO SILVA COORDINADOR DE NUEVOS PROYECTOS|U- CALLI Jueves 24 de Febrero Talleres Horario del evento 9:30 a.m. FERNANDA TREJO DENSIDAD CANAL MASIVO CÉSAR MONTEMAYOR CO-FOUNDER CBDO SORA ISAAC CARRADA PRODUCT MARKETING MANAGER PADESALADRS DESARRO MICROSOFT EVANGELISTA ECNOLOGICO CONFERENCISTAA CIBERSEGURIDAD CLOUD Adquiere tu boleto en: www.bit.ly/SimposiumDatlasAcademy umDatlasAcademy Asistencia Virtual* DATLAS® www.datlas.mx CIIA Actividad Formación Integral H IISE"

4. «Espectáculo de medio tiempo del Super Bowl»

*Consulta «Espectáculo de medio tiempo del Super Bowl» vía Google Trends realizada el 10 de febrero de 2022

Muchas personas desean disfrutar del gran espectáculo del partido…otras prefieren sólo disfrutar del espectáculo del medio tiempo pues !Vaya artistas! y es que retrocedamos un poco al pasado a 2019 dónde se presentaron Maroon Five, Travis Scott y Big Boi aquel 3 de febrero en el Mercedes-Benz Stadium dándo uno de los mejores experiencias a espectadores del Super Bowl.

Vaya congruencia con los datos que traemos pues es muy notoria la tendencia en 2019 en contraste a los años pasados y siguientes, 2022 ¿Qué esta sucediendo? ¿Será que Dr. Dre, Eminem, Snoop Dogg, Mary J. Blige y Kendrick Lamar irán a la alza o se quedarán por debajo de Maroon Five?

Watch Super Bowl 2019 halftime show: Maroon 5, Big Boi and Travis Scott  take the stage - ABC7 San Francisco
Show de medio de tiempo del Super Bowl, 2019

5. «Super Bowl vs Copa Mundial de Clubes de la FIFA vs Bad Bunny»

Si de temas de actualidad vamos a hablar aparte del Super Bowl ¿Qué tal el Mundial de Clubes? o el lanzamiento del Tour de Bad Bunny en estas últimas fechas !Que locura!

*Consulta «Super Bowl vs Copa Mundial de Clubes de la FIFA vs Bad Bunny« vía Google Trends realizada el 10 de febrero de 2022

Echémosle un vistazo a estas tendencias que han estado estos últimos 30 días en las noticias, y es que el Super Bowl sigue siendo de los eventos más buscados, seguido de un comportamiento a partir de 24 de enero con el lanzamiento del Tour 2022 de Bad Bunny y la locura de su venta de boletos en línea.

De esta manera también vemos un comportamiento relativo con el inicio de los partidos del mundial de clubes estas últimas semanas a partir del 3 de febrero, pregúntenle a su amigo regio y rayado de corazón ¿Cómo le fue? he ahí sus búsquedas para ver como quedaron sus equipos favoritos.

Hasta aquí la columna de hoy, déjanos tus comentarios acerca de esta lectura y recuerda que estamos próximos a nuestro 1er Simposium Datlas no olvides inscribirte por medio de este link: www.bit.ly/SimposiumDatlasAcademy dónde podrás conseguir tu acceso completamente GRATUITO.

Equipo Datlas

– Keep it weird –