Estándares de calidad para Datos (Data quality standards) – Investigación Datlas

Los sistemas de datos y analítica avanzada son cada vez más complejos. Nuevas herramientas, formatos, técnicas y métodos son implementados para descifrar hallazgos de una manera más automatizada acercándonos cada vez más a la verdadera analítica prescriptiva. Además, MIT estima que una mala calidad de datos puede representar entre el 15%-25% de costos sobre los ingresos de una compañía. (Fuente: https://sloanreview.mit.edu/article/seizing-opportunity-in-data-quality/) Pero, volviendo a los fundamentales, o como dicen en inglés «Back to basics» ¿Cómo podríamos monitorear que estos procesos funcionen con calidad? ¿Cómo asegurarme que todos los proyectos de analítica en mi organización tengan un mínimo nivel de calidad?

En esta columna revisaremos los principios de calidad de los datos y compartiremos algunas prácticas básicas que en el equipo Datlas hemos aprendido durante la trayectoria de varios proyectos. Esta columna te interesará si lideras o buscas liderar iniciativas de analítica en tu organización.

I) ¿Qué son los estándares de calidad?

Según el libro de «Managing Data Quality» la calidad de los datos se puede definir como: El efecto fundamental de la calidad de los datos es que los datos correctos estén disponibles en el momento correcto para los usuarios correctos, para tomar la decisión correcta y lograr el resultado correcto. Esto se puede ampliar considerando que los datos de buena calidad son seguros, legales y se procesan de manera justa, correcta y segura .

Cuando nos referimos a calidad de datos tenemos en cuenta el método, la organización y la habilitación de sistemas que nos permitan generar una base sostenible de calidad de datos durante el tiempo

II) ¿Cuáles son los términos más importantes en calidad de datos?

  • Proveedores de datos: Los creadores de fuentes de datos
  • Recipientes de datos: Recipientes dinámicos y estáticos de fuentes de información
  • Fuentes primarias: Referencias de primera mano de información, también conocidos como los datos que provienen de la fuente original
  • Fuentes secundarias: Referencias de segunda mano, que un intermediario integro, alteró, agrego o modificó para fines de desarrollo de métricas

** También te puede interesar: «Arquitectura de proyectos de datos» . Liga: https://blogdatlas.wordpress.com/2021/02/08/arquitectura-de-proyectos-de-datos-data-warehouses-vs-data-lake-vs-data-mart-datlas-manuales/

III) ¿Cuáles son las dimensiones de calidad de los datos?

  • Que los datos no estén incompletos, es decir que el nivel de cobertura sea cercano al 100%. Ejemplo si estamos hablando de una base de datos transaccional de una gran cadena comercial ¿ A la fecha del corte, cuánta información tenemos disponible?
  • Qué existe integridad entre la relación de los datos
  • Los datos disponibles son lo más actualizados posibles. Y son vigentes para los escenarios de análisis que requiere la organización
  • Cumplimiento de la estructura de datos, de acuerdo a los parámetros establecidos. Ejemplo que todos los campos temporales sean consistentes en todo el sistema. Si se registran a nivel minuto-segundo, que así sea. Si la semana comienza en domingo, que sea así para todos los sistemas
  • Disponibilidad de los datos cuando se requieren. Es decir, que la fuente permita tener información de manera oportuna
  • Que las herramientas disponibles para registrar datos sean las correctas. Buenos métodos y registros en las unidades que el sistema lo requiere. Recomendable que existan registros de identificadores únicos
  • Finalmente, pero no menos importante, que los datos sean consistentes entre sistemas . Es decir, que entre áreas y equipos tengan los mismos estándares de consultas para que , por ejemplo, todos tengan la misma venta

IV) 10 Consejos prácticos para mantener calidad de los datos

En materia práctica ¿Qué podemos utilizar? En nuestra investigación queremos citar y complementar los consejos de Talend.

1) Hay que volver a la calidad de los datos una prioridad

2) Establece buenas métricas de calidad de datos con base a las dimensiones establecidas

3) Profundiza en investigar las fallas en la calidad de los datos

4) Invierte en entrenamiento interno

5) Establece, implementa y monitorea buenas guías de gobernanza de datos

6) Genera procesos de auditoría buscando: Bases de datos incompletos, faltantes, datos erróneos, inconsistencias, datos viejos, entre otros

7) Asigna un administrador de calidad de datos en cada departamento

8) Declara y gestiona una fuente única de referencia de datos

9) Automatiza los flujos de datos de buena calidad

10) Impulsa el uso de la nube y la cultura de trabajo colaborativo con «plantillas y glosarios» de datos

V) Sobre el ISO relacionado a la calidad de los datos

Finalmente y, en cumplimiento a los estándares con la que muchas compañías trabajan, se puede poner en práctica lo que dice el compendio «Data quality — Part 61: Data quality management: Process reference model».

** También te puede interesar: Metodologías para preparar tus bases de datos. Liga: https://blogdatlas.wordpress.com/2020/07/09/4-pasos-para-preparar-tus-bases-de-datos-para-analisis/

Hasta aqui la columna de hoy . Y tu ¿Qué prácticas de calidad de datos tienes en tu día a día o con tu equipo? ¿Quién monitorea la calidad de información y que los hallazgos en sus análisis vengan de buenas fuentes?

Comparte tu conocimiento con la comunidad en redes con @datlasmx

Ahora puedes revivir gratuitamente el SIMPOSIUM DE DATLAS ACADEMY donde tuvimos a expertas y expertos de corporativos en México charlando de sus grandes proyectos

Equipo Datlas

– Keep it weird –

Fuentes:

Análisis de Detección de Incendios y Vegetación : Caso de Uso Sierra de Santiago, Nuevo León, México – Manuales Datlas

Ante el incendio que se registro hace algunas semanas en la Sierra de Santiago en Nuevo León nos hemos dado a la tarea a desarrollar un ejercicio con una herramienta la cual permite identificar ciertos análisis de capas tales como índices de detección de incendio, vegetación, penetración atmosférica entre otros esto por medio de capturas vía satélite.

Durante este blog te presentaremos esta herramienta llamada LandViewer que nos ha ayudado a realizar este ejercicio, así como también un caso de uso el cual nos va a permitir sensibilizar la dimensión de lo qué es un incendio forestal y el cómo más de 2,000 hectáreas afectadas repercuten en la calidad de aire de una ciudad.

LandViewer – Herramienta de Análisis Satelital

Esta herramienta es una aplicación online la cuál nos permite navegar en cualquier parte del mundo y visualizar imágenes satelitales con capas como agricultura, vegetación, cobertura forestal, detección de incendios y muchas más.

Esta herramienta es creada por EOS Data Analytics y reúne imágenes por parte de los satélites Landsat-7, Landsat-8, Sentinel-2 y Modis para hacer posible cualquier tipo de análisis por medio de un interfaz en su página web.

Te puede interesar este estudio de escasez de agua en presas para Nuevo León, México:

Caso de Uso – Sierra de Santiago Nuevo León, México

¿Qué sabemos de este incendio?

El pasado 14 de marzo inicio un incendio en la Sierra de Santiago a las afueras de la Ciudad de Monterrey a causas de la poca conciencia de quemas de basura en la comunidades rurales, este incendio logro contenerse al 90% el 3 de abril afectando más de 2,000 hectáreas de vegetación.

De esta manera el interés de poder hacer un análisis por capturas satelitales surgió de un tweet por parte del Astronauta Thomas H. Marshburn el cual mostro imágenes de la Sierra Madre Oriental específicamente en la Ciudad de Monterrey.

Eso sucedió un 11 de febrero, un mes después aproximadamente se desató el incendio en la Sierra de Santiago y en Datlas nos hicimos la pregunta ¿Y por que no realizar un análisis satelital de lo sucedido en Santiago por medio de LandViewer?

Te puede interesar también ¿Cómo hacer isocronas en QGIS?

¿Qué nos permite identificar LandViewer a partir del incendio?

De primera identificamos a la Ciudad de Monterrey Nuevo León y en la parte de abajo podemos percatarnos del Municipio de Santiago, del lado derecho LandViewer nos permite activar una considerable cantidad de análisis en cuestión de vegetación, drenaje, índices de incendios y otros más.

Captura Satelital al 30 de marzo de 2022

Hallazgos LandViewer

Por medio de la capa «Penetración Atmosférica» podemos identificar la Sierra de Santiago de color azul e identificando una parte del incendio en varias marcas color rojo.

«El Índice de Diferencia Normalizada de la Vegetación o NDVI (Normalized Differential Vegetation Index) es a menudo usado para monitorear las sequías, para monitorear y predecir la producción agrícola, para ayudar a la predicción de zonas susceptibles de incendios y para los mapas de desertización.»

Así de esta manera citamos lo que LandViewer es posible identificar en la siguiente capa y es que encontramos una oportunidad de visualizar las zonas susceptibilidad de incendios en la Sierra como tal.

En la capa de nubosidad podemos visualizar la parte de abajo del mapa que la Sierra se encuentra en un tono más rojizo esto afecta tanto a su alrededor como a la Ciudad de Monterrey como tal.

Conclusión

La concientización de lo que estamos haciendo con nuestra Ciudad y el cómo podemos identificar estas áreas de oportunidad de zonas de riesgo de incendio, a partir de conocer el dimensionamiento de la vegetación en zonas rurales son oportunidades que nos dan esta y más herramientas de análisis de datos.

Afortunadamente la Sierra de Santiago estos últimos días se ha contenido y ha arrojado aire limpio, del que nuestra ciudad respira, siendo los cerros pulmones de la Ciudad que debemos cuidar con medidas de precaución y concientización.

Análisis 9 abril 2022 «Fuego Activo» vs 24 abril 2022 «Contención de Incendio». Observa la nubosidad de la ciudad con respecto a la captura más reciente con aire más limpio después de la contención.

¿Quieres aprender acerca de esta y otras herramientas de análisis de datos?

Equipo Datlas

– Keep it weird –

TOP 5 BENEFICIOS: Gestión de Proyectos – Manuales Datlas

La gestión de proyectos se refiere al uso de conocimientos, técnicas y habilidades para cumplir con el objetivo previamente pactado en la reunión de trabajo. El objetivo de la gestión de proyectos es garantizar que el resultado final se realice dentro de las fechas y presupuesto del tiempo establecido al inicio del proyecto.

En este blog se detallan las cinco ventajas de aplicar la gestión de proyectos en tu empresa o negocio. Además de mencionar aquellas nuevas maneras de trabajar que han revolucionado la cultura de trabajo en los últimos años y fases con las que cuenta un proyecto.

Este blog se acompaña de tres secciones:

I. Metodologías de Trabajo

II. Fases de la Gestión

III. TOP 5 BENEFICIOS

En las siguientes secciones conocerás más acerca de la gestión de proyectos.

I. Metodologías de Trabajo

Para consultar más información acerca de los nuevos métodos de trabajo que se están implementando actualmente, visita este blog para que no te quedes atrás y conozcas más del tema…

II. Fases de la Gestión

Hay 5 fases clave de la gestión de proyectos que pueden resultar muy útiles para simplificar tu próximo proyecto y para brindarle a tu equipo un plan organizado. Estas fases incluyen el inicio, la planificación, la ejecución, el desempeño y el cierre.

¿Por qué es tan importante conocer estas cinco fases? Si logras comprender el ciclo de vida de la gestión de proyectos, podrás implementar mejores prácticas dentro del equipo de trabajo.

III. TOP 5 BENEFICIOS

No todas las empresas o equipos cuentan con un proceso formal para la gestión de proyectos. Independientemente de que formes parte de una organización multinacional o una empresa emergente (start-up) de rápido crecimiento, es probable que la gestión formal de proyectos no sea algo que sea adaptado con agilidad. Sin embargo, resulta cada vez más difícil organizarte y colaborar con tus compañeros de equipo.

Tomando en cuenta lo anterior se mencionarán el TOP 5 BENEFICIOS de adaptar la gestión de proyectos a tu equipo de trabajo:

1.Resolución de problemas

Un proyecto puede tener dificultades o problemas en su curso, pero para eso existe exactamente la gestión. La misma que permite mitigar esos problemas a través de estrategias planteadas y aprobadas por el director del proyecto.

2. Ahorra tiempo y dinero

El tiempo es el recurso más valioso que tiene el ser humano, conscientes de esto una planificación adecuada, se asegura que el trabajo se envíe a tiempo y dentro del presupuesto. Al utilizar métodos de gestión de proyectos, se hace más eficiente la manera de trabajo de tal forma que evites caer en costos mayores debido a que no tuviste una clara trayectoria del proyecto desde el principio.

3. Toma de decisiones

Llevar un registro claro de cómo avanza el proyecto, ayuda a comprender de mejor forma en qué se gastan los recursos. Igualmente coopera mediante las prioridades a tomar; Cuando en el transcurso del camino se desvía el objetivo del proyecto.

Una buena gestión de proyectos permite anticiparse a los problemas. Antes que se conviertan en tales; Para tomar decisiones más inteligentes basadas en datos concretos.

4. Comunicación efectiva

En todo proyecto se necesita que sus integrantes estén conscientes de los objetivos que tiene LA EMPRESA y hacia donde está el verdadero norte.

Trabajar en conjunto siempre puede ser difícil. Sin embargo, con procesos de gestión de proyectos más eficientes, puede reducir la complejidad de la colaboración y trabajo mutuo.

A través de las vías de comunicación, plataformas digitales y plan de trabajo.

Esto permite tener en claro cuáles son los roles y responsabilidades de cada uno de los miembros del equipo. Incluso cuando se trabaja con equipos externos o departamentos.

5. Diagnostica e identifica bondades y amenazas

A partir de la medición de sus KPI (Medición de recursos incluidos en el logro de objetivos). Se puede crear y hacer un seguimiento de los puntos de referencia personalizados; Para analizar cómo se encuentra laborando el equipo de trabajo proyecto tras proyecto.

Debido a que un proyecto no puede ser deliberado permite buscar los beneficios y prohibiciones para ponerse en marcha y esto es importante para que un proyecto tenga éxito. Porque les permitirá saber en qué aspectos pueden encontrar problemas y en cuales puedan dar soluciones o estrategias para que el proyecto siga su rumbo.

Para finalizar, gracias por tu tiempo de lectura, espero te haya aportado algo a tu conocimiento, ¡si te gustó el contenido sigue nuestras redes sociales para mayor aprendizaje!

Equipo Datlas

– Keep it weird-

¿Conviene actualmente abrir una juguetería? – Caso de uso DATLAS (Especial día del niño)

La era digital ha revolucionado muchas cosas cotidianas, desde aparatos de comunicación, dispositivos de entretenimiento, el dinero, hasta medios de transporte. Sin duda vivimos en una era donde casi todo es digital y lo que no es aún, se está ideando cómo convertirlo digital, sin embargo hay cosas que no se pueden hacer 100% digitales como lo son los juguetes para niños. Muchas personas podrían pensar que las jugueterías están destinadas a extinguirse porque actualmente los niños prefieren aparatos de entretenimiento digitales. Esto puede que tenga algo de cierto si se ve a grandes rasgos y generalizando pero si nos vamos a específicos nos daremos cuenta que con el uso de los datos inteligentes una juguetería podría seguir sobreviviendo en este mundo digital.

Este blog tiene como propósito explicar cómo se utiliza la analítica y la Big Data para encontrar el mejor lugar para abrir una juguetería nueva en este caso. Nos pondremos en el papel del dueño de esta juguetería con el propósito de llegar a la máxima cantidad de familias posibles para maximizar nuestras ventas.

Utilizaremos un mapa de inteligencia propiedad de Datlas para realizar este caso. Te puede interesar este blog

Primeramente necesitaríamos las bases de datos necesarias para poder mapear, en este caso utilizaremos las siguientes:

  • Nivel Socioeconómico
  • Censo 2020
  • DENUE
  • Códigos postales
  • Categoría Social

Todas estas bases de datos estarán mapeadas delimitadas por AGEB. Si gustas conocer más de esto te puede interesar este blog

Una vez que tenemos nuestras bases de datos mapeadas empezaremos a utilizar nuestras herramientas de análisis para poder tomar la mejor decisión. Iremos paso a paso.

Paso 1: Ubicar a las familias potenciales

Utilizando los datos del CENSO podemos observar dónde son los AGEBs que tienen más personas infantes que son los «clientes» potenciales para una guardería.

Paso 2: Revisar el Nivel Socioeconómico

Con la capa de Nivel Socioeconómico podemos revisar los AGEBs con mayor o menor nivel y dependiendo de ello podemos saber el rango de precios o a qué sector de la población estaría dirigida nuestra guardería.

Paso 3: Observar la Categoría Social

Al momento de tener mapeada la categoría social de cada AGEB nos muestra que tipo de dicha categoría abunda en él, en este caso nos enfocaremos en la categoría de «Familia con Niños» que es de color verde en el mapa.

Paso 4: Activamos la capa de Códigos Postales

En este caso activamos la capa de Códigos Postales en conjunto con la capa de Categoría Social, esto con el fin de analizar cuáles son estos código postales donde existe una gran cantidad de familias con «clientes potenciales».

Paso 5: Sacamos conclusiones

Una vez observado las capaz, de hacer nuestros análisis, podemos llegar a algunas conclusiones importantes. Para fines prácticos se presentará la conclusión de cuáles son los mejores códigos postales para ubicar una juguetería actualmente.

Top 5 CP para ubicar una juguetería:

  • 67257
  • 64103
  • 66612
  • 66647
  • 64984

Se escogieron las zonas donde más abundan los «clientes potenciales» y también los CP donde existe una fácil vía de acceso para llegar a una juguetería.

A grandes rasgos así es como una juguetería podría utilizar el Big Data mediante las herramientas de DATLAS para potencializar sus ventas y seguir existiendo en este mundo cada vez más digitalizado, es un reto difícil pero no imposible. Teniendo a los datos y a la analítica de tu lado siempre irás por el camino correcto.

Equipo Datlas

– Keep it weird –

¿Qué es y para qué sirve el análisis topológico de datos? – Columna de Investigación Datlas

La generación de información es algo que ha sobrepasado límites que hace no mucho tiempo eran impensables. Para 2020, la media de información almacenada mundial en internet ha sobrepasado los 35 zetabytes (1 zetabyte = 1 billón de terabytes), lo cual ha llevado tanto a la ciencia de datos como al Big Data a convertirse en herramientas clave para conseguir el éxito de organizaciones y empresas. Sin embargo, en ocasiones, es simplemente demasiada información con la cual lidiar, por lo que el proceso de análisis y de obtención de recomendaciones basadas en datos, se vuelve más lento y contraintuitivo.

Ante esta problemática, es de esperarse que nuevas técnicas y metodologías comiencen a ver la luz conforme la tecnología avanza y el poder computacional al que somos capaces de acceder aumenta también. Entre estas nuevas técnicas, hay una que se está volviendo cada vez más relevante por sus excelentes capacidades para lidiar con grandes nubes de datos y poder extraer información de utilidad de ellas; el Análisis Topológico de Datos (o TDA por sus siglas en inglés).

Para entenderla, primero tenemos que entender qué es la topología. La topología es una rama de las matemáticas relativamente joven (nació apenas en el siglo 17), y su objetivo es el estudio de las propiedades invariantes de las figuras en el espacio… Bien, lo anterior podría no tener mucho sentido a menos que se esté un tanto familiarizado con el argot matemático, por lo que ahora, para ponerlo en términos simples, usaremos el siguiente ejemplo:

Imagina por un momento una bola típica de plastilina en tus manos, todos estamos de acuerdo en que la plastilina es un material maleable, ¿verdad? Uno puede usar esa bola para hacer distintas figuras, por ejemplo, con suficiente dedicación, podemos moldear un cubo, una pirámide u otros poliedros. En matemáticas, al acto de moldear esas figuritas de plastilina, le llamamos transformación. Bueno, con esto en mente, podemos decir que una bola de plastilina es topológicamente equivalente a un cubo de la misma plastilina, puesto que podemos formar uno a partir del otro. Sin embargo, tenemos una sola regla: No se puede romper la plastilina ni se le pueden hacer hoyos. Entonces, las preguntas que se haría un topólogo sobre la plastilina son: ¿Qué es lo que hace que podamos formar un cubo a partir de una esfera? ¿o viceversa? ¿Qué aspectos de la figura siguen igual a pesar de aplicarle una transformación?

Para un topólogo, un circulo es lo mismo que una elipse, una esfera es lo mismo que un cubo, y se aplica un razonamiento similar para otras figuras. Incluso, existe un chiste un tanto popular entre matemáticos, que dice que un topólogo no puede distinguir entre una taza de café y una dona.

Ahora bien, volviendo al punto principal. ¿Qué tienen que ver las figuras de plastilina con el análisis de datos?

Si nosotros tomamos una figura y colocamos dos puntos cualesquiera sobre ella, esos puntos van a estar a cierta distancia uno del otro, ¿cierto? Por ejemplo, la distancia del trabajo a casa es un ejemplo de colocar dos puntos sobre una esfera (la tierra). Pero, ¿Qué pasa con esa distancia si la figura original se deforma siguiendo la única regla de la topología? Pues evidentemente, dependiendo de la transformación, esa distancia puede hacerse mas grande o más pequeña. Por ejemplo, si La Tierra fuera de plastilina, y la convirtiéramos en otra figura, entonces la distancia entre la casa y el trabajo evidentemente cambiaría, ¿verdad?

Bueno, el ejemplo anterior fue solamente utilizando dos puntos, la casa, y el trabajo. Pero ahora imagina una base de datos gigantesca, con millones de puntos, como las que empresas como Facebook o Google generan todos los días. ¿Esos puntos sobre qué figura están? La respuesta es muy simple, están sobre el plano cartesiano en algo que los matemáticos llamamos Rn (R a la n potencia)  . Es decir, en el espacio. Como recordaremos de la secundaría, el plano cartesiano es algo así para 2 y 3 dimensiones.

Entonces, aplicando lo que hemos aprendido, si yo tomara el plano cartesiano y lo deformo, ¿Qué les sucede a los puntos que están sobre él? Evidentemente la distancia entre ellos cambia y puntos que estarían lejos entre sí, ahora puede que estén más cerca, u otras cosas muy interesantes pueden pasar.

Además, recordemos que muchos métodos de clasificación utilizan la “distancia” como forma de afirmar si existe una similitud fuerte o no entre varias observaciones. Por lo tanto, si deformamos el plano de forma correcta, es posible que podamos encontrar patrones en los datos que de otra forma estarían ocultos para nosotros y para nuestros algoritmos. Entonces, estas nubes enormes de datos pueden ser subdivididas en clústeres más pequeños y cada uno de estos, ser unido con sus vecinos en relación con la distancia que exista entre ellos, formando así, lo que en topología conocemos como complejos simpliciales.

El TDA definitivamente es mucho más complicado matemáticamente hablando, sin embargo, es una herramienta muy poderosa que está siendo desarrollada para facilitar el trabajo con grandes cantidades de datos.

¿Quieres aprender acerca de esta y otras técnicas innovadoras de análisis de datos?

Equipo Datlas

– Keep it weird –

Referencias:

Carlsson, G.: Topology and Data., Bulletin of the American Mathematical Society no. 46 (2009) 255–308.

Eaton, C., Deroos, D., Deutsch, T., Lapis, G., Zikopoulos, P.: Understanding Big Data. Analytics for enterprise class Hadoop and Streaming Data, The McGraw Hill Companies, 2012

Kahle, M.: Random geometric complexes., Discrete and Computational Geometry 45 no. 3 (2011).

«La clase media: Los que no son pobres ni son Carlos Slim» ¿En realidad existe la clase media? (Una revisión de desigualdad social en México y niveles socioeconómicos para Nuevo León) – COLUMNA DE INVESTIGACIÓN DATLAS

Conceptos a ver en este blog:

  • Pobreza
  • Canasta básica
  • Desigualdad Social
  • Coeficiente de Gini
  • Curva de Lorenz
  • Nivel Socio Económico
  • Posibles causas de la desigualdad social
  • Porque es importante hablar de desigualdad y pobreza

México es un país rico en cultura, especies, y comida, hemos tenido artistas reconocidos internacionalmente como Juan Gabriel, contamos con especies únicas de animales endémicos y sorprendentes como el Axolote, y sazones que a cualquier mexicano le duele no tener en el extranjero. Por el otro lado, lamentablemente también somos un país con demasiada pobreza en cuestión de calidad de vida, tanta y tan variada, que para un análisis más robusto no basta con medidir las clases sociales en 3 niveles (alto, mediano, y bajo), si no, en 7. Enterate en este blog cuales son estos 7 niveles y cómo son medidos.

Antes de empezar con el tema fuerte de este blog, creemos es pertinente hablar del título, y es que es probable que al existir gente famosa en nuestro país con una riqueza enorme como lo son Carlos Slim, Germán Larrea, Alberto Baillères y Ricardo Salinas Pliego (quienes se supone tienen el 9% de la riqueza del país), pero al mismo tiempo mucha gente que muere de hambre, nos hayamos hecho alguna vez las preguntas: ¿México es un país rico o pobre? y ¿Cómo y quién mide la pobreza?

Para la primera pregunta habría que esperar al final de este blog, pero para la segunda, seremos lo más breves posibles.

Gráficas por elaboración propia. Fuente: INEGI, CONEVAL

En México la organización encargada de medir la situación de pobreza, es el CONEVAL, el cual tiene diferentes metodologías, pero la más sencilla es mediante la canasta básica. Aquí mediante muchos cálculos que buscan representar la cantidad mínima de dinero para comprar una canasta de bienes considerados indispensables, definen esta cantidad de dinero como una línea de pobreza, y si los hogares ganan menos de esa cantidad, son considerados que viven en situación de pobreza.

Nota: Es importante mencionar que para determinar esta canasta con bienes indispensables, se calcula el gasto de las familias en función de las calorías necesarias (su energía). Así como existen otras medidas de la pobreza tales como: Rezago educativo, acceso a los servicios de salud, acceso a la seguridad social, calidad y espacios de la vivienda, acceso a los servicios básicos en la vivienda, y acceso a la alimentación nutritiva y de calidad.

En la gráfica podemos contemplar cómo ha aumentado la línea de pobreza a lo largo de los años, en la izquierda tenemos su comportamiento estacional en las áreas urbanas, y a la derecha su parentezco con la inflación, pues a principios del año aumenta, para bajar en abirl, y luego seguir aumentando hasta finales del año. Esto mostrando un poco que a las personas en situación de pobreza les es más difícil sobrellevar la inflación, pues al estar la mayoría en el sector informal, sus gastos aumentan pero sus salarios no.

** También te puede interesar leer nuestra columna: “La inflación: un enemigo silencioso”

Mapa por elaboración propia. Fuente: CONEVAL

A partir de lo antes mencionado, creamos este mapa con los porcentajes de hogares en situación de pobreza según cada estado de la república. Aquí empezamos a ver uno de los temas principales de este blog, mientras que en Nuevo León el 24.33% de las personas en el 2020 se encontraban en situación de pobreza, en Chiapas el porcentaje era del 75.49%, lo cual refleja un contexto de calidad de vida completamente diferente, este fenómeno, es conocido como desigualdad social. Y aquí estamos viendo cifras comparando estado con estado, pero ¿Cómo podríamos entonces comparar a todos los ciudadanos del país?

Coeficiente de Gini y Curva de Lorenz

Para responder a esta última pregunta, una manera muy útil de medir la desigualdad, es mediante el Coeficiente de Gini, este al igual que la canasta básica, es una cifra en función del ingreso de las personas, la gran diferencia, es que esta cifra va del 0 al 1, donde 0 es igualdad absoluta (todos en México tienen la misma cantidad de dinero), y 1 es desigualdad absoluta (1 persona tiene todo el dinero del país).

En el 2021, el Coeficiente de Gini de México era de 0.503, pero en el 2018 era de 0.454 cuando al mismo tiempo en países europeos como Francia y España el el coeficiente era de 0.285 y 0.335, y en países latinoamericanos como Uruguay era de 0.397. A nivel estatal el Coeficiente de Nuevo León es de 0.447.

Gráfica por elaboración propia. Fuente: INEGI, Data NL, y European Data Lab

Al obtener los Coeficientes de Gini podemos ver que tanto vamos mejorando en materia de desigualdad y cómo están otros países. Sin embargo, si queremos ver esta desigualdad de manera gráfica y obtener otras conclusiones podemos utilizar la Curva de Lorenz. Gracias a las gráficas anteriores podemos ver dónde se acumula mayormente la desigualdad, y que el 10% de la población en México tiene el 32% del ingreso y gasto (1 – 68%), mientras que en Nuevo León solo es del 29%, y en Francia el 23%.

Nivel Socio Económico

Imagen con los Niveles Socio Económicos: A/B, C-, D, y E

Ojo, muchas veces la conversación se queda en estas cifras y distribuciones, pero después de indagar en el tema, hay algo muy importante que no estamos calculando. Y es que el Coeficiente de Gini nos muestra sólo la desigualdad de ingresos, que si bien es una de las variables más importantes para determinar la calidad de vida en la sociedad. En Datlas llevamos rato trabajando con un concepto que nos mostrará un panorama mucho más amplio de la calidad de vida en México y en Nuevo León, este concepto es el dichoso Nivel Socio Económico.

Como bien comentamos en el blog de la paridad de compra, poco importa el ingreso de las personas, si no vemos su poder adquisitivo. Un apartamento y un desayuno no cuestan igual en Ciudad Victoria y en Monterrey, entonces si alguien con cierto ingreso puede vivir muy bien en Cd. Victoria, probablemente batalle mucho más si con ese ingreso viviera en Monterrey.

** También te puede interesar leer nuestra columna: “El dólar USD está muy caro, pero ¿Más de lo que debería? – Entérate aquí cómo saber si una divisa está sobrevalorada (Poder de Paridad de Compra)”

Retomando el tema del NSE, esta métrica es medida por el AMAI y se divide en 7 niveles: A/B, C+, C, C-, D+, D, y E. Cada uno cuenta con características las cuales describen un contexto de calidad de vida diferente como se puede observar en la imagen anterior.

El A/B por ejemplo, en su mayoría el jefe de familia tiene estudios profesionales o posgrado (80%). Siete de cada diez viviendas (72.5%) tienen al menos 3 dormitorios y un 67% cuentan con al menos dos automóviles. Mientras que el nivel E, la mayoría (82%) tienen un jefe del hogar con estudios no mayores a primaria. Siete de cada diez viviendas tienen solamente un dormitorio y 83% no cuentan con baño completo. La tenencia de internet en la vivienda es muy bajo (0.3%), y más de la mitad del gasto se asigna a alimentos (52%) y solo el 1% a educación. Todas estas características están en la página del AMAI dedicada al NSE, y vale la pena leerlas para saber en cuál NSE estamos.

Fuente: AMAI

Como podemos observar, ya no solo estamos hablando de ingreso, si no, de la educación del jefe del hogar, equipamiento (si tienen televisión, refri, etc), transporte y demás. Pero, ¿Cómo se distribuye esto en los diferentes estados del país? Una Manera de verlo es mediante las distribuciones presentadas en el manual del AMAI, donde podemos ver la gran diferencia de estado a estado. En este caso en el 2020 en Nuevo León el 44% está en los primeros 3 niveles y solo el 38% está en los últimos 3. Mientras que en Chiapas solo el 15% está en los primeros 3 niveles y mucho más de la mitad (79%) está en los últimos tres niveles.

Mapa inteligente de Datlas en Monterrey, con los 7 NSE

Otra manera de ver esta distribución es en un mapa inteligente como los que tenemos en Datlas de todos los estados de la república, y de los cuales podemos obtener los datos del Censo 2020 entre otras fuentes de datos de cierto polígono de interés en cualquier punto del mapa para evaluar una ubicación.

Hasta este punto ya hemos tenido un buen recorrido por los temas más relevantes de la desigualdad social, y al mismo tiempo de la pobreza del país. Para cerrar estos temas, vale la pena mencionar que México se encuentra en el 25% de los países más desiguales del mundo, y es el segundo más desigual de la OCDE. Según Esquivel Hernández, G. (2016), mientras el PIB per cápita crece a menos del 1% anual, la fortuna de los 16 mexicanos más ricos se multiplica por cinco.

Posibles causas de la desigualdad

Cuando hablamos de causas mucho se le atribuye a que las personas tienen problemas de diversidad geográfica, étnica, política y social. Tenemos comunidades en muchos lugares rurales que son casi impenetrables y que hacen muy difícil que haya calidad educativa, acceso al crédito, etc. Sin embargo, no hay que irnos tan lejos, el problema de la pobreza se hace más grande incluso en los lugares menos margniados.

Al vivir en situación de pobreza, todo es más caro, los traslados son más difíciles por la ubicación y el tiempo del transporte, no alcanaza para comprar a mayoreo, los bancos y casas de préstamo cobran una comisión más alta para todo, por la poca confianza, y como vimos en el NSE E, el 52% del ingreso familiar se va a la comida, y con el otro 48% se debe de destinar a necesidades básicas, sin tomar en cuenta que todos estamos expuestos a algún gasto grande e inesperado como algún problema médico, alguna pandemia, sequía, o algun aumento acelerado de la inflación (pero no de los salarios). Por ende, tendría sentido pensar que el vivir en situación de pobreza es un círculo vicioso y cada vez es más difícil de salir.

Este círculo vicioso claro que es más fácil de caer en un país con las siguientes caractarísticas:

  • Corrupción. El desvío de fondos reducen los recursos destinados a las inversiones en la población más vulnerable.
  • Desempleo. La falta de empleos productivos hace que un importante segmento de la población se dedique a actividades informales de baja remuneración. En el 2021 el porcentaje de mexicanos en situación informal era del 55.8%.
  • Discriminación. Al juzgar a las personas por su situación y/o apariencia, hace que sea más difícil conseguir mejores oportunidades.

** También te puede interesar leer nuestra columna: “¿ESCASEZ DE AGUA EN NL? POR DÓNDE COMENZAR A INVESTIGAR (UNA REVISIÓN CON MAPAS Y RESPONSABLES DE LA IP)…”

¿Por qué es relevante hablar de pobreza y desigualdad?

Después de ver cómo México tiene escenarios muy diferentes a lo largo del país, esperemos y se hayan llevado la conclusión de que esto implica oportunidades diferentes, y el evadir esta clase de temas, significa no ver la imagen completa de gran parte de la población y sus problemas. De la misma manera, nos invita a reducir desde nuestra trinchera las posibles causas de desigualdad social.

Que el privilegio no te nuble la empatía

– Ita María

Hasta aquí la columna de hoy, esperemos se hayan quedado con varios conceptos interesantes de economía, y cómo muchas veces los aplicamos los analistas de datos. Y ustedes, ¿En qué NSE se encuentran? ¿Qué les pareció la columna?


Equipo Datlas

– Keep it weird-

Fuentes:

¿Qué es la Ciencia de Datos (Data Science)? Según Google – MANUALES DATLAS

Durante varios blogs Datlas y podcast de Café de Datos hemos hablado de casos de éxito/fracaso en ciencia de datos. La realidad es que el entendimiento durante el tiempo de este campo de la ciencia se ha ido diversificando. A menudo pensamos que forzosamente tiene que estar vinculado a determinada herramienta, qué tiene que ser desarrollado por ciertos perfiles y/o que sólo aplica si impacta de gran medida a la organización. Google Cloud en sus recursos de de aprendizaje comparten una guía de 6 pasos a seguir para la ejecución de proyectos de «Ciencia de Datos».

** También te puede interesar «Dimensionando la Industria de Inteligencia Artificial»

Como aviso previo, estos pasos están relacionados a procesos de análisis facilitados por un área de ciencia de datos. No tanto por un área de inteligencia de negocios. Para mayor claridad puedes conocer los distintos roles que hay en un equipo de ciencia de datos o algunas de las aristas para formar un buen equipo de datos.

I) Ingeniería de Datos

Es un momento clave en donde a la luz de un problema de negocios se extraen datos, se ingesta a un sistema de variables, se generan catálogos y a través de un procesamiento estos se vuelven información de valor. Con experiencia Datlas, agregamos una etapa de desarrollo de «Glosario de Datos» como parte de documentación y control de actualización de variables.

I.1 Ingestión de Datos y Descubrimiento

I.2 Preprocesamiento de datos

I.3 Almacenamiento de Datos

I.4 Glosario de Datos

II) Análisis de Datos

Desde análisis descriptivo hasta visualización de datos la parte de análisis integra distintos procesos estadísticos para generar hallazgos. Es altamente iterativo y caemos muchas veces en experimentación. Estas exploraciones apoyan a realizar las preguntas correcta sobre los datos que estamos evaluando. Resalta la sección, al final, de planificar la comunicación de los hallazgos.

II.1 Exploración de Datos

II.2 Pre-procesamiento

II.3 Insights de Datos

II.4 Comunicarlos

III) Desarrollo de Modelo

A través de los hallazgos de la etapa previa, se podrá seleccionar el mejor modelo de Machine Learning para detonar el aprovechamiento del histórico de datos así como la infraestructura usada para resolver problemas de análisis.

III.1 Simplificación de datos (Feature Engineering)

III.2 Entrenamiento de modelos

III.3 Evaluación de modelos

IV) Ingeniería de Machine Learning

Habilitar el servicio en línea para que otros usuarios puedan consumir los modelos. Asimismo monitorear que la estabilidad y los resultados del modelo hagan sentido durante su uso.

IV.1 Modelo de servicio

IV.2 Desarrollo de implementación de modelo

IV.3 Monitoreo de Modelo

V) Activación de descubrimientos

A través de entender los «journeys» de os usuarios de nuestros análisis y entender qué decisiones son ajustadas gracias a los análisis que desarrollamos seleccionaremos el mejor método de «delivery». Podemos hablar de dashboards, reportes u otro tipo de modelos vía API.

V.1 Seguimiento a influencia de decisiones

V.2 Identificar si el cliente final ha cambiado su comportamiento

V.3 Interconectar a otros servicios en la organización

VI) Orquestación y Mantenimiento

Mantenimiento con información actualizada del servicio. Usos replicables entre usuarios y experimentos.

VI.1 Escalamiento

VI.2 Carreteras únicas y APIs

** También te puede interesar «Metodologías para ciencia de datos»

Comentarios Datlas

Adicionalmente, a estos pasos que en su mayoría tienen base técnica. En seguimiento a los procesos de negocios y para que nuestros modelos de ciencia de datos tengan impacto en la organización para la que lo construímos es necesario diagnósticar y comunicar. En un inicio, entender bien el problema de negocio o la hipótesis que estamos validando. Así como, de manera iterativa, en cada paso del proceso identificar la audiencia a la que vale la pena comunicar. A veces sucede que estamos experimentando y queremos llegar a la dirección para influir su toma de decisiones. En realidad, hay que reconocer que a ciertos foros sólo les interesarán los resultados y a otros el método ¿Sabes cuál es cual en tu organización?

Suscríbete a Datlas Academy Gratuitamente.

Equipo Datlas

Keep it weird

Fuentes:

– Feature Engineering: https://www.kdnuggets.com/2018/12/feature-engineering-explained.html

– Data Science 6 steps with Google: https://youtu.be/EQvLUMjz-g4

¿ESCASEZ DE AGUA EN NL? POR DÓNDE COMENZAR A INVESTIGAR (UNA REVISIÓN CON MAPAS Y RESPONSABLES DE LA IP)… – DATLAS COLUMNA DE INVESTIGACIÓN

Los niveles del agua han estado muy bajos en Nuevo León por sequías prolongadas, previsiones de hace 3 ó 4 años que no se ejecutaron correctamente por gobiernos, consumos importantes de empresas y , seamos honestos, un descuido en algunos casos por parte de los ciudadanos. Tan pronto terminó el caos por el COVID-19 ahora toca la situación del agua y en esta columna queremos aportar nuestro granito a la investigación de la situación de escasez del agua.

En esta columna instruiremos de cómo consultar mapas satelitales para identificar impactos en las presas de Nuevo León así como tocaremos base con fuentes secundarias que han encontrado alternativas ágiles para confrontar a esta problemática.

Escucha nuestro podcast sobre este tema:

Situación Actual

La demanda de tambos y ROTOPLAS a la alza y preocupación generalizada por la baja presión del agua. Las alternativas de almacenaje de agua son reducidas, además a un menor flujo de agua, se ha detectado un líquido más impuro ¿La ocasión? Principalmente la escasez de agua provocada por niveles de lluvia menores a la media. Adicional , según MILENIO con datos de Agua y Drenaje Monterrey, el consumo de agua en hogares incrementó un 30%.

En consecuencia, los niveles de las presas están muy bajo. Llama la atención porque, aún y cuando más del 50% del agua que llega a los regiomontanos viene de arroyos, ríos y ___ . Las presas son el reflejo de

En algunos momentos las autoridades regionales han recomendado almacenar agua previo a los cortes.

¿Cómo monitorear una presa?

Podríamos comenzar utilizando la plataforma de GOOGLE TIMELAPSE. Esta es gratuita y está en línea.

Después de encontrar zonas de enfoque, por ejemplo, la presa de la Boca en Nuevo León. Podemos usar plataformas como LANDVIEWER para consultar imágenes satelitales de distintas fechas.

Paso 1 – Se registran coordenadas y se dimensiona el cuadrante de dónde se quieren obtener imágenes satelitales

Paso 2 – Se carga el raster y se puede ir modificando por fechas

Paso 3 – Se puede usar la herramienta de contraste para evaluar el antes y el después

Resultados de Pasos a seguir

Febrero 2022 Vs. Diciembre 2022

¿Qué cuidados inmediatos pueden acordarse? (IP y Ciudadanos)

Buscar el 80/20 ; esa concentración de pocos usuarios que consumen niveles altos de agua. Si nos enfocamos en esto, tendríamos que voltear a las empresas de Nuevo León. De acuerdo @tonyo_hernandez Entre las 14 empresas con más altos volúmenes se encuentran las siguientes:

Para los ciudadanos, la receta es cortes programados.

¿Cuál es el siguiente paso? Mayores controles si es que en los meses que siguen no llegan lluvias. Pero por otro lado, hay suficiente información para plantear mejores escenarios de negociación con otras empresas. También así solicitar apoyos a la federación y seguir concretando charlas como con gobiernos de Veracruz para trasladar más agua. Platícanos tu opinión en @datlasmx y dinos ¿Cómo deberíamos de seguir cuidante el agua?

Fuentes:

¿Que es la Web 3.0? (Parte 2/2) – COLUMNA DE INVESTIGACIÓN DATLAS

Web 3.0– Investigación Datlas

** Para ver la Parte 1 de este blog puedes dar click aqui: Web 3.0 (Parte 1/2)

Parte 2 de 2

Esta columna que habla de la nueva generación del internet, la web 3.0 es la segunda parte, te invitamos a leer la columna anterior si no lo has hecho aún.

Previamente hablamos un poco de la historia del internet, dese su inicio al público en general en los 90’s y de cómo actualmente nos encontramos en la segunda generación del internet.

Las diferencias más grandes entre la primera y la segunda siendo la conectividad en cantidad de personas y velocidad de acceso, así como la bidireccionalidad, antes éramos solo el público y ahora participamos activamente creando contendió.

En la columna pasada tocamos algunos conceptos de la web 3.0, como la web semántica. Pero hay muchos otros conceptos que forman parte de esta nueva generación del internet, a continuación, platicaremos de algunos de ellos.

dApps

Las dApps o Aplicaciones Descentralizadas de primera vista parecen ser igual que las aplicaciones a las que estamos acostumbrados y esto es porque en si la interfaz, el diseño visual y la manera en la que interactuamos con ella, es prácticamente igual a una app tradicional.

El cambio sucede detrás de cámaras, la ingeniera atrás de cómo funciona la aplicación, las acciones que toma al salir de tu celular. Actualmente la mayoría de las aplicaciones se comunican con los servidores de la compañía que es dueña de es aplicación, es decir si mandamos mensajes por WhatsApp, esa información está siendo procesada por los servidores de Meta (antes Facebook). Las dApps no tienen un servidor central que procese la información, el código y los protocolos de esa aplicación corren en una red descentralizada, actualmente la manera más popular de hacer esto es mediante el uso del Blockchain de Ethereum, la cual se utiliza para su almacenamiento y contratos inteligentes.

Imagínate una maquina despenadora de tu marca de refrescos favorita, esta máquina tiene un set de reglas o lógica, si le das el monto adecuado para la selección que estás haciendo, te da el producto que gustas. Estas reglas para una dApp se almacenan en esta red descentralizada donde se administra las transacciones o acuerdos entre usuarios.

Un efecto de este sistema que podríamos hacer el argumento a favor o en contra seria que una vez que se despliega la lógica en el Blockhain de Ethereum no se puede alterar ni por el usuario ni por la compañía.

NFT

Los NFT por sus siglas en ingles Non Fungible Tokens son un activo digital usado para validar la autenticidad de un activo.

Sin duda has visto la definición de NFT en varias ocasiones, pero si quieres conocer más, te invitamos a leer nuestra columna acerca del tema:

Por el momento quédate con la idea de que un NFT es: Digital, usado para verificar autenticad y uno de sus aspectos más importantes, No duplicable.

¿Pero que contexto toman los NFTs en la Web 3.0?

Hasta el momento hemos hablado de como la nueva generación del internet va a explicarse mejor a las maquinas que la leen y de como una aplicación puede dejar de correr en los servidores de una empresa y correr en una red descentralizada. Pero pregúntate quien es dueño de que en este nuevo internet. La respuesta a esa pregunta depende muchos de las circunstancias, pero lo que te podemos decir ahorita es que hay una tecnología que vive en internet de manera descentralizada para otorgar y verificar el estado de “dueño” de un activo.

Actualmente los NFTs parecen ser usados para verificar quien es el dueño de imágenes, sin duda una utilización interesante de esta tecnología. Tarjetas de béisbol o Pokémon + Blockchain.

Ten en mente que esta es solo una aplicación que se le da actualmente a los NFTs, en el futuro podríamos ver que esta tecnología se aplica para verificar quien es el dueño de un activo que actualmente se verifica en papel.

Alunas propuestas e ideas que existen es el de verificar con NFTs quien es el dueño de un vehículo, adiós instituto de control vehicular o una propiedad inmueble, ¿te imaginas comprar una propiedad desde tu celular? Igual y algún día.

Realidad aumentada y realidad virtual

Desde mucho tiempo tenemos estas tecnólogas y parece ser que siempre las promueven como lo que sigue y la sustitución de cualquier forma de entretenimiento. La realidad ha sido muy diferente, desde proyectos fallidos de Google con Google Glass en el 2003 hasta el Niño Virtual de Nintendo (Nintendo Virtual Boy) en 1995.

Pero estas tecnologías siguen poniéndose más interesantes cada año y podemos mencionar más casos de éxito a como pasa el tiempo.

Algunos casos interesantes que podemos mencionar son el uso de realidad aumentada es en el campo de los videojuegos, como Ingress o el éxito más popular, Pokémon Go.

Pero el uso de realidad aumenta tiene muchos otros usos en distintas industrias. Se usa en manufactura para aplicaciones de control de calidad, en la construcción para asistir en la colocación de materiales, en medicina para entrenar a nuevas generaciones de doctores, enfermeras y cirujanos, entre otras aplicaciones.

Una de las compañías que esta más interesada en que se adopte de manera masiva la realidad virtual es Meta (antes: Facebook), te invitamos a leer más en la siguiente columna:

Monetización

El modelo actual de generar dinero en la web 2 es donde te alias con una compañía, generas contenido y la riqueza generada se divide de alguna manera entre los 2.

Algunos de los primeros casos es el programa de monetización de YouTube (YouTube Partner Program).

Si lo vemos desde el lado de la compañía podemos enlistar los siguientes pasos:

  1. Compañía lanza una aplicación.
  2. Introduce como usuarios a la cantidad máxima posible.
  3. Monetiza a esos usuarios.

Una de las maneras más comunes es mediante la colocación de anuncios entre el contenido generado por los usuarios.

Este es tan solo un modelo sencillo de muchos, otras maneras de monetizar actualmente son mediante el uso de donaciones, Patreon (https://www.patreon.com/) siendo una de las plataformas más populares o mediante el uso de suscripciones, las cuales son muy comunes en la plataforma de Twitch (https://www.twitch.tv/), pero otras compañías se han dado cuenta del valor de estos mecanismos y están desarrollando sistemas similares.

Estos sistemas tienen algo en común, no son relaciones directas ente un generador de contenido y su audiencia, tienen un intermediario que toma un % de la transacción.

La web 3.0 propone una nueva manera de monetizar el contenido generado, uno que es más directo entre autor y público.

El primer ejemplo de esta relación nueva es la creación de un Token. Como lo platicamos anteriormente una persona puede crear un NFT que no se duplica y es transferible. Qué pasa si les vendemos a nuestros fans un NFT que les de acceso a nuestro contendió o algún extra. Hay muchas maneras de hacer uso de los Tokens, puedes darles acceso a chats privados, galerías de imágenes reservadas para los suscriptores o algún otro incentivo para que compren tu Token.

Otro caso que hemos visto que no es muy común, pero se nos hizo interesante, es el de un deportista profesional. Este individuo propuso generar tokens que representen un % de sus ganancias en este deporte, es decir que estaba generando acciones en su carrera profesional.

Las personas que compraran un Token tendrían acceso a los dividendos al final de cada año.

Estos conceptos y otros serán la norma de la monetización en el futuro del internet, pero aun un montón de retos que superar, desde los marcos regulatorios hasta el cambio que se va a generar en el contexto artístico. ¿Crear arte por el arte o por el dinero?

Blockchains de acceso libere

Un Blockchain, aunque este descentralizado tienen barreras de entrada. Existen operadores que pueden o no limitar acceso. El futuro de la web 3.0 se construirá en Blockchains que estén libres de porteros o “gatekeepers” que limiten el acceso.

Interoperabilidad

El futuro del desarrollo para la web 3.0 seria cada vez más sencillo, el marco para desarrollar dApps es igual para cualquier celular. En un futuro desarrollar software que corra en una televisión, celular o computadora será más fácil de lo que es actualmente. O por lo menos esa es la propuesta de la nueva generación del internet.

Conclusión

El internet y la infraestructura que lo acompaña ha sido una maquina en evolución desde sus primeros inicios en 1973 con ARPANET y la creación del World Wide Web en 1989 en CERN. Algunos cambios más actuales son la sustitución de líneas de cobre por fibra óptica y quien sabe de qué manera nos llegará el internet en el futuro, si le preguntamos a Elon Musk será mediante el uso de su constelación de satélites conocida como Starlink.

Algunas ideas del futuro ya incluyen la 4ª generación del internet, un concepto muy abstracto que dice que el internet va a desaparecer, no realmente, pero se refieren a que se va a integrar tanto a nuestras vidas, que lo vamos a dejar de notar. Como un pez en el lago ya no nota el agua.

-Equipo Datlas-

¿Que es la Web 3.0? (Parte 1/2) – COLUMNA DE INVESTIGACIÓN DATLAS

Parte 1 de 2

¿Qué es la web 3 o 3.0 y de qué manera va a cambiar la forma en la que navegamos en internet? ¿Cuáles son los grandes aspectos o conceptos que hay que dominar en la web 3.0 para tener una experiencia positiva?

Si estas leyendo este blog, lo más probable es que domines el uso del internet y hay pocas cosas que te sorprendan al navegar.

Si quieres estar preparado para la nueva generación del internet y tener una experiencia agradable, te ayudamos con una explicación sencilla de los cambios que están por venir.

Esta Investigación Datlas de la Web 3.0 estará dividida en dos partes.

En esta primera parte veremos la historia de la web hasta la fecha y una introducción de la web 3.0, acompáñanos la síguete semana a leer más a profundidad de la web 3.0 hasta una pequeña visión de que sigue más adelante con la web 4.0.

** También te puede interesar la historia de las TICs:

Historia

Para explicar bien en que consiste la nueva generación del internet, la web 3.0, necesitamos irnos al pasado y entender bien que comprenden las primeras dos generaciones de internet, la web 1 y la web 2.

Web 1.0

1990 al 2005

Sin duda no es el inicio de lo que ahora conocemos como el internet, pero si es el inicio de un uso común o no especializado.

Iniciando en 1990 el acceso al internet se veía como páginas web básicas, los protocolos de conexión iniciaban con HTTP y XML.

Nacieron los proveedores de internet y habilitaron la conexión vía modem con línea telefónica.

¿Quién recuerda ese ruido que se escuchaba al levantar el teléfono de una línea conectada a internet?

Sonido de MODEM

Al mismo tiempo inicia el desarrollo de la web con lenguajes de programación como Java y Javascript.

Era el inicio del internet y aunque mucha gente no entendía que era o el potencial que tenía, cambiaria la vida de todos de una manera sorprendente.

Web 2.0

2006 a la fecha

El termino Web 2.0 fue creado por Darcy DiNucci, usando el termino en una edición de “Print Magazine” con el propósito de ponerle nombre a un nuevo paradigma en comunicación, donde el principal cambio seria la comunicación bidireccional.

Piensa en una revista, periódico o una página de internet de la web 1.0, ¿Qué tienen en común estos medios? Todos se comunican en una sola dirección, yo publico, tu lees y se termina la relación.

Este fue el gran cambio que se logró al brincar a la segunda generación del internet, comunicación bidireccional, yo púbico y tu comentas.

Pero este cambio no solo fue poner una sección de comentarios al final de la columna como en este blog. Los cambios van más allá de solo eso, piensa en los grandes cambios del internet alrededor del 2006, estamos hablando de Facebook, YouTube, Instagram, Twitter, y por qué no, los que se adelantaron a sus tiempos, MySpace, Bebo y hasta Fotolog.

Todas estas tienen algo en común, ya no solo es un grupo editorial generando contenido, si no que habilitan a los usuarios a generarlo. Habilitando una comunicación directa entre un creador de contenido y su audiencia. Ya sean tus tías en Facebook o tus seguidores en Instagram, estas habilitando una nueva experiencia web, la web 2.0

¿Cuáles son otros grandes cambios de estos tiempos?

El acceso al internet y por acceso son dos cosas, una la manera en la que lo consumimos, de una computadora de escritorio a una portátil a un celular. Recuerdo la primera vez que revise una página web en mi celular, lo inservible que era. Y ahora parece que las grandes compañías diseñan para un internet de celular primero. Tenemos granes experiencias en nuestros celulares que solían ser impensables antes, ¿Cómo una pequeña pantalla puede generar una experiencia igual o superior a la de una computadora? Años de desarrollo en UI y UX lo han logrado.

Otro acceso que tenemos que mencionar el porcentaje de gente que tiene acceso a internet.

No solo en México, si no en el mundo entero. Ahorita mucha gente ve el internet como una necesidad, y con justa razón dado que nos ha habilitado a estudiar, trabajar, aprender, hacer amistades y jugar a distancia. Sin duda el internet es una herramienta que ha transformado la manera que vivimos, y estos últimos 2 años y medio han logrado convencer a muchos que antes tenían sus dudas.

Porcentaje de usuarios de internet en México, 2000 -2019

Fuente: Statista

La manera en la que navegamos también se ha transformado desde que inicio la era del celular inteligente.

Antes eran solamente páginas de internet para el usuario común, ahora lo consumimos mediante el uso de aplicaciones.

Miles de aplicaciones en la punta de tus dedos y cientos llegando cada día, y estas siendo de todos los tipos posibles, unas indispensables y otras que usas una vez y ni te acuerdas de que tienes en algún rincón de tu celular.

Otro gran cambio relacionado a los celulares es que estos se han convertido en pequeños estudios para generar contenido. Desde grandes avances tecnológicos en micrófonos, cámaras y almacenamiento de información, hasta la habilidad de transmitir gran información de manera instantánea.

Es común que se transmita en vivo desde cualquier lado, un derecho reservado que antes solo las grandes cadenas de noticias internacionales podían lograr y esto mediante el uso de satélites y antenas satelitales ancladas en los techos de grandes vehículos. ¿imagínate el costo de algo así?

Fuente: BBC

El ultimo concepto que queremos tocar en esta columna de Web 2.0 es los datos, creo que es un tema importante para el blog de una startup de analítica de datos.

¿Cuántos datos se generan en el mundo?

La cantidad de información generada ha y seguirá creciendo exponencialmente.

Cada año que pasa hay más usuarios de internet, y cada uno de ellos genera más información mediante la generación de contenido más pesado, antes subíamos una foto de baja resolución, ahora queremos subir nuestro contenido en alta resolución. ¿Por qué no grabar en 4K la posada si nuestro celular puede hacerlo?

¿Quién está generando todos estos datos?

Sin duda nosotros los usuarios generamos muchos datos, pero ahora tenemos millones de usuarios de internet que no son personas.

El internet de las cosas o el “IOT” por sus siglas en inglés, genera una cantidad considerable de datos. Cada pregunta para Alexa, Siri o Google o cada vez que le pides a tu foco inteligente que cambie de color, o tu timbre que ahora está conectado a internet para ver que toca desde tu celular. Sin duda nos podemos imaginar cientos de ejemplos donde interactuamos con un dispositivo conectado a internet en nuestras vidas. Antes nos teníamos que preocupar por lo que visitamos en internet, ahora nos preguntamos qué hacen nuestros tostadores con el acceso a internet que les damos.

¿Quién es dueño de estos datos generados?

Esta pregunta es difícil de contestar, no todos los datos se generan igual. Y si hay situaciones donde la respuesta es menos complicada, si tomo una foto con mi celular de manera casual y no en un contexto profesional con contratos, yo soy el dueño. Pero: ¿Quién es el dueño de los clics que hago al navegar por una tienda en línea?

Digamos que navego por una tienda en internet, esta tienda va a almacenar toda mi interacción, cada clic que hago, los tiempos que estoy en la página, la ruta que tomo entre distintas partes de la página y en algunos casos la posición de mi cursor.

Qué pasa si hay una compañía que su modelo de negocio se enfoca en saber más de nosotros y hace un esfuerzo de almacenar nuestra interacción con el internet, no solo su página, si no que le da servicio a otras páginas y esta compañía puede seguirte y tus clics entre muchas de la paginas que utilizas.

El día de hoy esto es una realidad, hay herramientas para monitorear y grabar las interacciones que tenemos con el internet, esto por lo general se hace para hacer un perfil de nosotros que posteriormente se puede utilizar como herramienta de marketing. Estas compañías son dueñas de los datos que almacenan de nosotros y claro esta que es un tema complejo y lleno de regulaciones y leyes, las cuales cambian dependiendo del país o región donde nos ubiquemos.

** Te puede interesar «Los 5 perfiles para analítica en una organización»

Web 3.0

El termino web 3.0 actualmente se les atribuye a varias personas, pero el primer uso de este término fue por Tim Berners-Lee al hablar de la “red semántica” en su visión del futuro.

El internet semántico es tan solo un aspecto de la nueva generación del internet, también tenemos que considerar las dApps, nos NFTs, realidad aumentada y realidad virtual, inteligencia artificial, el futuro de la monetización por los usuarios de su contenido, blcokchains de acceso libre e interoperabilidad, entre otros conceptos.

¿Qué es el internet semántico?

Este concepto describe un aspecto de la nueva generación de internet. Es una extensión del internet actual en donde las maquinas son capaces de leer los datos que hay en internet.

El “World Wide Web Consortium” ha propuesto iniciativas para lograr que la nueva manera de construir páginas web, incluyan este tipo de información.

En la practica la manera que se vería esto es añadiendo metadatos semánticos y ontológicos en internet.

Estos contenidos que se proponen agregar describen el contenido, el significado y la relación entre los datos.  Los metadatos semánticos describen y dan contexto a los recursos de la web y los metadatos ontológicos le explican a las maquinas que leen las páginas web la jerarquía de conceptos con atributos y relaciones. La ontología es explícita por que define los conceptos, formal por que es legible e interpretable por las máquinas, y es una conceptualización porque es un modelo abstracto y una vista simplificada.

El internet semántico es una parte importante de la web 3.0, pero no es la única, te invitamos a leer la siguiente columna de este blog donde tocaremos otros temas relacionados a la nueva generación del internet.

-Equipo Datlas-