Archivo de la etiqueta: Data

4 pasos para preparar tus bases de datos para análisis

Hoy en día la transformación digital cuenta con distintos pilares dentro de los que destaca la analítica o análisis de datos. Apalancar todo el valor que esconden las grandes cantidades de información disponibles en la actualidad permite que los negocios y la sociedad, en general, se organice y genere valor de formas innovadoras. Para lograr un análisis de datos, la materia prima es clave: las bases de datos. Como cualquier materia prima las bases de datos guardan atributos y características que las hacen ser mejores o peores al momento de ser utilizadas como input para un análisis. En esta columna vamos a revisar 4 sencillos pasos con los que podrás asegurar que tus bases de datos estén preparadas y listas para realizar análisis de calidad que generen un verdadero valor diferencial para tu negocio. Estos 4 pasos son: limpieza, reestructura, homologación y clasificación.

free_Suscriber

#1 Limpieza de datos

El llamado data cleansing, por su traducción al idioma inglés, es el proceso de descubrir y corregir o, en casos extremos, eliminar registros de datos que han sido identificados como erróneos dentro de una tabla o base de datos. Este proceso de limpieza de datos permite identificar datos incompletos, incorrectos, inexactos, no pertinentes, etc. y luego sustituir, modificar o eliminar estos datos sucios.

Hay distintos métodos para limpieza de datos. Uno de ellos es el análisis gramatical que identifica errores de sintaxis, es decir, si el sistema lo tiene declarado como una variable numérica y el usuario registro una palabra, este tipo de análisis lo identifica. Existe la transformación, que básicamente ajusta los datos dentro de un formato esperado, en la mayoría de las ocasiones la transformación es para normalizar los datos y ajustarse a valores mínimos y máximos. Otra forma es el eliminar duplicados, que como su nombre lo dice, simplemente identifica registros repetidos y elimina uno de ellos. Finalmente, existen métodos estadísticos mediante los cuales la estadística descriptiva hace visualmente reconocibles las anomalías y posteriormente expertos se encargan de ajustar ese tipo de datos mediante la sustitución de los mismos por valores promedios o algún otro tipo de tratamiento, dependiendo de la naturaleza del dato.

Una vez detectados estos datos “sucios” es necesario identificar las causas para poder establecer flujos de trabajo ejecutables de forma automática para que corrijan o excluyan este tipo de datos. En temas técnicos es común el uso de bibliotecas como Pandas para Python o Dplyr para R.

datlas_mx_blog_data_cleansing

#2 Reestructura de bases de datos

Este segundo paso del proceso de preparación de bases de datos tiene que ver literalmente con tomar una base de datos de cierta estructura como, por ejemplo, 10 columnas por 3 filas y alterarla de tal forma que al final quede una base de datos completamente nueva de, por ejemplo, 6 columnas por 7 filas, pero con los mismos datos ya limpios que obtuvimos en el paso anterior. Para ilustrar este punto utilizaremos un ejemplo muy sencillo:

Supongamos que levantamos una encuesta sobre productos y marcas que podemos encontrar en el baño de cada entrevistado. Los resultados de la encuesta nos darían una base de datos de la siguiente forma:

Entrev edad sexo Prod_1 Prod_2 Prod_3 Marca1 Marca2 Marca3 NSE
1 10 F Desodo

rante

Pasta de dientes Jabon líquido AXE CREST NUBELUZ A
2 25 M Pasta de dientes Sham

poo

Jabon en gel COLGATE ELVIVE AMIGO B
3 23 F Crema para peinar Pasta de dientes Jabon de barra SEDAL COLGATE ESCUDO C

Si quisiéramos que los datos nos digan que artículos son los que las mujeres de 24 a 30 años tienen en su baño, necesitamos manipular los datos de forma que podamos obtener como respuesta a esta pregunta un cálculo de frecuencia.

En este segundo paso es donde tomamos en cuenta las hipótesis o los objetivos de análisis para generar la reestructura de la información. En este caso, por ejemplo, la base de datos ya reestructurada quedaría así:

Entrevistado Edad Sexo Num_Prod Descripcion Marca
1 10 F 1 Desodorante AXE
1 10 F 2 Pasta de dientes CREST
1 10 F 3 Jabón Líquido NUBELUZ
2 25 M 1 Pasta de dientes COLGATE
2 25 M 2 Shampoo ELVIVE
2 25 M 3 Jabon en gel AMIGO
3 23 F 1 Crema para peinar SEDAL

Con lo cual podríamos establecer, suponiendo que utilicemos Excel, un filtro en la columna de edad para seleccionar las edades superiores a 24 años e inferiores a 30, al mismo tiempo que filtramos en la columna de sexo la letra F (de femenino) y simplemente calculamos el total de filas que quedan desplegadas de la tabla. De esta manera respondemos la pregunta inicial.

#3 Homologación de bases de datos

En este punto ya comenzamos a jugar con distintas bases de datos, es decir, muchas veces las empresas tienen distintas áreas donde el modo con el que tratan los datos es distinto. Por lo tanto, al momento de tratar de unificar resultados o compararlos, puede que no se estén tomando parámetros similares y eso difícilmente podrá permitir que se realicen cruces de información de manera eficiente.

Al homologar bases de datos es necesario generar estructuras preestablecidas y un glosario de variables que defina claramente los formatos y las especificaciones necesarias para cada tipo de variable registrada. Un caso muy común por ejemplo es el formato de fechas entre dos bases de datos distintas, mientras uno maneja el formato día/mes/año otro tiene registros como mes/día/año con lo que a la hora de hacer un cruce de información las fechas nunca logran empatar y es imposible realizar un cruce de forma adecuada.

datlas_mx_blog_homologacion_bases_de_datos

#4 Clasificación de bases de datos

Finalmente, tenemos el paso de clasificación. En este punto literalmente el objetivo es darle una etiqueta o categoría a cada base de datos de acuerdo al contexto que estemos manejando, la utilidad de la misma base de datos o las necesidades que estas satisfagan al interior de la organización. De forma general existen dos tipos de clasificaciones para las bases de datos: según la variabilidad de los datos o según su contenido.

Dentro de la primera clasificación existen las bases de datos estáticas, que generalmente son bases de datos de consulta, con registros históricos que no van a cambiar. El típico ejemplo aquí son las ventas de hace 5 años para una compañía de artículos deportivos. Por otro lado, están las bases de datos dinámicas, donde la información cambia a través del tiempo por actividades como: actualización, borrado y edición de datos. El mejor ejemplo en este caso son las bases de datos de clientes (CRM) donde hay constantes actualizaciones de información o incluso eliminación de prospectos.

En la segunda clasificación tenemos las bases de datos bibliográficas, que guardan literalmente registros de autor, fecha de publicación, editorial, etc. En contraste existen las bases de datos de texto completo que almacenan el contenido completo de las citas bibliográficas anteriormente citadas, por ejemplo. También existen subclases como directorios, bibliotecas, etc.

datlas_mx_blog_clasificacion_bases_de_datos

De esta forma logramos tener una integridad entre los datos almacenados, la base de datos que los resguarda, las distintas bases de datos dentro de una organización y su capacidad de complementarse al momento de realizar un análisis. Así de fácil podemos cuidar la calidad de nuestros datos para asegurar que podamos aprovechar todo el poder y las ventajas del big data a la hora de realizar analítica.

Si te interesa conocer más acerca de estos procesos o necesitas ayuda con tus bases de datos, visita nuestro Marketplace o contáctanos en nuestras redes sociales

@DatlasMX

 

Dashboards de negocios, guía para principiantes – Datlas

Un avión donde viajan 300 personas que puede ser conducido por 2 personas, una megaciudad de más de 5 millones de habitantes conducida desde un “war-room” (C4 ó C5) con 20 personas, o la gestión de un mundial de fútbol en más de 20 ciudades a la vez controlado por un equipo de 40 profesionales ¿Qué herramienta tienen en común?  Todos en algún momento usaron dashboards.

Datlas_barra_suscribir

En los negocios ocurre igual. Un tablero de control o dashboard es un lugar donde se pueden monitorear los aspectos más importantes del quehacer de una organización. Sinedo así,en el campo de “inteligencia de negocios” o “business intelligence”, este tipo de herramientas le ayuda a los tomadores de decisiones y operativos a reaccionar de forma efectiva a cambios en el negocio.

1) ¿Qué es un dashboards de negocios?

Es un gráfica que refleja el estatus operativo de datos recolectados en tiempo real (o casi tiempo real) visualizados en una plataforma. Un ejemplo de lo que podría ver un empresa que se dedica a envíos de comida a domicilio en un dashboard.

El pase de diapositivas requiere JavaScript.

Así como los pilotos en un avión monitorean la altura, velocidad, ruta y otros aspectos del vuelo. En un negocio podríamos vigilar las órdenes , las ventas, tiempos de entregan las entregas exitosas, los artículos más vendidos, entre otros.

Te puede interesar nuestra columna titulada: Ranking de Dashboards de COVID-19.

2) Características de un dashboard

Para ser considerado un buen panel de control tendría que integrar:

  • Un sistema valioso de indicadores
  • Visualización e interacción intuitiva
  • Buena calidad de datos como insumo y amplitud en cortes temporales
  • Un sistema completo de arquitectura que permita actualización automática

Recomendamos que leas nuestro ejemplo en: Analítica en Dashboards para Turismo.

3) ¿Cuáles son los tipos de dashboards?

Datlas_niveles

  • Dashboard estratégico: Resume y sintetiza los indicadores más importantes de la compañía para tomar decisiones de manera rápida basadas en datos
  • Dashboards analíticos: Puede ser estratégico y operativo, destinado a que los equipos de mandos altos y medios puedan tomar decisiones de manera más ágil
  • Dashboards operativos: Enfatiza el reporteo de información constante y continua
4) ¿Qué acciones debería habilitar un dashboard?
A) Seguimiento a KPIs
Datlas_saludkpis

Una vez que se realizó el trabajo de planificación estratégica donde se delimitaron los KPIs que los equipos de trabajo deberán de cuidar para que los proyectos tengan buena salud es importante poder visualizarlo en el dashboard. Por lo mismo es útil generar un “semáforo” donde rojo sea señal de gran oportunidad para mejorar y verde sea buena salud.

B) Alertar de comportamientos fuera de rango o prevenciones
Datlas_alertas

Las mejores implementaciones de inteligencia de negocios generan tableros que están listos para alertar sobre comportamientos críticos o situaciones que necesitan inmediata atención. Idealmente estas notificaciones tienen que ser desarrolladas por las personas con más experiencia en la organización y con base a atender las oportunidades que de no atenderse podrían representar un costo no reemplazable a la compañía.

C) Monitoreo en tiempo real
Datlas_gif_Realtime_Dashboard

En una etapa más avanzada habrá que procurar que el monitoreo de los datos sea en tiempo real. Esto requiere necesidades más sofisticadas de infraestructura y que se cuenten con iniciativas de ciberseguridad para asegurar que no haya fugas de información. Esto permitiría una toma de decisiones más oportunas sobre datos que sean reales.

Cierre

Los dashboards permiten ser más eficientes y eficaces en la toma de decisiones operativas y en el cumplimiento de la estrategia de una organización. Hay que trabajar de la mano con el área o la función de planeación en nuestra compañía para generar buena calidad de KPIs, alertas y sobre todo garantizar que los datos más dinámicos sean actualizados en tiempo real.

Datlas_barra_suscribir

Si te interesa seguir conociendo más de este tema (KPIs y herramientas de medición te invitamos a nuestra próxima charla. Puedes registrarte aquí GRATIS: https://bit.ly/dfuturos4 

WhatsApp Image 2020-07-06 at 9.05.32 AM

También solicitar en nuestro marketplace una llamada para platicar sobre este tema y evaluar cómo con alguno de nuestros casos aplicados podemos ayudar a tu organización.

Fuentes:

V de Variedad en Big Data: datos estructurados y no estructurados

En más de una ocasión hemos tenido la oportunidad de presentarnos en foros donde hablamos de Big Data como esta nueva gran tendencia dentro del marco de la transformación digital. Al comenzar cada una de nuestras presentaciones, como es nuestra fiel costumbre, contextualizamos acerca de los conceptos que abordamos. Dentro de la explicación de lo que es el Big Data hacemos referencias a las famosas 5 Vs: Volumen, velocidad, variedad, veracidad y valor. Implícitamente, dentro de la característica de variedad hablamos del origen de los datos, las fuentes de donde provienen y del tipo de estructura que tienen. En esta columna vamos precisamente a profundizar en los datos y las bases de datos estructuradas y no estructuradas, lo que son y como es que nosotros las apalancamos dentro de los reportes automatizados Laura para capitalizar un mejor entendimiento, análisis y descubrimiento de oportunidades con alto impacto para el negocio.

free_Suscriber

Como punto de partida hay que entender a que nos referimos con datos estructurados y no estructurados. En primer lugar, los datos estructurados se refieren a la información que se suele encontrar en la mayoría de las bases de datos relacionales (Relational Database Management System o RDBMS por sus siglas en inglés), es decir, en un formato estructurado usando filas y columnas. Suelen ser archivos de texto que se almacenan en formato tabla u hojas de cálculo con títulos para cada categoría que permite identificarlos. Son datos que tienen perfectamente definido la longitud, el formato y el tamaño y que pueden ser ordenados y procesados fácilmente por todas las herramientas de minería de datos. De igual manera, los datos pueden generarse de forma humana o mecánica siempre que los datos se creen dentro de una estructura RDBMS. Para ejemplificarlo de forma más simple, imagina cuando tomaban lista en el salón de clase y el profesor tenía una tabla con nombres, apellidos, la fecha de la clase y un montón de palomitas. Así se “ven” los datos estructurados.

El pase de diapositivas requiere JavaScript.

Por otro lado, existe una clasificación diametralmente opuesta a esta: los datos no estructurados. Aunque si bien entendemos que técnicamente existe también el término de datos semiestructurados en esta ocasión utilizaremos los opuestos para ejemplificar el punto de la variedad dentro del big data y los beneficios de fusionar los distintos tipos de datos a la hora de generar los análisis. Así que, volviendo al tema, los datos no estructurados, que son la otra cara de la moneda son aquellos datos, generalmente binarios, que no poseen una estructura identificable. Es un conglomerado masivo y desorganizado de varios objetos que no tienen valor hasta que se identifican y almacenan de manera organizada. No tienen un formato especifico, pueden ser textuales o no textuales. En su modo más simple, son documentos en PDF, archivos de Word, videos, audios, las fotos satelitales de las hectáreas de siembre que tiene una empresa agrícola, entre otros ejemplos. De la misma forma que los datos estructurados, este otro tipo de datos puede ser generado tanto por humanos como por maquinas.

datlas_mx_blog_datos_no_estructurados
Ejemplo de datos no estructurados (textual)

Ahora bien, ¿Qué relevancia tiene esta variedad de los datos? ¿Qué relación guarda con esto del Big Data? Pues precisamente estadísticas mostradas por empresas como Kyocera estiman que alrededor del 80% de la información relevante para un negocio se origina en forma no estructurada, principalmente en formato texto. Esto quiere decir que, al tener la posibilidad de integrar datos no estructurados al análisis, automáticamente el volumen de información (otra de las V del Big Data) disponible para análisis aumenta a más del doble. Imagínate que llegara un nuevo vendedor y pudiera leer todos los corres de prospección escritos en los últimos 5 años de historia de la compañía. Toda la riqueza detrás de ese tipo de ejercicio hoy es posible gracias al Big data, pero tomar ventaja de los datos no estructurados es una tarea retadora, ya que existe la necesidad de organizar los archivos, categorizar el contenido y entonces obtener información que pueda estructurarse de tal forma que sea capaz de fusionarse con los datos ya estructurados. Aunque sin duda hoy existen en el mercado herramientas de software para el procesamiento, gestión o almacenamiento de este tipo de datos, sigue siendo importante el papel de los analistas de negocio o los mismos dueños para establecer una priorización de esfuerzos con base al beneficio potencial que pudiera obtenerse de ese esfuerzo por capitalizar los datos no estructurados.

datlas_mx_blog_datos_no_estructurados_a_estructurados

Finalmente, desde nuestra experiencia hemos logrado consultar bases de datos estructuradas y no estructuradas para realizar los reportes automatizados de Laura y entregar un verdadero valor agregado al cliente comparado al de los estudios tradicionales que generaba un equipo de analistas sin este tipo de herramientas. Tomemos como ejemplo las redes sociales, un tweet. Hoy es muy común que la gente se exprese libre y abiertamente en twitter acerca de lo que le gusta, le disgusta o incluso donde esta. En nuestro caso, uno de los elementos integrados dentro de Laura es el análisis de tráfico peatonal por categoría de negocios, es decir, que tanta gente está tweeteando acerca de una cierta marca de restaurante o producto. Para poder apalancar estos datos de forma inteligente se hace un proceso de análisis de texto que extraer el nombre del establecimiento, lo coteja con un diccionario de negocios, lo clasifica dentro de la categoría a la que pertenece ese negocio y finalmente lo agrega, de forma estructurada, en una base de datos que pasa a ser consultada como un mapa de calor dentro de nuestras plataformas de Mapas de Inteligencia y a su vez como una imagen de la ubicación analizada y el entorno al hablar de los reportes Laura. Esto nos ha permitido apoyar a negocios a tomar mejores decisiones de ubicación, ponderando no solamente los típicos indicadores estructurados y “fijos” sino también la información no estructurada y, en este caso, dinámica para ofrecer una perspectiva realmente nueva y más holística de las condiciones a las que se enfrenta el negocio al momento de tomar una decisión.

datlas_mx_casos_uso_consultoria_derrama_economica_luztopia_2019

Como este caso hemos aprovechado otro tipo de datos no estructurados para apoyar a empresas de distintas formas, en tu caso ¿generas información no estructurada? ¿te interesa aprovechar el poder que esconde esa información? ¿o simplemente te gustaría experimentar con la información no estructurada que existe allá afuera y que hoy podemos poner a tu disposición? Contáctanos y cuéntanos

@DatlasMX

 

Clustering para generar segmentos de mercado – Datlas Research

Como lo platicamos en “La historia de las tecnologías de información computacional” desde que el poder de cómputo ha incrementado hemos buscado formas de generar análisis más completos y asertivos para nuestros casos de estudio.

Datlas_barra_suscribir

Uno de ellos es el análisis de clúster que es una técnica estadística multivariante cuyo objetivo es formar grupos de elementos homogéneos o similares que al mismo tiempo sean heterogéneos o distintos entre sí. ¿En español y negocios? Hay casos en donde generar una estrategia para cada cliente puede ser costoso, pero si agrupamos a estos clientes en segmentos podemos impactar a grupos similares con estrategias puntuales.

En esta columna explicaremos un caso de ejemplo de clustering para generar segmentos de clientes. Los datos que revisaremos vienen de encuestas levantadas con visitantes al festival Luztopia. (Si te interesan sólo los resultados favor de pasar al final de la columna). El objetivo identificar segmentos de asistentes específicos al festival para la ideación y generación de mejores promociones el próximo año.

El pase de diapositivas requiere JavaScript.

Para ser justos hay que explicar que existen distintos tipos de análisis para generar estas agrupaciones o clústers. Los dos grandes grupos son: No jerárquicos y jerárquicos. En este caso en particular usaremos uno de los métodos  no jerarquicos. Lo que quiere decir que un clúster generado no depende de otro clúster, son independientes.  Dentro de los no  jerarquicos utilizaremos los asociados al algoritmo “k-means”, que está dentro de la familia de los no jerárquicos. Este algoritmo usa de inicio medias aribtrarias y, mediante pruebas sucesivas, va ajustando el valor de la misma. La idea es no ponernos más técnicos, pero si te interesa conocer más a detalle te recomendamos revisar la p.23 de este documento. En pocas palabras k-means nos apoyará ensamblando clústers de perfiles que sean similares entre sí, pero a la vez diferentes entre cada grupo.

BASE DE DATOS

La información que revisaremos son un par de encuestas que incluyen datos como los siguientes:

Datlas_blog_clustering2

En concreto usaremos para armar los clústers las variables numéricas, tales como: Edad de personas que respondieron, tamaño de su grupo, cantidad de menores de 18 en el grupo, gasto en cena, gasto en productos dentro del recorrido, gasto total estimado y tiempo de estancia en el evento. Para quienes han analizado datos similares ya se podrán imaginar el tipo de respuestas que podremos generar: ¿Cuáles son los perfiles que más visitan? ¿Qué perfiles gastan más en su recorrido? ¿Habrá relación entre los visitantes que van con niños y su compra en cenas? ¿Extender el recorrido en tiempo haría que las personas consuman más cenas? Entre otros.

Este es el tipo de respuestas que generamos en los reportes que trabajamos en Datlas, sin embargo para fines de esta columna nos ubicaremos en el ejercicio de clústers buscando generar segmentos para los cuales podamos generar nuevas promociones.

MÉTODO

Un paso que algunos analistas descuidan es el proceso de “normalizar” datos. Una vez que empiezas por el camino de #machinelearning va a ser un paso que será muy común.  “Escalar” es un proceso de redimensión de variables para que estas se encuentren entre rangos de -5 a 5, por ejemplo. Este proceso ayuda a centrar los datos alrededor de la media.  Estos métodos tienen área de oportunidad cuando tenemos anomalías, pero en este caso dado la distribución de las variables hacía sentido escalar. A continuación un contraste del proceso.

El pase de diapositivas requiere JavaScript.

A partir de este proceso generamos una matriz de distancia entre las variables. Esto nos indica en rojo los registros de variables, en este caso visitantes a Luztopia, que son más distintos en perfiles y hábitos de consumo. Aunque realmente es complicado leerlo así. Por lo mismo es un paso intermedio

Datlas_matriz_Distancia_Cluster

Un siguiente paso es hacer una primera iteración de clústers. En esta ocasión supervisamos al algoritmo para que nos entregue de regreso 4 clústers. Cada punto que vemos en la gráfica es una encuesta respondida por la muestra de visitantes que estamos evaluando. En el clúster 1, por ejemplo, pudieran ser todos los visitantes que asistieron con niños a Luztopia. Eso genera una diferenciación tan crítica, que separa este clúster de los demás. Sin embargo los otros clústers se traslapan.

Datlas_ClusterPlot_4

Lo ideal es que el traslape sea mínimo o nulo. En este sentido podemos retar la cantidad de clústers que le pedimos al sistema generar. Para esto podemos usar un proceso que nos recomienda la cantidad de clúster óptimos.

Datlas_optimal_Clusters

De acuerdo a este proceso 2 son los números ideales y óptimos de clústers. También lo serían 5 ó 6, pero en realidad manejar estrategias de negocio para tantos grupos puede ser complicado. Por esta razón seleccionamos 2 como caso de uso.

Datlas_ClusterPlot_2

Finalmente, para poner en práctica nuevas estrategias de negocios, podemos identificar cuáles son las medias de cada una de las variables, cómo contrastan los clústers y algo que recomendamos es generar “avatars” o “buyers personas” que permitan comunicar hacia dentro de la organización la manera de trabajar.

TESTIMONIO

Hasta aqui la columna de hoy. Te compartimos finalmente el testimonio de nuestra colaboración con el “Clúster de Turismo NL” donde usamos técnicas como estas para generar distintos entendimientos del festival Luztopia. Además puedes revisar el podcast que grabamos con ellos si te interesa “Analitica en sector Turismo”.

 

Si te interesa conocer y contratar este tipo de servicios de “Clustering sobre resultados de encuestas o investigaciones para generar segmentos y seleccionar los mejores mensajes para tu mercado” te recomendamos visitar nuestro marketplace y solicitar una llamada de orientación. Contáctanos también en ventas@datlas.mx

Datlas_barra_suscribir

Saludos

Equipo @DatlasMX

– Keep it weird-

 

5 pasos para aprovechar los datos de tus puntos de venta y mejorar tus resultados

Hace apenas un par de años comenzamos a escuchar el famoso concepto de transformación digital en las empresas. Este concepto hace referencia al aprovechamiento y la inserción de tecnología y digitalización dentro de los procesos de negocios. Uno de los pilares más importantes dentro de esta transformación digital es el análisis de datos. En un contexto en donde los datos y la información son lo más abundante, la necesidad de aprovechar este gran bagaje de información para la toma de decisiones de negocios se ha vuelto crucial. En esta columna vamos a hablar de un sencillo proceso de 5 pasos con el que hemos apoyado a los negocios a aprovechar la generación de datos desde sus puntos de ventas para capitalizar accionables comerciales y operativos que han impactado directamente sus resultados de manera positiva.

free_Suscriber

Para comenzar es necesario un poco de contexto. Cuando hablamos de aprovechar la generación de datos existe un componente importante que responde a las condiciones actuales de los negocios: el volumen. Mientras hace unas décadas la disponibilidad de información se limitaba a un par de libros contables, hoy las empresas tienen la capacidad de consumir información externa y, sobre todo, de obtener y generar una cantidad sin precedentes de variables respecto a sus transacciones, clientes y procesos. Es precisamente aquí en donde se introduce el famoso concepto de Big Data. Sin duda hemos hablado de este concepto en entradas anteriores, pero nos gustaría citar una frase del CEO de BBVA Analytics, Fabien Girardin, que sintetiza muy bien las ventajas de este concepto diciendo: “Lo que es nuevo con el Big Data, es la cantidad de datos que nos permite entender el mundo de mejor manera, y cuando digo ‘el mundo’ me refiero a los clientes, empresas, y también como funciona la propia organización. Eso nos permite realmente medir y entender los procesos, intentar automatizarlos, y ayudar a la toma de decisiones de manera nueva”.

Ahora bien, veamos como es que estas técnicas de aprovechamiento de grandes cantidades de información se pueden capitalizar para tu negocio o la empresa donde laboras. La receta consta de 5 sencillos pasos que se ilustran de una manera magistral en la siguiente imagen:

datlas_mx_blog_data_to_wisdom

Paso #1: Los datos

La primera etapa tiene que ver precisamente con la materia prima, es decir, con los datos. Este es el punto de partida para poder derivar verdadera inteligencia. Al hablar de datos hay que tener claros dos puntos importantes: el primero de ellos es responder la pregunta ¿dónde se esconden los datos? Muchos de nuestros clientes al principio aseguran que la falta de análisis dentro de su negocio tiene su origen en la “falta de datos”, pero esto no es necesariamente real. Los puntos de venta son por excelencia grandes generadores de datos. Sin duda no son los únicos, por lo que es importante mapear el viaje completo del usuario para identificar los puntos de interacción (touch points, en inglés) en los que el cliente interactúa con el negocio y en donde podemos estar capturando información.

Tomemos como ejemplo una tienda en línea, que han visto una evolución significativa en estas circunstancias de cuarentena. Para hacerlo todavía más simple pensemos en una tienda en línea que vende artículos para bebes. En este caso, el usuario tiene un viaje que podemos simplificar: el usuario conoce la marca/productos, entra a la página web, interactúa con el catalogo de productos, selecciona los artículos que va a comprar, realiza la transacción y sale contento(a) a esperar la entrega de los artículos que adquirió. Tan solo en este simple “viaje” podemos encontrar que el punto de venta ha logrado capturar datos como: edad, sexo, email y teléfono del cliente; el canal de procedencia, el tiempo que dedico a cada sección de la página, donde hizo click, los productos que estuvo evaluando, los filtros que utilizó, los artículos relacionados directamente a aquellos que incluyó en su carrito de compra, el ticket promedio, el total de la transacción, la dirección a la que pidió que se enviaran sus productos y la información de su método de pago, entre otros muchos detalles.

datlas_mx_blog_data_sources_ecommerce

Ahora bien, la cantidad de datos es sin duda impresionante y nos permite realizar análisis más nutritivos, pero es importante cuidar el segundo punto que citábamos arriba: la estructura de los datos. ¿A qué nos referimos con la estructura? Imagina un negocio hace 50 años que tuviera cada transacción anotada en una libreta y tuviera que ponerse a buscar en los miles de libretas de los años pasados para encontrar cuantas veces el Sr. Godínez (su cliente más frecuente) ha comprado en los últimos 3 años. Me canse tan solo de escribirlo. He aquí el segundo punto medular cuando hablamos de datos. Es de suma importancia cuidar que los datos se almacenen con una cierta estructura que permita identificarlos, como el caso del cliente, con un identificador o un folio. Asimismo, es importante cuidar que las estructuras habiliten la conexión entre los datos generados desde distintos procesos o puntos de contacto del negocio con el cliente. Un ejemplo claro en el caso de la tienda en línea para bebes sería tener un catalogo de productos con SKUs y una base de datos de pedidos que integren los distintos SKUs que cada cliente incluye en sus pedidos. Y todo esto ¿para qué? Justo vamos a verlo en los siguientes pasos.

Paso #2: De datos a información (la transformación)

Una vez identificadas las fuentes de datos, sobre todo aquellos generados por el punto de ventas, pasamos a transformar esos datos en información. Cuando hablamos de transformar estos datos nos referimos a tomar la materia prima y comenzar a darle forma, comenzar a construir y descifrar la historia detrás de esos datos para poder derivar la inteligencia. Es justo en esta etapa cuando tomamos, por ejemplo, todos los datos referentes a los clientes y comenzamos a construir los perfiles o avatares. Con los datos de los productos podemos generar canastas, catálogos, familias o categorías y/o agrupaciones. Con los datos transaccionales se pueden generar reportes de resultados e indicadores. Lo importante en esta etapa es poder apalancar la estructura de datos anteriormente establecida para que la transformación de esos datos en información se pueda dar de una manera sistemática y automatizada.

datlas_mx_blog_data_information_ecommerce

Paso #3: Interconectar (integraciones)

Esta etapa se distingue por integrar a la narrativa, a la historia, las diferentes fuentes de información. Retomando el ejemplo de la tienda en línea para bebes y teniendo en cuenta que de la fase anterior obtuvimos perfiles de clientes, catálogos de productos y resultados transaccionales, podemos generar una narrativa completa en esta sección. Imaginemos que de la información anterior seleccionamos uno de los perfiles de cliente formado, ejemplo: Perfil A. Una vez seleccionado el perfil comenzamos a cruzar la información con los catálogos de productos y obtenemos una lectura de los productos más afines al perfil de cliente seleccionado. Todo esto a su vez lo integramos con la información transaccional de tal suerte que podemos construir una narrativa capaz de contar una historia como esta: “El perfil A representa a clientes mujeres de 28 a 34 años, que principalmente llegan desde redes sociales como Instagram, interesadas en productos consumibles como pañales y leche en polvo, generalmente comprando 3 artículos por pedido con un ticket promedio de $890 MXN”

datlas_mx_blog_ecommerce_customer_profile

Ahora bien, lo más importante en este punto no es poder contar la historia sino tomar esa historia para generar las preguntas o hipótesis adecuadas, es decir, tomando la narrativa del ejemplo anterior un buen análisis parte de preguntarse cosas como ¿existe alguna relación entre su edad y la afinidad por productos de marcas de alta gama? ¿Qué tan probable es que este perfil compre artículos que no sean propiamente para su bebe (regalos u obsequios)?

Paso #4: Insights (analíticos)

En esta etapa es importante partir de la definición de este famoso concepto de insights. Si bien es un término en inglés que difícilmente tiene una traducción directa al español, lo claro es que se puede definir como “el entendimiento de una causa específica y su efecto dentro de un contexto particular. Entender la naturaleza interna de las relaciones”. Basados en esta definición, este cuarto paso justo se trata de responder las preguntas planteadas en la etapa 3 y descifrar las causas y efectos de esas relaciones. Retomando el ejemplo anterior, para el caso de la relación entre edad y afinidad de marcas, podemos contarles que este cliente pudo analizar y concluir que las mamás jóvenes son más afines a marcas de alta gama porque su falta de experiencia prioriza la novedad y la mercadotecnia de las marcas de alta gama, mientras que las madres con mayor experiencia ya tienen conocimiento sobre las marcas que realmente son funcionales y priorizan su decisión de compra basadas en los atributos de confianza y usabilidad que otras marcas, no necesariamente de alta gama, les pueden proveer.

datlas_mx_blog_ecommerce_analytics

Paso #5: Inteligencia (accionables)

Después del esfuerzo de las cuatro etapas anteriores llegamos a la parte que realmente impacta los resultados: las acciones. El catalizador de los análisis que las etapas anteriores pudieron proveer llega a su culmen cuando los datos, la información, la historia, las preguntas y las respuestas se convierten en lo que conocemos como inteligencia, es decir, acciones concretas que nos ayuden a influir sobre los resultados que hemos estado analizando. Tomemos el ejemplo citado, una vez que desciframos que hay un perfil de cliente que responde a ciertos atributos podemos generar estrategias de comunicación segmentadas con mensajes afines a ese tipo de características sobre los productos, por otro lado, se pueden apalancar cupones de descuentos que ayuden a aumentar las conversiones en ciertos días de la semana o promociones especiales en los meses más críticos, etc. Con uno de nuestros clientes incluso logramos capitalizar información de entorno para poder identificar geográficamente aquellas zonas en donde se concentraban los clientes potenciales del negocio para poder accionar campañas enfocadas en esas zonas y optimizar los presupuestos promocionales.

En esta etapa es importante recordar dos cosas: la primera es que la inteligencia, como los datos, debe almacenarse de una manera estructurada y debe comunicarse a todos los grupos de interés para que se pueda capitalizar su valor en un impacto positivo a los resultados. La segunda, íntimamente relacionada a esta, es que el proceso es iterativo, es decir, nunca acaba. Al igual que la captura de datos, este proceso debe estar “vivo” debe nutrirse de nuevos datos y continuar abonando a la inteligencia, mejorar los accionables y seguir buscando nuevas fuentes de generación de datos, incluso externas a la empresa, para poder impactar los resultados de manera positiva.

datlas_mx_blog_data_business_intelligence

Finalmente, esta es una forma sencilla en la que puedes obtener valor de los datos de tu negocio. No olvides que a pesar de enumerar 5 sencillos pasos cada uno de ellos tiene una complejidad dentro de si mismo y en Datlas estamos preparados para apoyarte en cada una de las etapas con metodologías y tecnologías que son capaces de adaptarse a cualquier industria y tamaño de negocio. Cuéntanos como estas aprovechando los datos de tus puntos de venta o contáctanos para comenzar a ayudarte ¡hoy mismo!

@DatlasMX

¿Cómo construir un CHECKLIST para iniciativas de analítica de datos? – Datlas research

Hace un par de blogs conversamos sobre cómo cerca del 70% de los proyectos de datos fracasan. Identificando el problema ¿No vendría bien una fórmula que reduzca este oportunidad de error? ¿Hay una receta? Pues la respuesta es sí y no es como la de la abuela, la receta del éxito en los datos no es ningún secreto. Tiene que ver con hábito, cultura y método. En esta columna profundizamos entre métodos que vienen de distintos ángulos: Academia, profesión, ciencia , entre otros para concretar un “listado” a estilo “checklist” de preparaciones para implementar un proyecto de analítica en una organización. Nosotros, desde Datlas, invitamos a las organizaciones a evaluar más de 100 puntos a la hora implementar nuestras tecnologías o cualquier tecnología de analítica. Para esta ocasión hicimos un resumen. Es importante aclarar que el sesgo de este escrito es hacia corporativos y empresas grandes, que tienen funciones repartidas en departamentos con responsabilidades específicas y la burocracia habitual de la estructura vertical de un gran negocio.

Datlas_barra_suscribir

I. Entendiendo el contexto

Datlas_checklist1

Ya hemos discutido antes en ¿Cómo ejecutar una estrategia de Big Data en mi organización? como el contexto y los objetivos tienen principal relevancia a la hora de llevar un proyecto de analítica. Sin embargo cuando la iniciativa de datos arranca desde una gran organización hay otros puntos a clarificar para aumentar las probabilidades de éxito de un proyecto de analítica. Todos ellos tienen que ver con entender el contexto.

Si pudiéramos enumerar 6 elementos importantes qué tomar en cuenta son: Estrategia, datos, analítica, implementación, mantenimiento o soporte y restricciones.

Datlas_Playbook_prelaunchEn general, entender el contexto con la profundidad adecuada nos habilita a tomar todas las precauciones necesarias a la hora de diseñar los presupuestos financieros, técnicos y temporales de un proyecto.  De manera errónea muchas organizaciones le dan el mismo trato a un proyecto de analítica que a un proyecto de TI (Como activar un nuevo punto de venta o implementar un nuevo equipo de hardware). Sin embargo la historia e investigaciones de los últimos 10 años nos vinculan a que los proyectos de analítica requieren equipos especializados y esto es debido a que tienen un “checklist” distinto.

 

*También te puede interesar: Los 5 perfiles para una estrategia de datos éxitosa en mi organización. Y tener nuestroData Playbook Vol. II” GRATIS antes que nadie.

II. Generando un checklist personalizado para proyectos de analítica

Hay un montón de literatura sobre este tipo de checklist, pero siguiendo nuestra fuente favorita de “Fast.ai” encontramos la siguiente estructura a la hora de hacer un checklist para proyectos de analítica. Integra 6 aspectos, pero agregaremos uno más y al final de la columna explicaremos porqué.

1) Aspectos Organizacionales

Datlas_checklist_organizacional

Debemos de iniciar cuidando los higiénicos, esto quiere decir los aspectos organizacionales que van en relación a las personas que llevarán a cabo la estrategia. La probabilidad de éxito en un proyecto de datos incrementa si se tienen métodos de trabajo en reclutamiento, ubicación de talento y medición de resultados. Estas 5 preguntas pueden servir de orientación.

2) Aspectos Estratégicos

Datlas_checklist_Estrategia

Una iniciativa de datos habilita un pronunciamiento estratégico de la compañía y no al revés. En este sentido los proyectos de big data e inteligencia artificial deben de responder y aportar a algunos de los objetivos estratégicos de la compañía. Sencillamente cada hora dedicada a junta, proyecto, investigación o desarrollo de un científico de datos deberá estar apuntando a cumplir un objetivo estratégico.

3) Datos

Datlas_checklist_data

El error común de las organizaciones es que inician por los datos, cuando en realidad previo a esto ya establecimos que deberían estar las personas, cultura y estrategia. Luego hay que invitar a los “técnicos” a participar en el checklist para validar el grado de factibilidad a la hora de consultar bases de datos específicas.

4) Capacidades analíticas

Datlas_checklist_analytics

Los datos son la materia prima, pero necesitamos a las mentes expertas que les van a sacar valor y nos guiarán hacia el cumplimiento de los objetivos establecidos. Estas capacidades incluyen, pero no se limitan, a evaluar herramientas óptimas para trabajar, programar ETL para formatear bases de datos en los formatos requeridos y la gestión general del proceso de obtención de valor. Similar a como lo comentamos en ¿Cómo convertir tus datos en dinero?

5) Implementación

Datlas_checklist_implementación

Este tema tiene que ver con el diseño experimental a la hora de implementar un ejercicio de analítica. Sobre todo para poder contrastar si haber integrado la analítica tuvo un cambio a favor o en contra de la manera en que tradicionalmente se hacía esa tarea. Por ejemplo,  si ahora implementaste un nuevo equipo, tecnologías e infraestructura para analizar el programa de lealtad de tu compañía ¿Cómo validas que la inversión haya retornado? Ahorraste en tiempos, ganaste más dinero, lograste mejores redenciones e las promociones que les enviaste. La sección de implementación se relaciona con los factores que definen el éxito del proyecto.

6) Mantenimiento

Datlas_checklist_mantenimiento

Un checklist de éxito en proyectos de analítica tiene que contemplar los procesos de mantenimiento. Por ejemplo en este caso de revisar programas de lealtad hay que responder ¿Cómo será la carga de nuevos usuarios? ¿Cada cuándo? SI algo falla ¿Quién lo resuelve? ¿Cada cuándo se “refactoriza” o se retan los algoritmos?

Y vamos a ser redundante en uno,por temas de  experiencia propia, tendremos que incluir la importancia de analizar

7) Restricciones

Todas las preguntas asociadas a las restricciones en todas las áreas funcionales con las que colaboraremos. Pueden ser desde presupuesto financiero, tiempo disponible, recursos dedicados, otros proyectos activos, entre otros. Todo lo que vaya a tener un impacto o riesgo en nuestro proyecto puede afectar.

Datlas_barra_suscribir

Hasta aqui la columna de hoy, esperamos que después de haber leído esto tengas una mayor idea de cómo implementar un CHECKLIST para tu organización. Recuerda utilizar estos recursos como inspiración y adaptarlo al contexto y madurez tecnológica de tu negocio. Recuerda compartir y no olvides registrarte al nuevo “DATA PLAYBOOK VOL II” que estaremos liberando muy pronto GRATIS. Sólo da click en la liga.

Elaborado con ideas y experiencias propias de la startup DATLAS e inspirado por la fuente: https://www.fast.ai/2020/01/07/data-questionnaire/

AIRBNB, el nuevo negocio inmobiliario de los Regios – DATLAS RESEARCH

Monterrey Nuevo León es una de las ciudades potencias en México. Al contar con un gran número de empresas de manufactureras, de las principales que cotizan en la bolsa, universidades importantes, economía estable y gozar de una conveniente posición geográfica (en cercanía a EE. UU.). Por esta coyuntura, Monterrey atrae a diversas personas que vienen por negocios, de turistas por la cantidad de eventos que hay en la ciudad, a visitar familiares, entre otros motivos. Acompañado de esta situación viene la necesidad de estancia y hospedaje en la ciudad. Nuevas alternativas como AIRBNB comienzan a competir a los hoteles desde hace más de 2 años y hoy están en una etapa de madurez donde verdaderamente son “rivales” de los hoteles. En esta columna compartiremos algunos datos de contexto y recomendaciones sobre la plataforma AIRBNB en la ciudad de Monterrey.

(También puedes ver AIRBNB EN CDMX ¿Amenaza o bondad? )

Datlas_barra_suscribir

Hoy en día algunos hoteles pueden llegar a ser muy costosos y mucha gente tiene un presupuesto limitado o simplemente no desean pagar esas cantidades, una buena opción que hoy en día se está utilizando, y mucho, son las plataformas en línea de hospedaje. Por ejemplo, Airbnb. Estos últimos pueden llegar a ser hasta 60% más económicos que un hotel. Muy deseables para quienes desean ahorrar y,  dependiendo de la zona, encontraremos buena cobertura en los principales puntos de interés con diferentes precios y diferentes características del lugar de residencia (amenidades).

Datlas_AIRBNB_MONTERREY

En Monterrey y su Zona Metropolitana hay un total de 2816 Airbnb. Los precios de los mismo varían dependiendo de la zona de interés de hospedaje, el tipo de alojamiento y la cantidad de huéspedes principalmente. Existen tres tipos de alojamientos: un apartamento o casa completa, un cuarto privado y un cuarto compartido.

Entre los limitados datos que logramos recabar sobre los Airbnb en Monterrey enumeramos los siguientes hallazgos:

  1. “En lo que corresponde a Monterrey y su Zona Metropolitana hay aproximadamente 11 Airbnb por cada kilómetro cuadrado, siendo San Pedro el municipio con el mayor numero de Airbnb por km2, pero Monterrey es en donde más Airbnb hay.”

2) “La distribución de tipos de cuartos es casi equitativa en cuanto a un apartamento o casa completa a un cuarto privado, pero en cuanto a un cuarto compartido el porcentaje es más bajo.”

3) “A un precio promedio de $810 MXN por noche por persona si todas las propiedades de Airbnb en Monterrey y su Zona Metropolitana se usaran al mismo tiempo, se estaría generando $2.28 millones MXN por día.”

Datlas_barra_suscribir

Conclusiones

“Los Airbnbs” y plataformas digitales de turismo han tomado fuerza y continuarán capturando más valor en corto plazo.  Para no quedarse atrás en esta transformación digital compañías hoteleras así como otros miembros del gremio en el sector turismo deberán de monitorear más de cerca la oferta de los Airbnb. Resolviendo constantemente ¿Qué es lo que la hace atractiva? ¿Cuáles son los puntos de precio? y ¿Cuáles son las temporalidades más relevantes? , entre otras preguntas que pudieran apoyar su toma de decisiones. Nuevas estrategias en los sectores “tradicionales” de turismo podrán ser modeladas con más y mejor información del mercado.

Datlas_AIRBNB_Monterrey_point

En Datlas estamos trabajando para complementar y mejorar nuestro sistema de monitoreo en el sector turismo. Este año haremos nuevos lanzamientos y buscamos empresas que quieran sumarse el piloto. Contáctanos direccion@datlas.mx

Hasta aqui la columna de hoy,  te invitamos a compartir la nota con tus socios y amigos usuarios de AIRBNB en MTY. 

Equipo Datlas

Keep it weird

 

 

 

Uso de la herramienta DENUE INEGI en el sector inmobiliario – Datlas Research

Empezaremos por aclarar qué significa DENUE: Directorio Nacional de Unidades Económicas que el Instituto Nacional de Geografía y Estadística (Inegi) de México, que está a disposición de todo aquel que tenga interés en conocer datos relacionados con unidades económicas de todo este país y vinculadas a su ubicación geográfica.

Los datos hoy en día son una importante herramienta para la toma de decisiones de locación en cualquier ámbito, un buzoneo, una campaña o, el simple hecho de tener que decidir mover a los promotores inmobiliarios a un determinado lugar, por ejemplo de un módulo de un centro comercial a otro, esto debido a su proximidad con cadenas comerciales, cines o negocios que tengan un gran flujo comercial, o un mayor número de población con ciertas características socioeconómicas, etcétera.

datlas_barra_suscribir

La mayoría de las empresas de bienes inmuebles enfrentan una gran competencia o “canibalismo”, que hace necesario frecuentemente replantear las estrategias de localización de los promotores inmobiliarios o módulos de promoción, la estrategia comercial, e incluso hasta la misma estrategia de oferta; por lo que, quien tenga los datos más actuales y estructurados tendrá una mayor ventaja competitiva. Para esto resulta de mucha utilidad y muy práctico el uso del sistema de información DENUE.

Tres preguntas a responder

La primera pregunta que deben hacerse los agentes inmobiliarios es: ¿en dónde están mis competidores?

Haciendo un pequeño ejercicio, en el DENUE se identificaron que existen más de 327competidores inmobiliarios directos en el municipio de Guadalajara, Jalisco, México. Aquí tenemos un ejemplo: en un radio de influencia de la colonia La Normal en este municipio, se identificaron dos competidores.

Datlas_DENUE1

Fuente: Fuente: DENUE, INEGI, 2016. http://www.beta.inegi.org.mx/app/mapa/denue/

La herramienta DENUE nos permite buscar por ramas y sub ramas de actividad económica,  tamaño del establecimiento, por entidad federativa, y se cuenta con un anexo que tiene un apartado de búsqueda avanzada que nos permite encontrar por nombre, calle o avenida, colonia o fraccionamiento, código postal y también han anexado otros tres menús sobre ventaja competitiva, principales productos y servicios, o si las unidades económicas pertenecen a alguna cámara o asociación empresarial. A continuación se anexan las imágenes de estos menús.

datlas_denue2.jpg
Fuente: DENUE, INEGI, 2016. http://www.beta.inegi.org.mx/app/mapa/denue/

 

datlas_denue3.jpg

Fuente: DENUE, INEGI, 2016. http://www.beta.inegi.org.mx/app/mapa/denue/

Aquí podemos ver la respuesta a nuestra primera pregunta ¿Dónde están los dos emplazamientos de los competidores?

Competidor 1

Datlas_DENUE4
Fuente: DENUE, INEGI, 2016. http://www.beta.inegi.org.mx/app/mapa/denue/

Competidor 2

datlas_denue5.jpg
Fuente: DENUE, INEGI, 2016. http://www.beta.inegi.org.mx/app/mapa/denue/

La segunda pregunta que debemos hacernos es ¿qué grado de marginación hay en un radio de 2 kilómetros a la redonda de la locación estudiada o de referencia?

La colonia La Normal es donde el agente inmobiliario está localizado y es muy importante saber los grados de marginación del área donde piensa promover sus productos para confirmar si es posible tener una buena promoción o prospección de clientes, ya que el ingreso es un factor preponderante a la hora de adquirir un inmueble. En este ejemplo, la respuesta es que predominan los grados de marginación Muy bajo y Bajo, esto quiere decir que aquí los ingresos son altos y que es muy probable que en esta área se encuentren clientes potenciales para esta inmobiliaria.

 

Datlas_INVVIV6
Fuente: Inventario Nacional de Viviendas, INEGI, 2016.

La tercera pregunta ¿qué cantidad de casas están habitadas dentro del perímetro cercano a la ubicación de las empresas estudiadas o de referencia?

datlas_barra_suscribir

Esta pregunta se responde con la ayuda de una herramienta anexada al DENUE que se llama Inventario Nacional de Viviendas, que nos permitirá tener la respuesta que buscamos.

Datlas_INVVIV7
Fuente: Inventario Nacional de Viviendas, INEGI, 2016.

Para un agente inmobiliario es de vital importancia conocer cuántas casas están habitadas y cuantas personas viven ahí, aquí en este mapa se pueden visualizar las colonias aledañas a la normal, esto nos daría la idea de donde es más adecuado poner un módulo de prospección para crear clientes cualificados para la inmobiliaria Hipotética  para la que estamos trabajando o, en otro caso, para hacer una publicidad estratégica, y efectiva.

Resultados y conclusión

Para permanecer en el mundo de la venta o captación de inmuebles, se necesita la agudeza de los grandes conquistadores, ya que el inmobiliario es un sector en constante expansión, se tiene que estudiar con rapidez y precisión a la competencia. De ahí la importancia de conocer ¿qué datos hay disponibles?, ¿cuáles son los más adecuados? DENUE se actualiza cada seis meses aproximadamente, la última actualización fue en marzo del 2018. De las herramientas libres de bases de datos vinculadas a un sistema de información geográfico, el DENUE es la que aglutina y ofrece mejor información y más objetiva.

Las herramientas con las que cuenta el sector inmobiliario tan competido para la toma de decisiones, dependen en gran medida no sólo de los datos obtenidos, sino de hacer uso de las herramientas apropiadas, que respondan a las preguntas antes planteadas y permitan la toma de decisiones estratégicas derivadas de la información y los resultados obtenidos.

Como complemento también te invitamos a conocer nuestro sitio http://www.datlas.mx donde podrás encontrar un DEMO GRATIS para nuestra plataforma de análisis de entorno con más de 100 variables para Nuevo León, Jalisco y CDMX.

Gracias por leer y recuerda compartir,

Equipo Datlas

(Aportación de Pedro Martínez Orozco, Geógrafo de Guadalajara, Jalisco)

¿Qué es el “Crowdmapping”?

Si nunca habían escuchado hablar del “crowdmapping” o el “mapeo colaborativo” entonces este artículo les explicara un poco más sobre ellos. El crowdmapping se refiere a un tipo de mapeo donde el conjunto de aportes proveniente de varios usuarios es mostrado en tiempo real. Estos mapas tienen diversos fines, desde mejorar las redes de transporte en una ciudad hasta ayudar al prójimo durante catástrofes naturales o conflictos humanitarios. Generalmente, cualquier persona puede tener acceso a editar o actualizar información geográfica en un “crowdmap”; esto con el fin de hacer la información más abierta, democrática, transparente, y actual. A continuación les explicaré un poco más sobre cómo se popularizaron este tipo de mapas, algunos ejemplos de usos actuales y donde encontrarlos, y algunos retos al que se enfrenta este tipo de tecnología.

Datlas_barra_suscribir

El término crowdmapping se popularizó después del 2008 cuando la aplicación móvil Ushahidi fue creada en respuesta a la violencia post-electoral en Kenya. La aplicación usaba voluntarios para mapear información proveniente de fuentes que variaban desde reportes de ONU, hasta tweets y mensajes de texto. Desde entonces, este tipo de mapas se ha popularizado para su uso en emergencias similares, como desastres naturales, crisis políticas, conflictos violentos o propagación de enfermedades. En México por ejemplo recientemente se ha usado esta tecnología durante los sismos recientes y para mapear incidentes de narco-violencia. Sin embargo, es importante notar que el crowdmapping no está restringido únicamente al mapeo de situaciones de riesgo.

Los usos del crowdmapping van más allá de las catástrofes. OpenStreetMap (OSM) es un proyecto de mapeo colaborativo del mundo donde el objetivo es mapear y actualizar los datos sobre caminos y otras cosas alrededor del mundo. Aunque no parezca que Google Maps ya tiene todo el mundo mapeado, existen muchos lugares que aún faltan de mapear o que la información mapeada existente no es la actual, incluso en nuestras propias ciudades. Comúnmente vemos ejemplos de esto en asentamientos informales de las grandes ciudades (como los “slums” o “favelas”) al igual que en localidades remotas o simplemente lugares con caminos que fueron creados muy recientemente. OpenStreetMap al igual que otras plataformas atenta resolver este problema, incluso Google en veces dispone este tipo de colaboración abierta para algunos de sus mapas. Otro ejemplo interesante de mapeo colaborativo es en el uso de las redes de transporte en una ciudad. La aplicación de transporte Moovit invita a sus usuarios a colaborar mejorando los datos de transporte en las más de 2200 ciudades dentro de 80 países donde opera. Existen este tipo de plataformas para varios nichos, algunos ejemplos interesantes son: Harassmap, Anti-Eviction Mapping Project, y FixMyStreet. Aquí en México existen plataformas como Tehuan la cual actualmente opera en Monterrey y Puebla invitando a sus usuarios a mapear cosas como incidentes en las vialidades, delitos, y problemas de alumbramiento (entre otras).

Al desarrollarse la tecnología para traer a las ciudades a los vehículos autónomos, también es muy importante mapear las calles de las ciudades en otra dimensión. Actualmente ya existen algunas startups que pagan a usuarios por mapear ciudades en la tercera dimensión. Pixtier es una startup israelí que paga a dueños de drones por usar sus drones para fotografiar ciudades y después ellos usan un software para convertir estas imágenes en 3D. Otra startup de San Francisco, Mapper, ha creado un instrumento que permite el mapeo 3D sin tener que utilizar la tecnología LIDAR. Esta empresa después vende este instrumento a usuarios a quien después les paga por mapear ciudades en sus propios vehículos (después de instalar el aparato encima de ellos). La startup surgió debido a que a las empresas que desarrollaban vehículos autónomos se les hacía muy fastidioso generar y crear estos mapas ellos mismos, sin embargo estos mapas son esenciales para que este tipo de vehículos opere. Ahora Mapper intenta promoverse como el nuevo Uber en el sentido de que es la nueva forma de monetizar tu propio vehículo.


A pesar de todas las soluciones que puede proporcionar el crowdmapping obviamente al ser un concepto tan democrático y tan abierto existen varias cuestiones con respecto a la calidad de la información y los datos que son generados. Entre menos control exista sobre los datos que son publicados a los mapas y más abiertos sean, obviamente la calidad y veracidad de los datos va a ser perjudicada. Mantener controles de calidad robustos en si es un costo significativo que se incurre al operar estas plataformas y este es solo un costo de más que se suma a los costos de mantenimiento. Debido a que muchas de estas plataformas no son con fines de lucro o no tienen un modelo comercial viable establecido, el costo en si es otro problema notorio para el crowdmapping. También existe el hecho de que en veces ha resultado difícil atraer la participación de usuarios a algunos mapas, naturalmente al ser un concepto un poco nuevo. Ejemplos de mapas colaborativos actuales son numerosas y en este artículo no se alcanzan a cubrir todas. Sin embargo, algunos obstáculos han prevenido a que algunas de estos esfuerzos de crowdmapping sean tan exitosos como lo planeaban, pero comoquiera es una tecnología que permanece evolucionando hacia la mejoría.

Caso Facebook: más que un “hack”

Hoy en día Facebook se ha vuelto una de las plataformas de uso cotidiano más famosas en el mundo. Pero como dice la película: “un gran poder conlleva una gran responsabilidad” y desafortunadamente Facebook ha tenido un par de tropiezos en el área de seguridad y tratamiento de los datos que maneja. El último escandalo es el que protagoniza junto a Cambridge Analytica, una firma de consultoría política que trabajó para la campaña del ahora presidente de los Estados Unidos, Donald Trump. El escandalo se da a partir de que se confirma que Cambridge Analytica usó la información de 50 millones de perfiles (usuarios) de Facebook para dirigir mensajes en pro de la campaña de Trump. Pero, ¿Dónde empezó todo? ¿Cuándo? ¿Cómo consiguieron esa información? Y ¿Qué pasará ahora?… Te lo contamos de una manera sencilla:

  • ¿Qué es Cambridge Analytica?

Una compañía creada por Steve Bannon con apoyo de un par de donadores del partido conservador estadounidense. Bannon se convirtió en vicepresidente de la compañía y en 2016 ofreció sus servicios para la campaña de Trump, en donde llegó a ser consejero senior hasta agosto 2017, cuando fue despedido.

datlas_cambridge_analytica_scandal

  • ¿Qué es SCL Group? ¿Qué relación guarda con Cambridge Analytica?

Cambridge Analytica subcontrataba los servicios de SCL Group, una firma británica de relaciones publicas que describía su expertise como “guerra psicológica” y “operaciones de influencia”, dando servicio a gobiernos, políticos y militares de todo el mundo. Esta relación sugiere, como escribe el New York Times, que Cambridge Analytica era una “pantalla” (cobertura) para SCL Group.

  • ¿Cómo obtuvieron la información Cambridge Analytica/SCL Group?

Cambridge Analytica/SCL Group obtienen la información de los 50 millones de perfiles a través de Aleksandr Kogan, un ruso-americano que trabajaba en la Universidad de Cambridge, y que desarrolló una app de Facebook que básicamente era un quiz. Lo que pocos sabían era que la aplicación “minaba” la información de los usuarios que tomaban el quiz y, al mismo tiempo, explotaba una anomalía en la API de Facebook para obtener la información de los amigos de los usuarios que tomaban el quiz. Aquí es necesario aclarar que Facebook prohíbe la venta de la información minada a través de su API.

datlas_facebook_escandalo

  • ¿Cómo nos dimos cuenta de este escandalo?

The Guardian, el famoso periódico británico, en su sección The Observer, fue el responsable de dar luz a esta polémica acción por parte de Cambridge Analytica/SCL Group.

datlas_the_guardian_facebook_scandal

La peor parte de la historia es que diversas fuentes aseguran que Facebook era consciente de esta minería de información desde hace más de 2 años y nunca dijo nada al respecto. Esta es una de las múltiples razones por las que el mercado ha estado castigando el precio de la acción durante varios días. De igual forma, personalidades como Elon Musk, también han reaccionado eliminando las paginas oficiales de sus empresas (Tesla & Space X, por ejemplo).

datlas_facebook_accion_stock_declive_down

Para nosotros, lo más alarmante y trascendental son las consecuencias que este tipo de escándalos tienen en el ámbito social y político. Socialmente siembra pánico en las personas y las vuelve más reacias a compartir su información, siendo que el hecho de compartirla ha dado la oportunidad para que diversas empresas y startups puedan minarla y explotarla para crear nuevos modelos de negocios y soluciones cada vez más innovadoras y eficientes. Por el lado político, tensiona la relación entre el gobierno y la iniciativa privada, presionando a las autoridades a querer regular cada vez más a este tipo de compañías, provocando una rigidez importante en el actuar de las empresas y mermando su flexibilidad y capacidad para seguir innovando. Asimismo, el dilema interno, no solo para Facebook, sino para cualquier compañía que maneje datos, es ver la forma en la que la seguridad de los datos y la rentabilidad que provee la venta de los mismos, no se contrapongan y aseguren, antes que nada, los derechos y la privacidad de los principales dueños de la información, los usuarios.

¿Tú que opinas? Cuéntanos en nuestras redes sociales

@TheDatlas

 

-Keep it weird-

 

 

¿Quieres saber más? Consulta nuestras fuentes: