Archivo de la categoría: Manuales

Publicación de material didáctico para aprendizaje de la comunidad

UN MES USANDO EL CENSO 2020 DEL INEGI y te compartimos algunas prácticas – manual datlas

EL CENSO 2020 de POBLACIÓN EN MÉXICO fue publicado hace un par de meses. Con ello información fresca sobre fenómenos demográficos, sociales y económicos pueden ser interpretados en el país. Desde su origen, los censos son apoyos para decisiones de gobierno, empresas y organizaciones sin fines de lucro que buscan influir el desarrollo del país con hechos y datos… no sólo con intuición.

En esta ocasión queremos traer al blog algunas de las menciones que el Presidente del INEGI, Dr. Julio A. Santaella, sobre la importancia y el valor de la información del censo. Si aún no escuchas ese episodio recuerda revisarlo en esta liga.

En esta columna compartiremos las instrucciones para encontrar esta información así como algunos ejemplos de cómo podemos visualizar eso datos.

**Te puede interesar “¿Cómo está México en Salud? Difundiendo datos de la ENSANUT del INEGI”

¿De qué trata el CENSO POBLACIONAL DEL 2020 DEL INEGI?

Es uno de los ejercicios de levantamiento de información primaria más importante del país. Sucede cada 10 años y, en términos prácticos, se toca puerta por puerta cada una de las viviendas del país para recoger, recopilar, evaluar y analizar datos sobre los mexicanos.

¿Qué información se levantó en el censo?

Características poblacionales, datos demográficos, habitacionales, sociales y todo en relación a los habitantes de un país.

¿Cuál es la última publicación?

La más actual es la del 2020. La información incluye datos a nivel nacional, Estatal y municipal. Algunas cifras suelen integrar resolución a nivel AGEB, MANZANA o coordenadas específicas

Algunos ejemplos que publica el instituto

**Te puede interesar “Analítica en Turismo con Datos del INEGI” y “¿Cómo usar datos el INEGI para diseñar estrategias de TURISMO?”

¿Qué información está preparada para su consumo?

En el área de búsqueda del CENSO dentro de la publicación del INEGI es posible encontrar los resultados generales a nivel agregado. La documentación de cada una de las variables. Los tabulados que contienen una presentación de indicadores preparados por el INEGI. Los microdatos si uno quiere llegar a detalles muy específicos de la publicación. Útil para científicos de datos, junto a los datos abiertos.

Otros ejemplos de datos geo-referenciados (DATLAS)

En estos ejemplos para Nuevo León

¿En dónde hay más población?

¿En dónde se concentran más negocios?

¿En dónde hay más católicos?

¿En dónde hay más mayores de 60 años? (Ideas para aplicaciones de vacunas de COVID-19 o similares)

También, te recomendamos echarle el ojo a este gran evento DATA DAYS donde mucho de nuestros aliados participarán con exposiciones de primer nivel. Anímate y revisa en: https://sg.com.mx/datadays/

Si te interesa conocer más no olvides suscribirte al demo gratuito de nuestras plataformas en www.datlas.mx

Hasta aquí la columna de hoy ¿Qué otros usos le puedes dar al censo? Compártenos tus ideas en @DatlasMX y recuerda escuchar nuestro episodio de Podcast donde el INEGI nos cuenta todos los detalles de este gran ejercicio de información

Equipo Datlas

– Keep it weird-

¿La temperatura está relacionada con los contagios de covid-19? (revisión de correlación para nuevo león, méxico? – ManuAles datlas

El mes de febrero fue una locura para algunas ciudades de México. Esto porque se cruzaron factores como heladas bajo cero, cortes de luz, cortes de electricidad, viviendas sin agua por tuberías sin funcionar y , claro está, la pandemia COVID-19 que ya casi cumple un año.

Nos preguntamos en Datlas si alguna de estas variantes habrá impactado para bien o para mal los contagios del COVID-19. Podemos imaginar que el frío hacer que las personas se aíslen un poco más y una helada impide a una gran población salir de sus casas. En ese sentido y usando los datos que podemos obtener de forma más oportuna analizamos la relación entre la temperatura y los contagios para el Estado de Nuevo León

I. Obtención de datos

Para la recolección de datos acudimos a fuentes secundarias en internet como el sitio Visual Crossing para el clima, el INEGI y Secretaría de Salud en México para los datos de COVID-19

Datos de clima

Datos de COVID-19

II. Alcance de datos

La recolección de los datos tuvo como alcance 3 meses. Para la temperatura se tomó como punto de referencia los promedios de las estaciones meteorológicas de Monterrey. Para los datos de COVID se tomaron en cuenta los municipios enlistados en la gráfica de contagios.

Temperatura en Nuevo León

(Hubo 2 días sin registros , cerca de los puntos extremos a la baja)

Contagios de COVID-19

(Nota sobre los valles en la gráfica que corresponden a fines de semana. El equipo de Datlas pidió opiniones a expertos que aplican pruebas y mencionaron que los fines de semana siempre hay baja porque menos personas se hacen pruebas)

III. Diagnóstico de información

Usando la librerya GGALLY en R se diagnóstico a alto nivel la relación entre variables como temperatura, máximos, mínimos, humedad, visibilidad y contagios confirmados por municipio para tener una lectura de cómo se relacionan las variables

IV. Análisis de Correlacion

Revisamos la correlación tomando en cuenta todos los períodos. En realidad los días de análisis fueron de 13 al 19 de febrero ya que la temperatura promedio fue de 4 C° aproximadamente. Así que también generamos un corte de análisis para un mes.

Correlación (Histórico de 3 meses)

Correlacion (Histórico de 1 mes (26 días))

Estos datos no mostraron relación entre alguna variable meteorológica , o la temperatura, y los contagios de COVID-19 en los municipios de estudios para ninguno de los 2 casos.

Te puede interesar leer también “Cómo el COVID-19 afecta la movilidad para los tapatíos”

Regresión ((Histórico de 1 mes (26 días))

Continuando con el proceso, aunque a sabiendas que existiría poca probabilidad de éxito, corrimos una regresión sin encontrar ninguna relación significativa (p_value)

Revisamos la correlación usando datos expresados en %

En un último ejercicio dejamos expresados los datos en la misma forma, en este caso porcentajes de variación, para evaluar si con esto encontramos alguna relación importante. En realidad no la hay. Es evidente que al menos para este espacio temporal los contagios de COVID-19 y la variación del promedio de temperatura no están relacionadas entre sí.

En estas iteraciones no encontramos ningún caso para indagar. Es decir la temperatura no parece estar relacionada con los contagios de covid-19 de la forma en la que se analizaron los datos en este ejercicio.

Pero para futuras investigaciones se recomienda a los analistas considerar variables rezagadas. Pensando que las personas reaccionan a la temperatura un día después de que se presenta una helada o un cambio drástico de temperatura.

Hasta aqui la columna de hoy. Recomendamos seguir en redes @DatlasMX para que nos cuenten con qué otra variable te gustaría que contrastaramos si el COVID-19 tiene una relación.

Comparte y suscríbete a nuestro podcast Café de Datos, que en Marzo cumple su primer año, y que esta semana lanzamos nuestra 3er temporada

Fuentes de datos:

MAPA DEL Crimen en méxico al 2020 – datlas manuales

En México y en LATAM cuando se trata de la agenda pública del 2021 hay que reconocer que la seguridad es uno de los temas que sigue pendiente por trabajar. Los niveles siguen incrementando año con año y el COVID-19 está dejando a muchas personas desempleadas, acelerando la movilidad entre regiones y generando una mayor crisis económica conforme los controles de aislamiento incrementan.

En esta columnas tomaremos de referencia la reciente publicación de @diegovalle, científico de datos que ha dedicado ya bastantes años a analizar datos de inseguridad y narcotráfico en México, para compartir un desarrollo sobre mapas de crímenes en la ciudad de México (CDMX o Mexico City).

¿Cómo funciona Hoyo de Crimen?

Es una ventanilla única hacia datos de seguridad para México. El sistema proyecta información de fuentes oficiales, las contraste y simplifica la navegación entre datos relevante mediante el uso de infografías, tableros y mapas. En esta ocasión, claro está, hablaremos del mapa. Si quieres conocer más te invitamos a revisar nuestro blog donde revisamos más datos de inseguridad .

Ejemplo de visualización sobre la CONDESA en CDMX

La herramienta integra información de:

– Homicidio doloso

– Robo de vehículos

– Robo a transeunte

– Robo en metro, microbus o taxi

– Robo a casa habitación

– Robo a repartidor o transportista

– Secuestro

– Violación

La información es proyecta en cuadrantes de acuerdo a la información documentada aqui.

¿Cuánto robo ha habido en la zona de la CONDESA?

Click para ver en grande

En la herramienta podemos contrastar año con tra año visualmente. También añadir filtros por horas para identificar qué horarios son los más seguros por cuadrante.

¿En qué cuadrantes se han incrementado los homicidios, violaciones y secuestro?

Click para ver en grande

Al menos en la región de análisis en la Condesa y alrededor de la misma se han reducido las ocurrencias de homicidios el 2020 en contraste al 2019

¿Cómo se registran los robos a repartidores? (De los que les veo más potencial para apoyar a RAPPI, UBEREATS, DIDI, ALSEA, entre otros)

Click para ver en grande

¿Tarifas dinámicas? Tradicionalmente varían con respecto a la distancia y el tiempo estimado de entrega, la cantidad demandada y la oferta. Imagínate que el riesgo de la zona sea un factor que calibre una tarifa apropiada para la exposición que tendrá un, por ejemplo, repartidor o chofer.

En el futuro, el monitoreo en ciudades inteligentes para delegaciones y municipalidades se parecerá mucho a sistemas como estos. Si quieres conocer más te invitamos a seguir a @diegovalle en sus redes y visitar https://hoyodecrimen.com/en/map para monitorear los incidentes en CDMX.

El potencial de la inteligencia de ubicación es enorme. Si quieres continuar aprendiendo te recomendamos leer el blog “Location intelligence, el santo grial de la analítica” y escuchar el podcast sobre datos de inseguridad que grabamos con la startup ALEPHRI.

Equipo Datlas

– Keep it weird-

¿Cómo calcular LAS HORAS DE LUZ SOLAR EN CUALQUIER PARTE DEL MUNDO? cASO APLICADO CON R – Manual datlas

El estudio de energías alternativas y luz solar han sido temas de prioridad durante los últimos 10 años en Latinoamérica. Se ha incrementado cada vez más la conciencia de lo contaminante que pueden ser las fuentes de energías fósiles. Y en ese sentido el estudio de luz solar y el interés por sus aplicaciones ha ido a la alza. En esta columna compartiremos un método en R para poder obtener información de luz solar en cualquier parte del mundo utilizando la paquetería suncalc.

¿Cómo empezar?

El ejercicio que haremos será en el lenguaje de R. Es una iniciativa de software libre muy utilizada para analítica y ciencia de datos. Una combinación recomendada es utilizar R junto con el IDE de R Studio para poder tener una plataforma de trabajo más cómoda y ordenada.

¿Qué paqueterías utilizar?

R es un lenguaje que tiene una base de funciones en CRAN, su base, que se pueden utilizar y en automático ya vienen precargados al momento que descargas R. En complemento, sistemas como R permiten la instalación de librerías externas desarrolladas por la comunidad que permiten ampliar las capacidades del mismo. Las librerías que vamos a utilizar para este ejercicio son:

library(suncalc)
library(tidyverse)
library(scales)

También te puede interesar “Análisis de discurso de AMLO con NLP en R”

¿Cómo identificar las zonas horarias?

Las zonas horarias serán importantes para el ejercicio. En la herramienta suncalc.org puedes identificar la zona horaria de cualquier ubicación del mundo. En el buscador, para este ejemplo, ubicamos San Pedro Garza García, en el Estado de Nuevo León en México.

Lo podemos declarar en nuestro código como lo siguiente:

names <- “San Pedro Garza Garcia (México)”
lat <-25.6510566
lon <- -100.4025978

¿Cómo generar la consulta para calcular la hora de amanecer y anochecer?

El código es la siguiente, hay que declarar primero las fechas que estamos considerando para la métrica , después estructurar la tabla reporte de respuesta que en este caso tiene el amanecer, el horario en que termina el amanecer, puesta del sol y la hora a la que comienza. También incluye la declaración de la latitud y la longitud, en este caso como variables que declaramos previamente. Y finalmente el “timezone” o la zona horaria que encontramos en el sitio web referenciado

df <-
getSunlightTimes(
date = seq.Date(as.Date(“2018-12-01”), as.Date(“2019-12-31”), by = 1),
keep = c(“sunrise”, “sunriseEnd”, “sunset”, “sunsetStart”),
lat = lat,
lon = lon,
tz = “America/Monterrey”

El reporte lo podemos consultar el reporte. Para esto podemos revisar las primeras filas con: head(df)

¿Cómo calcular las horas de luz en una ubicación determinada?

Para calcular las horas de luz, el código es más complejo, pero tiene que ver con una particularidad del sistema para manejar los horarios.

df %>%
mutate(
date = as.POSIXct(date),
day_length = as.numeric(sunset – sunrise)
) %>%
ggplot(aes(x = date, y = day_length)) +
geom_area(fill = “#FDE725FF”, alpha = .4) +
geom_line(color = “#525252”) +
scale_x_datetime(
expand = c(0, 0),
labels = date_format(“%b ‘%y”),
breaks = seq(as.POSIXct(min(df$date)), as.POSIXct(max(df$date)), “month”),
minor_breaks = NULL
) +
scale_y_continuous(
limits = c(0, 24),
breaks = seq(0, 24, 2),
expand = c(0, 0),
minor_breaks = NULL
) +
labs(x = “Date”, y = “Hours”, title = names) +
theme_bw()

Finalmente , podemos observar los resultados en un gráfico como los siguientes.

En contraste, si lo ponemos en comparación contra Oslo Noruega, digamos que San Pedro GG tiene mucho mayor luz solar que otros.

¿Qué podría suceder al futuro?

Futuros análisis de datos nos podrán apoyar a identificar, por ejemplo, la potencial captación de luz para un edificio. O, en el caso de negocios que tienen una dependencia con la luz solar, tener una mayor predictibilidad de sus oportunidades comerciales.

¿Qué otras aplicaciones piensas que pueden funcionar? Cuéntanos en @DatlasMX . Hasta aquí la columna de hoy, esperamos la puedas compartir con tus colegas y personas que les pueda interesar

Fuentes:

Aprendiendo de Ciencia de datos para líderes de equipo – manuales datlas

El mes pasado terminamos el curso de “Data Science for Managers”. Este curso tiene un alcance específico para gerentes que están liderando proyectos de analítica y transformación digital en organizaciones. En esta columna compartiremos 5 de los aprendizajes así como un podcast que grabamos alrededor de algunos conceptos de analítica y ciencia de datos que aprendimos.

Sobre los niveles de madurez en analítica para organizaciones

Cuando comienzas a hablar de ciencia de datos en organizaciones es muy importante darse un tiempo para la auto-evaluación. Entender cuál es el nivel de madurez de tu empresa o equipo te ayudará a seleccionar las estrategias adecuadas para ese nivel. En este caso el equipo que nos impartió las clases, Galvanize, nos recomendó este modelo de 5 niveles para medir el nivel de madurez de datos. Estos los identificamos y los discutimos en el podcast que te recomendamos escuchar.

Sobre los lenguajes de programación para ciencia de datos más usados en la industria

En la industria sigue existiendo una variedad cada vez más crecientes de lenguajes de programación con enfoque a paqueterías que habilitan la resolución de problemas de analítica de datos. En general, de software libre Python y R fueron los más mencionados. Por otro lado los que consideran uso de licencia, sería SAS, MATLAB o SPSS. La extracción de información con SQL también fue mencionada. Todos estos apuntes para posible agenda de desarrollo de científicos de datos.

Sobre el pensamiento sistémico en analítica con transformación digital

Lo que continuará pasando al futuro es una mayor integración de hardware especializado que genere y comparta datos. En un pensamiento de proyectos sistémicos no se trata de ciencia de datos o inteligencia artificial por su cuenta sino de un pensamiento sobre sistemas inteligentes.

Este tipo de pensamiento nos ayudará a pensar cuando se contrate un proveedor en una organización si la plataforma que ofrece ¿Se integra con sistemas IOT? ¿Estaría contemplado para complementar un sistema inteligente?

Sobre la priorización

Otro de los beneficios de este curso fue que se lleva con otros expertos de la industria que convoca el Monterrey Digital Hub. Cuando los facilitadores generaron la consulta de cómo se priorizan los datos en las compañías hoy en día estas fueron las respuestas.

La respuesta de 6 de cada 10 asistentes fue que la visión de los ejecutivos (directivos) es lo que dicta la prioridad. Otros miembros complementaron con alternativas de presupuesto, impacto a indicadores clave o asignación de recursos por parte de la organización. Conforme la industria y los proyectos de datos se califiquen con más rigor muy seguramente la prioridad se generará más orientado a KPIs u OKR .

Sobre cómo medir el valor de los proyectos

Otro de los puntos a capitalizar, de lo que esperamos se pueda incrementar la cultura en las organizaciones, es de cómo medir de manera continua el ROI (retorno sobre la inversión) de los proyectos de analítica.

En el curso nos explicaron algunos de los factores como considera talento, productos de datos y tecnología necesarios para calcular el ROI. Y de manera muy importante detectar a qué oportunidad de negocio estamos impactando: Nuevas oportunidades, optimizar o automatizar.

Hubo muchos aprendizajes más, pero quisimos destacar algunos aqui y otros más en nuestro episodio de podcast de analytics “Café de Datos” #Cafededatos.

Hasta aqui la columna de hoy si te gustó la columna te invitamos a recomendar así como SUSCRIBIRTE a nuestro PODCAST Café de datos

Saludos

Equipos Datlas

– Keep it weird-

Aprender ciencia de datos y big data – 3 apuntes para empezar YA – Datlas manuales

El año pasado en nuestro blog “¿Cómo aprender ciencia de datos?” compartíamos distintos puntos prácticos para empezar a rodearse de círculos y proyectos de analítica donde cualquier usuario interesado podría atender.

En un par de meses la diversidad de puntos de aprendizaje se ha incrementado. Desde podcast, como “Café de Datos”, hasta cursos en línea de todo tipo de nicho dentro de analítica. Pero el día de hoy en esta columna queremos compartir 3 recursos de utilizad que no te puedes perder si quieres aprender de ciencia de datos este 2020-2021.

Apunte 1) Sigue grupos relacionados a Data Science (ciencia de datos) en Facebook y Linkedin

*Data Science – R & Python

*Data Science

*Data Science Beginners (Para principiantes)

*Machine Learning and Data Science

*Data Science Central

En español:

*Data Science Monterrey

*Ciencia de datos con R

¿Donde aprender ciencia de datos o big data? Desde tu escritorio. Estos grupos en redes sociales en realidad son comunidades de aprendizaje. Personas como tú, que en algún momento quisieron incrementar su acervo en Data Science y han encontrado algunos atajos en su camino que quieren compartir.

Si decides entrar a estos grupos y eres aceptad@. Recuerda que lo importante es: Cumplir con las reglas de las comunidades, aportar conocimiento, preguntar y generar diálogo.

Apunte 2) Sigue cuentas de líderes de opinión en data science

* Asif Bhat – Data Analytics

*Randy Lao – ClaoudML.com

*Kyle MCkiou – Data Science Dream Job

* Favio Vázquez – Scientist

*Eric Weber – Yelp

*World Economic Forum

En español

* Ricardo Alanis – Head of Data Science, Nowports

* Aldo Valadez – Director de Analytics en Banregio

* David Puente – Director de analítica avanzada en ARCA CONTINENTAL

Apunte 3 – Busca contenido de calidad y Gratuito en tu idioma

*Podcast “Café de Datos”

* Data Playbook I – Estrategia de Datos para tu negocio

* Data Playbook II – Generando estrategias de Big Data en tu organización

* Data Playbook III – Ciencia de datos a la mexicana (Lanzamiento 15 de Septiembre del 2020 )

Y si conoces alguna otra fuente de valor compártela en @DatlasMX para que podamos darle compartir y mejorar este contenido para todos.

Hasta aqui la columna de hoy. Nos queda invitarte de manera enérgica a que descargues nuestro Data Playbook Vol. III

Descarga AHORA y aprende sobre ciencia de datos

Saludos y si eres mexican@ disfruta este grito en casa.

Equipo Datlas

-Keep it weird-

Referencias:

Lista de Shrashti Singhal: https://gist.github.com/ShrashtiSinghal

Liga de imagen: https://blog.followclass.com/2016/11/22/the-future-of-education/

ciencia de datos a la mexicana, próximo lanzamiento de playbook en 2020 – datlas MANUALES

La ciencia datos en el 2020 no debería ser “ciencia de cohetes” (rocket science) o no se le debería de ver como una caja negra. Está comprobado que “Lo que no se mide no se puede mejorar” y ahora, actualizando esta frase, “Lo que no se mide, no se analiza matemáticamente y no se socializa no se puede mejorar”. Absolutamente de esto se trata la ciencia de datos aplicada para convertir esos datos en historias (insights) y esas historias en accionables.

Uno de nuestros motivadores con Datlas ha sido desarrollar contenido para incrementar el entusiasmo y la aplicación por la ciencia de datos. Este año lo hemos hecho logrando más de 65 mil hits en nuestro blog, más de 4,000 escuchas en nuestra primera temporada del podcast “Café de Datos”, patrocinando el hackathon estudiantil más grande de México y dando más de 30 conferencias y webinars a empresas y estudiantes del ecosistema de transformación digital.

compartir experiencias e incrementar en conjunto el uso de plataformas de big data, analítica e inteligencia artificial.

**También te puede interesar nuestros Data Playbook Volumen I y II desde nuestro marketplace. Da click aqui para obtenerlo GRATIS.

Ahora te presentamos nuestro Data Playbook Volumen III”, nuestra tercera edición del compilado de nuestros aprendizajes como startup en crecimiento. En este contenido encontrarás definiciones de conceptos, metodologías y, lo más importante, aplicaciones de ciencia de datos. Contamos con lujo de detalle desde la construcción y desarrollo de modelos de respuesta inmediata, estrategias para el sector turismo, plataformas de inteligencia para “Dark Kitchens” hasta estrategias de analítica para aseguradoras. Finalmente sensibilizamos y ampliamos la conversación de nuestro podcast sobre privacidad e inteligencia de ubicación (“Location Intelligence”).

Solicita aqui para ser parte del lanzamiento este 15 de septiembre

En concreto compartiremos muchos de los métodos y aplicaciones prácticas que hemos desarrollado en el último año para negocios y gobiernos. Este tipo de lecturas le servirá a personas que están interesadas en aprender más de ciencia de datos asi como quienes ya están aplicando casos en organizaciones. Lo importante es conocer qué alcances existen, cómo prepararse y cómo acompañarse de startups o empresas aliadas que ayuden a las organizaciones a llegar ahí más rápido.

Hasta aqui la columna de hoy, estamos muy entusiasmados por este lanzamiento que llevamos en el equipo más de un mes preparando. Las y los invitamos a suscribirse en el bloque superior para recibirlo GRATIS.

Equipo Datlas

-Keep it weird-

5 ejercicios de ciencia de datos que todo e-commerce debería realizar – Datlas Manuales

En un e-commerce o tienda en línea cada click e interacción que se tiene con el sitio web es una oportunidad de almacenar datos para generar desarrollos que mejoren la experiencia del usuario. Y por ende, que puedan incrementar los ingresos o desarollar ahorros en la operación. Algunas preguntas que podrían salir al leer estadisticas en sistemas como google analytics serían:  ¿Por qué estarías cargando costos logísticos de un producto que ni si quiera se visualiza? ¿Si tu top 80% de ventas se concentra en 5 productos cómo te pudieras diversificar más? ó ¿Al usuario que adquiere zapatos cómo le recomiendo calcetines (productos similares?

**En la columna algunos términos están vinculados a otras columnas que hemos escrito que pueden apoyarte a incrementar tu conocimiento sobre el tema**

Datlas_Blog_Promo_SuscriberFree

Así como estos ejemplos, el E-commerce es uno de los sectores que más aplicaciones de ciencia de datos tiene por su abundancia de puntos de recolección de datos. En esta columna exploraremos algunas de las técnicas más utilizadas.

5 aplicaciones de ciencia de datos para e-commerce

1) Predicciones y pronósticos de venta en diferentes jerarquías de catálogo

Datlas_prediccion_gif

Los analistas y las personas en general somos buenos para pensar cómo podrían ser las cosas en el futuro, pero malos para puntualmente saber cuándo ocurrirá (¿Coronavirus o COVID-19? Imposible de predecir). Por otro lado la escuela de planeación de escenarios nos propone prepararnos para toda las posibles vetas que se abrirán al futuro dado nuestro contexto y las decisiones que tomamos.

Llevando esto al sentido del e-commerce, si buscamos una predicción de ventas para mejorar la toma de decisiones no solamente nos tenemos que basar en la venta de la última semana o mes. Podemos aprovechar todo el entorno digital, desde la lectura de tendencias que nos brinda plataformas como “google trends”, tendencias de facebook o platicas de twitter hasta la información interna del sitio como tiempo de estancia en sitio web, carritos sin pagar con ciertos artículos seleccionados, entre otros.

Es importante destacar, que la aplicación deberá aprovechar las bondades de ciencia de datos y capitalizar información a distintas jerarquías. Tradicionalmente en una oferta comercial se segmenta por: Categoría, subcategoría, segmento, subsegmento…. hasta llegar a producto. Esta estructura de datos nos permite aumentar la resolución al momento de generar análisis y predicciones. Entender si, por ejemplo ciertos “shorts o pantalones cortos” que vendemos en nuestra tienda están incrementando su venta porque toda la categoría de “ropa para verano” está creciendo o porque se trata de un comportamiento atípico.

2) Sistema de recomendaciones entre productos

El pase de diapositivas requiere JavaScript.

“Otros usuarios que compraron este producto también compraron…” ¿Te suena familiar? (También ocurre en netflix o en spotify cuando te recomiendan contenido de manera autónoma) Y es que en el mundo digital los sitios de e-commerce operan generan segmentos de manera dinámica. Esto significa que los comportamientos de compra entre grupos similares de de usuarios tienden a tener los mismos patrones.

En casos aplicados, almacenar los artículos que un usuario visualiza, qué tipo de correos electrónicos o campañas de marketing provocan clicks o usar sus cookies para aumentar la inteligencia en las recomendaciones son formas de pensar en algoritmos que nos puedan ayudar a generar un sistema de recomendación.

Es importante que en un inicio no queramos poner la vara tan alta si empezamos en cero.  Podemos comenzar trabajando en “batch”, es decir off-line, y cada 15 días actualizar el sistema de recomendación. A partir de los resultados podemos obtener mayor presupuesto y automatizar el flujo por completo.

Datlas_Promo_Facebook_Suscribe

3) Modelado de valor por vida (lifetime value) de usuarios

Datlas_LFTV

¿Cuál es la definición de “lifetime value”? Es una predicción del ingreso neto atributido a la relación futura con un cliente. En resumen, es el dinero que estimamos que un nuevo cliente nos pueda dejar a lo largo de la vida. Normalmente trabajamos este indicador de la mano del CAC (“Customer adquisition cost”). De esta manera una empresa como UBER o DIDI puede ofrecerte $150 MXN de viajes gratis porque sabe que hay una alta probabilidad de que en el primer año multipliquen por 10 el valor ($1,500 MXN de viajes en un año) una vez que descargues el app y sincronices tu tarjeta de crédito.

Fórmula:

(Valor de orden promedio) * (Número de ordenes repetidas) * (Tiempo que dura como cliente)

Este tipo de información puede ayudar para establecer objetivos de crecimiento de la página, optimizar estrategias de marketing, ajustar campañas y promocionales. Algunas empresas como Amazon o Rappi te proponen modelos como “prime” en donde te obsequian todas las entregas dado que eso representaría mayores incentivos para que seas su cliente durante más tiempo

4) Modelo de CHURN (identificar los clientes que puedes perder)

Datlas_Recomendacion_gif3

Así cómo podemos identificar de qué clientes podemos incrementar más la venta, también podemos identificar qué clientes son los que estamos a punto de perder. Un buen e-commerce administra métricas como: Número de clientes perdidos, % de clientes perdidos, valor de la pérdida de negocio recurrente, entre otros.

Si queremos trabajar en campañas de retención para disminuir el CHURN hay que primeramente identificar a los clientes. Normalmente lo hacemos por usuarios, pero también puede ser por su IP, atributos de pago (cuenta de paypal o últimos dígitos de una tdc o tdd) , horarios, comportamientos, entre otros.

Datlas_Promo_Podcast_Suscribe

5) Detección de fraudes

DatlaS_fraud

Finalmente, el fraude y los hackeos están a la vuelta de la esquina cuando se trata de negocios digitales. En E-commerce, el aprovechamiento y uso de tarjetas de crédito robadas para pagos por internet es uno de los casos de los que hay que prevenirse ¿Por qué? Por los contracargos. Esto es, en pocas palabras, una reclamación interpuesta por un tarjetahabiente ante el banco emisor por un cargo no reconocido a sus tarjetas. Como consecuencia el banco no le paga al comercio.

En una situación donde un ladrón de tarjetas roba datos, compra en mercadolibre, por ejemplo, el cliente afectado levanta un reclamo al banco, el banco no le paga a mercadolibre, pero mercadolibre ya había enviado la mercancia ¿Quién pierde? La respuesta es mercado libre porque esa mercancía que envío no va a ser pagada.

Existen en el mercado muchos motores antifraudes, tarjetas y listas negras, pero como e-commerce una empresa puede trabajar en su propia lista y mejor aún colocar un “puntuaje” a cada usuario que realice actividades sospechosas.

**Te puede interesar este blog donde escribimos las aplicaciones y casos de uso que podemos lograr si BANXICO o el gobierno libera listas de tarjetas que se reclaman por fraudes**

Datlas_Promo_Youtube_Suscribe

Hasta aqui la columna de hoy. Esperamos te haya servido y si estás considerando abrir un e-commerce o quieres conocer más sobre aplicaciones de analítica en estos canales de venta no dudes visitar nuestro marketplace y contactarnos para una llamada de brief.

Equipo Datlas

-Keep it weird-

 

Fuente de motivación:

https://towardsdatascience.com/5-data-science-project-every-e-commerce-company-should-do-8746c5ab4604

CORONAVIRUS PT. 2/2 – CONSTRUYENDO UN MODELO DE RESPUESTA INMEDIATA CON DATOS GEOESPACIALES (DATLAS RESEARCH)

Si quieres visualizar esta plataforma revisa el video aqui. Para acceder directamente a la plataforma de la que hablamos en este blog escríbenos tus motivos a direccion@datlas.mx . Agradecemos a los medios que nos han difundido:

El pase de diapositivas requiere JavaScript.

Esta es la segunda parte de la serie de blogs del #COVID-19. Puedes encontrar el primer capítulo en: El efecto dominó de una pandemia en la economía regional. Vale la pena que le eches un  vistazo antes, para entender mejor el riesgo de no tomar las medidas adecuadas en épocas del Coronavirus.

Datlas_Blog_Promo_SuscriberFree

Lo que sigue,inspirados en la herramienta GOTHAM de la empresa PALANTIR utilizada en el Huracán Florence en el 2018 para desplegar equipos de rescate en las zonas más marginadas del Norte y Sur-Carolina en esta columna generaremos un postulado de cómo podríamos construir un modelo de respuesta inmediata para México. Específicamente utilizando datos de Nuevo León.

Usaremos el modelo Datlas como ejemplo

Datlas_metodo_laboratoriodedatos

Puedes leer más de esta metodología en este blog.

Diagnóstico del problema y objetivo

Un modelo de respuesta inmediata, en el contexto de datos geo-espaciales, contextualiza el entorno y la situación de estudio (En este caso el COVID) para enfocar la atención hacia las ubicaciones más vulnerables en caso de una catástrofe. En situaciones donde el tiempo y la dispersión juegan un rol crítico, es importante tener a la mano herramientas que soporten la labor de enfoque hacia la infraestructura y cuerpos de rescate.

Datlas_Promo_Facebook_Suscribe

El objetivo de la investigación será identificar en un plano geográfico  los puntos de concentración de personas más vulnerables para que en caso de una catástrofe sanitaria tengamos más claridad hacia los puntos de despliegue de equipos de rescate.

Datlas_Blog_Modelorescate_Covid

Criterio y extracción de datos

Hemos estado revisando que las poblaciones más vulnerables en el COVID-19 son primeramente mayores a 60 años. Sumado a esto las viviendas en niveles socieconómicos bajos tendrían más restricciones de acceder a recursos para protegerse por su cuenta. En muchos programas sociales se utiliza el índice de marginación nacional de la CONAPO (véase al final en fuentes) como medida de vulnerabilidad. Esto ya que representa una medida-resumen que permite diferenciar entidades federativas y municipios de acuerdo con las carencias que padece la población, como resultado de la falta de acceso a la educación, la residencia en viviendas inadecuadas, la percepción de ingresos monetarios insuficientes y las relacionadas con la residencia en localidades pequeñas (CONAPO, 2018).

Otro tema que hace sentido contemplar es la cantidad de ubicaciones de servicios de salud como clínicas, laboratorios, farmacias, hospitales y similares que pudieran ponderar la vulnerabilidad de estos grupos. Usaremos datos del DENUE INEGI, así como Google places para corroborar estas ubicaciones.

Integración y clasificación de datos

Clasificamos las variables en distintos grupos:

  • Personas mayores a 60 años (Dado que el virus es más letal en este grupo de edad)
  • Indice de marginación (Tendrían mayores restricciones para cuidarse por su propia cuenta)
  • Promedio de habitantes por vivienda (Mayor indice de propagación y contagio casero)
  • Población Total (Potencialmente, los cuadros de la ciudad donde una actividad de rescate impactaría más personas)
  • NSE preponderante (Buscaríamos priorizar NSE bajos, dado su vulnerabilidad)
  • Servicios de Salud (Farmacias, clínicas, asilos, hospitales y similares)

En este caso, el orden de las clasificaciones representa lo que teóricamente puede representar un mayor enfoque para grupos  vulnerables. Es decir, estos pudieran ser criterios de enfoque para equipos de rescate

Datlas_Blog_Modelorescate_Covid_2

Modelaje y entrenamiento

Al no ser especialistas en temas de salud, lo más correcto es compartir este mapa con especialistas que puedan darnos más sensibilidad de campo sobre qué otras variables contemplar o cuál debería ser la prioridad. A partir de esto podríamos entrenar un modelo más especializado.

Para fines de este ejercicio y dándonos un poco de licencia para soñar, podríamos imaginar que los efectos de las variables en una ecuación podrían ser sumados y otros multiplicados. Algunos sería relevante contemplarlos con crecimiento exponencial. Los matemáticos son los encargados de esto. Cuando nosotros generamos modelos comenzamos de lo más básico y, de ser necesario, en cada etapa del proceso elevamos un poco el modelo de complejidad.

Simplificando, una vez estandarizadas las variables, podríamos ir modelando un indicador que agregue el efecto de distintas variables

Datlas_Blog_Modelorescate_Covid_3

Datlas_Promo_Youtube_Suscribe

Visualización

¿Cuál sería el efecto final? ¿Cómo se vería? La mejor forma de enfocar en este tipo de mapas es con mapas de calor. Eso nos permitiría identificar el efecto de una serie de variables de manera inmediata.

Ver video: https://youtu.be/4OIFN86nz5U

Reporte de acciones a tomar

  • Colaborar con expertos regionales para avanzar en establecer protocolos de rescate y  árboles de decisión de priorización en cuestión de atención sanitaria
  • Destacar zonas específicas para que se realicen revisiones periódicas, mediciones de temperatura, entrevistas a miembros de hogares en las manzanas indicadas y similares
  • Acercar infraestructura médica temporal de apoyo en caso de que el Covid crezca a una fase 2 ó 3
  • Ceder un contacto directo de atención para esta zona específica, sobre todo cuando son mayores de 60 años
  • Generar un plan de mediano plazo para intervenir esta zona, sobre todo ante los efectos económicos negativos que probablemente ocurran en un par de meses

Futuras investigaciones

En futuras investigaciones y con datos como los códigos postales o polígonos donde hay más infectados podríamos asociar correlaciones y causalidades para validar que estos efectos se cumplan. Conocer la capacidad de hospitales en términos de camillas, especialistas, respiradores, entre otros sería de mucha utilidad.También los hospitales y laboratorios que sí están realizando pruebas o tratamientos de COVID.

Creo que ya hay demasiados mapas sobre la evolución del COVID19. Hay que motivar a pensar en los siguientes pasos: Los efectos económicos y sociales.  Esperamos que estas 2 columnas de blogs apoyen a continuar la investigación en este sentido.

PRUEBA EL MAPA

Solicita con un escrito de motivos a direccion@datlas.mx , gracias por tu participación recuerda compartir la columna y dejar tu opinion.

Datlas_Promo_Podcast_Suscribe

Fuentes:

AIRBNB, el nuevo negocio inmobiliario de los Regios – DATLAS RESEARCH

Monterrey Nuevo León es una de las ciudades potencias en México. Al contar con un gran número de empresas de manufactureras, de las principales que cotizan en la bolsa, universidades importantes, economía estable y gozar de una conveniente posición geográfica (en cercanía a EE. UU.). Por esta coyuntura, Monterrey atrae a diversas personas que vienen por negocios, de turistas por la cantidad de eventos que hay en la ciudad, a visitar familiares, entre otros motivos. Acompañado de esta situación viene la necesidad de estancia y hospedaje en la ciudad. Nuevas alternativas como AIRBNB comienzan a competir a los hoteles desde hace más de 2 años y hoy están en una etapa de madurez donde verdaderamente son “rivales” de los hoteles. En esta columna compartiremos algunos datos de contexto y recomendaciones sobre la plataforma AIRBNB en la ciudad de Monterrey.(También puedes ver AIRBNB EN CDMX ¿Amenaza o bondad? )

Hoy en día algunos hoteles pueden llegar a ser muy costosos y mucha gente tiene un presupuesto limitado o simplemente no desean pagar esas cantidades, una buena opción que hoy en día se está utilizando, y mucho, son las plataformas en línea de hospedaje. Por ejemplo, Airbnb. Estos últimos pueden llegar a ser hasta 60% más económicos que un hotel. Muy deseables para quienes desean ahorrar y,  dependiendo de la zona, encontraremos buena cobertura en los principales puntos de interés con diferentes precios y diferentes características del lugar de residencia (amenidades).Datlas_AIRBNB_MONTERREY

En Monterrey y su Zona Metropolitana hay un total de 2816 Airbnb. Los precios de los mismo varían dependiendo de la zona de interés de hospedaje, el tipo de alojamiento y la cantidad de huéspedes principalmente. Existen tres tipos de alojamientos: un apartamento o casa completa, un cuarto privado y un cuarto compartido.

Entre los limitados datos que logramos recabar sobre los Airbnb en Monterrey enumeramos los siguientes hallazgos:

  1. “En lo que corresponde a Monterrey y su Zona Metropolitana hay aproximadamente 11 Airbnb por cada kilómetro cuadrado, siendo San Pedro el municipio con el mayor numero de Airbnb por km2, pero Monterrey es en donde más Airbnb hay.”

2) “La distribución de tipos de cuartos es casi equitativa en cuanto a un apartamento o casa completa a un cuarto privado, pero en cuanto a un cuarto compartido el porcentaje es más bajo.”

3) “A un precio promedio de $810 MXN por noche por persona si todas las propiedades de Airbnb en Monterrey y su Zona Metropolitana se usaran al mismo tiempo, se estaría generando $2.28 millones MXN por día.”

Conclusiones

“Los Airbnbs” y plataformas digitales de turismo han tomado fuerza y continuarán capturando más valor en corto plazo.  Para no quedarse atrás en esta transformación digital compañías hoteleras así como otros miembros del gremio en el sector turismo deberán de monitorear más de cerca la oferta de los Airbnb. Resolviendo constantemente ¿Qué es lo que la hace atractiva? ¿Cuáles son los puntos de precio? y ¿Cuáles son las temporalidades más relevantes? , entre otras preguntas que pudieran apoyar su toma de decisiones. Nuevas estrategias en los sectores “tradicionales” de turismo podrán ser modeladas con más y mejor información del mercado.Datlas_AIRBNB_Monterrey_pointEn Datlas estamos trabajando para complementar y mejorar nuestro sistema de monitoreo en el sector turismo. Este año haremos nuevos lanzamientos y buscamos empresas que quieran sumarse el piloto. Contáctanos direccion@datlas.mx

Hasta aqui la columna de hoy,  te invitamos a compartir la nota con tus socios y amigos usuarios de AIRBNB en MTY. Equipo DatlasKeep it weird