Archivo de la categoría: Startups

Dashboards de negocios, guía para principiantes – Datlas

Un avión donde viajan 300 personas que puede ser conducido por 2 personas, una megaciudad de más de 5 millones de habitantes conducida desde un “war-room” (C4 ó C5) con 20 personas, o la gestión de un mundial de fútbol en más de 20 ciudades a la vez controlado por un equipo de 40 profesionales ¿Qué herramienta tienen en común?  Todos en algún momento usaron dashboards.

Datlas_barra_suscribir

En los negocios ocurre igual. Un tablero de control o dashboard es un lugar donde se pueden monitorear los aspectos más importantes del quehacer de una organización. Sinedo así,en el campo de “inteligencia de negocios” o “business intelligence”, este tipo de herramientas le ayuda a los tomadores de decisiones y operativos a reaccionar de forma efectiva a cambios en el negocio.

1) ¿Qué es un dashboards de negocios?

Es un gráfica que refleja el estatus operativo de datos recolectados en tiempo real (o casi tiempo real) visualizados en una plataforma. Un ejemplo de lo que podría ver un empresa que se dedica a envíos de comida a domicilio en un dashboard.

El pase de diapositivas requiere JavaScript.

Así como los pilotos en un avión monitorean la altura, velocidad, ruta y otros aspectos del vuelo. En un negocio podríamos vigilar las órdenes , las ventas, tiempos de entregan las entregas exitosas, los artículos más vendidos, entre otros.

Te puede interesar nuestra columna titulada: Ranking de Dashboards de COVID-19.

2) Características de un dashboard

Para ser considerado un buen panel de control tendría que integrar:

  • Un sistema valioso de indicadores
  • Visualización e interacción intuitiva
  • Buena calidad de datos como insumo y amplitud en cortes temporales
  • Un sistema completo de arquitectura que permita actualización automática

Recomendamos que leas nuestro ejemplo en: Analítica en Dashboards para Turismo.

3) ¿Cuáles son los tipos de dashboards?

Datlas_niveles

  • Dashboard estratégico: Resume y sintetiza los indicadores más importantes de la compañía para tomar decisiones de manera rápida basadas en datos
  • Dashboards analíticos: Puede ser estratégico y operativo, destinado a que los equipos de mandos altos y medios puedan tomar decisiones de manera más ágil
  • Dashboards operativos: Enfatiza el reporteo de información constante y continua
4) ¿Qué acciones debería habilitar un dashboard?
A) Seguimiento a KPIs
Datlas_saludkpis

Una vez que se realizó el trabajo de planificación estratégica donde se delimitaron los KPIs que los equipos de trabajo deberán de cuidar para que los proyectos tengan buena salud es importante poder visualizarlo en el dashboard. Por lo mismo es útil generar un “semáforo” donde rojo sea señal de gran oportunidad para mejorar y verde sea buena salud.

B) Alertar de comportamientos fuera de rango o prevenciones
Datlas_alertas

Las mejores implementaciones de inteligencia de negocios generan tableros que están listos para alertar sobre comportamientos críticos o situaciones que necesitan inmediata atención. Idealmente estas notificaciones tienen que ser desarrolladas por las personas con más experiencia en la organización y con base a atender las oportunidades que de no atenderse podrían representar un costo no reemplazable a la compañía.

C) Monitoreo en tiempo real
Datlas_gif_Realtime_Dashboard

En una etapa más avanzada habrá que procurar que el monitoreo de los datos sea en tiempo real. Esto requiere necesidades más sofisticadas de infraestructura y que se cuenten con iniciativas de ciberseguridad para asegurar que no haya fugas de información. Esto permitiría una toma de decisiones más oportunas sobre datos que sean reales.

Cierre

Los dashboards permiten ser más eficientes y eficaces en la toma de decisiones operativas y en el cumplimiento de la estrategia de una organización. Hay que trabajar de la mano con el área o la función de planeación en nuestra compañía para generar buena calidad de KPIs, alertas y sobre todo garantizar que los datos más dinámicos sean actualizados en tiempo real.

Datlas_barra_suscribir

Si te interesa seguir conociendo más de este tema (KPIs y herramientas de medición te invitamos a nuestra próxima charla. Puedes registrarte aquí GRATIS: https://bit.ly/dfuturos4 

WhatsApp Image 2020-07-06 at 9.05.32 AM

También solicitar en nuestro marketplace una llamada para platicar sobre este tema y evaluar cómo con alguno de nuestros casos aplicados podemos ayudar a tu organización.

Fuentes:

Algoritmos Supervisados: Clasificación vs. Regresión – Datlas Research

Existen 2 métodos populares para Machine Learning cuando de métodos supervisados hablamos.  Nos referimos a los algoritmos de clasificación y regresión. Fundamentalmente, es importante que los lectores conozcan que los de clasificación predicen una “etiqueta” y los de regresión predicen una cantidad. En esta columna explicaremos de qué tratan, sus diferencias y compartiremos algunos casos de uso frecuentes.

Datlas_ML_Supervised_NotSupervised

¿Qué es aprendizaje de máquina (Machine Learning)?

Es una disciplina científica del ámbito de la Inteligencia Artificial que crea sistemas que aprenden automáticamente. Aprender en este contexto quiere decir identificar patrones complejos en millones de datos. La máquina que realmente aprende es un algoritmo que revisa los datos y es capaz de predecir comportamientos futuros. Automáticamente, también en este contexto, implica que estos sistemas se mejoran de forma autónoma con el tiempo, sin intervención humana. Veamos cómo funciona. (Leer en bibliografía en fuentes).

¿Qué significa algoritmo?

Conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución de un tipo de problemas. O una serie de instrucciones sencillas que se llevan a cabo en cierto orden para resolver una pregunta.

Datlas_barra_suscribir

Recordemos que estamos hablando en esta columna de algoritmos de la familia de de ML supervisada (Necesita datos “etiquetados” para ser entrenada, en contraste con la no supervisada que a partir de una serie de datos genera clústers o asociaciones).

Algoritmos de Clasificación

Predicen etiquetas o clases que se conocen a priori. El resultado deseado es una etiqueta discreta o específica. En el caso del modelo entrenado sea entre 2 clases, se determina como binaria. Si tenemos que predecir más de 2 clases se le conoce como clasificación multicategórica.

Técnicas:

Ejemplos de casos de uso:

  • Segmentación para estrategias de marketing. Cómo poder diferenciar estrategias de promoción y precio para mis usuarios. Te puede interesar nuestro blog “Segmentar Clientes usando mapas”
  • Categorización de siniestros. Podríamos categorizar las zonas más siniestradas de una ciudad entrenando un modelo con la historia de datos. De esta manera se podrían generar mejores rutas de patrullaje por los policías. Te puede interesar: “Categorizando choques y siniestros en Nuevo León”.
  • Predecir el éxito. Para hoteles u hospedajes de AIRBNB podríamos predecir si van a tener éxito o no considerando las variables que comunican en sus anuncios. Revisa: “AIRBNB amenaza o bondad en CDMX”.

Datlas_barra_suscribir

Datlas_regression-vs-classification-in-machine-learning

Algoritmos de Regresión

Es útil para predecir productos continuos. La respuesta se presenta como cantidad. El valor predicho puede usarse para identificar la relación lineal entre atributos.

Técnicas:

Ejemplos:

  • Precios de vivienda. Estimar precios de inmuebles considerando variables como dimensión de propiedad, tamaño de construcción, pisos, recámaras y otras características. Te puede interesar nuestro blog “Desarrollando un valuador inmobiliario”
  • Predecir camas hospitalarias necesarias. Una oficina o secretaría de salud podría predecir con base a su histórico la cantidad de camas y doctores que serán necesarios el próximo año para atender a la demanda de la población. Un avance que pudieramos llevar allá es con la cantidad de mujeres embarazadas. Podrías leer nuestro blog sobre el tema.
  • Identificar las cervezas que necesitarás en tu inventario. Predecir la cantidad de inventarios es una de las aplicaciones más usadas en el sector retail. Podrías revisar nuestro blog ¿Cómo detectar cheves con Tensorflow?

Escenario para reforzar: NETFLIX

Un problema tomando en cuenta Netflix, proveedor de entretenimiento al que muchos de los lectores están suscritos. A cambio de una mensualidad pueden ver series y películas. Pero muy probablemente en su experiencia hayan recibido recomendaciones de los algoritmos de esta empresa que utiliza todos los “clicks” que damos en la interacción con su plataforma para mejorar la experiencia del usuario.

¿Cómo aplicaría un algoritmo de clasificación y regresión en este caso?

Si Netflix te recomienda una película. El problema de clasificación será si te gusta o no te gusta. Tratará de generar una lista de películas que tengan atributos que anteriormente ya te gustaron de otras películas. Pueden ser géneros, actores, tiempo que tarda o idioma, por decir algunos.

Ahora si un algoritmo tratara de predecir cuántas veces verías esa película. Se vuelve un problema de regresión. Netflix necesita estimar si sus recomendaciones le generarían una mayor carga en sus servidores por consumo de una misma película. En ese sentido usan técnicas de regresión para estimar cuántas veces y en qué momento consumirás ese contenido que te han recomendado.

Conclusión

Ahora que ya conoces esta diferencia te recomendamos ir a experimentar y continuar investigando un poco más por tu parte. Como la escena de la serie “Silicon Valley” donde generaron un modelo para predecir si un platillo era o no era “hot dog”… te recomendamos empezar tu modelo. A lo mejor con algo más serio.

Datlas_Clasificacion

Puedes usar IBM Watson, Microsoft Azure o los servicios de Google Tensorflow para hacer tus experimentos. Si necesitas nuestro apoyo o te gustaría conocer más sobre el proceso para generar un algoritmo exitoso que se pueda consumir de distintas formas no dudes en contactarnos en dirección@datlas.mx . También visita nuestro marketplace donde podrás encontrar este y otros servicios en nuestra sección de consultoría: https://www.datlas.mx/marketplace/

Hasta luego

-Equipo Datlas-

Keep it weird

 

Fuentes:

 

El arte de los pronósticos en los negocios – Datlas Research

Pronosticar es uno de los primeros pasos en la planeación (que en realidad tendríamos que especificarlo como “planificación”) de cualquier organización.  Nos da noción sobre los escenarios que se podrían concretar en un corto, mediano y largo plazo lo que nos permite preparar la asignación de recursos en el año considerando temporalidades, estacionalidades, tendencia y, en algunos casos, situaciones atípicas.  En esta columna revisaremos los casos de uso más importantes de pronósticos y daremos una guía básica de las etapas más importantes en un pronóstico.

Datlas_barra_suscribir

Un pronóstico puede ser tan útil como sea cercano a la realidad. Hay casos prácticos tan negativos como las proyecciones que se han intentado hacer en tiempos recientes del COVID-19. Al menos en México, hemos tenido muy malas experiencias proyectando. Se decía que el “pico” de la pandemia iba a ser cerca de la primera semana de mayo. Parece que al día de hoy seguimos sin poder dar . Mismos errores han pasado como en proyecciones políticas como las de USA que daban por ganado a Clinton sobre Trump.

El pase de diapositivas requiere JavaScript.

Por otro lado los casos de éxito con más validez son esos pronóstico de la bolsa que suelen tener periodos de comportamiento estático. Claro, en justas proporciones, cada cierto tiempo sucede algo atípico. Como hace un par de semanas, también por tema del COVID-19 los ritmos de recuperación han sido atípicos. Otros casos de éxito es pronosticar la población, que crece a un ritmo relativamente constante. O por ejemplo proyectar a futuro los ingresos por el mercado de apps.

El pase de diapositivas requiere JavaScript.

¿Por qué te debería importar poder proyectar?

A pesar de que las proyecciones no siempre son 100% exactas, nos ayudan a….

  1. Saber de dónde vienen los ingresos y cuáles son las líneas de flujo con más crecimiento
  2. Es posible también monitorear de dónde se pierden ventas o valores
  3. Es útil para planear inversiones o gastos importantes considerando la temporalidad

Datlas_Forecast

Algunos de los campos de negocios donde los pronósticos son protagonistas en la planeación

  • Pronósticos para la demanda. Preparar compras de inventario no es cosa sencilla, más de artículos que son perecederos o tienen poco tiempo de vida en anaquel.
  • Cuentas de marketing. Estimar el tamaño de distintos mercados puede orientarnos en dónde vale la pena hacer una apuesta de inversión. Quieres saber a qué mercado enfocarte: ¿Fintech? ¿Salud? o ¿Real Estate? un dimensionamiento de mercado y conocer las temporalidades de cada uno puede ayudarte a la decisión.
  • En la introducción para un nuevo producto. Planificar los costos asociados a un producto de lanzamiento, vigilar que las metas estén cumpliéndose en tiempo y forma así como
  • En ventas. Proyecciones más usadas, cuál es el nivel de ventas que esperamos nos puede ayudar a identificar las semanas de mayor intensidad para reforzar las capacitaciones en nuestra mano de obra o preparar nuestra infraestructura.
  • En tráfico web. La mayoría de las plataformas web ya ofrecen este servicio. Incrementos al tráfico te pueden ayudar a preparar tus servidores o servicios para no colapsar. Imagínate una página de venta de boletos en línea que quiere manejar las dinámicas de preventas con descuento ¿Qué tráfico esperar o pronósticar si los primeros 100 boletos los ofrecen al 50% de descuento?
  • Un hábito de dirigentes, en general. Monitorear avances de resultados apegado a proyecciones. Responder si vas bien , neutral o mal no indica nada en negocios. Hay que tomar en cuenta que al principio del año de operaciones tenemos que pronósticar cuáles son los escenarios numéricos factibles y  a partir de eso luchar para lograrlos.

Técnicas frecuentes de proyección

Usualmente cada industria viene acompañado de sus técnicas de pronósticos. Sin embargo los fundamentos estadísticos suelen ser compatibles o similares. Estos métodos buscan acoplar el futuro a la tendencia histórica, temporalidad, estacionalidad y/o  cambios estructurales.  Algunos son más sensibles a la tendencia, otros a la estacionalidad o cambios estructural. La propuesta es generar 3 o 4 validaciones de modelos por serie temporal y a partir de eso quedarse con el que mejor ajuste.

Las técnicas más comunes: Promedio móvil, Regresión lineal o múltiple

Técnicas más avanzadas: ARIMA, Prophet , Random Forest, entre otros

El pase de diapositivas requiere JavaScript.

¿Es difícil proyectar?

Las técnicas de proyección requieren fundamento matemático, conocimiento de industria y un poco de prospección de lo que va a pasar en el futuro del mercado. Siendo la estadística la más compleja de estas tres. Conocimientos básicos de estadística nos ayudarán a generar buenos pronósticos cuando tenemos buena historia de los datos. Sin embargo si hablamos de estimar cómo le puede ir a una nueva empresa o al lanzamiento de un nuevo producto, necesitamos distintos ángulos de enfoque para que verdaderamente pueda funcionar.

Otra oportunidad en los pronósticos de negocios es poderlo vender bien. Normalmente múltiples áreas en una organización generan distintas proyecciones y como finalmente esto queda a “ojo del analista” pueden variar. Haría más sentido unificar una proyección a la que todos los departamentos se puedan alinear. En ese sentido hay mucho arte en la presentación y venta de la proyección.

Datlas_barra_suscribir

Finalmente un “safe” o paso de seguridad es generar al menos 3 escenarios en donde tengamos proyecciones pesimistas, neutrales y optimistas. Siendo que durante el año habrá situaciones que no puedes prevenir completamente, pero sí sospechar. En ese sentido si alguno de los riesgos se concreta probablemente se concrete el escenario pesimista. Por otro lado si una nueva oportunidad se abre, por ejemplo las empresas de videollamadas en época de COVID-19, hay situaciones que pueden llevar los números a las nubes.

Datlas_proyeccion_Hugo

El balance

Recomendamos fuertemente que organizaciones y más que nada los negocios tengan la disciplina de manejar pronósticos en sus líneas de ingreso. Sobre todo en tiempos del COVID-19 es importante plantear escenarios pesimistas en los que cierto nivel de ventas, tráfico o demanda impactaría en una toma de decisiones empresarial directamente. Hay que tomar en cuenta también que algunos efectos tienen “rezago”, es decir, que el mercado no responde inmediatamente, por lo que hay que asesorarse con equipos que tengan conocimiento en estadística para que puedan dar una correcta lectura de estas situaciones.

Hasta aqui la columna de hoy, esperamos poderte haber compartido más del arte de los pronósticos en los negocios. Recuerda suscribirte al blog, a nuestro podcast y compartir en tu red. Si te interesa adquirir servicios de Datlas y que te orientemos en tus pronósticos no olvides visitar nuestro marketplace y solicitar una llamada.

15. ¿Emprendedor - Lo último es la tecnología, identifica un dolor grande y alivialo

Saludos

Equipo Datlas

-Keep it weird-

 

Fuente:

Diagnóstico de bases de datos: Aprovechando al máximo la información que genera tu negocio

A finales de mayo escribimos una columna en donde establecimos los 5 pasos para aprovechar los datos de tus puntos de venta. Dentro de este proceso el paso #1 eran precisamente los datos, mientras que los siguientes pasos se enfocaban en como transformar estos datos en información y de ahí derivar insights para establecer accionables. En esta ocasión vamos a profundizar en ese primer paso, para hablar de la forma en la que un buen diagnóstico de tus bases de datos, una radiografía, puede ayudarte a preparar los datos para realmente aprovechar y capitalizar al máximo durante los siguientes pasos del proceso de aprovechamiento.

free_Suscriber

Así que comencemos, cuando hablamos de bases de datos nos referimos a ese repositorio de registros que tiene el negocio con el récord de los distintos hechos y sucesos que acontecen durante su quehacer diario. ¿Más fácil? Imagínate una hoja de cálculo en Excel con columnas y filas llenas de datos como: nombre del cliente, producto que compro, precio, etc. Ahora bien, el hecho de capturar la información y tenerla digitalizada sin duda es un primer paso, pero muchos negocios en la actualidad creen que eso es suficiente, como si la transformación digital y las nuevas tecnologías como big data o inteligencia artificial se trataran solo de tener datos y de tenerlos digitales. La realidad es muy distinta, sin duda tener los datos es importante, pero su calidad y su estructura son cruciales para poder capitalizar todos los beneficios que esconden. Para dejarlo más claro, imagínate que llegas a un lugar y pides una silla para poder sentarte, la persona a la que se la solicitaste te responde que efectivamente existe una silla y te la trae, pero de pronto cuando te sientas la silla se vence y caes al suelo. ¿Dónde estuvo el detalle? Precisamente en la calidad y estructura de la silla, es decir, no hace falta simplemente tener lo necesario, sino asegurarnos que eso que tenemos puede soportar y capitalizar las exigencias a las que lo vamos a someter.

datlas_mx_blog_diagnostico_database

Así que ¿por dónde empezar? Lo primero es hacer una pausa, un corte y generar el listado completo de variables que maneja el negocio. En nuestro idioma, cuando trabajamos con un cliente, a esto le llamamos generar un glosario de variables. Esto le permite tanto al negocio como a nosotros entender la situación actual, la radiografía, el estatus. Ahora bien, este listado no es simplemente enumerar y nombrar cada dato o variable, sino realmente diseccionar cuestiones como: el tipo de variable, la periodicidad con la que se actualiza, la categoría a la que pertenece dentro de los procesos del negocio o de los atributos que analiza la compañía, el formato con el que se registra, entre otros. Un caso práctico lo vivimos a finales del año pasado trabajando con Andrés, dueño de una cadena de restaurantes con presencia en Monterrey y Playa del Carmen. Cuando Andrés llegó con nosotros con el reto de generar nuevas iniciativas de inteligencia para su negocio, lo primero que preguntamos fue precisamente “¿Qué datos tienen?” y después de un largo silencio concluimos que era necesario hacer el diagnostico.

Al construir el glosario de variables nos dimos cuenta de algunos detalles interesantes como, por ejemplo: registros con problemas ortográficos, formatos de fecha distintos entre cada sucursal (una registraba día/mes/año y otra lo registraba como año/mes/día), había productos que se registraban por peso mientras otros eran registrados por unidad o paquete, etc. Este primer gran paso nos permite hacer lo que un doctor, guardando sus proporciones, diagnosticar y entender que es lo que tenemos que hacer.

datlas_mx_blog_diagnostico_Model-variable-list-Predictor-variables-used-in-models-type-of-data-categorical-or

Una vez que entendimos los datos en su mayor granularidad y esencia, el siguiente gran paso del diagnostico es evaluar la estructura que guardan esos datos dentro de la infraestructura de la empresa. ¿En español? Tomamos el glosario de variables y nos metemos a las entrañas del negocio a ver literalmente la base de datos donde duerme cada uno de esos datos. La clave en este punto es entender si el acomodo, literal, de filas y columnas es el ideal para generar las manipulaciones y los tratamientos necesarios para generar inteligencia. Volviendo al caso de Andrés, como ejemplo, el dato de ventas se registraba en una base de datos que tenia a los clientes (un cliente por fila) y se iba llenando cada transacción (venta) por columna, es decir, si un cliente había comprado 5 veces tenias una base de datos con una fila (el nombre del cliente) y 5 columnas (una con cada fecha de compra). Claramente esta es una estructura difícil de manipular si te pones a pensar en generar analíticos descriptivos como la cantidad de veces que ha comprado dicho cliente o el total de clientes que han comprado 2 veces o más, por ejemplo. De esta forma, este segundo acercamiento nos permite diagnosticar la forma en la que el dato debe guardar una relación con la estructura de la base donde se esta registrando y guardando para poder capturar su potencial de análisis.

datlas_mx_blog_diagnostico_01-a-basic-flat-file-spreadsheet-database-100739687-large

Finalmente, el paso decisivo del diagnóstico es evaluar la relación que guardan las distintas bases de datos del negocio. Si te fijas, nos hemos ido desde lo más particular, que es el dato, pasando por lo más agregado que es la base de datos y hemos llegado a lo más general que es la relación de estas bases dentro de los procesos de negocio. Esta perspectiva esconde los últimos “síntomas” que necesitamos saber para poder dar un diagnóstico certero. En esta etapa lo que buscamos es entender la forma en la que las bases de datos se conectan entre ellas para contar la historia de cada dato enlistado en la parte del glosario. Lo importante es encontrar los datos conectores, es decir, aquellos datos claves que nos ayudan a interconectar una base con la otra. El ejemplo más claro, en el caso de Andrés, es la forma en la que el dato de cebollas dormía en una base de datos de recetas, donde cada receta tenía un identificador único (ID) que a su vez se conectaba a los datos de las ordenes que el mesero tomaba y enviaba a cocina para su ejecución y finalmente ese mismo identificador servía para descontar de la base de datos de inventarios los productos y la cantidad correspondiente. Se lee mucho más complicado de lo que es, pero el mensaje es muy sencillo y claro, entender la forma en la que se comunican las bases es clave para poder hacer un diagnóstico completo.

datlas_mx_blog_diagnostico_database2

De esta forma, siguiendo la analogía del doctor, podemos darnos cuenta fácilmente en que parte se encuentra el verdadero “dolor” e ir a tomar acciones puntuales sobre cada uno de ellos. En el caso de los datos, por ejemplo, las soluciones son claras: limpieza, clasificación o exploración de fuentes de generación de datos para capitalizar nueva información. En el tema de la base de datos individual donde duerme el dato las alternativas son: reestructura u homologación. Para la parte de la comunicación entre bases de datos lo que se puede hacer es: generar variables de identificación única, optimizar la interconexión entre bases de datos o replantear el diseño de consultas (querys). Con todo esto el negocio esta listo para poder capitalizar sus datos y generar inteligencia, que se traduce en mejor gestión de procesos, segmentación de clientes, mejoras a la oferta, ajustes de precio, control de inventarios y mucho más.

Así que ya lo sabes, si quieres aprovechar la generación de datos de tu negocio lo primero es realizar un diagnóstico. En Datlas estamos a tus ordenes para apoyarte, como a Andrés, en este proceso de descubrimiento para poder descifrar todos los beneficios que se esconden en tus bases de datos.

@DatlasMX

 

 

Diseño de perfiles y áreas de analítica para organizaciones – Datlas Research

Con el equipo Datlas al año tenemos la oportunidad e participar en algunos foros donde se repite mucho preguntas sobre qué perfiles y cómo preparase para generar una estrategia de datos. En realidad, tal y como lo pudiste leer en ¿Por qué fracasan los proyectos de ciencia de datos? las personas y la forma en que diseñamos el quehacer de sus funciones en una organización son principal factor de éxito para una estrategia de analítica de datos.

En esta columna resolveremos dudas y compartiremos mejores prácticas sobre procesos de diseño, entrevista y reclutamiento de profesionales de analítica de datos e inteligencia artificial en una organización. Todo esto siguiente la guía de puestos presentada en 5 perfiles para una estrategia de datos en tu organización .Que te recomendamos leer antes para que puedas tener un mejor contexto.

Datlas_barra_suscribir

ESTRUCTURA ORGANIZACIONAL

El pase de diapositivas requiere JavaScript.

Una estructura de reportes, de jerarquía o de organización para proyectos es muy variante ya que responde a los retos estratégicos de la organización. Específicamente para los datos no hay que olvidar que buscamos que en un mismo equipo se encuentren ingenieros, arquitectos, científicos y analistas al mismo nivel. Esto último debido a que la colaboración y la comunicación debe ser colaborativa. Uno de los métodos que con más frecuencia se usa en la industria son las células de trabajo. Estos son grupos pequeños, pero eficientes, de trabajo que cuentan con todos los recursos para resolver un problema de analítica avanzada.

DISEÑO DE PERFILES

El pase de diapositivas requiere JavaScript.

Las personas que trabajen en el área de analítica necesitan tener ciertas características:

  • Aprendizaje constante. La actualización de modelos de análisis y algoritmos es casi semanal. De la misma manera las nuevas paqueterías sobre machine learning en software como R o Python. Los perfiles tendrán que ser personas que puedan descifrar textos académicos y documentación en guías de programación sobre los modelos más recientes.
  • Curiosidad técnica. Frente a nuevos retos habrá que mostrar curiosidad y no miedo ante nuevas herramientas. Se buscan perfiles “políglotas” que puedan trabajar en distintos lenguajes de programación, estadística de todo tipo y comunicar sus resultados desde un “Power Point” hasta un tablero dashboard en “Power BI”. No tenerle miedo a experimentar e investigar nuevas plataformas.
  • Didáctica para explicar hallazgos.  Quien es analista de datos puede ser un experto/a en matemáticas, pero mientras no sepa explicar lo que hace no podrá influir en las decisiones y orientaciones de la organización. Es importante que el arte de explicar las variables relevantes en un modelo esté presente.
  • Interlocutor con el área de negocios. “Data Translator” o similar, es una capacidad que permite llevar los retos de negocios a problemas estadísticos que puedan ser respondidos con las técnicas correctas de analítica avanzada.
  • Gestión de proyectos. Aunque probablemente una posición gerencial o de dirección será quien gestione proyectos. Es importante que el perfil se pueda alinear a las dinámicas de registro, seguimiento y coordinación de trabajo para desarrollar proyectos. Ser un profesional con noción de urgencia así como mostrar compromisos con fechas de entrega.

PROCESO DE RECLUTAMIENTO

El pase de diapositivas requiere JavaScript.

A los científicos de datos les gusta responder a retos y en el mercado laboral de ciencia de datos la entrada a un puesto suele venir acompañada de un buen reto de programación. Un buen postulante deberá poder resolver un reto en materia, ofrecer una visualización y poder comunicar de manera eficiente los resultados de un caso de negocio.

1) Definir estrategia de analítica avanzada y dimensionar las áreas funcionales que ejecutarán la estrategia

2) Recopilar retos actuales y retos futuros para diseñar puestos que respondan a estas necesidades

3) Generar dinámicas para atraer talento: hackathones, retos en línea, revisión de github o portafolio, acertijos o casos de negocio que puedan poner a prueba a los postulantes

4) Considerar entrevistas de “match cultural” así como habilidades de comunicación y liderazgo

5) Período de entrada y “química” con el equipo existente. Retroalimentar y readaptar el proceso a la experiencia de la empresa en particular.

Datlas_barra_suscribir

LA ENTREVISTA

El pase de diapositivas requiere JavaScript.

Aquí es donde en realidad sucede la magia y se filtra a la mayor calidad de los candidatos. Es muy importante que alguien con conocimiento de industria y que entienda las necesidades de la empresa sea quién realice las entrevistas para obtener el puesto.

Primeramente una recomendación importante es enviar una prueba o reto de la que pueda enviar resultados preliminares por correo y explicar a fondo en la entrevista. En una ocasión, a manera personal, me tocó en NYC recibir desde el app de UBER algunas preguntas de código mientras hacía un viaje. Las contesté correctamente y me invitaban a enviar mi CV para su empresa. Ese tipo de dinámicas se ven “cool” , son modernas y además.

Durante la entrevista es relevante validar con casos o situaciones que se le pueden presentar en el trabajo y conocer muy bien cómo pudiera reaccionar esa persona a las situaciones. Estas simulaciones, sobre todo en problemas que involucran estadística, ayudarán a validar su nivel de conocimiento teórico. Finalmente el práctico es mayormente dominado durante el desempeño del rol

Finalmente asegurarse, como en cualquier puesto, que la persona cumpla con el perfil y que pueda generar proyectos internos para motivar a otras personas a usar las herramientas que sean desarrolladas por el área de analítica es muy importante.

CIERRE

Hasta aquí la columna de hoy. Pensamos que esta y otras guías podrán ser de utilidad a los reclutamientos de uno de los roles con más atención de los últimos 5 años. Probablemente los siguientes 5 años se especialicen aún  más. Esperamos que le sirva de orientación y que puedas compartir con más personas para que haya una mejor guía de qué observar para incrementar la calidad del área de analítica de datos.

Saludos

Equipo Datlas

– Keep it weird –

 

A/B Testing y métodos de experimentación en aplicaciones comerciales – Datlas Research

En recientes columnas hemos estado introduciendo métodos de negocios que han sido alterados por la analítica de datos. Tales como: Go-To-Market, Digitalización de anaqueles en E-commerce, Clustering para Segmentos de cliente y en esta ocasión queremos darle apertura al A/B Testing (Experimentación A/B).

A/B Testing es un método de experimentación que se puede utilizar en aplicaciones comerciales como promociones, programas de lealtad y descuentos. Este tipo de pruebas se conocen en otras ciencias como prueba aleatoria de control y es una herramienta poderosa para desarrollo de productos, iniciativas comerciales o de marketing.

Datlas_barra_suscribir

Esta columna te va a interesar si eres alguien que activamente está buscando validar si una campaña comercial o de marketing tiene éxito o no.

DatlaS_ab-testing

Definición de A/B Testing

Es una herramienta útil para estimar el ROI (retorno sobre inversión) así como proveernos de un panorama de causalidad que nos ayude a justificar si un proyecto debe o no debe ser escalado dado los resultados de ciertas pruebas de hipótesis.

Normalmente contrastamos la conducta entre 2 tipos de grupos con características similares: Grupo de control y grupo de tratamiento. En realidad pueden ser más, pero el punto es tener grupos a los que se les aplica distintos tratamientos que son contrastantes entre sí. Por ejemplo,en un experimento para bajar de peso, al grupo A ( De control) se le controló su dieta y al grupo B (De tratamiento) además de su dieta se le aplicó una rutina de ejercicios. Al final, si el grupo B tuvo un resultado más cercano al objetivo de bajar de peso podríamos concluir que el tratamiento aplicado al grupo B es más exitoso que el del grupo A.

Errores comunes a considerar

Siguiendo con el ejemplo los datos se podrían ver de esta manera

Datlas_blog_ABTesting

Con la mano en la cintura vamos a reportar que los tratamientos al grupo B hacen que bajes más kilos. Pero… un momento ¿Pudieran existir errores si concluimos algo así?

  • Error Tipo 1 – Conclusión fallida donde decimos que la intervención fue exitosa, cuando en realidad no lo fue.  Erróneamente asociamos el plan de alimentación como factor causal cuando algunos integrantes bajaron de peso porque, por ejemplo, su tipo de ejercicio en esa hora fue funcional o HIT mientras otros integrantes sólo caminaban. A esto se le llama también falsos positivos.
  • Error tipo 2 – Falsamente concluir que la intervención fue no exitosa.  A algunos miembros el plan de alimentación no les funcionó. Pero hay factores externos como el tipo de aceites que usan en la preparación o las bebidas que toman para poder llegar a una conclusión completa.

Estos errores van a suceder cuando queremos sacar conclusiones para toda una población a partir de una muestra. Sólo hasta que entendemos el verdadero dimensionamiento de nuestros resultados deberíamos de estar tomando decisiones de impacto de negocio.

Ejemplo de casos de uso

  • Campañas de marketing por correo o mensajes de texto (SMS)
  • Programas de lealtad optimizando las promociones para lograr mayor redención
  • Medicina para entender si funciona o no una prueba
  • E-commerce para saber si algún cambio al aparador digital generaría mayor compra

Caso de estudio

El orden será primero establecer un ejercicio hipótesis acompañado de su diseño de experimento. Después trabajaremos en métodos aleatorios para generar muestras, justificar tamaños de muestras y finalmente seleccionar un método de mejoras.

 

Datlas_blog_abtesting_Exitoso_fracaso

Como otros problemas de negocios, este proceso inicia generando hipótesis considerando la población de estudio, la intervención a realizar, los indicadores para comparar entre grupos, el resultado de lo que estás midiendo y la selección del tiempo en el que se va a realizar la medición. Por sus siglas en inglés PICOT (Population, Intervention, comparison, outcome, time).

Por ejemplo, si tenemos un sitio de e-commerce donde queremos experimentar para lograr mayor conversión (visitantes que terminando comprando en el sitio)  generando cambios la visualización de nuestro “anaquel virtual”. Para esto activaremos 2 anaqueles, el actual y el nuevo.  La hipótesis nula (H0) sería que las personas que vean el nuevo aparador virtual en nuestro sitio de e-commerce no tendrán mayor conversión comparados con los que vean el aparador actual. Por otro lado la hipótesis alternativa (H1) establece que los visitantes al sitio de e-commerce que vean el nuevo anaquel tendrán tasas de conversión más alta que  quienes vean el aparador actual.

Una vez concluido el ejercicio de formular hipótesis pasamos a generar muestras aleatorias. Buscaremos que las muestras sean balanceadas, donde ningún segmento este sobre-representado (usuarios que entran de móvil vs. usuarios que entran desde ordenador de escritorio).  Después será estimar el tamaño correcto de los grupos. Existen distintos métodos estadísticos para el cumplimiento de estas pruebas que puedes revisar como clustering, ICT o aplicar random a variables en R o Python. Claro, después de esto se recomienda validar que las distribuciones sean normales para comprobar aleatoriedad.

Finalmente la etapa más crítica será la de medición. Donde desde muchos ángulos tendremos que pensar bajo qué criterios evaluar el experimento. Considerar todas las excepciones o pormenores. En seguimiento al ejemplo del e-commerce: Grupos de edad relacionadas a la conversión, medios de pago, tiempos de entrega, entre otros para verdaderamente concluir el caso de éxito

Conclusión

Normalmente cuando concluimos accionables sólo con información descriptiva nos vemos limitados para llegar a conclusiones globales. En el negocio, a veces le invertimos a una prueba 3 semanas para una decisión que podría tener impacto sobre más de $1M o la existencia misma del negocio. Seguir los pasos del método de A/B testing te ayudará para reportar si una iniciativa es o no exitosa. Te recomendamos asesorarte con expertos para manejar adecuadamente los datos y sobre todo generar métricas que puedan abrir la conversación de cómo mejorar las iniciativas. Y así, finalmente, poder calcular un valor como retorno de inversión con una consideración de errores robusta.

Platica con nosotros y contáctanos en ventas@datlas.mx o en nuestro sitio web mediante el marketplace: https://www.datlas.mx/marketplace/

Fuentes:

Clustering para generar segmentos de mercado – Datlas Research

Como lo platicamos en “La historia de las tecnologías de información computacional” desde que el poder de cómputo ha incrementado hemos buscado formas de generar análisis más completos y asertivos para nuestros casos de estudio.

Datlas_barra_suscribir

Uno de ellos es el análisis de clúster que es una técnica estadística multivariante cuyo objetivo es formar grupos de elementos homogéneos o similares que al mismo tiempo sean heterogéneos o distintos entre sí. ¿En español y negocios? Hay casos en donde generar una estrategia para cada cliente puede ser costoso, pero si agrupamos a estos clientes en segmentos podemos impactar a grupos similares con estrategias puntuales.

En esta columna explicaremos un caso de ejemplo de clustering para generar segmentos de clientes. Los datos que revisaremos vienen de encuestas levantadas con visitantes al festival Luztopia. (Si te interesan sólo los resultados favor de pasar al final de la columna). El objetivo identificar segmentos de asistentes específicos al festival para la ideación y generación de mejores promociones el próximo año.

El pase de diapositivas requiere JavaScript.

Para ser justos hay que explicar que existen distintos tipos de análisis para generar estas agrupaciones o clústers. Los dos grandes grupos son: No jerárquicos y jerárquicos. En este caso en particular usaremos uno de los métodos  no jerarquicos. Lo que quiere decir que un clúster generado no depende de otro clúster, son independientes.  Dentro de los no  jerarquicos utilizaremos los asociados al algoritmo “k-means”, que está dentro de la familia de los no jerárquicos. Este algoritmo usa de inicio medias aribtrarias y, mediante pruebas sucesivas, va ajustando el valor de la misma. La idea es no ponernos más técnicos, pero si te interesa conocer más a detalle te recomendamos revisar la p.23 de este documento. En pocas palabras k-means nos apoyará ensamblando clústers de perfiles que sean similares entre sí, pero a la vez diferentes entre cada grupo.

BASE DE DATOS

La información que revisaremos son un par de encuestas que incluyen datos como los siguientes:

Datlas_blog_clustering2

En concreto usaremos para armar los clústers las variables numéricas, tales como: Edad de personas que respondieron, tamaño de su grupo, cantidad de menores de 18 en el grupo, gasto en cena, gasto en productos dentro del recorrido, gasto total estimado y tiempo de estancia en el evento. Para quienes han analizado datos similares ya se podrán imaginar el tipo de respuestas que podremos generar: ¿Cuáles son los perfiles que más visitan? ¿Qué perfiles gastan más en su recorrido? ¿Habrá relación entre los visitantes que van con niños y su compra en cenas? ¿Extender el recorrido en tiempo haría que las personas consuman más cenas? Entre otros.

Este es el tipo de respuestas que generamos en los reportes que trabajamos en Datlas, sin embargo para fines de esta columna nos ubicaremos en el ejercicio de clústers buscando generar segmentos para los cuales podamos generar nuevas promociones.

MÉTODO

Un paso que algunos analistas descuidan es el proceso de “normalizar” datos. Una vez que empiezas por el camino de #machinelearning va a ser un paso que será muy común.  “Escalar” es un proceso de redimensión de variables para que estas se encuentren entre rangos de -5 a 5, por ejemplo. Este proceso ayuda a centrar los datos alrededor de la media.  Estos métodos tienen área de oportunidad cuando tenemos anomalías, pero en este caso dado la distribución de las variables hacía sentido escalar. A continuación un contraste del proceso.

El pase de diapositivas requiere JavaScript.

A partir de este proceso generamos una matriz de distancia entre las variables. Esto nos indica en rojo los registros de variables, en este caso visitantes a Luztopia, que son más distintos en perfiles y hábitos de consumo. Aunque realmente es complicado leerlo así. Por lo mismo es un paso intermedio

Datlas_matriz_Distancia_Cluster

Un siguiente paso es hacer una primera iteración de clústers. En esta ocasión supervisamos al algoritmo para que nos entregue de regreso 4 clústers. Cada punto que vemos en la gráfica es una encuesta respondida por la muestra de visitantes que estamos evaluando. En el clúster 1, por ejemplo, pudieran ser todos los visitantes que asistieron con niños a Luztopia. Eso genera una diferenciación tan crítica, que separa este clúster de los demás. Sin embargo los otros clústers se traslapan.

Datlas_ClusterPlot_4

Lo ideal es que el traslape sea mínimo o nulo. En este sentido podemos retar la cantidad de clústers que le pedimos al sistema generar. Para esto podemos usar un proceso que nos recomienda la cantidad de clúster óptimos.

Datlas_optimal_Clusters

De acuerdo a este proceso 2 son los números ideales y óptimos de clústers. También lo serían 5 ó 6, pero en realidad manejar estrategias de negocio para tantos grupos puede ser complicado. Por esta razón seleccionamos 2 como caso de uso.

Datlas_ClusterPlot_2

Finalmente, para poner en práctica nuevas estrategias de negocios, podemos identificar cuáles son las medias de cada una de las variables, cómo contrastan los clústers y algo que recomendamos es generar “avatars” o “buyers personas” que permitan comunicar hacia dentro de la organización la manera de trabajar.

TESTIMONIO

Hasta aqui la columna de hoy. Te compartimos finalmente el testimonio de nuestra colaboración con el “Clúster de Turismo NL” donde usamos técnicas como estas para generar distintos entendimientos del festival Luztopia. Además puedes revisar el podcast que grabamos con ellos si te interesa “Analitica en sector Turismo”.

 

Si te interesa conocer y contratar este tipo de servicios de “Clustering sobre resultados de encuestas o investigaciones para generar segmentos y seleccionar los mejores mensajes para tu mercado” te recomendamos visitar nuestro marketplace y solicitar una llamada de orientación. Contáctanos también en ventas@datlas.mx

Datlas_barra_suscribir

Saludos

Equipo @DatlasMX

– Keep it weird-

 

Estrategia “Go-To-Market” en un mundo de datos – Datlas Research

Las mayoría de las facultades y universidades de negocios han impartido sus cursos durante los últimos 20 años usando métodos de caso , dando fundamentos económicos, financieros y marketeros. Escuchamos macroeconomía, microeconómia, contabilidad de costos, balances generales, fundamentos de Porter, matriz de Ansoff y pirámide de Maslow por mencionar algunos de los indices de estas clases.

Datlas_barra_suscribir

Pero ¿Te has preguntado si estos métodos son vigentes en un contexto de analítica avanzada de datos? De antemano probablemente si lo serán… pero no hay mucha pista de cómo generar aplicaciones correctas o adecuaciones de estos en un mundo de Big Data y analítica avanzada a la planeación en negocios. En esta columna hablaremos de estrategias y algunas propuestas de modificaciones a los métodos tradicionales par adaptarnos a un mundo más moderno. Usaremos de ejemplo nuestro caso, en Datlas, y algunas otras startups y/o empresas de tecnología que han generado nuevos ecosistemas de negocios.

¿Qué es una estrategia Go-To-Market (GTM)?

Mientras una estrategia de marketing es un plan de largo plazo donde se establecen fundamentos de una compañía como principios, reglas y metas en los mensajes que se comparten a perfiles de consumidores determinados, Go-To-Market es de corto plazo. Es un plan donde paso a paso se establece un mapa de lanzamiento de un nuevo producto, servicio o expansión.

Mientras los recursos son escasos, la competencia abundante y los planes de mejora continua son constantes en las organizaciones es necesario generar un plan que permita ser preventivos y desarrollar métricas para identificar si nuestro desarrollo es exitoso o un fracaso.

 

El pase de diapositivas requiere JavaScript.

Propósito de GTM

  • Clarifica porqué estás lanzando un nuevo producto ¿Para quién es? ¿Cómo vas a contactar y comprometer nuevos consumidores?
  • Te fuerza a diseñar una experiencia de consumo ¿Qué problemas podrían tener los clientes? ¿Cómo los deleito? ¿Cómo me recomendarían?
  • Es un lenguaje común en tu organización o equipo. Cualquier nueva idea se sostiene o aporta a alguno de los pilares de una estrategia más grande: Go-To-Market
  • Te orienta a definir los KPI de éxito, si te interesa conocer más de este tema revisa esta columna

5 etapas a considerar en una Go-To-Market Strategy

1) Identificar el contexto competitivo

Existen muchos marcos de trabajo para GTM, en realidad algunas invitan a plantear hasta más de 100 preguntas para un lanzamiento. Con la experiencia, podemos decirle que un punto de partida pudiera ser una alteración de la matriz de  Ansoff.

Esta herramienta nos ayuda a identificar si nuestro nuevo lanzamiento va dirigido a un mercado nuevo o existente. Así mismo si el mercado al que vamos a destinar esta innovación ya existe o no existe para nuestra organización. A partir de ello se establecen un par de acciones sobre la cuál se puede desarrollar un plan completo: Penetrar un mercado existente, desarrollar nuevos productos o diversificación.

El pase de diapositivas requiere JavaScript.

Un spin-off o alteración del modelo también podría cuestionar sobre cómo este nuevo lanzamiento de producto-servicio afecta al ecosistema. Y con esto nos referimos a que podríamos pensar cómo Google o Apple analizaría algún nuevo lanzamiento. Por ejemplo, Google Home, asistente virtual que ejecuta tareas, es un nuevo canal de contacto con el ecosistema de Google. Desde ahí puedo interactuar con el mercado de apps, con los motores de búsqueda en Google, sus métodos de págo, entre otros.

En una época donde las organizaciones ya no sólo crean productos o mercados… ahora buscan ensamblar “ecosistemas” competitivos es importante en un inicio de nuestra estrategia GTM identificar cómo estamos jugando en estas 3 dimensiones.

2) Investigar y planificar

Generalmente los GTM justifican una inyección de inversión en tiempo o dinero a un proyecto. Para esto es importante poder presentar un plan claro y bien investigado alrededor del problema que vamos a resolver con nuestro nuevo lanzamiento.

Resolver preguntas como ¿Cuál es el impacto? ¿Cuál es la molestía que tiene mi mercado con las soluciones actuales? ¿Cómo se ve y piensa la persona que me compraría? ¿En qué zonas geográficas los puedo encontrar? entre otras son importantes

Para esto recomendamos el marco de trabajo de “Design Thinking” , los 3 circulos donde analizamos: Deseabilidad, Factibilidad y Viabilidad de nuestro proyecto.

Datlas_DesignThinking_v2

En general, con el uso de datos y análisis adecuado, esto nos ayuda a mapear los costos, potenciales ingresos y sobre todo el apetito del consumidor para diseñar la experiencia ideal de consumo.

Te puede interesar nuestro podcast de cómo monitorear tendencias.

3) Desarrollar un mapa de ruta de producto

Los proyectos ponen a prueba nuestra capacidad de administrar personas, recursos y tiempos. Un mapa de ruta de producto nos da una visualización constante sobre la salud del proyecto. Al mismo tiempo plasma los “acuerdos” en tiempos a los que se llega con los participantes del equipo y las fechas compromisos.

Datlas_product-roadmap-example2

4) Desarrollar una estrategia de marketing

De manera más específica que en el paso 2) en esta etapa profundizaremos en temas de Precio, Producto, Plaza, Promoción, Personas, Procesos  y posicionamiento. Justamente nos referimos a las 7ps de desarrollo y retención de clientes.

La sección más motivante y donde ocupamos equipos multidisciplinarios es el desarrollar tu avatar o perfil de comprador. Tratar de pensar qué edad tiene, a qué se dedica, qué problemas tiene, cómo los resuelve hoy y cómo le gustaría resolverlo.

Los trabajos de encuestas  y síntesis de nuestra investigación del paso 1) son útiles. Siempre pensando que nos van a ayudar en nuestra estrategia de marketing. Si quieres saber más sobre cómo realizar encuestas y pruebas de concepto te puede interesar nuestro podcast sobre esto.

Desarrollar estrategia de precios, resolver si tu modelo será de suscripción, pago bajo demanda, pago por uso de servicio, entre muchas opciones que existen.

Datlas_7ps

5) Asegurar una experiencia de consumidor fuerte y con datos para retroalimentar

Otra etapa importante es cómo asegurar una experiencia del consumidor saludable y que además genere los suficientes datos para permitirnos mejorar constantemente.

En este sentido, por ejemplo, en una compra de tienda en línea cuántos contactos tendremos con el consumidor. Cuando visita la tienda, cuando llena su carrito, cuando paga, cuando le enviamos su producto, cuando lo recibe y cuando nos da su opinión sobre lo que recibe. Pero qué pasaría si agregamos una promoción ¿Cómo hacemos que se entere? o si cierta transacción está ayudando a una ONG ¿Cómo se lo comunicaríamos?

Así como en el comercio electrónico, en cualquier tipo de transacción y consumo de nuestros productos hay que diseñar la experiencia.

Datlas_DiseñoDeExperiencias

Conclusión

Si bien muchos detalles quedaron abiertos a la imaginación de cada gestor de iniciativas, la estrategia Go-To-Market ofrece distintos marcos de trabajo para maximizar la probabilidad de éxito de nuestras iniciativas.

Se deben de considerar 3 dimensiones: Cómo está la competencia relativa a nuestro producto, qué tan desarrollado está el mercado y a la construcción de qué ecosistema estamos aportando.

Finalmente, si se trabaja en equipo, es recomendable que cada una de las etapas venga con sus entregables, KPIs de impacto y datos para retroalimentar mientras el proceso está en curso.

Datlas_GTM_Model_Delivery

Gracias por leernos, recuerda compartir y si te interesan este tipo de servicios nos puedes contactar en direccion@datlas.mx

Saludos

-Keep it weird-

Equipo Datlas

Datlas_barra_suscribir

Fuentes

Ver en Medium.com

Categorizando las zonas con más choques y siniestros en Nuevo León – Datlas Research

Cuarentena por Coronavirus y Covid-19… y el placer más grande que algunos tuvimos fue la oportunidad de visitar el supermercado, la única salida obligada, con muy poco tráfico vehicular en la ciudad.  Menos tráfico está relacionado con menos probabilidad de choques y siniestros así que nos encontramos con vialidades bastante fluidas.

Datlas_barra_suscribir

Al tener un periodo de más tranquilidad en los flujos y el tránsito social nuevas iniciativas del gobierno y el sector privado han emergido. Por ejemplo,  lanzamientos de ciclovías, arreglar vías principales y carreteras de algunos municipios y ,por qué no, enfocarse mejorar el tránsito en las rutas donde más choques se registran. En esta columna utilizamos históricos de 3 años de choques para Nuevo León para identificar y “categorizar” las zonas de más choques en el Estado. Los ejemplos que veamos son aplicables a nivel nacional y es una propuesta de enfoque de análisis para gobiernos y aseguradoras.

¿Cómo funciona?

El análisis comienza con una base de datos, similar a la que usamos en 3 mitos y realidades de choques en NL, pero enfocado en un registro de choques por ubicación con detalles del tipo y modelos  de vehículos. En tipo, el detalle que tenemos son choques de auto, camión, camión ligero y motocicleta. En modelos tenemos choques de autos desde 1950 hasta el 2019.

Para fines prácticos, generamos 2 variables dicótomas o dummy. Una que señale con 1 cuando el choque haya sido de auto y 0 cualquier otro tipo de vehículo. Segundo una variable en donde si el choque fue por un modelo reciente de auto, entre el 2015 y 2019, y 0 siendo cualquier otro modelo menor o igual al 2014.

¿Cuáles podrían ser los pasos a seguir en un análisis

Para este ejercicio preferimos usar nuestra herramienta de mapas que, de manera más clara que un archivo de excel, nos permite identificar de inmediato el lugar de los hechos. De esa manera podemos construir los siguientes journeys:

1) Enfocarnos en las zonas de alta cantidad

El pase de diapositivas requiere JavaScript.

La base de datos original tiene los choques por coordenada, sin embargo hicimos un trabajo de agregación de datos ubicando el acumulado de choques dentro de una cuadrícula en todo el mapa de Nuevo León. Cada punto representa una geometría con un área de 5km cuadrados en donde ocurrieron los choques. Si visualizamos en un mapa esta información con gráficos de “burbujas” podremos identificar en que zona de la ciudad se han acumulado la mayor cantidad de choques.

33% de los choques en el Estado han ocurrido en 25 kilómetros cuadrados.

Datlas_Covid19_Choques

Datlas_blog_choques_casos_criticos

2) “Categorización” de todos los choques en modelos de auto recientes

El pase de diapositivas requiere JavaScript.

Si quisiéramos enfocarnos en las zonas donde hay más choques acumulados podemos usar la gráfica de puntos de dispersión encima del mapa. Preferimos la geometría tipo cuadros para poder identificar en rojo las zonas de mayor enfoque. Además generamos una variable de proporción de choques de modelos recientes. De esta manera podemos localizar de maneras inmediata los siniestros de casos de 2015 a la fecha.

3) “Categorización” de modelos más siniestrados por regiones

El pase de diapositivas requiere JavaScript.

Finalmente podemos aumentar la resolución convirtiendo la variable modelo en numérica y promediando el año de los vehículos que más han chocado en los últimos 3 años.  En este caso detectando las zonas donde chocan los autos de años más recientes. Sorprendentemente no se percibe que exista una relación entre nivel socieconómico y año de los autos chocados.

Video de navegación

Este tipo de iniciativas y plataformas podrían ser utilizadas por aseguradoras para planificar sus estaciones temporales donde envíen a sus flotillas para que puedan llegar a los choques con menor tiempo. Elevando así el nivel de servicio. Por otro lado podrían mapear cambiar los múltiplos en sus pólizas considerando si las zonas donde transita habitualmente un asegurado son de alto o bajo riesgo de choques.

En el caso de gobiernos, podrían evaluar adecuar señalizaciones de tránsito en las zonas de mayor riesgo así como mantener cerca a oficiales de tránsitos cuando ocurran este tipo de percances.

Datlas_barra_suscribir

Hasta aquí la columna de hoy, gracias por leer y si te interesó no dudes en difundirla con tus contactos y aseguradoras. Te recomendamos también visitar nuestro podcast “Café de Datos”donde estamos publicando semanalmente capítulos donde hablamos de analítica y estrategias de datos.

Saludos

Equipo Datlas

– Keep it weird –

 

 

Ranking de Dashboards y Reportes por COVID-19 – Datlas Research

¿Cómo va avanzando tu análisis de datos en tu cuarentena? ¿Qué tal la numeralia? ¿Nuevos Datos? ¿Algunos nuevos descubrimientos? En esta ocasión nos toca compartir un poco a nosotros de las excelentes respuestas de la comunidad “datera”. En esta columna enlistaremos 9 dashboards/reportes usados para difundir información alrededor del COVID-19

Datlas_barra_suscribir

Algunos requisitos para que pueda calificar un  dashboards COVID-19 en el ranking es que 1) Tienen que ser actualizados al menos una vez al día, 2) Las visualizaciones integran datos de cantidad de personas infectadas y fallecidas y 3) Pueden representar cualquier cobertura geográfica. Los criterios para el ranking fueron: Atractivo de visualización, Claridad de la información e información fidedigna. Algunos “plus” es que tengan mapas y que que haya un poco de análisis dentro del tablero.

9) Facebook – Harvard

Datlas_Facebook_Harvard

Este mapa es parte del programa “Data for Good”. Se basa en información desarrollada por la Red de datos de movilidad COVID-19, coordinada por “Direct Relief” e investigadores de Harvard T.H. Chan School of Public Health, utilizando datos agregados de movimiento de población del programa Data for Good de Facebook.

  • Pros: Mensaje claro, aprovechamiento de datos de movilidas
  • Cons: Sólo USA, complejo de llegar a conclusiones, resolución a nivel Estatal

Liga: https://www.covid19mobility.org/dashboards/facebook-data-for-good/

8) Google Mobility Changes

Datlas_Google_MobilityChanges

Google liberó datos de movilidad para todo el mundo. Si quieres conocer el detalle de la iniciativa puedes revisar nuestro blog sobre el tema.

  • Pros: Información sintetizada con claridad, cobertura mundial donde Google opera, con el tiempo especificaron a nivel Estatal, al menos para México fue así
  • Cons: Son reportes no dashboards, actualización semanal no diaria, la información es en general de tráfico pero no podemos diferenciar entre tráfico a pie o en auto y no cruzan o analizan versus casos de Covid-19, una chamba que nos dejan a todos los analistas para hacerlo por separado

Liga: https://www.google.com/covid19/mobility/

7) Apple Movement

Datlas_Apple_Movement

Similar a Google, la empresa Apple liberó datos de movilidad generado por dispositivos que utilizan sistemas operativos IOS. La resolución dividió el tráfico entre coche, a pie y transporte público. También fueron los primeros que habilitaron la descarga CSV.

  • Pros: Diferenciación por tipo de tráfico, datos de movilidad actualizados de manera recurrente, descarga en CSV con detalle de información histórica
  • Cons: No hay cruce con datos de covid-19, no sugiere conclusiones y se queda a nivel país. al menos para México así funciona

Liga: https://www.apple.com/covid19/mobility

6) Facebook – Carnegie Mellon

Datlas_Facebook_CarnegieMellon

Los equipos de Facebook son variados y se dieron el lujo de trabajar con distintos laboratorios de datos de las mejores universidades del mundo. En este Caso, con Carnegie Mellon, lograron una mejor dinámica que el mapa de Harvard.

  • Pros: Selección dinámica de revisión por día desde el Dashboards, selección entre múltiples indicadores del Covid, bastante documentación sobre cada indicador, cruce de información
  • Cons: Sólo para Estados Unidos y la máxima resolución de los datos espaciales es nivel Estado

Liga: https://covid-survey.dataforgood.fb.com/#3/35/-75

5) Covid Visualizer

Datlas_Covid_Visualizer

Si hablamos de visualizaciones atractivas tenemos que voltear a ver el globo generado por el portal “Covid Visualizer” que realmente dedicó un dominio en internet exclusivamemente para este tema. Se aprecia el planeta tierra y es muy sencillo navegar entre países

  • Pros: Navegación sencilla y rápida, datos agregados con los distintos estados con los que se está midiendo el COVID-19 y actualización cada par de horas
  • Cons: Resolución a nivel País, no se puede jugar con fechas, es decir sólo se ven datos agregados a la fecha de consulta

Liga: https://www.covidvisualizer.com/

4) Our World in Data

Datlas_OurWorldInData_

Esta es la visualización que como Datlas más hemos usado en nuestros webinars y conferencias para sensibilizar a las audiencias la velocidad a la que los casos del COVID-19 crecen en relación a China

  • Pro: El manejo temporal es excelente , se pueden generar animaciones dentro de la herramienta, filtrar para cualquier país, la descarga en CSV es muy ágil y sencilla
  • Cons: Solamente se miden casos confirmados, no otro indicadores necesariamente, un par de veces nos encontramos “otros datos” en relación a la prensa nacional (caso México) y podrían usar colores más contrastantes que te ayuden a diferenciar mejor los países en el análisis

Liga: https://ourworldindata.org/grapher/covid-confirmed-cases-since-100th-case?country=ARG+BOL+BRA+CHL+COL+ECU+MEX+PER+URY+VEN

3) New York

Datlas_NYork_Dashboard

Este es otro de los casos de dashboards animados alrededor del tiempo

  • Pros: Brinda un enfoque muy claro a los países con más casos afectados, se miden 3 tipos de indicadores, entre ellos dónde hay más recuperados
  • Cons: Resolución a nivel país, sólo se usa un color en los gráficos y las dimensiones no están bien actualizadas para la cantidad de casos a la fecha

Liga: https://www.nbcnewyork.com/news/national-international/map-watch-the-coronavirus-cases-spread-across-the-world/2303276/

2) WHO: Organización mundial de salud

El pase de diapositivas requiere JavaScript.

 

Una de las obras de arte en lo que visualizaciones refiere es este tablero que es referencia mundial sobre los casos del Covid-19. Lo lamentable es que los datos han sido muy cuestionados

  • Pros: Variedad de visualizaciones, gráficos y mapas, filtros entre indicadores, contraste por regiones geo-políticas, se puede descargar datos en CSV y los colores muy bien implementados
  • Cons: No aplica alguno según los criterios establecidos. Deseable es que los usuarios pudieramos subir de resolución a nivel Estatal por país

Liga: https://covid19.who.int/

1) Johns Hopkins Covid

Datlas_Johns_Hopkins_Covid19_

Finalmente la joya de la corona, el ARCGIS que por primera vez nos dió una explicación del COVID-19 desde que se llamaba Coronavirus.

  • Pros: Cuenta con más indicadores que cualquier otro dashboards, casi cada mes le añaden nuevas visualizaciones e integra una sección de tendencias críticas que llevan a nuevos análisis y hallazgos
  • Cons: Sería genial si pudieramos ver estos datos a nivel Estado o delegación. También de alguna manera integrar las conclusiones de los análisis de movilidad de grandes compañías como Facebook, Apple o Google

Liga: https://coronavirus.jhu.edu/map.html

Datlas_barra_suscribir

Hasta aqui nuestro ranking ¿Cuál es tu orden? ¿Cómo calificarías? Si te sigue interesando qué otros nuevos aplicativos de analítica pueden impulsarse por el COVID-19 te invitamos a conocer nuestro mapa en https://datlas.mx/COVID-19/

Deja tus comentarios y comparte con tus colegas que son amantes de los Dashboards.

Saludos

Equipo Datlas

-Keep it weird-