E-commerce: Digitalización de anaqueles y analítica de datos

A inicios de abril del 2020, en pleno comienzo de la pandemia mundial del COVID-19 escribimos una columna introductoria al tema de comercio electrónico donde establecimos un plan muy sencillo para iniciar tu e-commerce, atendiendo las típicas dudas de inicio como ¿es mejor usar un canal existente o crear el mío? ¿cuál plataforma es la más indicada? Y ¿Dónde queda la analítica? Te invitamos a echarle un vistazo si no has tenido oportunidad, porque justo el día de hoy estaremos profundizando en este tema para dar consejos más puntuales respecto a la digitalización de los anaqueles y la recolección de datos dentro de estas aplicaciones.

free_Suscriber

El hilo conductor de la columna de hoy será el caso de uno de nuestros clientes, Patricio, que el año pasado decidió llevar su negocio físico al mundo digital. Un negocio familiar con varias sucursales a lo largo de Nuevo León y con un reconocimiento de marca en toda la zona norte del país. El reto en ese momento era ¿cómo continuar con el crecimiento que había tenido durante los últimos años? y el entonces nuevo director general puso la mira en el canal digital. Siendo así comenzamos la aventura. El gran problema de inicio es que los emprendedores o negocios creen que incursionar en el mundo digital es tan sencillo como subir una foto a sus redes sociales, o incluso están en una posición tan cómoda en términos de recursos que destinan un presupuesto directamente a la ejecución sin haber realizado una planeación adecuada. La digitalización de los anaqueles trae consigo un esfuerzo equivalente a montar una nueva sucursal física, aunque con sus retos particulares. Así que el viaje comenzó con la planeación.

Planeación

Existen distintas metodologías para planeación estratégica y gestión de proyectos. En nuestro caso, como se han dado cuenta, preferimos las metodologías agiles. Trabajando con Patricio no fue la excepción. Nos sentamos un día y planteamos los requisitos necesarios para poder generar un producto mínimo viable (MVP por sus siglas en inglés) de la tienda en línea. Las características que tomamos en cuenta para plantear esta primera fase, que denominamos prueba de concepto, fueron: productos, ticket promedio esperado e incentivos de compra, cobertura geográfica inicial y el grupo de control para prueba.

Al hablar de productos es importante destacar que este era un negocio en marcha, con un catalogo de más de 500 SKUs por lo que hacer una selección de productos inicial para digitalizar nuestro anaquel es importante. En este caso decidimos catalogar el top 10 de productos más vendidos. Otro factor clave en la digitalización de anaqueles es precisamente la presentación. Todo esto incluye detalles como: las fotografías, las descripciones de cada producto, así como detalles de logística, entrega, etc. Pero en este caso no vamos a profundizar tanto en los accionables operativos. Una vez definidos los productos pasamos a establecer un ticket promedio y un incentivo de compra, esta parte es crucial para nosotros ya que es la manera en la que el cliente obtiene un retorno “inmediato”. Si bien este retorno no es propiamente un ingreso marginal, lo que buscamos con esto es la validación en el mercado, es decir, probar que hay apetito por los productos y que existe un mercado dispuesto a consumir por medio de este nuevo canal en el que estamos incursionando. En este caso, por ejemplo, establecimos dar un incentivo de envío gratis a aquellas personas cuyo ticket promedio fuera de $300 MXN o más. Para el tema de cobertura geográfica se definió iniciar con el municipio de Monterrey, que era la zona más conocida y con mayor control para Pato y su equipo. Finalmente, se definió un grupo de control, es decir, un grupo de personas con las que pudiéramos tener un contacto más directo durante esta primera fase de validación para poder obtener retroalimentación acerca de todo el viaje del usuario y establecer, desde inicio, las adecuaciones o mejoras necesarias para poder asegurar la satisfacción del cliente a lo largo de su experiencia de compra por medio de este nuevo canal digital.

datlas_mx_ecommerce_anaquel_digital

Ahora bien, todos estos detalles de la planeación abonan directamente a responder las preguntas planteadas en la entrada anterior acerca de la selección del canal y la plataforma especifica. Muchos negocios encuentran que sus soluciones pertenecen a un nicho tan especifico de mercado que prefieren montar su propio canal digital, en lugar de adherirse a uno existente. De igual forma, hay empresas que se decantan por una cierta plataforma de e-commerce ya que les agrada más la interfaz con la que pueden gestionar su catálogo, hacer cambios, activar incentivos de compra, etc. Es aquí en donde radica realmente la importancia de la planeación ante un proyecto de comercio electrónico.

De prueba de concepto a prueba piloto

La siguiente “parada” del viaje fue denominada prueba piloto. Básicamente tomamos la tienda en su modo MVP y fuimos escalando. El primer paso natural fue incluir nuevos productos o SKUs, pasando de 10 a más 300 productos de una semana a otra. Pero lo más interesante en esta fase fue integrar las sucursales, los puntos de venta físicos, que ya tenia el negocio como puntos de entrega y recolección de los productos adquiridos por medio de la tienda en línea. ¿Suena familiar el pick & go? Justo fue esa misma lógica la que tomamos para validar en esta segunda etapa. Sin duda las circunstancias de cuarentena y distanciamiento hoy hacen más necesaria y lógica una opción de este estilo, pero en aquellas condiciones era necesario validarlo y lo logramos de forma exitosa.

Asimismo, en esta etapa entramos al tema de analítica de datos. Sin duda desde la fase inicial de MVP establecimos los puntos de contacto de los clientes a lo largo de todo el viaje de compra y los datos que serían necesarios y posibles de recolectar de ellos para poder realizar la transacción de forma satisfactoria. En la fase anterior estábamos trabajando con un grupo de control, poca muestra y contacto directo, pero llegados a este punto se abrió un poco más el panorama y empezamos a registrar transacciones de manera más abundante. Siendo así fue necesario adentrarnos en esta recolección de datos para poder establecer algunas iniciativas de analítica.

datlas_mx_ecommerce_analytics

Uno de los ejemplos que incluso mencionamos en la columna anterior es la parte de análisis de categorías. Tomando este caso lo que hicimos fue, establecer dentro del escalamiento del catalogo de productos las categorías que iban a regir el orden de dicho catálogo, es decir, si fuera ropa seria algo así como: ropa de hombre, ropa de mujer, ropa de niños, ropa de bebe. De la misma manera establecimos alrededor de 5 categorías para los productos del negocio de Patricio, de tal suerte que podíamos tener lectura desde la plataforma de e-commerce y Google analytics, sobre el tráfico de personas que estaba viendo e interactuando dentro de cada categoría, así como la cantidad de transacciones de productos que pertenecían a esa misma categoría. Con todo esto, fuimos capaces de descifrar cuales eran las categorías más “importantes” para los clientes en línea y se generaron mejoras como: posicionamiento dentro del anaquel en digital, mejores incentivos de compra, recomendaciones o sugerencias dentro de esa categoría, etc.

Lanzamiento oficial, expansión y gestión continua

Finalmente, ya teníamos una tienda en línea funcional, con un catalogo de productos robusto, un anaquel digital atractivo y un sistema de recolección de datos capaz de generar analíticos e inteligencia accionable para capitalización directa sobre ventas. Llegados a este punto las actividades claves fueron ampliar la cobertura geográfica de servicio, es decir, integrar entregas en nuevos municipios, estados, etc. Y comenzar a gestionar la creación del CRM (Customer Relationship Manager, por sus siglas en inglés). Este último punto resulta ser clave para el crecimiento del negocio en línea ya que, haciendo la analogía con el mundo físico, el CRM es lo que te permite conocer a tu cliente y entender detalles como ¿de dónde vino? ¿qué ha comprado? ¿con qué frecuencia? Etc. Detalles que al final del día son importantes para generar estrategias de recomendación, descuentos o incluso nuevos lanzamientos. Pero de momento no tocaremos el tema ya que justo tendremos una columna completa especialmente dedicada a la construcción y gestión de CRM muy pronto, mantente atento para que no te la pierdas.

Finalmente, si estas incursionando en el mundo digital o ya estas dentro de él no olvides que tenemos el Data Playbook Vol. II una guía para construir una estrategia de big data para tu negocio. ¡Obtenlo completamente GRATIS en nuestro Marketplace!

Datlas_Playbook_prelaunch

No olvides seguirnos en redes sociales y contarnos tu experiencia

@DatlasMX

Clustering para generar segmentos de mercado – Datlas Research

Como lo platicamos en “La historia de las tecnologías de información computacional” desde que el poder de cómputo ha incrementado hemos buscado formas de generar análisis más completos y asertivos para nuestros casos de estudio.

Datlas_barra_suscribir

Uno de ellos es el análisis de clúster que es una técnica estadística multivariante cuyo objetivo es formar grupos de elementos homogéneos o similares que al mismo tiempo sean heterogéneos o distintos entre sí. ¿En español y negocios? Hay casos en donde generar una estrategia para cada cliente puede ser costoso, pero si agrupamos a estos clientes en segmentos podemos impactar a grupos similares con estrategias puntuales.

En esta columna explicaremos un caso de ejemplo de clustering para generar segmentos de clientes. Los datos que revisaremos vienen de encuestas levantadas con visitantes al festival Luztopia. (Si te interesan sólo los resultados favor de pasar al final de la columna). El objetivo identificar segmentos de asistentes específicos al festival para la ideación y generación de mejores promociones el próximo año.

El pase de diapositivas requiere JavaScript.

Para ser justos hay que explicar que existen distintos tipos de análisis para generar estas agrupaciones o clústers. Los dos grandes grupos son: No jerárquicos y jerárquicos. En este caso en particular usaremos uno de los métodos  no jerarquicos. Lo que quiere decir que un clúster generado no depende de otro clúster, son independientes.  Dentro de los no  jerarquicos utilizaremos los asociados al algoritmo “k-means”, que está dentro de la familia de los no jerárquicos. Este algoritmo usa de inicio medias aribtrarias y, mediante pruebas sucesivas, va ajustando el valor de la misma. La idea es no ponernos más técnicos, pero si te interesa conocer más a detalle te recomendamos revisar la p.23 de este documento. En pocas palabras k-means nos apoyará ensamblando clústers de perfiles que sean similares entre sí, pero a la vez diferentes entre cada grupo.

BASE DE DATOS

La información que revisaremos son un par de encuestas que incluyen datos como los siguientes:

Datlas_blog_clustering2

En concreto usaremos para armar los clústers las variables numéricas, tales como: Edad de personas que respondieron, tamaño de su grupo, cantidad de menores de 18 en el grupo, gasto en cena, gasto en productos dentro del recorrido, gasto total estimado y tiempo de estancia en el evento. Para quienes han analizado datos similares ya se podrán imaginar el tipo de respuestas que podremos generar: ¿Cuáles son los perfiles que más visitan? ¿Qué perfiles gastan más en su recorrido? ¿Habrá relación entre los visitantes que van con niños y su compra en cenas? ¿Extender el recorrido en tiempo haría que las personas consuman más cenas? Entre otros.

Este es el tipo de respuestas que generamos en los reportes que trabajamos en Datlas, sin embargo para fines de esta columna nos ubicaremos en el ejercicio de clústers buscando generar segmentos para los cuales podamos generar nuevas promociones.

MÉTODO

Un paso que algunos analistas descuidan es el proceso de “normalizar” datos. Una vez que empiezas por el camino de #machinelearning va a ser un paso que será muy común.  “Escalar” es un proceso de redimensión de variables para que estas se encuentren entre rangos de -5 a 5, por ejemplo. Este proceso ayuda a centrar los datos alrededor de la media.  Estos métodos tienen área de oportunidad cuando tenemos anomalías, pero en este caso dado la distribución de las variables hacía sentido escalar. A continuación un contraste del proceso.

El pase de diapositivas requiere JavaScript.

A partir de este proceso generamos una matriz de distancia entre las variables. Esto nos indica en rojo los registros de variables, en este caso visitantes a Luztopia, que son más distintos en perfiles y hábitos de consumo. Aunque realmente es complicado leerlo así. Por lo mismo es un paso intermedio

Datlas_matriz_Distancia_Cluster

Un siguiente paso es hacer una primera iteración de clústers. En esta ocasión supervisamos al algoritmo para que nos entregue de regreso 4 clústers. Cada punto que vemos en la gráfica es una encuesta respondida por la muestra de visitantes que estamos evaluando. En el clúster 1, por ejemplo, pudieran ser todos los visitantes que asistieron con niños a Luztopia. Eso genera una diferenciación tan crítica, que separa este clúster de los demás. Sin embargo los otros clústers se traslapan.

Datlas_ClusterPlot_4

Lo ideal es que el traslape sea mínimo o nulo. En este sentido podemos retar la cantidad de clústers que le pedimos al sistema generar. Para esto podemos usar un proceso que nos recomienda la cantidad de clúster óptimos.

Datlas_optimal_Clusters

De acuerdo a este proceso 2 son los números ideales y óptimos de clústers. También lo serían 5 ó 6, pero en realidad manejar estrategias de negocio para tantos grupos puede ser complicado. Por esta razón seleccionamos 2 como caso de uso.

Datlas_ClusterPlot_2

Finalmente, para poner en práctica nuevas estrategias de negocios, podemos identificar cuáles son las medias de cada una de las variables, cómo contrastan los clústers y algo que recomendamos es generar “avatars” o “buyers personas” que permitan comunicar hacia dentro de la organización la manera de trabajar.

TESTIMONIO

Hasta aqui la columna de hoy. Te compartimos finalmente el testimonio de nuestra colaboración con el “Clúster de Turismo NL” donde usamos técnicas como estas para generar distintos entendimientos del festival Luztopia. Además puedes revisar el podcast que grabamos con ellos si te interesa “Analitica en sector Turismo”.

 

Si te interesa conocer y contratar este tipo de servicios de “Clustering sobre resultados de encuestas o investigaciones para generar segmentos y seleccionar los mejores mensajes para tu mercado” te recomendamos visitar nuestro marketplace y solicitar una llamada de orientación. Contáctanos también en ventas@datlas.mx

Datlas_barra_suscribir

Saludos

Equipo @DatlasMX

– Keep it weird-

 

5 pasos para aprovechar los datos de tus puntos de venta y mejorar tus resultados

Hace apenas un par de años comenzamos a escuchar el famoso concepto de transformación digital en las empresas. Este concepto hace referencia al aprovechamiento y la inserción de tecnología y digitalización dentro de los procesos de negocios. Uno de los pilares más importantes dentro de esta transformación digital es el análisis de datos. En un contexto en donde los datos y la información son lo más abundante, la necesidad de aprovechar este gran bagaje de información para la toma de decisiones de negocios se ha vuelto crucial. En esta columna vamos a hablar de un sencillo proceso de 5 pasos con el que hemos apoyado a los negocios a aprovechar la generación de datos desde sus puntos de ventas para capitalizar accionables comerciales y operativos que han impactado directamente sus resultados de manera positiva.

free_Suscriber

Para comenzar es necesario un poco de contexto. Cuando hablamos de aprovechar la generación de datos existe un componente importante que responde a las condiciones actuales de los negocios: el volumen. Mientras hace unas décadas la disponibilidad de información se limitaba a un par de libros contables, hoy las empresas tienen la capacidad de consumir información externa y, sobre todo, de obtener y generar una cantidad sin precedentes de variables respecto a sus transacciones, clientes y procesos. Es precisamente aquí en donde se introduce el famoso concepto de Big Data. Sin duda hemos hablado de este concepto en entradas anteriores, pero nos gustaría citar una frase del CEO de BBVA Analytics, Fabien Girardin, que sintetiza muy bien las ventajas de este concepto diciendo: “Lo que es nuevo con el Big Data, es la cantidad de datos que nos permite entender el mundo de mejor manera, y cuando digo ‘el mundo’ me refiero a los clientes, empresas, y también como funciona la propia organización. Eso nos permite realmente medir y entender los procesos, intentar automatizarlos, y ayudar a la toma de decisiones de manera nueva”.

Ahora bien, veamos como es que estas técnicas de aprovechamiento de grandes cantidades de información se pueden capitalizar para tu negocio o la empresa donde laboras. La receta consta de 5 sencillos pasos que se ilustran de una manera magistral en la siguiente imagen:

datlas_mx_blog_data_to_wisdom

Paso #1: Los datos

La primera etapa tiene que ver precisamente con la materia prima, es decir, con los datos. Este es el punto de partida para poder derivar verdadera inteligencia. Al hablar de datos hay que tener claros dos puntos importantes: el primero de ellos es responder la pregunta ¿dónde se esconden los datos? Muchos de nuestros clientes al principio aseguran que la falta de análisis dentro de su negocio tiene su origen en la “falta de datos”, pero esto no es necesariamente real. Los puntos de venta son por excelencia grandes generadores de datos. Sin duda no son los únicos, por lo que es importante mapear el viaje completo del usuario para identificar los puntos de interacción (touch points, en inglés) en los que el cliente interactúa con el negocio y en donde podemos estar capturando información.

Tomemos como ejemplo una tienda en línea, que han visto una evolución significativa en estas circunstancias de cuarentena. Para hacerlo todavía más simple pensemos en una tienda en línea que vende artículos para bebes. En este caso, el usuario tiene un viaje que podemos simplificar: el usuario conoce la marca/productos, entra a la página web, interactúa con el catalogo de productos, selecciona los artículos que va a comprar, realiza la transacción y sale contento(a) a esperar la entrega de los artículos que adquirió. Tan solo en este simple “viaje” podemos encontrar que el punto de venta ha logrado capturar datos como: edad, sexo, email y teléfono del cliente; el canal de procedencia, el tiempo que dedico a cada sección de la página, donde hizo click, los productos que estuvo evaluando, los filtros que utilizó, los artículos relacionados directamente a aquellos que incluyó en su carrito de compra, el ticket promedio, el total de la transacción, la dirección a la que pidió que se enviaran sus productos y la información de su método de pago, entre otros muchos detalles.

datlas_mx_blog_data_sources_ecommerce

Ahora bien, la cantidad de datos es sin duda impresionante y nos permite realizar análisis más nutritivos, pero es importante cuidar el segundo punto que citábamos arriba: la estructura de los datos. ¿A qué nos referimos con la estructura? Imagina un negocio hace 50 años que tuviera cada transacción anotada en una libreta y tuviera que ponerse a buscar en los miles de libretas de los años pasados para encontrar cuantas veces el Sr. Godínez (su cliente más frecuente) ha comprado en los últimos 3 años. Me canse tan solo de escribirlo. He aquí el segundo punto medular cuando hablamos de datos. Es de suma importancia cuidar que los datos se almacenen con una cierta estructura que permita identificarlos, como el caso del cliente, con un identificador o un folio. Asimismo, es importante cuidar que las estructuras habiliten la conexión entre los datos generados desde distintos procesos o puntos de contacto del negocio con el cliente. Un ejemplo claro en el caso de la tienda en línea para bebes sería tener un catalogo de productos con SKUs y una base de datos de pedidos que integren los distintos SKUs que cada cliente incluye en sus pedidos. Y todo esto ¿para qué? Justo vamos a verlo en los siguientes pasos.

Paso #2: De datos a información (la transformación)

Una vez identificadas las fuentes de datos, sobre todo aquellos generados por el punto de ventas, pasamos a transformar esos datos en información. Cuando hablamos de transformar estos datos nos referimos a tomar la materia prima y comenzar a darle forma, comenzar a construir y descifrar la historia detrás de esos datos para poder derivar la inteligencia. Es justo en esta etapa cuando tomamos, por ejemplo, todos los datos referentes a los clientes y comenzamos a construir los perfiles o avatares. Con los datos de los productos podemos generar canastas, catálogos, familias o categorías y/o agrupaciones. Con los datos transaccionales se pueden generar reportes de resultados e indicadores. Lo importante en esta etapa es poder apalancar la estructura de datos anteriormente establecida para que la transformación de esos datos en información se pueda dar de una manera sistemática y automatizada.

datlas_mx_blog_data_information_ecommerce

Paso #3: Interconectar (integraciones)

Esta etapa se distingue por integrar a la narrativa, a la historia, las diferentes fuentes de información. Retomando el ejemplo de la tienda en línea para bebes y teniendo en cuenta que de la fase anterior obtuvimos perfiles de clientes, catálogos de productos y resultados transaccionales, podemos generar una narrativa completa en esta sección. Imaginemos que de la información anterior seleccionamos uno de los perfiles de cliente formado, ejemplo: Perfil A. Una vez seleccionado el perfil comenzamos a cruzar la información con los catálogos de productos y obtenemos una lectura de los productos más afines al perfil de cliente seleccionado. Todo esto a su vez lo integramos con la información transaccional de tal suerte que podemos construir una narrativa capaz de contar una historia como esta: “El perfil A representa a clientes mujeres de 28 a 34 años, que principalmente llegan desde redes sociales como Instagram, interesadas en productos consumibles como pañales y leche en polvo, generalmente comprando 3 artículos por pedido con un ticket promedio de $890 MXN”

datlas_mx_blog_ecommerce_customer_profile

Ahora bien, lo más importante en este punto no es poder contar la historia sino tomar esa historia para generar las preguntas o hipótesis adecuadas, es decir, tomando la narrativa del ejemplo anterior un buen análisis parte de preguntarse cosas como ¿existe alguna relación entre su edad y la afinidad por productos de marcas de alta gama? ¿Qué tan probable es que este perfil compre artículos que no sean propiamente para su bebe (regalos u obsequios)?

Paso #4: Insights (analíticos)

En esta etapa es importante partir de la definición de este famoso concepto de insights. Si bien es un término en inglés que difícilmente tiene una traducción directa al español, lo claro es que se puede definir como “el entendimiento de una causa específica y su efecto dentro de un contexto particular. Entender la naturaleza interna de las relaciones”. Basados en esta definición, este cuarto paso justo se trata de responder las preguntas planteadas en la etapa 3 y descifrar las causas y efectos de esas relaciones. Retomando el ejemplo anterior, para el caso de la relación entre edad y afinidad de marcas, podemos contarles que este cliente pudo analizar y concluir que las mamás jóvenes son más afines a marcas de alta gama porque su falta de experiencia prioriza la novedad y la mercadotecnia de las marcas de alta gama, mientras que las madres con mayor experiencia ya tienen conocimiento sobre las marcas que realmente son funcionales y priorizan su decisión de compra basadas en los atributos de confianza y usabilidad que otras marcas, no necesariamente de alta gama, les pueden proveer.

datlas_mx_blog_ecommerce_analytics

Paso #5: Inteligencia (accionables)

Después del esfuerzo de las cuatro etapas anteriores llegamos a la parte que realmente impacta los resultados: las acciones. El catalizador de los análisis que las etapas anteriores pudieron proveer llega a su culmen cuando los datos, la información, la historia, las preguntas y las respuestas se convierten en lo que conocemos como inteligencia, es decir, acciones concretas que nos ayuden a influir sobre los resultados que hemos estado analizando. Tomemos el ejemplo citado, una vez que desciframos que hay un perfil de cliente que responde a ciertos atributos podemos generar estrategias de comunicación segmentadas con mensajes afines a ese tipo de características sobre los productos, por otro lado, se pueden apalancar cupones de descuentos que ayuden a aumentar las conversiones en ciertos días de la semana o promociones especiales en los meses más críticos, etc. Con uno de nuestros clientes incluso logramos capitalizar información de entorno para poder identificar geográficamente aquellas zonas en donde se concentraban los clientes potenciales del negocio para poder accionar campañas enfocadas en esas zonas y optimizar los presupuestos promocionales.

En esta etapa es importante recordar dos cosas: la primera es que la inteligencia, como los datos, debe almacenarse de una manera estructurada y debe comunicarse a todos los grupos de interés para que se pueda capitalizar su valor en un impacto positivo a los resultados. La segunda, íntimamente relacionada a esta, es que el proceso es iterativo, es decir, nunca acaba. Al igual que la captura de datos, este proceso debe estar “vivo” debe nutrirse de nuevos datos y continuar abonando a la inteligencia, mejorar los accionables y seguir buscando nuevas fuentes de generación de datos, incluso externas a la empresa, para poder impactar los resultados de manera positiva.

datlas_mx_blog_data_business_intelligence

Finalmente, esta es una forma sencilla en la que puedes obtener valor de los datos de tu negocio. No olvides que a pesar de enumerar 5 sencillos pasos cada uno de ellos tiene una complejidad dentro de si mismo y en Datlas estamos preparados para apoyarte en cada una de las etapas con metodologías y tecnologías que son capaces de adaptarse a cualquier industria y tamaño de negocio. Cuéntanos como estas aprovechando los datos de tus puntos de venta o contáctanos para comenzar a ayudarte ¡hoy mismo!

@DatlasMX

Estrategia “Go-To-Market” en un mundo de datos – Datlas Research

Las mayoría de las facultades y universidades de negocios han impartido sus cursos durante los últimos 20 años usando métodos de caso , dando fundamentos económicos, financieros y marketeros. Escuchamos macroeconomía, microeconómia, contabilidad de costos, balances generales, fundamentos de Porter, matriz de Ansoff y pirámide de Maslow por mencionar algunos de los indices de estas clases.

Datlas_barra_suscribir

Pero ¿Te has preguntado si estos métodos son vigentes en un contexto de analítica avanzada de datos? De antemano probablemente si lo serán… pero no hay mucha pista de cómo generar aplicaciones correctas o adecuaciones de estos en un mundo de Big Data y analítica avanzada a la planeación en negocios. En esta columna hablaremos de estrategias y algunas propuestas de modificaciones a los métodos tradicionales par adaptarnos a un mundo más moderno. Usaremos de ejemplo nuestro caso, en Datlas, y algunas otras startups y/o empresas de tecnología que han generado nuevos ecosistemas de negocios.

¿Qué es una estrategia Go-To-Market (GTM)?

Mientras una estrategia de marketing es un plan de largo plazo donde se establecen fundamentos de una compañía como principios, reglas y metas en los mensajes que se comparten a perfiles de consumidores determinados, Go-To-Market es de corto plazo. Es un plan donde paso a paso se establece un mapa de lanzamiento de un nuevo producto, servicio o expansión.

Mientras los recursos son escasos, la competencia abundante y los planes de mejora continua son constantes en las organizaciones es necesario generar un plan que permita ser preventivos y desarrollar métricas para identificar si nuestro desarrollo es exitoso o un fracaso.

 

El pase de diapositivas requiere JavaScript.

Propósito de GTM

  • Clarifica porqué estás lanzando un nuevo producto ¿Para quién es? ¿Cómo vas a contactar y comprometer nuevos consumidores?
  • Te fuerza a diseñar una experiencia de consumo ¿Qué problemas podrían tener los clientes? ¿Cómo los deleito? ¿Cómo me recomendarían?
  • Es un lenguaje común en tu organización o equipo. Cualquier nueva idea se sostiene o aporta a alguno de los pilares de una estrategia más grande: Go-To-Market
  • Te orienta a definir los KPI de éxito, si te interesa conocer más de este tema revisa esta columna

5 etapas a considerar en una Go-To-Market Strategy

1) Identificar el contexto competitivo

Existen muchos marcos de trabajo para GTM, en realidad algunas invitan a plantear hasta más de 100 preguntas para un lanzamiento. Con la experiencia, podemos decirle que un punto de partida pudiera ser una alteración de la matriz de  Ansoff.

Esta herramienta nos ayuda a identificar si nuestro nuevo lanzamiento va dirigido a un mercado nuevo o existente. Así mismo si el mercado al que vamos a destinar esta innovación ya existe o no existe para nuestra organización. A partir de ello se establecen un par de acciones sobre la cuál se puede desarrollar un plan completo: Penetrar un mercado existente, desarrollar nuevos productos o diversificación.

El pase de diapositivas requiere JavaScript.

Un spin-off o alteración del modelo también podría cuestionar sobre cómo este nuevo lanzamiento de producto-servicio afecta al ecosistema. Y con esto nos referimos a que podríamos pensar cómo Google o Apple analizaría algún nuevo lanzamiento. Por ejemplo, Google Home, asistente virtual que ejecuta tareas, es un nuevo canal de contacto con el ecosistema de Google. Desde ahí puedo interactuar con el mercado de apps, con los motores de búsqueda en Google, sus métodos de págo, entre otros.

En una época donde las organizaciones ya no sólo crean productos o mercados… ahora buscan ensamblar “ecosistemas” competitivos es importante en un inicio de nuestra estrategia GTM identificar cómo estamos jugando en estas 3 dimensiones.

2) Investigar y planificar

Generalmente los GTM justifican una inyección de inversión en tiempo o dinero a un proyecto. Para esto es importante poder presentar un plan claro y bien investigado alrededor del problema que vamos a resolver con nuestro nuevo lanzamiento.

Resolver preguntas como ¿Cuál es el impacto? ¿Cuál es la molestía que tiene mi mercado con las soluciones actuales? ¿Cómo se ve y piensa la persona que me compraría? ¿En qué zonas geográficas los puedo encontrar? entre otras son importantes

Para esto recomendamos el marco de trabajo de “Design Thinking” , los 3 circulos donde analizamos: Deseabilidad, Factibilidad y Viabilidad de nuestro proyecto.

Datlas_DesignThinking_v2

En general, con el uso de datos y análisis adecuado, esto nos ayuda a mapear los costos, potenciales ingresos y sobre todo el apetito del consumidor para diseñar la experiencia ideal de consumo.

Te puede interesar nuestro podcast de cómo monitorear tendencias.

3) Desarrollar un mapa de ruta de producto

Los proyectos ponen a prueba nuestra capacidad de administrar personas, recursos y tiempos. Un mapa de ruta de producto nos da una visualización constante sobre la salud del proyecto. Al mismo tiempo plasma los “acuerdos” en tiempos a los que se llega con los participantes del equipo y las fechas compromisos.

Datlas_product-roadmap-example2

4) Desarrollar una estrategia de marketing

De manera más específica que en el paso 2) en esta etapa profundizaremos en temas de Precio, Producto, Plaza, Promoción, Personas, Procesos  y posicionamiento. Justamente nos referimos a las 7ps de desarrollo y retención de clientes.

La sección más motivante y donde ocupamos equipos multidisciplinarios es el desarrollar tu avatar o perfil de comprador. Tratar de pensar qué edad tiene, a qué se dedica, qué problemas tiene, cómo los resuelve hoy y cómo le gustaría resolverlo.

Los trabajos de encuestas  y síntesis de nuestra investigación del paso 1) son útiles. Siempre pensando que nos van a ayudar en nuestra estrategia de marketing. Si quieres saber más sobre cómo realizar encuestas y pruebas de concepto te puede interesar nuestro podcast sobre esto.

Desarrollar estrategia de precios, resolver si tu modelo será de suscripción, pago bajo demanda, pago por uso de servicio, entre muchas opciones que existen.

Datlas_7ps

5) Asegurar una experiencia de consumidor fuerte y con datos para retroalimentar

Otra etapa importante es cómo asegurar una experiencia del consumidor saludable y que además genere los suficientes datos para permitirnos mejorar constantemente.

En este sentido, por ejemplo, en una compra de tienda en línea cuántos contactos tendremos con el consumidor. Cuando visita la tienda, cuando llena su carrito, cuando paga, cuando le enviamos su producto, cuando lo recibe y cuando nos da su opinión sobre lo que recibe. Pero qué pasaría si agregamos una promoción ¿Cómo hacemos que se entere? o si cierta transacción está ayudando a una ONG ¿Cómo se lo comunicaríamos?

Así como en el comercio electrónico, en cualquier tipo de transacción y consumo de nuestros productos hay que diseñar la experiencia.

Datlas_DiseñoDeExperiencias

Conclusión

Si bien muchos detalles quedaron abiertos a la imaginación de cada gestor de iniciativas, la estrategia Go-To-Market ofrece distintos marcos de trabajo para maximizar la probabilidad de éxito de nuestras iniciativas.

Se deben de considerar 3 dimensiones: Cómo está la competencia relativa a nuestro producto, qué tan desarrollado está el mercado y a la construcción de qué ecosistema estamos aportando.

Finalmente, si se trabaja en equipo, es recomendable que cada una de las etapas venga con sus entregables, KPIs de impacto y datos para retroalimentar mientras el proceso está en curso.

Datlas_GTM_Model_Delivery

Gracias por leernos, recuerda compartir y si te interesan este tipo de servicios nos puedes contactar en direccion@datlas.mx

Saludos

-Keep it weird-

Equipo Datlas

Datlas_barra_suscribir

Fuentes

Ver en Medium.com

The Last Dance: la versión que cuentan los datos

Antes de comenzar debo confesarles que soy un apasionado jugador y fanático del basketball desde que tenía 6 años. Me tocó ver, junto a mi padre, aquella temporada 1997-1998 donde Michael Jordan y los Chicago Bulls coronan su último baile (The Last Dance, en iglés) con un 6to título para Jordan, la segunda racha de 3 títulos al hilo para el equipo y una espectacular historia de 6 títulos en 8 años para la franquicia. Ahora bien, para quien no lo sepa, el famoso documental de ESPN transmitido también por Netflix y titulado “The Last Dance” relata los detalles de esta incansable hazaña de los Bulls desde 1984, cuando seleccionan a Michael Jordan en el draft, pasando por su primer título en la temporada 1990-1991 y hasta cerrar con broche de oro toda una era. Si bien el documental ha tenido un tremendo impacto, también ha desatado la polémica alrededor de Jordan desde distintos ángulos: su forma de ser, su trato con los demás, hasta cuestionar su título honorario de mejor jugador de todos los tiempos (Greatest of All Time o GOAT, por sus siglas en ingles). En esta columna vamos a dejar de lado el fanatismo, las opiniones y los sentimientos para utilizar analítica deportiva (Sports Analytics) y relatar la versión que cuentan los datos acerca del último baile. Si quieres saber que es sports analytics puedes visitar nuestro blog anterior. Si quieres enterarte como se está aplicando sports analytics en el Club de Futbol Monterrey puedes escuchar el más reciente episodio de nuestro podcast #CaféDeDatos.

free_Suscriber

El punto de partida de este análisis nace de la polémica que argumenta que la serie tiene un sesgo hacia el papel de Michael Jordan, mientras que deja “en las sombras” algunas aportaciones importantes de los distintos actores a su alrededor. Como amantes de los datos y la estadística entendemos que el resultado de cualquier situación depende de un modelo o de una formula con distintos factores y variables. En este caso el éxito de los Bulls se debe a un conjunto de cosas: desde el dueño, el gerente general, el entrenador, la ofensiva en triangulo, el talento individual de los jugadores, el juego colectivo, etc. Incluso el mismo Michael tiene una frase icónica que dice: “El talento gana partidos, pero el trabajo en equipo y la inteligencia ganan campeonatos”. Así que, veamos que dicen los datos acerca del “peso” de la variable Jordan en la ecuación del éxito de los Bulls y su último baile.

datlas_mx_the_last_dance_espn_netflix

Abril 27 de 1997 Chicago vs Washington juego número 2 de la primera ronda de play-offs de la temporada. Michael anota 55 puntos, empatando su récord de anotación desde que volviera del retiro en 1995. Tan solo en el último periodo anotó 20 de los 23 puntos del equipo. Acostumbrados a lo increíble, para muchos esta fue solo otra hazaña, pero es justo aquí donde se esconde el indicio del “efecto Jordan” para los Bulls y para el baloncesto de esa época. Más allá de lo que su marca personal de anotación representaba en el resultado final, lo impresionante es que anotó tan solo un tiro de 3 puntos y 10 puntos desde la línea de tiro libre, es decir, anotó 42 puntos en tiros de campo (con valor de 2 puntos) o media distancia, como también se les llama. ¿Y qué con esto? El secreto se llama eficiencia. En ese partido Jordan solo necesito 35 tiros para obtener los 55 puntos, mientras que el resto del equipo anotó 54 puntos tras 43 tiros.

datlas_mx_the_last_dance_mj_nbc

Mapeo de tiros en ese partido, elaborado por la NBC (Puntos rojos: tiros anotados. Puntos azules: tiros errados)

En paralelo, ese año la NBA (National Basketball Association, en inglés) comenzó a registrar datos estimados de ubicación de disparo X-Y. Así es como sabemos que mientras Jordan lideró la liga en anotaciones durante la temporada 1996-1997, terminó siendo el #57 en puntos en la pintura y #54 en tiros de 3 por juego. Nuevamente, el secreto de Jordan fue su dominio del juego desde la media distancia (definido aquí como cualquier intento entre 8 pies del borde y la línea de 3 puntos).

En 1984 cuando Michael fue seleccionado en el draft la NBA era dominada por tamaño y fuerza, 16 de los últimos 20 ganadores al galardón de jugador más valioso (MVP por sus siglas en ingles) eran centros. No había un solo guardia (posición de MJ) que hubiera ganado ese título. Jordan no solo vino a anotar muchos puntos, ganar títulos y llevar a sus colegas al límite, Michael llegó a revolucionar el juego, el dominio de la media distancia fue la clave.

Desde el punto de vista estadístico alguien podría argumentar que quizá esto se debe a la cantidad de tiros que realizaba desde esa distancia, pero Michael fuera de haber sido el más activo realizando este tipo de tiros, también fue el más eficiente. Durante la temporada 1996-1997 Glen “Big Dog” Robinson terminó segundo en el ranking de tiradores de media distancia, anotando 391 tiros. Jordan quedó en primera posición, con 547 tiros, 40% más que su sucesor.

Los datos de tiros revelan dos puntos fascinantes: MJ fue el mejor anotador de su época, pero también un tirador hiper eficiente. Este mapeo de los tiros lo demuestra, los puntos rojos representan una eficiencia superior al promedio de la liga.

datlas_mx_the_last_dance_mj_96-97_shots_percentage

He aquí la “razón” que dan los datos para que se hable con mayor preponderancia de MJ dentro del documental. Sin duda no lo hizo solo, pero si fue la variable más importante para llevar a los Bulls a hacer historia en esa época.

Por otro lado, los datos hablan también de la relevancia de estos “otros factores”. De los 59 jugadores de la NBA que intentaron al menos 300 tiros de media distancia esa temporada, Jordan ocupó el tercer lugar en eficiencia general, alcanzando el 49.5% en más de 1,100 intentos. Solo Chris Mullin y Vinny Del Negro fueron más precisos. Reggie Miller, comúnmente considerado como el mejor tirador de esa época, hizo el 42.4% de sus 484 tiros de media distancia esa temporada. Sí, Miller intentó 484 mientras Jordan anotó 547. En 1997 en la NBA literalmente estaba Michael Jordan y luego el resto.

datlas_mx_the_last_dance_mid_range_shooters_nba

Ahora bien, Mullin jugó con los Warriors de Golden State y Del Negro jugó para los Spurs de San Antonio durante la temporada 1996-1997, pero ninguno de los 2 equipos pudo siquiera calificar a los playoffs. ¿Qué quiere decir esto? Como bien lo dice Michael “…el trabajo en equipo y la inteligencia ganan campeonatos”. Durante los playoffs esa temporada hubo grandes aportaciones por parte de los compañeros de Mike. En la primera ronda contra Washington, en el juego número 3 Tony Kukoc sale de la banca a jugar 26 minutos, contra los 42 minutos de juego de Mike y lográ anotar 4 de 7 tiros de campo terminando con un 57% de eficiencia frente a 44% de Jordan. Durante el juego 6 de las finales Steve Kerr con solo 25 minutos de juego frente a los 43 minutos de MJ registró una eficiencia de 60% en tiros de campo comparada con el 42% de Michael y logró un 50% de tiros de 3 puntos, incluyendo el último triple para poner a los Bulls arriba en el marcador y consolidar la victoria y el titulo esa temporada. En ese partido Jordan tuvo solo 25% de eficiencia en tiros de 3 puntos.

Así que sin duda no se trata solo de Mike, este es un juego de equipo. El mismo da crédito a colegas como Scottie Pipen y Dennis Rodman en multiples ocasiones durante el documental. Los datos muestras incluso como otras personalidades como Kerr y Kukoc aportaron valor en momentos y situaciones claves que lograron consolidar la historia de ese mítico ultimo baile.

datlas_mx_the_last_dance_chicago_bulls_team_1998

Finalmente, no queremos cerrar sin dar un salto al presente y abordar como es que el juego que en 1984 era dominado en la pintura y que tras 1998 fue llevado a la media distancia, durante estos últimos años parece ser un juego en donde todos quieren tirar de 3 puntos. Pero para comparar manzanas con manzanas hemos de tomar a un guardia que también haya ganado múltiples títulos de MVP en los últimos años: James Harden. Quien sea fanático del baloncesto entenderá inmediatamente las diferencias, pero veámoslo desde el punto de vista de los datos: tomemos la ubicación de los tiros de Jordan en sus últimas dos temporadas y pongámoslo al lado de la ubicación de los tiros de James en sus últimas dos campañas.

datlas_mx_the_last_dance_mj_james_harden_shot_locations

Interesante, ¿no? así es como descubrimos la versión que cuentan los datos acerca de la historia de la NBA, de Michael Jordan, los Bulls de Chicago y la forma en que se jugaba baloncesto en esa época. El último baile no fue solo Jordan, fue un poco de todo, pero el catalizador fue sin duda Mike. La forma en que revolucionó el juego será una marca imborrable. Su aportación fuera de la cancha hizo también que el deporte, la imagen y la relevancia de la liga creciera de manera exponencial. Sin duda una historia digna de película, pero con un reparto tan importante como el protagonista.

Hasta aquí la columna de hoy, ¿ya viste The Last Dance? Cuéntanos tu opinión en nuestras redes sociales

@DatlasMX

 

Fuentes:

Categorizando las zonas con más choques y siniestros en Nuevo León – Datlas Research

Cuarentena por Coronavirus y Covid-19… y el placer más grande que algunos tuvimos fue la oportunidad de visitar el supermercado, la única salida obligada, con muy poco tráfico vehicular en la ciudad.  Menos tráfico está relacionado con menos probabilidad de choques y siniestros así que nos encontramos con vialidades bastante fluidas.

Datlas_barra_suscribir

Al tener un periodo de más tranquilidad en los flujos y el tránsito social nuevas iniciativas del gobierno y el sector privado han emergido. Por ejemplo,  lanzamientos de ciclovías, arreglar vías principales y carreteras de algunos municipios y ,por qué no, enfocarse mejorar el tránsito en las rutas donde más choques se registran. En esta columna utilizamos históricos de 3 años de choques para Nuevo León para identificar y “categorizar” las zonas de más choques en el Estado. Los ejemplos que veamos son aplicables a nivel nacional y es una propuesta de enfoque de análisis para gobiernos y aseguradoras.

¿Cómo funciona?

El análisis comienza con una base de datos, similar a la que usamos en 3 mitos y realidades de choques en NL, pero enfocado en un registro de choques por ubicación con detalles del tipo y modelos  de vehículos. En tipo, el detalle que tenemos son choques de auto, camión, camión ligero y motocicleta. En modelos tenemos choques de autos desde 1950 hasta el 2019.

Para fines prácticos, generamos 2 variables dicótomas o dummy. Una que señale con 1 cuando el choque haya sido de auto y 0 cualquier otro tipo de vehículo. Segundo una variable en donde si el choque fue por un modelo reciente de auto, entre el 2015 y 2019, y 0 siendo cualquier otro modelo menor o igual al 2014.

¿Cuáles podrían ser los pasos a seguir en un análisis

Para este ejercicio preferimos usar nuestra herramienta de mapas que, de manera más clara que un archivo de excel, nos permite identificar de inmediato el lugar de los hechos. De esa manera podemos construir los siguientes journeys:

1) Enfocarnos en las zonas de alta cantidad

El pase de diapositivas requiere JavaScript.

La base de datos original tiene los choques por coordenada, sin embargo hicimos un trabajo de agregación de datos ubicando el acumulado de choques dentro de una cuadrícula en todo el mapa de Nuevo León. Cada punto representa una geometría con un área de 5km cuadrados en donde ocurrieron los choques. Si visualizamos en un mapa esta información con gráficos de “burbujas” podremos identificar en que zona de la ciudad se han acumulado la mayor cantidad de choques.

33% de los choques en el Estado han ocurrido en 25 kilómetros cuadrados.

Datlas_Covid19_Choques

Datlas_blog_choques_casos_criticos

2) “Categorización” de todos los choques en modelos de auto recientes

El pase de diapositivas requiere JavaScript.

Si quisiéramos enfocarnos en las zonas donde hay más choques acumulados podemos usar la gráfica de puntos de dispersión encima del mapa. Preferimos la geometría tipo cuadros para poder identificar en rojo las zonas de mayor enfoque. Además generamos una variable de proporción de choques de modelos recientes. De esta manera podemos localizar de maneras inmediata los siniestros de casos de 2015 a la fecha.

3) “Categorización” de modelos más siniestrados por regiones

El pase de diapositivas requiere JavaScript.

Finalmente podemos aumentar la resolución convirtiendo la variable modelo en numérica y promediando el año de los vehículos que más han chocado en los últimos 3 años.  En este caso detectando las zonas donde chocan los autos de años más recientes. Sorprendentemente no se percibe que exista una relación entre nivel socieconómico y año de los autos chocados.

Video de navegación

Este tipo de iniciativas y plataformas podrían ser utilizadas por aseguradoras para planificar sus estaciones temporales donde envíen a sus flotillas para que puedan llegar a los choques con menor tiempo. Elevando así el nivel de servicio. Por otro lado podrían mapear cambiar los múltiplos en sus pólizas considerando si las zonas donde transita habitualmente un asegurado son de alto o bajo riesgo de choques.

En el caso de gobiernos, podrían evaluar adecuar señalizaciones de tránsito en las zonas de mayor riesgo así como mantener cerca a oficiales de tránsitos cuando ocurran este tipo de percances.

Datlas_barra_suscribir

Hasta aquí la columna de hoy, gracias por leer y si te interesó no dudes en difundirla con tus contactos y aseguradoras. Te recomendamos también visitar nuestro podcast “Café de Datos”donde estamos publicando semanalmente capítulos donde hablamos de analítica y estrategias de datos.

Saludos

Equipo Datlas

– Keep it weird –

 

 

Sports Analytics: el nuevo MVP (jugador más valioso)

Durante los últimos años hemos estado escribiendo acerca de las distintas aplicaciones que tiene el análisis de datos. Desde los negocios hasta la música, las iniciativas sociales y muchas otras facetas más. En esta ocasión vamos a hablar del nuevo jugador más valioso en los deportes, una de las aplicaciones más populares del análisis de datos en los últimos años, los famosos Sports Analytics o analítica deportiva, es decir, el análisis de datos aplicado en los deportes. También puedes consultar nuestro blog anterior en donde hablamos de algunas aplicaciones y eventos de sports analytics. ¿Qué es? ¿Cuándo empezó todo esto? ¿Realmente que relevancia tiene en los resultados? Y ¿cómo pinta el futuro para esta industria? Es algo en lo que estaremos profundizando el día de hoy. Quédate al final y entérate de una noticia que tiene que ver con Datlas y los Sports Analytics.

free_Suscriber

Para comenzar lo más importante es tener una definición general de ¿qué son los sports analytics? Y es que, como su nombre lo dice, se refiere al análisis de las estadísticas relevantes e históricas buscando generar una ventaja competitiva para un equipo o un deportista en lo individual. A través de la recopilación y el análisis de estos datos, la analítica deportiva provee información a los jugadores, entrenadores y demás personal para facilitar la toma de decisiones antes, durante y después de los eventos deportivos.

Si bien esta es una práctica que ha tenido sus inicios hace más de 10 años, la realidad es que el término como tal de “sports analytics” se volvió famoso en la cultura deportiva después del lanzamiento de la película Moneyball en el 2011. La película está basada en el best-seller de Michael M. Lewis del 2003 “Moneyball: The Art of Winning an Unfair Game” que cuenta la historia acerca de la temporada 2002 de los Oakland Athletics, el equipo de beisbol de Oakland California, donde el Gerente General Billy Beane (interpretado en la película por el actor Brad Pitt) utiliza la analítica deportiva para construir un equipo competitivo con presupuesto mínimo. Si no has visto la película te recomiendo que aproveches esta cuarentena y la pongas en tu lista. Sin ánimos de arruinarte el final (spoiler alert) los resultados que los A´s lograron esa temporada fueron impresionantes. Tan solo al inicio de la temporada se posicionaron 10 juegos por detrás del líder de la división. Tres semanas después ya estaban a solo 4 juegos del primer lugar. Dos meses después el equipo comienza una impresionante racha ganadora que termina con 20 juegos al hilo. Eventualmente los A´s logran conquistar el titulo del oeste, pero pierden la serie mundial frente a Minnesota.

datlas_mx_sports_analytics_moneyball_movie

Aun así, muchos escépticos dirán que el caso de los A´s es uno en un millón y que, estadísticamente hablando, hace falta una mayor muestra para comprobar que el método realmente funciona. Precisamente tras la impresionante historia de Oakland, otros equipos comenzaron a invertir en sports analytics. Algunas franquicias como los Mavericks de Dallas en la NBA, las Águilas de Filadelfia en la NFL y los Boston Red Sox en la MLB son considerados como los equipos más sabios y con más inversión en analítica deportiva. De hecho, los Red Sox, que no ganaban la serie mundial desde que intercambiaron a Babe Ruth a los Yankess de Nueva York en 1918, lograron coronarse en 2004 y 2007 después de integrar analítica deportiva en su toma de decisiones.

Ahora bien, cualquiera de nosotros entiende que el deporte es más que solo el evento deportivo, es decir, que el éxito o fracaso depende tanto de la manera en la que se desempeñan durante el partido, pero también la forma en la que se preparan previamente y la forma en la que aprenden posteriormente al partido. De esta forma hablaremos de los 2 aspectos claves de la analítica deportiva: el análisis en campo y el análisis fuera del campo.

datlas_mx_sports_analytics_nfl

Por un lado, la analítica en el campo se enfoca en mejorar el rendimiento de los equipos y jugadores en el terreno de juego. Profundiza en aspectos como las tácticas de juego y la aptitud del jugador. Un ejemplo claro de este tipo de analítica es el de la selección de futbol alemana que en 2014 dejó al mundo enmudecido después de propinarle a Brasil una de las derrotas históricas más humillantes en la historia del futbol al ganarle 7-1 durante la semifinal de la Copa Mundial que ese año se disputaba precisamente en Brasil. ¿Cuál fue el secreto de Alemania? Mientras otros equipos tenían a un analista de video y desempeño, la selección alemana usó un software de analytics llamado Match Insights que convertía el video de 8 cámaras alrededor del campo en indicadores claves de desempeño como velocidad de los pases, promedio de posesión de balón, velocidad y distancia recorrida, posicionamiento y numero de toques al balón. Todos estos datos fueron habilitados al equipo directivo, entrenadores y hasta los jugadores a través de una aplicación móvil. Los movimientos de sus oponentes se convirtieron en personas, simulaciones y gráficas, lo que hizo que la aplicación fuera tan fácil e intuitiva como un video juego. La cantidad de información analizada fue enorme, el mismo gerente de la selección mencionó que 10 jugadores pueden producir 7 millones de datos en tan solo 10 minutos. Pero si crees que el análisis de datos que uso Alemania se limito a los partidos de la Copa Mundial, te quedaste corto, porque esta gran hazaña comenzó 2 años antes de la Copa del Mundo cuando estudiantes de la Universidad Deportiva de Cologne Alemania extrajeron datos de numerosos videos acerca del acerrimo rival de Alemania en aquella semifinal, descifrando patrones que reportaron ser una pieza clave en la preparación del equipo para esa Copa Mundial. La habilidad de Alemania para desmantelar la defensa de Brasil fue extraordinaria.

datlas_mx_sports_analytics_germany_brazil_7_1_world_cup_2014

Por otro lado, tenemos la analítica fuera del campo que se ocupa del lado comercial de los deportes. Esta enfocada en ayudar a una organización deportiva a través de datos que ayuden a aumentar las ventas de boletos y mercancías, mejorar la participación de los fanáticos, etc. El objetivo final es el crecimiento y aumentar la rentabilidad. Un ejemplo de este tipo de analítica es el más reciente lanzamiento de los Vaqueros de Dallas titulado “Pose with de Pros” (posa con los profesionales). Tras un extenso análisis de datos acerca de los aficionados y su experiencia dentro del estadio, la franquicia y AT&T unieron esfuerzos para crear, desarrollar y ejecutar una aplicación de realidad aumentada que permite a los fanáticos tomarse una fotografía con sus jugadores favoritos. Localizados dentro del estadio estos kioscos te permiten no solo tener tu selfie sino compartirla vía redes sociales gracias a la tecnología 5G habilitada por AT&T.

datlas_mx_sports_analytics_dallas_selfie_pros_stadium_at&t

Finalmente, hemos de reconocer que el análisis de datos se ha vuelto uno de los prospectos a convertirse en el nuevo jugador más valioso del deporte. Frente a un panorama de incertidumbre como la pandemia del COVID-19 incluso en los e-sports la analítica ha tenido un rol cada vez más relevante. Si te gustan los deportes, los datos o incluso ambos, esta es un área de oportunidad enorme para que puedas realizar tu vida profesional. De hecho, nos complace anunciarles qu en el siguiente episodio de nuestro podcast Café de Datos tendremos un invitado especial que se dedica a inteligencia deportiva con uno de los clubes más ganadores de la última década y con el que estaremos platicando acerca de Sports Analytics, como se vive en México, las grandes tendencias y formas en las que está revolucionando el deporte a nivel mundial. Si esta columna se te hizo interesante, espera a escuchar este próximo episodio que será mucho mejor.

Caso_Blog_Podcast_E1_FF

Sin más, nos leemos en la próxima entrada. No dejes de compartirnos tu opinión en nuestras redes sociales.

@DatlasMX

Ranking de Dashboards y Reportes por COVID-19 – Datlas Research

¿Cómo va avanzando tu análisis de datos en tu cuarentena? ¿Qué tal la numeralia? ¿Nuevos Datos? ¿Algunos nuevos descubrimientos? En esta ocasión nos toca compartir un poco a nosotros de las excelentes respuestas de la comunidad “datera”. En esta columna enlistaremos 9 dashboards/reportes usados para difundir información alrededor del COVID-19

Datlas_barra_suscribir

Algunos requisitos para que pueda calificar un  dashboards COVID-19 en el ranking es que 1) Tienen que ser actualizados al menos una vez al día, 2) Las visualizaciones integran datos de cantidad de personas infectadas y fallecidas y 3) Pueden representar cualquier cobertura geográfica. Los criterios para el ranking fueron: Atractivo de visualización, Claridad de la información e información fidedigna. Algunos “plus” es que tengan mapas y que que haya un poco de análisis dentro del tablero.

9) Facebook – Harvard

Datlas_Facebook_Harvard

Este mapa es parte del programa “Data for Good”. Se basa en información desarrollada por la Red de datos de movilidad COVID-19, coordinada por “Direct Relief” e investigadores de Harvard T.H. Chan School of Public Health, utilizando datos agregados de movimiento de población del programa Data for Good de Facebook.

  • Pros: Mensaje claro, aprovechamiento de datos de movilidas
  • Cons: Sólo USA, complejo de llegar a conclusiones, resolución a nivel Estatal

Liga: https://www.covid19mobility.org/dashboards/facebook-data-for-good/

8) Google Mobility Changes

Datlas_Google_MobilityChanges

Google liberó datos de movilidad para todo el mundo. Si quieres conocer el detalle de la iniciativa puedes revisar nuestro blog sobre el tema.

  • Pros: Información sintetizada con claridad, cobertura mundial donde Google opera, con el tiempo especificaron a nivel Estatal, al menos para México fue así
  • Cons: Son reportes no dashboards, actualización semanal no diaria, la información es en general de tráfico pero no podemos diferenciar entre tráfico a pie o en auto y no cruzan o analizan versus casos de Covid-19, una chamba que nos dejan a todos los analistas para hacerlo por separado

Liga: https://www.google.com/covid19/mobility/

7) Apple Movement

Datlas_Apple_Movement

Similar a Google, la empresa Apple liberó datos de movilidad generado por dispositivos que utilizan sistemas operativos IOS. La resolución dividió el tráfico entre coche, a pie y transporte público. También fueron los primeros que habilitaron la descarga CSV.

  • Pros: Diferenciación por tipo de tráfico, datos de movilidad actualizados de manera recurrente, descarga en CSV con detalle de información histórica
  • Cons: No hay cruce con datos de covid-19, no sugiere conclusiones y se queda a nivel país. al menos para México así funciona

Liga: https://www.apple.com/covid19/mobility

6) Facebook – Carnegie Mellon

Datlas_Facebook_CarnegieMellon

Los equipos de Facebook son variados y se dieron el lujo de trabajar con distintos laboratorios de datos de las mejores universidades del mundo. En este Caso, con Carnegie Mellon, lograron una mejor dinámica que el mapa de Harvard.

  • Pros: Selección dinámica de revisión por día desde el Dashboards, selección entre múltiples indicadores del Covid, bastante documentación sobre cada indicador, cruce de información
  • Cons: Sólo para Estados Unidos y la máxima resolución de los datos espaciales es nivel Estado

Liga: https://covid-survey.dataforgood.fb.com/#3/35/-75

5) Covid Visualizer

Datlas_Covid_Visualizer

Si hablamos de visualizaciones atractivas tenemos que voltear a ver el globo generado por el portal “Covid Visualizer” que realmente dedicó un dominio en internet exclusivamemente para este tema. Se aprecia el planeta tierra y es muy sencillo navegar entre países

  • Pros: Navegación sencilla y rápida, datos agregados con los distintos estados con los que se está midiendo el COVID-19 y actualización cada par de horas
  • Cons: Resolución a nivel País, no se puede jugar con fechas, es decir sólo se ven datos agregados a la fecha de consulta

Liga: https://www.covidvisualizer.com/

4) Our World in Data

Datlas_OurWorldInData_

Esta es la visualización que como Datlas más hemos usado en nuestros webinars y conferencias para sensibilizar a las audiencias la velocidad a la que los casos del COVID-19 crecen en relación a China

  • Pro: El manejo temporal es excelente , se pueden generar animaciones dentro de la herramienta, filtrar para cualquier país, la descarga en CSV es muy ágil y sencilla
  • Cons: Solamente se miden casos confirmados, no otro indicadores necesariamente, un par de veces nos encontramos “otros datos” en relación a la prensa nacional (caso México) y podrían usar colores más contrastantes que te ayuden a diferenciar mejor los países en el análisis

Liga: https://ourworldindata.org/grapher/covid-confirmed-cases-since-100th-case?country=ARG+BOL+BRA+CHL+COL+ECU+MEX+PER+URY+VEN

3) New York

Datlas_NYork_Dashboard

Este es otro de los casos de dashboards animados alrededor del tiempo

  • Pros: Brinda un enfoque muy claro a los países con más casos afectados, se miden 3 tipos de indicadores, entre ellos dónde hay más recuperados
  • Cons: Resolución a nivel país, sólo se usa un color en los gráficos y las dimensiones no están bien actualizadas para la cantidad de casos a la fecha

Liga: https://www.nbcnewyork.com/news/national-international/map-watch-the-coronavirus-cases-spread-across-the-world/2303276/

2) WHO: Organización mundial de salud

El pase de diapositivas requiere JavaScript.

 

Una de las obras de arte en lo que visualizaciones refiere es este tablero que es referencia mundial sobre los casos del Covid-19. Lo lamentable es que los datos han sido muy cuestionados

  • Pros: Variedad de visualizaciones, gráficos y mapas, filtros entre indicadores, contraste por regiones geo-políticas, se puede descargar datos en CSV y los colores muy bien implementados
  • Cons: No aplica alguno según los criterios establecidos. Deseable es que los usuarios pudieramos subir de resolución a nivel Estatal por país

Liga: https://covid19.who.int/

1) Johns Hopkins Covid

Datlas_Johns_Hopkins_Covid19_

Finalmente la joya de la corona, el ARCGIS que por primera vez nos dió una explicación del COVID-19 desde que se llamaba Coronavirus.

  • Pros: Cuenta con más indicadores que cualquier otro dashboards, casi cada mes le añaden nuevas visualizaciones e integra una sección de tendencias críticas que llevan a nuevos análisis y hallazgos
  • Cons: Sería genial si pudieramos ver estos datos a nivel Estado o delegación. También de alguna manera integrar las conclusiones de los análisis de movilidad de grandes compañías como Facebook, Apple o Google

Liga: https://coronavirus.jhu.edu/map.html

Datlas_barra_suscribir

Hasta aqui nuestro ranking ¿Cuál es tu orden? ¿Cómo calificarías? Si te sigue interesando qué otros nuevos aplicativos de analítica pueden impulsarse por el COVID-19 te invitamos a conocer nuestro mapa en https://datlas.mx/COVID-19/

Deja tus comentarios y comparte con tus colegas que son amantes de los Dashboards.

Saludos

Equipo Datlas

-Keep it weird-

 

La mutación de los deportes y la mercadotecnia ante el COVID-19

Desde hace más de un mes hemos estado hablando y escribiendo acerca del COVID-19 y las distintas formas en que la pandemia ha presentado retos en nuestra vida diaria y la forma en la que se hacen negocios en algunas industrias. También hemos mencionado que los tiempos de “crisis” deben ser percibidos como oportunidad y durante esta columna estaremos profundizando precisamente en el impacto que ha tenido esta pandemia en los deportes y la mercadotecnia asociada a ellos, para resaltar algunas de las formas en las que estas actividades han mutado, quizá para siempre, para adaptarse a este “nuevo normal”.

free_Suscriber

Comencemos con algo de contexto. A pesar de que el primer caso de COVID-19 se identificó en diciembre del 2019, no fue sino hasta el 11 de marzo de 2020 que la Organización Mundial de la Salud (WHO, por sus siglas en inglés) la declarara una pandemia. Tan solo 24 horas después, el 12 de marzo comenzó el impacto en la industria deportiva. Ese mismo día la NBA (National Basketball Association) canceló su temporada debido a que 2 jugadores del Jazz de Utah dieran positivo en la prueba de COVID-19. De esta forma comenzaba todo un efecto dominó que en un par de días ya sumaba a la Liga Premier de Inglaterra y la Formula 1 como desaparecidos del calendario. A pesar de que la lista se iba haciendo cada vez más grande, los golpes duros comenzaron a llegar cuando se anunció la cancelación de las Olimpiadas de verano a llevarse a cabo en Tokyo. Mientras que para las grandes compañías todavía hubo oportunidad de reagendar y mover algunas de sus inversiones en mercadotecnia, para algunas marcas que apostaron $10,000 dólares en un solo deportista esto representó un riesgo inminente de debacle.

datlas_mx_covid19_tokyo

El gran impacto que sacudió a toda la industria fue la cancelación del March Madness, el torneo de baloncesto colegial de la liga americana NCAA (National College Athletic Association). Y es que la relevancia de este gran evento masivo tuvo un efecto resonante en la industria de los medios de comunicación. El March Madness habría sido cubierto por CBS y sus socios – alrededor de un 80% de lo $1.05 billones de dólares del presupuesto anual de la NCAA provenía de los que estos medios pagan por presentar el evento vía TV y en línea. Sin mencionar que las implicaciones para anunciantes y mercadotecnia se estimaban superiores a los $1.126 billones de dólares gastados en mercadotecnia durante la edición 2019 del torneo. Tan solo este evento generó aproximadamente $968 millones de dólares en ingresos por mercadotecnia. Los spots (comerciales) costaban alrededor de $60,000 y $75,000 dólares en las primeras rondas y un espacio en la gran final se disparaba hasta los $950,000 dólares.

datlas_mx_covid19_march_madness

Así que entre tanta turbulencia ¿Dónde se esconden las oportunidades? Para esta “crisis”. Sin duda la reacción intuitiva para algunos de los equipos y de las mismas marcas patrocinadoras como la cervecera Anheuser-Busch (dueña de la cerveza Corona) fue mover sus presupuestos de mercadotecnia de deportes a iniciativas sociales y sin fines de lucro para apoyar al combate del COVID-19.

Por otro lado, aquellos que buscan aún conectar con fanáticos del deporte se han trasladado a la apenas naciente pero exponencialmente creciente industria de los e-sports (o deportes electrónicos). Sin duda los CMO (Chief Marketing Officers, por sus siglas en inglés) podrán encontrar justificación en la similitud de las características entre los fanáticos tradicionales del deporte en vivo y aquellos de los deportes en línea, pero existe un reto muy claro que es el tema de la edad. La demografía de los perfiles que hoy se están volcando a los deportes en línea son más jóvenes, lo que hace que las marcas comiencen a cuestionar y ajustar sus expectativas de retorno de inversión ante un escenario en donde los espectadores mayores, con ingresos y poder de compra superior, hoy están siendo parcialmente sustituidos por fanáticos más jóvenes con otros esquemas de gasto y consumo. Asimismo, los medios están invirtiendo y dando mayor cobertura a eventos complementarios al espectáculo deportivo como, por ejemplo, el periodo de agencia libre de los jugadores de la NFL (National Football League, por sus siglas en inglés).

datlas_mx_covid19_3d_sports

Finalmente, hay algunas iniciativas innovadoras como OpenSponsorship, una plataforma diseñada para automatizar el proceso de emparejamiento para atletas e influencers con marcas. Estos patrocinios podrían ser tan simples como apoyar a los atletas que muestran sus técnicas de entrenamiento en casa a través de las redes sociales, por ejemplo. Otras opciones incluyen nuevas empresas como AR-51, que podría permitir a los atletas que han resultado negativos para COVID-19 ser filmados en un pequeño juego de baloncesto de tres contra tres que los consumidores podrían ver como un holograma en 3-D.

Así que ya lo saben, cada puerta cerrada abre un par de ventanas de oportunidad para innovar. Cuéntanos tu como estas innovando en tu industria y ¿Qué opinas de las nuevas tendencias en deporte y mercadotecnia?

Escríbenos en @DatlasMX

5 errores al analizar bases de datos inmobiliarias y cómo evitarlos – Datlas research

Desde hace un par de años, como lo contamos en la experiencia PROPTECH en México, hemos generado grandes aprendizajes en el sector inmobiliario, sobre todo analizando información de precios de propiedades y generando modelos matemáticos con esta información.

Datlas_barra_suscribir

Actualmente nos encontramos mejorando nuestro modelo de valuación de inmuebles, que documentamos en esta columna, y en esta columna queremos compartir nuestros aprendizajes modelando algunas bases de datos inmobiliarias. Sobre todo con enfoque a qué errores evitar en el análisis de este tipo de información. No seremos tan técnicos, pero si es necesario que para comprender la lectura tengas un conocimiento introductorio de estadística.

Para este ejercicio tomaremos de referencia una base de datos de casas y apartamentos con más de 16,000 ubicaciones para Guadalajara, Jalisco, México. La información que usaremos contiene variables como: Ubicación, Cantidad de recámaras, baños, tamaño de construcción, tamaño de superficie, Edad de inmueble y un listado de amenidades asociada al inmueble.

5 Errores a evitar

1) Usar datos sin limpiarlos previamente

También te puede interesar, metodologías para análisis de datos

  • Es importante generar un diagnóstico a la base de datos y entender muy bien cuales son los problemas que pudiera generar en el modelo que queremos trabajar
  • SI es necesario, hay que preparar las variables para poderlas manipular exitosa mente. Por ejemplo, si existe algún valor numérico, hay que asegurarnos de que esté correctamente declarado como numérico. Lo mismo cuando sean textos, como caracteres
  • Muchos analistas primerizos no consideran un proceso exhaustivo de limpieza de datos. Por ejemplo, si estamos generando un modelo que nos va a ayudar a predecir precios de bienes raíces es importante que el insumo tenga correctamente registrado los valores de precio. Para esto podemos quitar los campos vacíos y evaluar y la base sigue contando con buen poder explicativo. En este caso quitamos todos los valores en 0, menores de 0 y NAs
  • Repetimos el proceso para cada una de las variables que quisiéramos validar en el modelo

Datlas_Str(BD_1

2) Manejar información no homologada

  • Hay algunas variables que pueden ser estandarizadas o escaladas para trabajarlas en contexto de análisis. Para variables de inmuebles es importante entender que existe una relación positiva entre el tamaño de una propiedad y su precio. Entre más grande sea una casa o un departamento, su precio potencial será más alto
  • En ese sentido podemos generar una nueva variable dividiendo el precio entre los metros cuadrados de superficie de cada inmueble. Así podemos obtener el precio por metro cuadrado, que sería una medida más estándar para contemplar en el análisis
  • Repetimos este proceso generando variables dummies o dicotómicas (1 cuando aplique y 0 cuando no) para la presencia de amenidades como: Albercas, Seguridad, Terraza, Estacionamiento y/o Elevador

Datlas_Str(BD_2

Atención en las dummies que tienen valores entre 1 y 0

Datlas_Dummies

3) No diagnosticar y remover correctamente los outliers o anomalías

También te puede interesar ¿Cuánto cuesta una buena ubicación para tu negocio?

  • Este paso es uno de los más complejos, una anomalía puede ser interpretado como valores extremos en variables. Por ejemplo, una casa tradicional podría tener de 2 a 4 habitaciones. Un departamento entre 1 y 2. Si encontramos registros con valores por encima de 10 habitaciones seguramente pudo haber sido un error de registro.
  • En el mismo sentido variables como precio, edad de inmueble, baños y tamaños de superficie deben de ser revisados a detalle para remover los valores extremos a la alza y a la baja. Un buen método es graficando un boxplot donde podamos visualizar la distribución por clases, en este caso por tipo de residencia entre casas, departamentos y condominios. Los puntos extremos o fuera de la caja podrían ser considerados como “outliers”, por lo mismo hay que diagnosticarlos más a detalle
  • ¿Cómo se hace? Entre algunos métodos, de los más sencillos de explicar es utilizando el rango intercuantil. O prácticamente el equivalente a lo que está dentro de la “caja” en una gráfica de boxplot (entre el cuartil 3 y el cuartil 1). Esto, sin embargo, significaría quedarnos con el 50% de los valores. Eso sería funcional si se tratara de datos que provienen de ejercicios con más margen de error, como el de  un experimento humano, pero en esta caso los registros se hacen por sistema asi que el error de registro podría ser minimizado
  • Para estos valores, podemos generar deciles por niveles de precio. De esta manera priorizar los valores entre el decil 10% y 90%. Nos aseguramos que los valores extremos queden fuera graficando en un boxplot nuevamente y validando que haya un mejor ajuste en la distribución

El pase de diapositivas requiere JavaScript.

 

4) Ignorar la propiedad geoespacial de las bases de datos con direcciones

  • Como mencionamos al inicio, una base de datos inmobiliaria tiene atributos geográficos como direcciones o coordenadas. En este caso estamos trabajando con coordenadas y lo primero que recomendamos hacer es asegurarnos de quedarnos con los registros que solamente están en la región que queremos analizar en el modelo. Esta limpieza puede ser manual o usando técnicas más sofisticadas que implican el uso de shapefiles a nivel municipio o Estado
  • Mucha estadísticas inmobiliarias están hechas a nivel código postal. Por ejemplo te dicen cuál es el precio promedio por CP o el tamaño promedio de las casas. La realidad para México es que podemos encontrarnos con disparidades, una casa del más alto nivel socioeconómico y a dos cuadras casas de tipo popular. En este sentido para capitalizar correctamente estos estadísticos debemos de generar zonas o clústers dentro de una misma ciudad de casas que compartan ciertas características
  • A partir de esto se pueden generar valores como valor promedio por clúster
Ejemplo de mapeo de base de datos inmobiliaria sin limpiar los datos mal registrados
Ejemplo de visualización de base de datos inmobiliaria sin limpieza suficiente

Datlas_barra_suscribir

5) Dejarse llevar por el primer resultado que te haga sentido

  • Una vez con la información limpia, estructurada y homologada podemos explorar la bases datos de distintas maneras. Lo tradicional es generar histogramas, gráficos de dispersión y/o correlaciones para entender qué está pasando con las variables. Para esto, les recomendamos la paquetería de GGALLY en R para echarle un vistazo a las variables numéricas de manera general
  • Por ejemplo, encontramos entonces una correlación entre baños y precio ¿Vale la pena? Significa que la cantidad de baños está relacionado el precio. O realmente es un efecto estadístico porque todas las casas “caras o de precios altos” tienen más de 5 baños. No podemos sacar suficientes conclusiones y un mal analista sacaría conclusiones con estas líneas tan débiles de hallazgos. Se requiere profundizar

Datlas_Ggally2

  • Podemos estudiar otras opciones de métodos de relación entre variables como una regresión. Buscamos la causas que provocan variaciones en el precio revisando variables como: Recámaras, Baños, Tamaño de terreno, tamaño de construcción, edad del inmueble y amenidades.
  • Pondremos atención a los signos de los estimadores, tratando de entender que tiene efectos a favor y en contra del precio. Por ejemplo, en este caso que la casa tenga Terraza o Alberca incrementa su valor en un monto considerable. También revisaremos el valor de ajuste R2 y la significancia total del modelo.

El pase de diapositivas requiere JavaScript.

Finalmente una vez establecido el modelo podríamos generar algunos ejercicios de predicción. Poner a prueba un inmueble existente o uno hipotético y con estos ejercicios darnos cuenta si el modelo está listo o requiere seguir siendo modificado

Datlas_predicciones

Hasta aqui el ejemplo de la columna.  En la práctica nuestro modelo utiliza modelos más sofisticados que los “lineales” porque, como podrán haber observado en los gráficos previos, no todas las relaciones son lineales. Pero quisimos explicarlo con regresiones porque pensamos que es la manera más fácil de ejemplificar un caso de uso.

Si te gusto el blog y crees que les puede ser de utilidad a tus colegas que analizan datos no dudes en compartirlo. También si conoces algunos otros errores adicionales a evitar recuerda dejar aqui tus comentarios. Por último recuerda seguir nuestro podcast “Café de Datos” que el día de hoy lanza capítulo con ISAAC CARRADAex IBM  hablando de analítica para impulsar ecossitemas en México.

11. Invitado Isaac - Analítica de datos para impulsar ecosistemas de desarrollo ¿Cuál es la oportunidad en México

Saludos

Equipo Datlas

-Keep it weird-

 

Emprendimiento de Inteligencia de Datos y Big Data