Archivo de la etiqueta: analitica

Aprender ciencia de datos y big data – 3 apuntes para empezar YA – Datlas manuales

El año pasado en nuestro blog “¿Cómo aprender ciencia de datos?” compartíamos distintos puntos prácticos para empezar a rodearse de círculos y proyectos de analítica donde cualquier usuario interesado podría atender.

En un par de meses la diversidad de puntos de aprendizaje se ha incrementado. Desde podcast, como “Café de Datos”, hasta cursos en línea de todo tipo de nicho dentro de analítica. Pero el día de hoy en esta columna queremos compartir 3 recursos de utilizad que no te puedes perder si quieres aprender de ciencia de datos este 2020-2021.

Apunte 1) Sigue grupos relacionados a Data Science (ciencia de datos) en Facebook y Linkedin

*Data Science – R & Python

*Data Science

*Data Science Beginners (Para principiantes)

*Machine Learning and Data Science

*Data Science Central

En español:

*Data Science Monterrey

*Ciencia de datos con R

¿Donde aprender ciencia de datos o big data? Desde tu escritorio. Estos grupos en redes sociales en realidad son comunidades de aprendizaje. Personas como tú, que en algún momento quisieron incrementar su acervo en Data Science y han encontrado algunos atajos en su camino que quieren compartir.

Si decides entrar a estos grupos y eres aceptad@. Recuerda que lo importante es: Cumplir con las reglas de las comunidades, aportar conocimiento, preguntar y generar diálogo.

Apunte 2) Sigue cuentas de líderes de opinión en data science

* Asif Bhat – Data Analytics

*Randy Lao – ClaoudML.com

*Kyle MCkiou – Data Science Dream Job

* Favio Vázquez – Scientist

*Eric Weber – Yelp

*World Economic Forum

En español

* Ricardo Alanis – Head of Data Science, Nowports

* Aldo Valadez – Director de Analytics en Banregio

* David Puente – Director de analítica avanzada en ARCA CONTINENTAL

Apunte 3 – Busca contenido de calidad y Gratuito en tu idioma

*Podcast “Café de Datos”

* Data Playbook I – Estrategia de Datos para tu negocio

* Data Playbook II – Generando estrategias de Big Data en tu organización

* Data Playbook III – Ciencia de datos a la mexicana (Lanzamiento 15 de Septiembre del 2020 )

Y si conoces alguna otra fuente de valor compártela en @DatlasMX para que podamos darle compartir y mejorar este contenido para todos.

Hasta aqui la columna de hoy. Nos queda invitarte de manera enérgica a que descargues nuestro Data Playbook Vol. III

Descarga AHORA y aprende sobre ciencia de datos

Saludos y si eres mexican@ disfruta este grito en casa.

Equipo Datlas

-Keep it weird-

Referencias:

Lista de Shrashti Singhal: https://gist.github.com/ShrashtiSinghal

Liga de imagen: https://blog.followclass.com/2016/11/22/the-future-of-education/

Inteligencia Artificial y Big Data en los negocios, ¿Qué efectos tuvo el COVID-19 en estas tendencias? – DATLAS Investigación

A inicios de año se nos presentó un reto sin precedentes que afectó completamente la forma en la que hacemos negocios. En respuesta a este gran cambio muchas empresas hicieron un replanteamiento de estrategias y objetivos al final del primer semestre del año. Nosotros no fuimos la excepción, como proveedores nos tocó presenciar de primera mano como muchos negocios lidiaban en distintas maneras con este reto de la pandemia. Fue ahí, justo unos meses después del gran shock inicial que comenzamos a notar una revaloración que las empresas estaban haciendo respecto a sus datos, como un activo clave, y por ende acerca de tecnologías como la Inteligencia Artificial (I.A.) y el Big Data.

Datlas_Blog_Promo_SuscriberFree

Comprometidos con seguir aportando a nuestro ecosistema, y conscientes de lo que estábamos presenciando, organizamos un Programa de 6 Sesiones para este segundo semestre del año (una vez al mes) en donde exponemos con casos de negocios reales los beneficios que empresas de todos los tamaños han podido capitalizar el uso de datos y aprovechar estas tecnologías. Justo este viernes tendremos nuestra segunda sesión titulada “El impacto del Big Data y la Inteligencia Artificial en los negocios” y es por ello que, en esta columna, hablaremos de como estas tendencias han impactado el mundo de los negocios y que tanto la pandemia a “afectado” su adopción.

La relación del Big Data & la I.A.

Antes de profundizar es necesario dejar en claro la razón de hablar en conjunto acerca del Big Data y la Inteligencia Artificial. En un sentido general el Big Data se refiere a esta manipulación de grandes cantidades de datos o información en diversos formatos, mientras que la Inteligencia Artificial (I.A.) se refiere a programas computacionales que son capaces de emular actividades del cerebro humano como el aprendizaje con base a experiencia (eventos pasados). Siendo así, no podemos hablar de Inteligencia Artificial sin hablar de Big Data dado que para construir modelos o algoritmos de I.A. se necesitan datos, que precisamente son obtenidos y manipulados por el Big Data.

¿Qué impacto esperábamos hace algunos años?

Apenas hace un par de años (2018), según información de Deloitte, 9 de cada 10 ejecutivos afirmaban que los sistemas de I.A. transformarían sus modelos de negocio.

datlas_mx_blog_deloitte_encuesta

Además, se esperaba que la Inteligencia Artificial diera lugar a la aparición de nuevos perfiles profesionales que debían convivir con los ya existentes. Estos perfiles especializados abren un nuevo abanico de posibilidades innovadoras que afectan directamente a procesos y herramientas, que ven mejorado su rendimiento.

Impacto actual

Actualmente, lejos de verse mermado el acelerado crecimiento y adopción de soluciones de I.A., por ejemplo, se ha visto una expansión interesante a nivel mundial y también en Latinoamérica. En el caso de asistentes virtuales inteligentes (tipo Siri y Alexa) en Latinoamérica se manejan más de 850 millones de conversaciones en negocios B2B y B2C para atraer, generar, crecer y retener clientes. Y este es solo un tipo de aplicación y una de las múltiples formas de derivar beneficios.

Por otro lado, el Big Data se utiliza para promover productos, desarrollar mejores estrategias comerciales, llegar a los clientes, explorar nuevos mercados y audiencias objetivo, optimizar el flujo de trabajo, reducir los costos y obtener otras ventajas competitivas en el mercado.

Natural Language Processing: A Short Introduction To Get You Started |

Ahora bien, sabemos que no todos los negocios han sufrido esta pandemia de la misma forma. Existen sectores o industrias que han sido impactados de forma más crítica, mientras otros han podido lidiar con esto de una manera menos acelerada. De la misma forma el impacto que estas tendencias del Big Data y la I.A. han tenido en las distintas verticales de negocio ha sido variado, en términos de sus aplicaciones, pero igualmente relevante y trascendente. Por mencionar algunos ejemplos puntuales profundizaremos en industrias como: retail, marketing y publicidad, así como el transporte y logística.

Retail, Marketing y publicidad

La tarea más frecuente de las soluciones de Big Data está relacionada con la búsqueda de patrones de comportamiento que se puedan emplear para muchos propósitos. Comprender los hábitos y deseos de los clientes es la principal preocupación de cualquier negocio, y el análisis de Big Data es la única forma válida de lograr resultados precisos basados en un gran muestreo y cálculos extensos en lugar de intuiciones y experiencias personales.

Otra aplicación común de Big Data en las empresas de retail, marketing y publicidad es el análisis predictivo sobre la base de grandes conjuntos de datos. La mayor cantidad y volumen de datos permite obtener resultados más precisos, configurar más parámetros antes del análisis e incluso ampliar los temas y las posibilidades generales de pronóstico.

Qué es el Big Data Marketing y qué ventajas ofrece?

Transporte y logística

Las empresas de transporte también manejan grandes volúmenes de información sobre vehículos, pasajeros, equipaje y carga. La necesidad de administrar flujos de datos extensos con restricciones de tiempo estrictas impuestas por los horarios de transporte requiere soluciones de software de alto rendimiento diseñadas específicamente para Big Data.

El propósito práctico de tales soluciones radica en rastrear la entrega de carga, monitorear el uso y suministro de combustible, el estado técnico del estacionamiento de vehículos de la empresa, los controles de salud de los conductores y el horario de trabajo, así como muchos otros factores relevantes. De esta forma, las empresas pueden utilizar el software Big Data para priorizar la seguridad además de la optimización habitual del consumo de recursos y la mejora de la eficacia.

How does Big Data save logistics? - How does Big Data save logistics? -  Régens

¿Cómo pinta el futuro?

Los analistas empresariales predicen que los ingresos del mercado global de Big Data alcanzarán los 103 mil millones de dólares en 2027. No importa si tu empresa es grande o pequeña, siempre hay una forma de beneficiarse de las soluciones de Big Data. La ventaja más importante que ofrece esta tecnología es el conocimiento de las necesidades y los patrones de comportamiento de los clientes. Esta información, junto con los pronósticos de alta precisión permite a los empresarios diseñar estrategias comerciales efectivas en lugar de perder tiempo y dinero en el método de prueba y error. La capacidad de manejar grandes volúmenes de información utilizando soluciones de software automatizadas también simplifica enormemente la gestión empresarial, incluidos aspectos como mantenimiento, inventario, envío, carga de trabajo y otros.

Si quieres conocer un caso real aplicado de Big Data e Inteligencia Artificial y enterarte de como puedes tu mismo comenzar a aplicar estas tecnologías en tu negocio el próximo lunes, no te pierdas nuestra sesión este viernes. Inscríbete gratis aquí.

datlas_mx_6_sesiones_2S2020_bigdata_analytics_ia_sesion2_promo

Smart Cities o Ciudades Inteligentes ¿Será prudente no hablar de COVID-19?

En medio de una pandemia que arrasa al mundo entero de pronto me encuentro en una mesa de dialogo junto a dos colegas emprendedores y un reportero de cierto periódico de alta circulación en México. ¿El tema? Tecnología. Comenzamos a platicar acerca de la forma en la que la tecnología ha apoyado y puede seguir aportando valor para elevar el nivel de vida de la humanidad en general. De forma más particular fuimos profundizando en cada uno de nuestros emprendimientos: por un lado, telemedicina, por otro reclutamiento de talento en programación y, finalmente, nosotros en la parte de analítica, big data e inteligencia artificial. El periodista nos comienza a hacer un par de preguntas a cada uno, me tocó ser el último. No era de asombrarse que se asociaran los temas con la crisis sanitaria actual, pero lo que si me sorprendió fue que al llegar a mí la pregunta estuvo lejos del tema COVID, de hecho, la interrogante fue: “Ustedes que están en esta parte de los datos, el big data, la inteligencia artificial ¿cómo ven el tema de las ciudades inteligentes? ¿qué nos falta en México para poder consolidar una ciudad inteligente?” Confieso que en un inicio hasta me puse a pensar si es que era prudente no hablar de COVID, pero me gustó tanto la duda que he de dedicar esta columna a hablar de ciudades inteligentes, si, aún en esto tiempos donde el tema central pareciera ser otro.

Datlas_Blog_Promo_SuscriberFree

¿Qué es una ciudad inteligente?

Antes de comenzar nos gusta plantear la base de conocimientos necesarios sobre el tema. Iniciemos por definir el concepto de ciudades inteligentes (Smart Cities en inglés). De acuerdo con el Banco Interamericano de Desarrollo (BID) una ciudad inteligente es aquella que coloca a las personas en el centro del desarrollo, incorpora tecnologías de la información y comunicación en la gestión urbana y usa estos elementos como herramientas para estimular la formación de un gobierno eficiente.

A nosotros nos gusta también la perspectiva que define a una ciudad inteligente como un núcleo urbano que disponen de tecnología para desarrollar el bienestar de sus ciudadanos con el máximo respeto al medio que los rodea, alcanzando un punto de equilibrio llamado sustentabilidad. La implementación de tecnologías de última generación supone una mejora sustancial en la calidad de vida de los ciudadanos. Deben enfocarse en garantizar movilidad, seguridad, habitabilidad y bienestar a todos ellos.

datlas_mx_blog_smart_cities_deloitte

datlas_mx_blog_smart_cities_deloitte_2

¿Por qué una ciudad inteligente?

Ahora bien, la relevancia de esta nueva forma de organización urbana trasciende a un tema de moda o una tendencia pasajera. Lo hemos estado escuchando en el argot de negocios en temas de productos y servicios, diseñar centrados en el usuario es la diferencia para dotar de una experiencia más que de una solución al cliente final y generar ese valor. En el tema de ciudades no es distinto, al poner a las personas en el centro del desarrollo se generan nuevas ideas de concepción espacial y de organización que nos ayudan a innovar en muchas formas, entre ellas, las interacciones que se tienen con los servicios públicos y hasta la manera en la que nosotros mismos realizamos algunas actividades.

Si hablamos de un ejemplo en particular podría ser la congestión vehicular. Esta es una de las principales preocupaciones en las grandes ciudades de México, debido al impacto social y económico que generan. En términos económicos, el costo de horas productivas perdidas a causa de la congestión vial es de $94,000,000 millones de pesos al año, así lo dio a conocer el Instituto Mexicano para la Competitividad (IMCO) el pasado mes de marzo del presente año.

datlas_mx_blog_smart_cities_congestion_vehicular_mexico

Víctimas de embotellamientos, los habitantes de México pierden alrededor de 432 horas al año en traslados para poder realizar sus actividades, lo equivalente a entre 11 y 18 días perdidos al año. Ante esta problemática, diversas ciudades están buscando migrar a este esquema de ciudad inteligente.

¿Cómo convertirse de ciudad en ciudad inteligente?

Ciudades con sensores distribuidos en diversos puntos de su territorio, dedicados a recolectar información en tiempo real que mejore la movilidad de sus habitantes. Ciudades con sistemas de alumbrado público, que adapten su nivel de iluminación a las condiciones del entorno, o con cámaras de seguridad vinculadas a un software de análisis, capaces de identificar situaciones de anormalidad y hacer reconocimiento de imágenes. Los ejemplos descritos previamente son una muestra de las diversas formas en las que pueden funcionar las ciudades inteligentes.

datlas_mx_blog_smart_cities_mexico_panorama

Si bien no existe una metodología desarrollada sobre como convertirse en ciudad inteligente, Deloitte ha tenido a bien darnos algunas directrices para lograrlo:

  1. Definir los objetivos estratégicos. ¿Qué queremos decir con esto? Que se tienen que analizar las razones por las que se quiere migrar a un modelo de ciudad inteligente.
  2. Una vez que se hayan definido los objetivos, debe elaborarse un diagnóstico robusto, el cual permita a las ciudades identificar ya sean sus problemas –como cuestiones de movilidad o servicios– o bien su vocación –por ejemplo, turística–, aspectos que pueden ser solucionados o impulsados a través de la tecnología.
  3. El siguiente paso es aterrizar ese diagnóstico en una cartera de proyectos, es decir, definir la manera o las acciones concretas que se van a poner en marcha para lograr los objetivos planteados.
  4. Posteriormente, tiene que diseñarse un caso de negocio en el que se establezcan los mecanismos de financiamiento para los proyectos, se analice su rentabilidad y los recursos que se necesitarán para su implementación.
  5. Finalmente pasar de la planeación al despliegue físico y operativo.

¿Qué nos falta en México?

Para empezar, hay que reconocer que en México tenemos 5 ciudades que están encaminadas a convertirse en ciudades inteligentes dentro de algunos años. Algunas han estado trabajando por más de 6 años y han logrado avances significativos. Estas ciudades son: Maderas, Querétaro, Smart Puebla, Ciudad Creativa y Tequila.

datlas_mx_blog_smart_cities_wallpaper

Ahora bien, en mi opinión, que aparte coincidimos en la mesa de dialogo junto a los colegas y el reportero, lo que nos sigue haciendo falta para poder avanzar más ágilmente en estos temas de convertir ciudades en ciudades inteligentes es la cuestión de la colaboración. Cuando estas hablando de intervenir con sensores las calles, poner cámaras, monitorear los servicios públicos, etc. Se requiere una colaboración, por no mencionar una sincronía técnica, de tamaños descomunales que solo he visto en México en tiempos de desastres naturales como la recuperación después del último temblor en CDMX, por ejemplo. Esto nos llama no solo a plantear la colaboración como un mecanismo necesario para ejecutar proyectos de este estilo sino a realmente concientizarnos de que los nuevos modelos de negocios son colaborativos desde origen y debemos premiar las alianzas y las sinergias desde la concepción de nuestras empresas hasta la manera en la que gestionamos las ciudades.

Terminamos la platica entre risas esperando no ser imprudentes al haber estado hablando de temas ajenos a la pandemia, pero sin duda fue una reflexión bastante enriquecedora. Y tú, ¿Qué opinas al respecto? Cuéntanos en nuestras redes sociales

@DatlasMX

 

4 pasos para preparar tus bases de datos para análisis

Hoy en día la transformación digital cuenta con distintos pilares dentro de los que destaca la analítica o análisis de datos. Apalancar todo el valor que esconden las grandes cantidades de información disponibles en la actualidad permite que los negocios y la sociedad, en general, se organice y genere valor de formas innovadoras. Para lograr un análisis de datos, la materia prima es clave: las bases de datos. Como cualquier materia prima las bases de datos guardan atributos y características que las hacen ser mejores o peores al momento de ser utilizadas como input para un análisis. En esta columna vamos a revisar 4 sencillos pasos con los que podrás asegurar que tus bases de datos estén preparadas y listas para realizar análisis de calidad que generen un verdadero valor diferencial para tu negocio. Estos 4 pasos son: limpieza, reestructura, homologación y clasificación.

free_Suscriber

#1 Limpieza de datos

El llamado data cleansing, por su traducción al idioma inglés, es el proceso de descubrir y corregir o, en casos extremos, eliminar registros de datos que han sido identificados como erróneos dentro de una tabla o base de datos. Este proceso de limpieza de datos permite identificar datos incompletos, incorrectos, inexactos, no pertinentes, etc. y luego sustituir, modificar o eliminar estos datos sucios.

Hay distintos métodos para limpieza de datos. Uno de ellos es el análisis gramatical que identifica errores de sintaxis, es decir, si el sistema lo tiene declarado como una variable numérica y el usuario registro una palabra, este tipo de análisis lo identifica. Existe la transformación, que básicamente ajusta los datos dentro de un formato esperado, en la mayoría de las ocasiones la transformación es para normalizar los datos y ajustarse a valores mínimos y máximos. Otra forma es el eliminar duplicados, que como su nombre lo dice, simplemente identifica registros repetidos y elimina uno de ellos. Finalmente, existen métodos estadísticos mediante los cuales la estadística descriptiva hace visualmente reconocibles las anomalías y posteriormente expertos se encargan de ajustar ese tipo de datos mediante la sustitución de los mismos por valores promedios o algún otro tipo de tratamiento, dependiendo de la naturaleza del dato.

Una vez detectados estos datos “sucios” es necesario identificar las causas para poder establecer flujos de trabajo ejecutables de forma automática para que corrijan o excluyan este tipo de datos. En temas técnicos es común el uso de bibliotecas como Pandas para Python o Dplyr para R.

datlas_mx_blog_data_cleansing

#2 Reestructura de bases de datos

Este segundo paso del proceso de preparación de bases de datos tiene que ver literalmente con tomar una base de datos de cierta estructura como, por ejemplo, 10 columnas por 3 filas y alterarla de tal forma que al final quede una base de datos completamente nueva de, por ejemplo, 6 columnas por 7 filas, pero con los mismos datos ya limpios que obtuvimos en el paso anterior. Para ilustrar este punto utilizaremos un ejemplo muy sencillo:

Supongamos que levantamos una encuesta sobre productos y marcas que podemos encontrar en el baño de cada entrevistado. Los resultados de la encuesta nos darían una base de datos de la siguiente forma:

Entrev edad sexo Prod_1 Prod_2 Prod_3 Marca1 Marca2 Marca3 NSE
1 10 F Desodo

rante

Pasta de dientes Jabon líquido AXE CREST NUBELUZ A
2 25 M Pasta de dientes Sham

poo

Jabon en gel COLGATE ELVIVE AMIGO B
3 23 F Crema para peinar Pasta de dientes Jabon de barra SEDAL COLGATE ESCUDO C

Si quisiéramos que los datos nos digan que artículos son los que las mujeres de 24 a 30 años tienen en su baño, necesitamos manipular los datos de forma que podamos obtener como respuesta a esta pregunta un cálculo de frecuencia.

En este segundo paso es donde tomamos en cuenta las hipótesis o los objetivos de análisis para generar la reestructura de la información. En este caso, por ejemplo, la base de datos ya reestructurada quedaría así:

Entrevistado Edad Sexo Num_Prod Descripcion Marca
1 10 F 1 Desodorante AXE
1 10 F 2 Pasta de dientes CREST
1 10 F 3 Jabón Líquido NUBELUZ
2 25 M 1 Pasta de dientes COLGATE
2 25 M 2 Shampoo ELVIVE
2 25 M 3 Jabon en gel AMIGO
3 23 F 1 Crema para peinar SEDAL

Con lo cual podríamos establecer, suponiendo que utilicemos Excel, un filtro en la columna de edad para seleccionar las edades superiores a 24 años e inferiores a 30, al mismo tiempo que filtramos en la columna de sexo la letra F (de femenino) y simplemente calculamos el total de filas que quedan desplegadas de la tabla. De esta manera respondemos la pregunta inicial.

#3 Homologación de bases de datos

En este punto ya comenzamos a jugar con distintas bases de datos, es decir, muchas veces las empresas tienen distintas áreas donde el modo con el que tratan los datos es distinto. Por lo tanto, al momento de tratar de unificar resultados o compararlos, puede que no se estén tomando parámetros similares y eso difícilmente podrá permitir que se realicen cruces de información de manera eficiente.

Al homologar bases de datos es necesario generar estructuras preestablecidas y un glosario de variables que defina claramente los formatos y las especificaciones necesarias para cada tipo de variable registrada. Un caso muy común por ejemplo es el formato de fechas entre dos bases de datos distintas, mientras uno maneja el formato día/mes/año otro tiene registros como mes/día/año con lo que a la hora de hacer un cruce de información las fechas nunca logran empatar y es imposible realizar un cruce de forma adecuada.

datlas_mx_blog_homologacion_bases_de_datos

#4 Clasificación de bases de datos

Finalmente, tenemos el paso de clasificación. En este punto literalmente el objetivo es darle una etiqueta o categoría a cada base de datos de acuerdo al contexto que estemos manejando, la utilidad de la misma base de datos o las necesidades que estas satisfagan al interior de la organización. De forma general existen dos tipos de clasificaciones para las bases de datos: según la variabilidad de los datos o según su contenido.

Dentro de la primera clasificación existen las bases de datos estáticas, que generalmente son bases de datos de consulta, con registros históricos que no van a cambiar. El típico ejemplo aquí son las ventas de hace 5 años para una compañía de artículos deportivos. Por otro lado, están las bases de datos dinámicas, donde la información cambia a través del tiempo por actividades como: actualización, borrado y edición de datos. El mejor ejemplo en este caso son las bases de datos de clientes (CRM) donde hay constantes actualizaciones de información o incluso eliminación de prospectos.

En la segunda clasificación tenemos las bases de datos bibliográficas, que guardan literalmente registros de autor, fecha de publicación, editorial, etc. En contraste existen las bases de datos de texto completo que almacenan el contenido completo de las citas bibliográficas anteriormente citadas, por ejemplo. También existen subclases como directorios, bibliotecas, etc.

datlas_mx_blog_clasificacion_bases_de_datos

De esta forma logramos tener una integridad entre los datos almacenados, la base de datos que los resguarda, las distintas bases de datos dentro de una organización y su capacidad de complementarse al momento de realizar un análisis. Así de fácil podemos cuidar la calidad de nuestros datos para asegurar que podamos aprovechar todo el poder y las ventajas del big data a la hora de realizar analítica.

Si te interesa conocer más acerca de estos procesos o necesitas ayuda con tus bases de datos, visita nuestro Marketplace o contáctanos en nuestras redes sociales

@DatlasMX

 

Diagnóstico de bases de datos: Aprovechando al máximo la información que genera tu negocio

A finales de mayo escribimos una columna en donde establecimos los 5 pasos para aprovechar los datos de tus puntos de venta. Dentro de este proceso el paso #1 eran precisamente los datos, mientras que los siguientes pasos se enfocaban en como transformar estos datos en información y de ahí derivar insights para establecer accionables. En esta ocasión vamos a profundizar en ese primer paso, para hablar de la forma en la que un buen diagnóstico de tus bases de datos, una radiografía, puede ayudarte a preparar los datos para realmente aprovechar y capitalizar al máximo durante los siguientes pasos del proceso de aprovechamiento.

free_Suscriber

Así que comencemos, cuando hablamos de bases de datos nos referimos a ese repositorio de registros que tiene el negocio con el récord de los distintos hechos y sucesos que acontecen durante su quehacer diario. ¿Más fácil? Imagínate una hoja de cálculo en Excel con columnas y filas llenas de datos como: nombre del cliente, producto que compro, precio, etc. Ahora bien, el hecho de capturar la información y tenerla digitalizada sin duda es un primer paso, pero muchos negocios en la actualidad creen que eso es suficiente, como si la transformación digital y las nuevas tecnologías como big data o inteligencia artificial se trataran solo de tener datos y de tenerlos digitales. La realidad es muy distinta, sin duda tener los datos es importante, pero su calidad y su estructura son cruciales para poder capitalizar todos los beneficios que esconden. Para dejarlo más claro, imagínate que llegas a un lugar y pides una silla para poder sentarte, la persona a la que se la solicitaste te responde que efectivamente existe una silla y te la trae, pero de pronto cuando te sientas la silla se vence y caes al suelo. ¿Dónde estuvo el detalle? Precisamente en la calidad y estructura de la silla, es decir, no hace falta simplemente tener lo necesario, sino asegurarnos que eso que tenemos puede soportar y capitalizar las exigencias a las que lo vamos a someter.

datlas_mx_blog_diagnostico_database

Así que ¿por dónde empezar? Lo primero es hacer una pausa, un corte y generar el listado completo de variables que maneja el negocio. En nuestro idioma, cuando trabajamos con un cliente, a esto le llamamos generar un glosario de variables. Esto le permite tanto al negocio como a nosotros entender la situación actual, la radiografía, el estatus. Ahora bien, este listado no es simplemente enumerar y nombrar cada dato o variable, sino realmente diseccionar cuestiones como: el tipo de variable, la periodicidad con la que se actualiza, la categoría a la que pertenece dentro de los procesos del negocio o de los atributos que analiza la compañía, el formato con el que se registra, entre otros. Un caso práctico lo vivimos a finales del año pasado trabajando con Andrés, dueño de una cadena de restaurantes con presencia en Monterrey y Playa del Carmen. Cuando Andrés llegó con nosotros con el reto de generar nuevas iniciativas de inteligencia para su negocio, lo primero que preguntamos fue precisamente “¿Qué datos tienen?” y después de un largo silencio concluimos que era necesario hacer el diagnostico.

Al construir el glosario de variables nos dimos cuenta de algunos detalles interesantes como, por ejemplo: registros con problemas ortográficos, formatos de fecha distintos entre cada sucursal (una registraba día/mes/año y otra lo registraba como año/mes/día), había productos que se registraban por peso mientras otros eran registrados por unidad o paquete, etc. Este primer gran paso nos permite hacer lo que un doctor, guardando sus proporciones, diagnosticar y entender que es lo que tenemos que hacer.

datlas_mx_blog_diagnostico_Model-variable-list-Predictor-variables-used-in-models-type-of-data-categorical-or

Una vez que entendimos los datos en su mayor granularidad y esencia, el siguiente gran paso del diagnostico es evaluar la estructura que guardan esos datos dentro de la infraestructura de la empresa. ¿En español? Tomamos el glosario de variables y nos metemos a las entrañas del negocio a ver literalmente la base de datos donde duerme cada uno de esos datos. La clave en este punto es entender si el acomodo, literal, de filas y columnas es el ideal para generar las manipulaciones y los tratamientos necesarios para generar inteligencia. Volviendo al caso de Andrés, como ejemplo, el dato de ventas se registraba en una base de datos que tenia a los clientes (un cliente por fila) y se iba llenando cada transacción (venta) por columna, es decir, si un cliente había comprado 5 veces tenias una base de datos con una fila (el nombre del cliente) y 5 columnas (una con cada fecha de compra). Claramente esta es una estructura difícil de manipular si te pones a pensar en generar analíticos descriptivos como la cantidad de veces que ha comprado dicho cliente o el total de clientes que han comprado 2 veces o más, por ejemplo. De esta forma, este segundo acercamiento nos permite diagnosticar la forma en la que el dato debe guardar una relación con la estructura de la base donde se esta registrando y guardando para poder capturar su potencial de análisis.

datlas_mx_blog_diagnostico_01-a-basic-flat-file-spreadsheet-database-100739687-large

Finalmente, el paso decisivo del diagnóstico es evaluar la relación que guardan las distintas bases de datos del negocio. Si te fijas, nos hemos ido desde lo más particular, que es el dato, pasando por lo más agregado que es la base de datos y hemos llegado a lo más general que es la relación de estas bases dentro de los procesos de negocio. Esta perspectiva esconde los últimos “síntomas” que necesitamos saber para poder dar un diagnóstico certero. En esta etapa lo que buscamos es entender la forma en la que las bases de datos se conectan entre ellas para contar la historia de cada dato enlistado en la parte del glosario. Lo importante es encontrar los datos conectores, es decir, aquellos datos claves que nos ayudan a interconectar una base con la otra. El ejemplo más claro, en el caso de Andrés, es la forma en la que el dato de cebollas dormía en una base de datos de recetas, donde cada receta tenía un identificador único (ID) que a su vez se conectaba a los datos de las ordenes que el mesero tomaba y enviaba a cocina para su ejecución y finalmente ese mismo identificador servía para descontar de la base de datos de inventarios los productos y la cantidad correspondiente. Se lee mucho más complicado de lo que es, pero el mensaje es muy sencillo y claro, entender la forma en la que se comunican las bases es clave para poder hacer un diagnóstico completo.

datlas_mx_blog_diagnostico_database2

De esta forma, siguiendo la analogía del doctor, podemos darnos cuenta fácilmente en que parte se encuentra el verdadero “dolor” e ir a tomar acciones puntuales sobre cada uno de ellos. En el caso de los datos, por ejemplo, las soluciones son claras: limpieza, clasificación o exploración de fuentes de generación de datos para capitalizar nueva información. En el tema de la base de datos individual donde duerme el dato las alternativas son: reestructura u homologación. Para la parte de la comunicación entre bases de datos lo que se puede hacer es: generar variables de identificación única, optimizar la interconexión entre bases de datos o replantear el diseño de consultas (querys). Con todo esto el negocio esta listo para poder capitalizar sus datos y generar inteligencia, que se traduce en mejor gestión de procesos, segmentación de clientes, mejoras a la oferta, ajustes de precio, control de inventarios y mucho más.

Así que ya lo sabes, si quieres aprovechar la generación de datos de tu negocio lo primero es realizar un diagnóstico. En Datlas estamos a tus ordenes para apoyarte, como a Andrés, en este proceso de descubrimiento para poder descifrar todos los beneficios que se esconden en tus bases de datos.

@DatlasMX

 

 

Lo que esconden tus datos: Análisis de CRM para mejorar precios, catálogos, marketing y ¡más!

La vida de un negocio son sus ventas. La complejidad es que las ventas son tanto arte como ciencia. Uno de los retos más comunes cuando trabajamos con empresas o grandes corporativos es el descifrar la fórmula para construir una estrategia comercial exitosa. Sin duda en estos tiempos esa fórmula se vuelve dinámica ante las circunstancias y son muchos los elementos a configurar. Por suerte la materia prima detrás de toda la parte “científica” de esto se encuentra en nuestro elemento favorito: los datos. En esta entrada vamos a platicar acerca de las distintas formas en las que los datos comerciales y de tu CRM se pueden usar para capitalizar mejoras en precios, catálogos, marketing, programas de descuentos y mucho más.free_Suscriber

Antes de comenzar es crucial entender un poco de historia. La gestión de la relación con clientes ha sido uno de los componentes más antiguos de los negocios. La infalible pluma y papel fueron suficiente en su momento para llevar el registro básico de las ventas y los clientes. En los años 50´s llegó el famoso Rolodex (se vale buscar en Google, yo también lo descubrí recientemente) que ofrecía la capacidad de girar los registros mientras añadías nuevos clientes y actualizabas la información de otros ya existentes. El siguiente gran paso se da a inicios de los 80´s cuando llegan las bases de datos a revolucionar el proceso de consolidación de la información de los clientes, aunque a finales de esa década el aprovechamiento de estas bases de datos era aún limitado, figuraba tan solo como un directorio o Rolodex digital, con pocos insights y casi nulas interacciones de la compañía con sus clientes. Hasta inicios de los 90´s comienza la automatización de los procesos de ventas y justo en 1995 se acuña el termino Customer Relationship Management o CRM, por sus siglas en inglés. A partir de esa década comienza la profundización en los análisis y una gestión mucho más detallada e inteligente de la relación con los clientes.

El pase de diapositivas requiere JavaScript.

Ahora bien, el CRM perse es una herramienta tecnológica pero su punto de partida, como en todo, son los datos que se alimentan en él. En este sentido la primera etapa importante antes de analizar los datos comerciales y de CRM es precisamente generarlos. Dentro de esta etapa de recolección de datos es importante establecer los procesos de negocio en donde interactúas con tu cliente y se abre la posibilidad de ese intercambio de datos o de información. Asimismo, es crucial que como negocio definas los datos “necesarios” y los datos “deseados” que buscas obtener de tus clientes para poder comenzar a llenar este CRM. Finalmente, debes establecer una mecánica de incentivos para poder propiciar de manera natural y benéfica para ambas partes el hecho de compartir estos datos.

Vamos a aterrizarlo en un caso de negocio. Eugenio, uno de nuestros clientes dentro de la industria energética, nos pidió apoyo para generar su estrategia go-to-market de su nuevo panel solar. Esta claro que analizamos sus datos comerciales y de su CRM, pero lo interesante aquí es resaltar los 3 atributos que mencionamos en el párrafo anterior. Eugenio tenia claro que uno de sus procesos de negocio mas importantes era el hecho de la interacción del cliente en su página web, dado que por la naturaleza del producto y el servicio que lo acompaña, el anaquel digital resultaba muy relevante. Después estableció que los datos que necesitaba obtener del cliente eran su ubicación y el consumo promedio de luz, aparte de los datos de contacto. Fue así como se le ocurrió armar una “calculadora de ahorro” dentro de su sitio web como un incentivo para que el cliente pudiera compartir estos y otros datos a cambio de un beneficio directo que era el calculo del monto estimado de ahorro que podía obtener con el nuevo panel solar que se estaba ofreciendo.

datlas_mx_blog_crm_customer_master_data_management-01

Hasta aquí se ha logrado establecer una dinámica para obtener los datos, el paso siguiente es precisamente adentrarnos en los datos. Cuando estamos analizando datos comerciales y de CRM es importante hacer un diagnostico y establecer el inventario completo de variables con el que vamos a estar trabajando, es decir, a pesar de que para un negocio un medio de contacto sea el teléfono, para otro podrá ser el correo electrónico o incluso ambos. En este sentido el punto de partida es entender muy bien la base de datos, las variables con las que vamos a estar “jugando” y comenzar a establecer algunas categorías de datos como, por ejemplo: perfil, canal fuente, dinámica. En el caso de Eugenio por ejemplo cuando hablamos de la categoría perfil estamos agrupando todos los datos que hablan del cliente como, por ejemplo: su nombre, su correo, su teléfono, el lugar donde vive, etc. Cuando hablamos de canal fuente estamos hablando de la forma en la que conoció y se entero de la empresa, como llego, si tuvo algún costo esa publicidad por la que se enteró, etc.

Finalmente, en la categoría de dinámica es necesario hacer una profundización todavía más importante ya que nos referimos a los datos que distinguen y diferencian a los clientes a lo largo de las etapas del proceso o ciclo de ventas. En este caso cuando hablamos de proceso o ciclo de ventas es relevante comprender la metodología que esta utilizando el negocio. Sabemos que existe mucha literatura, estudios y propuestas acerca de ventas, procesos y ciclos, algunas de 5 pasos, 7 etapas, 9 fases, etc. Aquí lo esencial es entender la forma en la que el negocio distingue entre un cliente que esta en la etapa 1 y como es que pasa a estar en la etapa 2, por ejemplo. En el caso de Eugenio, ellos tenían una gestión muy sencilla con 3 grandes etapas: lead, prospecto y cliente (o venta). En su equipo definieron un lead como todo aquel individuo que haya mostrado interés en su producto a través de compartir su información. Esa persona no podía pasar a la etapa de prospecto si no habían ocurrido 3 cosas: había entrado en contacto con un representante de ventas, había aceptado que se le generara una cotización y ya se le había generado y comunicado esa cotización. Finalmente se convertía en cliente (o venta) una vez que aceptada dicha propuesta o cotización y se generaba la factura de venta. De esta manera, se logra una claridad en cuanto a los datos que permite entender a quien realiza el análisis donde buscar y que datos utilizar al momento de atacar los distintos retos o hipótesis que se planteen al inicio del ejercicio.

El pase de diapositivas requiere JavaScript.

En cuanto se tiene claro los datos y las estructuras del CRM y la información comercial es momento de apalancarla para atacar los retos del negocio. En este caso, por ejemplo: mejorar precios, catálogos, marketing y programas de descuentos.

En el caso de mejoras o cambios en precio, tomando como ejemplo a Eugenio y su negocio, es de suma importancia poder apalancar los datos que tienen que ver directamente con la conversión, es decir, con la parte del proceso en el que pasa de prospecto a cliente. Lo que se hace aquí es agrupar a aquellos individuos que hayan tenido como principal indicador de “no conversión” un tema del precio y utilizar los datos del CRM para generar una segmentación. Ahora bien, cuando nos referimos a segmentación no estamos hablando del típico hombre/mujer, edad, etc. Sino un tema de necesidades, es decir, hay que descifrar que nos pueden decir los datos acerca de la necesidad o el beneficio percibido por el cliente en contraste con el precio. Por ejemplo, en el caso de Eugenio, ellos tenían claro el consumo promedio, con lo que pudieron hacer un análisis y encontraron una correlación entre consumo promedio y el precio estándar del nuevo panel, de tal forma que se dieron cuenta que para el punto de precio del nuevo panel el segmento de clientes al que debían dirigirse se distinguía por tener una necesidad de ahorro a partir de cierto consumo. ¿Y eso que con el precio? Precisamente estos insights permitieron que se buscaran alternativas para generar productos con un punto de precio más bajo para ese segmento detectado o incluso explorar alternativas como financiamientos, arrendamientos o planes de pagos que pudieran tener un impacto indirecto en la percepción del precio por parte del cliente.

datlas_mx_blog_crm_pricing

Por otro lado, en el tema de mejoras al catálogo de productos el acercamiento al reto debe darse de forma distinta. Retomando el ejemplo de Eugenio y su negocio, para este punto estaríamos enfocándonos en analizar los datos dentro de las etapas de lead y prospecto, para destacar cuales fueron aquellos productos en los que las personas mostraron más interés. Igualmente cabe la posibilidad de una segmentación por necesidades. Si analizamos, por ejemplo, las palabras claves o los anuncios utilizados en las campañas de generación de leads y las cruzamos con términos relacionados nos podríamos dar cuenta, como Eugenio, que existe un particular segmento de clientes que no solo está interesado en paneles, sino que en el contexto de su búsqueda esta preocupado por el medio ambiente, busca alternativas de energía sustentables, renovables, etc. De tal suerte que pudiera explorarse, haciendo quizá un A/B testing, la forma de incluir dentro del catalogo de productos unos focos o bombillas de tecnología lead ya que consumen menos energía, iluminan más, etc. De esta forma hay un impacto directo en el catalogo de productos.

datlas_mx_blog_consultoria_crm_catalogo

Finalmente, para el tema de marketing, que sin duda es todo un universo y un mundo en sí mismo, existen bastantes formas de apalancar los datos comerciales y del CRM para enfocar mejor las campañas de mercadotecnia. En el caso de Eugenio, e incluso para nosotros, la información de la fuente desde la que se genero ese lead ha sido muy importante para discriminar entre los distintos canales de difusión y marketing. Igualmente, los datos del perfil del cliente nos han ayudado a definir áreas geográficas, zonas, regiones en donde enfocar puntualmente las campañas. Complementando con el punto anterior y apalancando incluso también información de la fase de cliente (o venta) se pudieran analizar atributos o características claves que el cliente percibe y expresa acerca del producto como para ajustar los mensajes, las frases y los anuncios en términos de lenguaje, beneficios a comunicar y formas de realizar el acercamiento.

Así que estas son algunas de las formas en las que hemos apoyado a nuestros clientes a aprovechar toda la información comercial y de su CRM para generar mejoras que impacten en los resultados de su negocio. Si estas interesado en explorar algo como esto te invitamos a visitar nuestro Marketplace y agendar una sesión con nosotros para platicar al respecto y ver la forma en que pudiéramos ayudarte.

Hasta aquí la columna de hoy, gracias y no dejes de compartirnos tu opinión en redes sociales

@DatlasMX

 

The Last Dance: la versión que cuentan los datos

Antes de comenzar debo confesarles que soy un apasionado jugador y fanático del basketball desde que tenía 6 años. Me tocó ver, junto a mi padre, aquella temporada 1997-1998 donde Michael Jordan y los Chicago Bulls coronan su último baile (The Last Dance, en iglés) con un 6to título para Jordan, la segunda racha de 3 títulos al hilo para el equipo y una espectacular historia de 6 títulos en 8 años para la franquicia. Ahora bien, para quien no lo sepa, el famoso documental de ESPN transmitido también por Netflix y titulado “The Last Dance” relata los detalles de esta incansable hazaña de los Bulls desde 1984, cuando seleccionan a Michael Jordan en el draft, pasando por su primer título en la temporada 1990-1991 y hasta cerrar con broche de oro toda una era. Si bien el documental ha tenido un tremendo impacto, también ha desatado la polémica alrededor de Jordan desde distintos ángulos: su forma de ser, su trato con los demás, hasta cuestionar su título honorario de mejor jugador de todos los tiempos (Greatest of All Time o GOAT, por sus siglas en ingles). En esta columna vamos a dejar de lado el fanatismo, las opiniones y los sentimientos para utilizar analítica deportiva (Sports Analytics) y relatar la versión que cuentan los datos acerca del último baile. Si quieres saber que es sports analytics puedes visitar nuestro blog anterior. Si quieres enterarte como se está aplicando sports analytics en el Club de Futbol Monterrey puedes escuchar el más reciente episodio de nuestro podcast #CaféDeDatos.

free_Suscriber

El punto de partida de este análisis nace de la polémica que argumenta que la serie tiene un sesgo hacia el papel de Michael Jordan, mientras que deja “en las sombras” algunas aportaciones importantes de los distintos actores a su alrededor. Como amantes de los datos y la estadística entendemos que el resultado de cualquier situación depende de un modelo o de una formula con distintos factores y variables. En este caso el éxito de los Bulls se debe a un conjunto de cosas: desde el dueño, el gerente general, el entrenador, la ofensiva en triangulo, el talento individual de los jugadores, el juego colectivo, etc. Incluso el mismo Michael tiene una frase icónica que dice: “El talento gana partidos, pero el trabajo en equipo y la inteligencia ganan campeonatos”. Así que, veamos que dicen los datos acerca del “peso” de la variable Jordan en la ecuación del éxito de los Bulls y su último baile.

datlas_mx_the_last_dance_espn_netflix

Abril 27 de 1997 Chicago vs Washington juego número 2 de la primera ronda de play-offs de la temporada. Michael anota 55 puntos, empatando su récord de anotación desde que volviera del retiro en 1995. Tan solo en el último periodo anotó 20 de los 23 puntos del equipo. Acostumbrados a lo increíble, para muchos esta fue solo otra hazaña, pero es justo aquí donde se esconde el indicio del “efecto Jordan” para los Bulls y para el baloncesto de esa época. Más allá de lo que su marca personal de anotación representaba en el resultado final, lo impresionante es que anotó tan solo un tiro de 3 puntos y 10 puntos desde la línea de tiro libre, es decir, anotó 42 puntos en tiros de campo (con valor de 2 puntos) o media distancia, como también se les llama. ¿Y qué con esto? El secreto se llama eficiencia. En ese partido Jordan solo necesito 35 tiros para obtener los 55 puntos, mientras que el resto del equipo anotó 54 puntos tras 43 tiros.

datlas_mx_the_last_dance_mj_nbc

Mapeo de tiros en ese partido, elaborado por la NBC (Puntos rojos: tiros anotados. Puntos azules: tiros errados)

En paralelo, ese año la NBA (National Basketball Association, en inglés) comenzó a registrar datos estimados de ubicación de disparo X-Y. Así es como sabemos que mientras Jordan lideró la liga en anotaciones durante la temporada 1996-1997, terminó siendo el #57 en puntos en la pintura y #54 en tiros de 3 por juego. Nuevamente, el secreto de Jordan fue su dominio del juego desde la media distancia (definido aquí como cualquier intento entre 8 pies del borde y la línea de 3 puntos).

En 1984 cuando Michael fue seleccionado en el draft la NBA era dominada por tamaño y fuerza, 16 de los últimos 20 ganadores al galardón de jugador más valioso (MVP por sus siglas en ingles) eran centros. No había un solo guardia (posición de MJ) que hubiera ganado ese título. Jordan no solo vino a anotar muchos puntos, ganar títulos y llevar a sus colegas al límite, Michael llegó a revolucionar el juego, el dominio de la media distancia fue la clave.

Desde el punto de vista estadístico alguien podría argumentar que quizá esto se debe a la cantidad de tiros que realizaba desde esa distancia, pero Michael fuera de haber sido el más activo realizando este tipo de tiros, también fue el más eficiente. Durante la temporada 1996-1997 Glen “Big Dog” Robinson terminó segundo en el ranking de tiradores de media distancia, anotando 391 tiros. Jordan quedó en primera posición, con 547 tiros, 40% más que su sucesor.

Los datos de tiros revelan dos puntos fascinantes: MJ fue el mejor anotador de su época, pero también un tirador hiper eficiente. Este mapeo de los tiros lo demuestra, los puntos rojos representan una eficiencia superior al promedio de la liga.

datlas_mx_the_last_dance_mj_96-97_shots_percentage

He aquí la “razón” que dan los datos para que se hable con mayor preponderancia de MJ dentro del documental. Sin duda no lo hizo solo, pero si fue la variable más importante para llevar a los Bulls a hacer historia en esa época.

Por otro lado, los datos hablan también de la relevancia de estos “otros factores”. De los 59 jugadores de la NBA que intentaron al menos 300 tiros de media distancia esa temporada, Jordan ocupó el tercer lugar en eficiencia general, alcanzando el 49.5% en más de 1,100 intentos. Solo Chris Mullin y Vinny Del Negro fueron más precisos. Reggie Miller, comúnmente considerado como el mejor tirador de esa época, hizo el 42.4% de sus 484 tiros de media distancia esa temporada. Sí, Miller intentó 484 mientras Jordan anotó 547. En 1997 en la NBA literalmente estaba Michael Jordan y luego el resto.

datlas_mx_the_last_dance_mid_range_shooters_nba

Ahora bien, Mullin jugó con los Warriors de Golden State y Del Negro jugó para los Spurs de San Antonio durante la temporada 1996-1997, pero ninguno de los 2 equipos pudo siquiera calificar a los playoffs. ¿Qué quiere decir esto? Como bien lo dice Michael “…el trabajo en equipo y la inteligencia ganan campeonatos”. Durante los playoffs esa temporada hubo grandes aportaciones por parte de los compañeros de Mike. En la primera ronda contra Washington, en el juego número 3 Tony Kukoc sale de la banca a jugar 26 minutos, contra los 42 minutos de juego de Mike y lográ anotar 4 de 7 tiros de campo terminando con un 57% de eficiencia frente a 44% de Jordan. Durante el juego 6 de las finales Steve Kerr con solo 25 minutos de juego frente a los 43 minutos de MJ registró una eficiencia de 60% en tiros de campo comparada con el 42% de Michael y logró un 50% de tiros de 3 puntos, incluyendo el último triple para poner a los Bulls arriba en el marcador y consolidar la victoria y el titulo esa temporada. En ese partido Jordan tuvo solo 25% de eficiencia en tiros de 3 puntos.

Así que sin duda no se trata solo de Mike, este es un juego de equipo. El mismo da crédito a colegas como Scottie Pipen y Dennis Rodman en multiples ocasiones durante el documental. Los datos muestras incluso como otras personalidades como Kerr y Kukoc aportaron valor en momentos y situaciones claves que lograron consolidar la historia de ese mítico ultimo baile.

datlas_mx_the_last_dance_chicago_bulls_team_1998

Finalmente, no queremos cerrar sin dar un salto al presente y abordar como es que el juego que en 1984 era dominado en la pintura y que tras 1998 fue llevado a la media distancia, durante estos últimos años parece ser un juego en donde todos quieren tirar de 3 puntos. Pero para comparar manzanas con manzanas hemos de tomar a un guardia que también haya ganado múltiples títulos de MVP en los últimos años: James Harden. Quien sea fanático del baloncesto entenderá inmediatamente las diferencias, pero veámoslo desde el punto de vista de los datos: tomemos la ubicación de los tiros de Jordan en sus últimas dos temporadas y pongámoslo al lado de la ubicación de los tiros de James en sus últimas dos campañas.

datlas_mx_the_last_dance_mj_james_harden_shot_locations

Interesante, ¿no? así es como descubrimos la versión que cuentan los datos acerca de la historia de la NBA, de Michael Jordan, los Bulls de Chicago y la forma en que se jugaba baloncesto en esa época. El último baile no fue solo Jordan, fue un poco de todo, pero el catalizador fue sin duda Mike. La forma en que revolucionó el juego será una marca imborrable. Su aportación fuera de la cancha hizo también que el deporte, la imagen y la relevancia de la liga creciera de manera exponencial. Sin duda una historia digna de película, pero con un reparto tan importante como el protagonista.

Hasta aquí la columna de hoy, ¿ya viste The Last Dance? Cuéntanos tu opinión en nuestras redes sociales

@DatlasMX

 

Fuentes:

Sports Analytics: el nuevo MVP (jugador más valioso)

Durante los últimos años hemos estado escribiendo acerca de las distintas aplicaciones que tiene el análisis de datos. Desde los negocios hasta la música, las iniciativas sociales y muchas otras facetas más. En esta ocasión vamos a hablar del nuevo jugador más valioso en los deportes, una de las aplicaciones más populares del análisis de datos en los últimos años, los famosos Sports Analytics o analítica deportiva, es decir, el análisis de datos aplicado en los deportes. También puedes consultar nuestro blog anterior en donde hablamos de algunas aplicaciones y eventos de sports analytics. ¿Qué es? ¿Cuándo empezó todo esto? ¿Realmente que relevancia tiene en los resultados? Y ¿cómo pinta el futuro para esta industria? Es algo en lo que estaremos profundizando el día de hoy. Quédate al final y entérate de una noticia que tiene que ver con Datlas y los Sports Analytics.

free_Suscriber

Para comenzar lo más importante es tener una definición general de ¿qué son los sports analytics? Y es que, como su nombre lo dice, se refiere al análisis de las estadísticas relevantes e históricas buscando generar una ventaja competitiva para un equipo o un deportista en lo individual. A través de la recopilación y el análisis de estos datos, la analítica deportiva provee información a los jugadores, entrenadores y demás personal para facilitar la toma de decisiones antes, durante y después de los eventos deportivos.

Si bien esta es una práctica que ha tenido sus inicios hace más de 10 años, la realidad es que el término como tal de “sports analytics” se volvió famoso en la cultura deportiva después del lanzamiento de la película Moneyball en el 2011. La película está basada en el best-seller de Michael M. Lewis del 2003 “Moneyball: The Art of Winning an Unfair Game” que cuenta la historia acerca de la temporada 2002 de los Oakland Athletics, el equipo de beisbol de Oakland California, donde el Gerente General Billy Beane (interpretado en la película por el actor Brad Pitt) utiliza la analítica deportiva para construir un equipo competitivo con presupuesto mínimo. Si no has visto la película te recomiendo que aproveches esta cuarentena y la pongas en tu lista. Sin ánimos de arruinarte el final (spoiler alert) los resultados que los A´s lograron esa temporada fueron impresionantes. Tan solo al inicio de la temporada se posicionaron 10 juegos por detrás del líder de la división. Tres semanas después ya estaban a solo 4 juegos del primer lugar. Dos meses después el equipo comienza una impresionante racha ganadora que termina con 20 juegos al hilo. Eventualmente los A´s logran conquistar el titulo del oeste, pero pierden la serie mundial frente a Minnesota.

datlas_mx_sports_analytics_moneyball_movie

Aun así, muchos escépticos dirán que el caso de los A´s es uno en un millón y que, estadísticamente hablando, hace falta una mayor muestra para comprobar que el método realmente funciona. Precisamente tras la impresionante historia de Oakland, otros equipos comenzaron a invertir en sports analytics. Algunas franquicias como los Mavericks de Dallas en la NBA, las Águilas de Filadelfia en la NFL y los Boston Red Sox en la MLB son considerados como los equipos más sabios y con más inversión en analítica deportiva. De hecho, los Red Sox, que no ganaban la serie mundial desde que intercambiaron a Babe Ruth a los Yankess de Nueva York en 1918, lograron coronarse en 2004 y 2007 después de integrar analítica deportiva en su toma de decisiones.

Ahora bien, cualquiera de nosotros entiende que el deporte es más que solo el evento deportivo, es decir, que el éxito o fracaso depende tanto de la manera en la que se desempeñan durante el partido, pero también la forma en la que se preparan previamente y la forma en la que aprenden posteriormente al partido. De esta forma hablaremos de los 2 aspectos claves de la analítica deportiva: el análisis en campo y el análisis fuera del campo.

datlas_mx_sports_analytics_nfl

Por un lado, la analítica en el campo se enfoca en mejorar el rendimiento de los equipos y jugadores en el terreno de juego. Profundiza en aspectos como las tácticas de juego y la aptitud del jugador. Un ejemplo claro de este tipo de analítica es el de la selección de futbol alemana que en 2014 dejó al mundo enmudecido después de propinarle a Brasil una de las derrotas históricas más humillantes en la historia del futbol al ganarle 7-1 durante la semifinal de la Copa Mundial que ese año se disputaba precisamente en Brasil. ¿Cuál fue el secreto de Alemania? Mientras otros equipos tenían a un analista de video y desempeño, la selección alemana usó un software de analytics llamado Match Insights que convertía el video de 8 cámaras alrededor del campo en indicadores claves de desempeño como velocidad de los pases, promedio de posesión de balón, velocidad y distancia recorrida, posicionamiento y numero de toques al balón. Todos estos datos fueron habilitados al equipo directivo, entrenadores y hasta los jugadores a través de una aplicación móvil. Los movimientos de sus oponentes se convirtieron en personas, simulaciones y gráficas, lo que hizo que la aplicación fuera tan fácil e intuitiva como un video juego. La cantidad de información analizada fue enorme, el mismo gerente de la selección mencionó que 10 jugadores pueden producir 7 millones de datos en tan solo 10 minutos. Pero si crees que el análisis de datos que uso Alemania se limito a los partidos de la Copa Mundial, te quedaste corto, porque esta gran hazaña comenzó 2 años antes de la Copa del Mundo cuando estudiantes de la Universidad Deportiva de Cologne Alemania extrajeron datos de numerosos videos acerca del acerrimo rival de Alemania en aquella semifinal, descifrando patrones que reportaron ser una pieza clave en la preparación del equipo para esa Copa Mundial. La habilidad de Alemania para desmantelar la defensa de Brasil fue extraordinaria.

datlas_mx_sports_analytics_germany_brazil_7_1_world_cup_2014

Por otro lado, tenemos la analítica fuera del campo que se ocupa del lado comercial de los deportes. Esta enfocada en ayudar a una organización deportiva a través de datos que ayuden a aumentar las ventas de boletos y mercancías, mejorar la participación de los fanáticos, etc. El objetivo final es el crecimiento y aumentar la rentabilidad. Un ejemplo de este tipo de analítica es el más reciente lanzamiento de los Vaqueros de Dallas titulado “Pose with de Pros” (posa con los profesionales). Tras un extenso análisis de datos acerca de los aficionados y su experiencia dentro del estadio, la franquicia y AT&T unieron esfuerzos para crear, desarrollar y ejecutar una aplicación de realidad aumentada que permite a los fanáticos tomarse una fotografía con sus jugadores favoritos. Localizados dentro del estadio estos kioscos te permiten no solo tener tu selfie sino compartirla vía redes sociales gracias a la tecnología 5G habilitada por AT&T.

datlas_mx_sports_analytics_dallas_selfie_pros_stadium_at&t

Finalmente, hemos de reconocer que el análisis de datos se ha vuelto uno de los prospectos a convertirse en el nuevo jugador más valioso del deporte. Frente a un panorama de incertidumbre como la pandemia del COVID-19 incluso en los e-sports la analítica ha tenido un rol cada vez más relevante. Si te gustan los deportes, los datos o incluso ambos, esta es un área de oportunidad enorme para que puedas realizar tu vida profesional. De hecho, nos complace anunciarles qu en el siguiente episodio de nuestro podcast Café de Datos tendremos un invitado especial que se dedica a inteligencia deportiva con uno de los clubes más ganadores de la última década y con el que estaremos platicando acerca de Sports Analytics, como se vive en México, las grandes tendencias y formas en las que está revolucionando el deporte a nivel mundial. Si esta columna se te hizo interesante, espera a escuchar este próximo episodio que será mucho mejor.

Caso_Blog_Podcast_E1_FF

Sin más, nos leemos en la próxima entrada. No dejes de compartirnos tu opinión en nuestras redes sociales.

@DatlasMX

¿Cómo analizar a la competencia usando mapas? – Datlas Casos de Uso

Una de las claves del éxito de los negocios es la ubicación, como ya hemos hablado, pero para ubicar un negocio hay ciertos aspectos que la mayoría de las empresas, sin importar su giro o sector, toman en cuenta para realizar un análisis y seleccionar el mejor punto. Algunas de estas variables son:

  1. El producto/servicio que a vender (giro/sector)
  2. Competencia (directa, indirecta, sustitutos etc.)
  3. Mercado meta ideal (perfil del consumidor)
  4. Características de la ubicación y el entorno (historia, estructura, demografía, tráfico, accesibilidad, estacionamiento, etc.)
  5. Negocios en la zona (complementadores, etc.)
  6. Aspectos legales (uso de suelo, reglamentación, lineamientos, etc.)
  7. Aspectos financieros (costos, gastos, mantenimientos, etc.)

free_Suscriber

Sin duda algunos de estos puntos, en un inicio, los define el emprendedor/empresario como, por ejemplo: el mercado meta ideal o perfil del consumidor. Mientras que otros provienen de un análisis de mercado y entorno respecto a la ubicación analizada. En esta entrada nos vamos a enfocar en el análisis de competencia a través de nuestras plataformas de Mapas.

Para ello vamos a utilizar el caso de Andrea, una joven emprendedora con un concepto de gimnasio que mezclaba la parte tradicional de las maquinas y las pesas con toda esta tendencia del baile y las nuevas metodologías fitness. Andrea estaba por abrir su segunda sucursal en Nuevo León. Reconociendo que este mercado estaba teniendo un auge y que los competidores nacían de forma rápida y con facilidad, decidió enfocarse en analizar a la competencia alrededor de esta nueva oportunidad de ubicación. Así que ¿Cómo lo hizo?

En primer lugar Andrea entró al Marketplace de Datlas y adquirió su Mapa Premium para Nuevo León.

Quédate hasta el final y descubre el código de descuento para adquirir hoy mismo tu Mapa Premium para cualquiera de las geografías disponibles

datlas_mx_marketplace_mapa_premium

Una vez adquirido su mapa, entró directamente en la página web de Datlas (www.datlas.mx) y se autentificó como usuaria.

El pase de diapositivas requiere JavaScript.

Una vez dentro de su panel personalizado, se fue a la sección de Mapas y selecciono su Mapa Premium para Nuevo León.

datlas_mx_panel_personalizado

Una vez dentro del mapa, utilizo la barra de búsqueda por dirección para localizar la ubicación que estaba evaluando.

El pase de diapositivas requiere JavaScript.

En cuanto localizó la ubicación, Andrea hizo uso de una herramienta llamada “Consulta Establecimiento” que se encuentra justo en la cuarta posición de la barra lateral derecha, debajo de la herramienta de búsqueda específica y justo arriba de la herramienta de medición de distancia.

free_Suscriber

Haciendo uso de esta herramienta Andrea, y todos nuestros usuarios, pueden escribir una palabra clave, en este caso, por ejemplo: gimnasio y el sistema realiza una búsqueda de esa palabra clave en las bases de datos de negocios para obtener como resultado todos aquellos establecimientos que tengan esta palabra dentro de su nombre comercial y/o de su razón social.

En este caso, Andrea al poner gimnasio, obtuvo estos resultados:

El pase de diapositivas requiere JavaScript.

De igual forma, se pueden hacer consultas con palabras claves parecidas como, en este caso, “gym” y obtener también resultados:

datlas_mx_mapa_premium_nl_consulta_gym

De esta forma, Andrea pudo observar rápidamente el nivel de competencia que existía en el entorno y combinar las distintas herramientas de las que hemos estado hablando en entradas anteriores para complementar su análisis con una segmentación y prospección de cliente.

Finalmente, no olvides que tu también puedes empezar a analizar a tu competencia hoy mismo adquiriendo tu Mapa Premium para cualquiera de nuestras geografías disponibles, aprovecha el cupón BLOG50 para obtener un 50% de descuento (válido por tiempo limitado).

¡Visita nuestro Martketplace y aprovecha esta gran promoción!

 

También te invitamos a contarnos ¿qué reto enfrenta tu negocio actualmente? para poder sugerirte y escribir algunas formas de solución con nuestras plataformas. Escríbenos a ventas@datlas.mx o en nuestras redes sociales.

@DatlasMX

 

 

4 Metodologías para proyectos de Data Science – Datlas Research

Datlas_quote1_Method

Métodos, métodos y  más métodos. Aunque parecer que en el largo plazo limitan nuestra imaginación son herramientas que facilitan la entrada, práctica y control en un campo de dominio que queremos alcanzar. Desde Datlas, nuestra startup de analytics, hemos trabajado con “métodos de data science” en nuestros proyectos internos, aún sin tener usuarios. Ahora que los tenemos les puedo confirmar que el método es uno de los recursos más importante para establecer claridad en la comunicación y avances de los proyectos. En esta columna expondremos 3 de los métodos más usados en proyectos de ciencia de datos. Al final también integraremos nuestra propia versión de método de trabajo.

Datlas_Blog_Promo_SuscriberFree

1) KDD (Knowledge Discovery in Databases)

Datlas_KDD

Metodología de 5 pasos. Inicia con la selección donde de un data set principal hay que selecciónar un subconjunto de variables que nos pueden apoyar en la exploración del fenómeno que estamos estudianto. En el pre-procesamiento realizamos la limpieza y balanceo de datos. En la transformación, el método sugiere que reduzcamos dimensiones con técnicas estadísticas para manejar la menor cantidad de variables necesarias. En minería de datos buscamos patrones de interés o representativos en relación al objetivo de la minería de datos. Finalmente para colarnos al conocimiento pasamos por el proceso de intepretación y evaluación de modelo.  Al final de la iteración se le otorga una calificación al modelo y si no se cumplieron satisfactoriamente los objetivos se repite hasta que sean logrados.

Datlas_Promo_Facebook_Suscribe

2) SEMMA (Sample, Explore, Modify, Model and Access)

Datlas_SEMMA

En esta metodología iniciamos con “sample” o un muestro de la base de datos principal (que asumimos que es muy pesada y lenta de procesar) para poder hacer manipulaciones sobre este pequeño set de una manera ágil. Después exploramos los datos para ganar entendimiento e ideas, así como refinir nuestro proceso de búsqueda de anomalías, patrones y tendencias. Llegamos entonces al paso de modificar donde nos enfocamos en crear, seleccionar y transformar variables para enfocarnos en un proceso de selección. En esta etapa también se buscan anomalías y reducir el número de variables. Luego sigue la etapa de modelaje en donde debemos aplicar distintos métodos estadísticos evaluando sus fortalezas y cumplimiento de objetivos. Finalmente la etapa de “access” que significa evaluar la confiabilidad y utilidad de los hallazgos. Se evalúa particularmente el “performance”.

De la misma manera del modelo anterior, si no se logran los objetivos en una primera iteración tendremos que repetir el proceso.

 

3) CRIPS-DM (Cross-Industry Standard Process for Data Mining)

Datlas_CRISPDM

Seguimos con el “famosisimo” CRIPS-DM, el método más usado en la industria y es que IBM, la compañía dueña de Watson que antes desarrollaba poderosas computadoras, es quien desarrolló este modelo. La diferencia clave es que cualquier etapa del modele puede tener retorno o iniciar una reversa al método. Si durante la etapa en particular el especialista encontró que los datos no son suficientes para resolver su objetivo, puede regresar a cualquiera de la otras etapas.

En la etapa de “Entendimiento de negocio” primero se determinan los objetivos de negocio: Antecedentes, objetivos estratégicos de impacto y criterios de éxito. Después revisamos la situación, inventariamos recursos, realizamos un análisis de costo-beneficio, determinamos objetivos y producimos un plan de proyecto.

En “Data Understanding” es donde recolectamos los datos iniciales, describimos cada uno de estos datos, exploramos y verificamos la calidad de la información.

En “Data preparation” seleccionamos la información más razonable, la limpiamos, construimos variables de ser necesario, integramos datos y finalmente formateamos. El entregable de esta etapa sería un dataset listo para trabajar.

Para la etapa de “Modeling”, similar a los otros modelos, experimentamos con distintas técnicas, consideramos supuestos, hacemos pruebas, definimos parámetros y revisamos funcionalidad general de los modelos.

En “Evaluación” es donde considerando los criterios de éxito definidos consideramos como positiva y/o negativa la evaluación. Aqui mismo definimos los siguientes pasos y tomamos las decisiones necesarias.

Finalmente en “Deployment”, esta etapa sólo se activa si el proyecto tuvo evaluación positiva. Se genera entonces un plan de desarrollo, un plan de mantenimiento, se genera un reporte final y presentación para socializar el caso de estudio.

Comparando métodos

Datlas_comparando_metodos_DS_

A manera personal pienso que el CRIPS-DM se lleva de calle los métodos de antes. Por algo es más usado el CRIPS-DM y principalmente porque mezcló la necesidad de entendimiento del negocio con la parte científica del desarrollo de análisis de datos.

Datlas_barra_suscribir

4 ¿Cómo lo trabajamos en Datlas?

Datlas_metodo_laboratoriodedatos

Nuestro método, titulado “Laboratorio de Datos”, es similar a los modelos revisados con anterioridad. Tras un entendimiento central de negocio (En donde se ubica la imagen de nuestro mapa en el diagrama superior) entendemos las necesidades del negocio, dimensionamos el proyecto y seleccionamos los métodos experimentales. Ese entendimiento no necesariamente te tiene que llevar a la extracción de datos, ya que puede haber un avance previo. Sobre todo nosotros que trabajamos con datos de clientes, en muchas de las ocasiones llegamos a integrar o clasificar.

Datlas_Promo_Youtube_Suscribe

Asumiendo que sea un proyecto tradicional, iniciamos en la etapa de extracción donde dimensionamos y entendemos el tipo de variables con las que vamos a trabajar. En nuestro caso generamos un glosario de variables- Para la integración y clasificación buscamos ir preparando un ambiente de trabajo que nos permita geo-referenciar y mapear variables. Si estos 3 pasos iniciales cuentan con una evaluación positiva podemos pasar a la etapa de visualizar o reportar.  Cuyo objetivo principal es generar los principales recursos para socializar y pedir retroalimentación a los usuarios potenciales. Tras realizar los ajustes necesarios podremos llegar a entrenar un modelo con técnicas de inteligencia artificial.  Los pasos en el método son iterativos y se puede regresar a cualquier paso una vez que el entendimiento central del negocio se va enriqueciendo con cada etapa del proceso.

Para más detalle de este método puedes solicitar una conferencia o sesión de capacitación en direccion@datlas.mx

**También te puede interesar: ¿Cómo aprender ciencia de datos? 6 pasos

Datlas_quote2_Method

Hasta aqui la columna de hoy.  ¿Cuál es tu método y como darle libertad a la creatividad en el proceso? ¿Cuál seleccionarás para tu siguiente proyecto?  Comparte con tus colegas y comenta qué crees que podría mejorar los métodos de ciencia de datos.

Datlas_Promo_Podcast_Suscribe

Equipo Datlas MX

-Keep it weird-