Archivo de la etiqueta: Analytics

4 pasos para preparar tus bases de datos para análisis

Hoy en día la transformación digital cuenta con distintos pilares dentro de los que destaca la analítica o análisis de datos. Apalancar todo el valor que esconden las grandes cantidades de información disponibles en la actualidad permite que los negocios y la sociedad, en general, se organice y genere valor de formas innovadoras. Para lograr un análisis de datos, la materia prima es clave: las bases de datos. Como cualquier materia prima las bases de datos guardan atributos y características que las hacen ser mejores o peores al momento de ser utilizadas como input para un análisis. En esta columna vamos a revisar 4 sencillos pasos con los que podrás asegurar que tus bases de datos estén preparadas y listas para realizar análisis de calidad que generen un verdadero valor diferencial para tu negocio. Estos 4 pasos son: limpieza, reestructura, homologación y clasificación.

free_Suscriber

#1 Limpieza de datos

El llamado data cleansing, por su traducción al idioma inglés, es el proceso de descubrir y corregir o, en casos extremos, eliminar registros de datos que han sido identificados como erróneos dentro de una tabla o base de datos. Este proceso de limpieza de datos permite identificar datos incompletos, incorrectos, inexactos, no pertinentes, etc. y luego sustituir, modificar o eliminar estos datos sucios.

Hay distintos métodos para limpieza de datos. Uno de ellos es el análisis gramatical que identifica errores de sintaxis, es decir, si el sistema lo tiene declarado como una variable numérica y el usuario registro una palabra, este tipo de análisis lo identifica. Existe la transformación, que básicamente ajusta los datos dentro de un formato esperado, en la mayoría de las ocasiones la transformación es para normalizar los datos y ajustarse a valores mínimos y máximos. Otra forma es el eliminar duplicados, que como su nombre lo dice, simplemente identifica registros repetidos y elimina uno de ellos. Finalmente, existen métodos estadísticos mediante los cuales la estadística descriptiva hace visualmente reconocibles las anomalías y posteriormente expertos se encargan de ajustar ese tipo de datos mediante la sustitución de los mismos por valores promedios o algún otro tipo de tratamiento, dependiendo de la naturaleza del dato.

Una vez detectados estos datos “sucios” es necesario identificar las causas para poder establecer flujos de trabajo ejecutables de forma automática para que corrijan o excluyan este tipo de datos. En temas técnicos es común el uso de bibliotecas como Pandas para Python o Dplyr para R.

datlas_mx_blog_data_cleansing

#2 Reestructura de bases de datos

Este segundo paso del proceso de preparación de bases de datos tiene que ver literalmente con tomar una base de datos de cierta estructura como, por ejemplo, 10 columnas por 3 filas y alterarla de tal forma que al final quede una base de datos completamente nueva de, por ejemplo, 6 columnas por 7 filas, pero con los mismos datos ya limpios que obtuvimos en el paso anterior. Para ilustrar este punto utilizaremos un ejemplo muy sencillo:

Supongamos que levantamos una encuesta sobre productos y marcas que podemos encontrar en el baño de cada entrevistado. Los resultados de la encuesta nos darían una base de datos de la siguiente forma:

Entrev edad sexo Prod_1 Prod_2 Prod_3 Marca1 Marca2 Marca3 NSE
1 10 F Desodo

rante

Pasta de dientes Jabon líquido AXE CREST NUBELUZ A
2 25 M Pasta de dientes Sham

poo

Jabon en gel COLGATE ELVIVE AMIGO B
3 23 F Crema para peinar Pasta de dientes Jabon de barra SEDAL COLGATE ESCUDO C

Si quisiéramos que los datos nos digan que artículos son los que las mujeres de 24 a 30 años tienen en su baño, necesitamos manipular los datos de forma que podamos obtener como respuesta a esta pregunta un cálculo de frecuencia.

En este segundo paso es donde tomamos en cuenta las hipótesis o los objetivos de análisis para generar la reestructura de la información. En este caso, por ejemplo, la base de datos ya reestructurada quedaría así:

Entrevistado Edad Sexo Num_Prod Descripcion Marca
1 10 F 1 Desodorante AXE
1 10 F 2 Pasta de dientes CREST
1 10 F 3 Jabón Líquido NUBELUZ
2 25 M 1 Pasta de dientes COLGATE
2 25 M 2 Shampoo ELVIVE
2 25 M 3 Jabon en gel AMIGO
3 23 F 1 Crema para peinar SEDAL

Con lo cual podríamos establecer, suponiendo que utilicemos Excel, un filtro en la columna de edad para seleccionar las edades superiores a 24 años e inferiores a 30, al mismo tiempo que filtramos en la columna de sexo la letra F (de femenino) y simplemente calculamos el total de filas que quedan desplegadas de la tabla. De esta manera respondemos la pregunta inicial.

#3 Homologación de bases de datos

En este punto ya comenzamos a jugar con distintas bases de datos, es decir, muchas veces las empresas tienen distintas áreas donde el modo con el que tratan los datos es distinto. Por lo tanto, al momento de tratar de unificar resultados o compararlos, puede que no se estén tomando parámetros similares y eso difícilmente podrá permitir que se realicen cruces de información de manera eficiente.

Al homologar bases de datos es necesario generar estructuras preestablecidas y un glosario de variables que defina claramente los formatos y las especificaciones necesarias para cada tipo de variable registrada. Un caso muy común por ejemplo es el formato de fechas entre dos bases de datos distintas, mientras uno maneja el formato día/mes/año otro tiene registros como mes/día/año con lo que a la hora de hacer un cruce de información las fechas nunca logran empatar y es imposible realizar un cruce de forma adecuada.

datlas_mx_blog_homologacion_bases_de_datos

#4 Clasificación de bases de datos

Finalmente, tenemos el paso de clasificación. En este punto literalmente el objetivo es darle una etiqueta o categoría a cada base de datos de acuerdo al contexto que estemos manejando, la utilidad de la misma base de datos o las necesidades que estas satisfagan al interior de la organización. De forma general existen dos tipos de clasificaciones para las bases de datos: según la variabilidad de los datos o según su contenido.

Dentro de la primera clasificación existen las bases de datos estáticas, que generalmente son bases de datos de consulta, con registros históricos que no van a cambiar. El típico ejemplo aquí son las ventas de hace 5 años para una compañía de artículos deportivos. Por otro lado, están las bases de datos dinámicas, donde la información cambia a través del tiempo por actividades como: actualización, borrado y edición de datos. El mejor ejemplo en este caso son las bases de datos de clientes (CRM) donde hay constantes actualizaciones de información o incluso eliminación de prospectos.

En la segunda clasificación tenemos las bases de datos bibliográficas, que guardan literalmente registros de autor, fecha de publicación, editorial, etc. En contraste existen las bases de datos de texto completo que almacenan el contenido completo de las citas bibliográficas anteriormente citadas, por ejemplo. También existen subclases como directorios, bibliotecas, etc.

datlas_mx_blog_clasificacion_bases_de_datos

De esta forma logramos tener una integridad entre los datos almacenados, la base de datos que los resguarda, las distintas bases de datos dentro de una organización y su capacidad de complementarse al momento de realizar un análisis. Así de fácil podemos cuidar la calidad de nuestros datos para asegurar que podamos aprovechar todo el poder y las ventajas del big data a la hora de realizar analítica.

Si te interesa conocer más acerca de estos procesos o necesitas ayuda con tus bases de datos, visita nuestro Marketplace o contáctanos en nuestras redes sociales

@DatlasMX

 

Diagnóstico de bases de datos: Aprovechando al máximo la información que genera tu negocio

A finales de mayo escribimos una columna en donde establecimos los 5 pasos para aprovechar los datos de tus puntos de venta. Dentro de este proceso el paso #1 eran precisamente los datos, mientras que los siguientes pasos se enfocaban en como transformar estos datos en información y de ahí derivar insights para establecer accionables. En esta ocasión vamos a profundizar en ese primer paso, para hablar de la forma en la que un buen diagnóstico de tus bases de datos, una radiografía, puede ayudarte a preparar los datos para realmente aprovechar y capitalizar al máximo durante los siguientes pasos del proceso de aprovechamiento.

free_Suscriber

Así que comencemos, cuando hablamos de bases de datos nos referimos a ese repositorio de registros que tiene el negocio con el récord de los distintos hechos y sucesos que acontecen durante su quehacer diario. ¿Más fácil? Imagínate una hoja de cálculo en Excel con columnas y filas llenas de datos como: nombre del cliente, producto que compro, precio, etc. Ahora bien, el hecho de capturar la información y tenerla digitalizada sin duda es un primer paso, pero muchos negocios en la actualidad creen que eso es suficiente, como si la transformación digital y las nuevas tecnologías como big data o inteligencia artificial se trataran solo de tener datos y de tenerlos digitales. La realidad es muy distinta, sin duda tener los datos es importante, pero su calidad y su estructura son cruciales para poder capitalizar todos los beneficios que esconden. Para dejarlo más claro, imagínate que llegas a un lugar y pides una silla para poder sentarte, la persona a la que se la solicitaste te responde que efectivamente existe una silla y te la trae, pero de pronto cuando te sientas la silla se vence y caes al suelo. ¿Dónde estuvo el detalle? Precisamente en la calidad y estructura de la silla, es decir, no hace falta simplemente tener lo necesario, sino asegurarnos que eso que tenemos puede soportar y capitalizar las exigencias a las que lo vamos a someter.

datlas_mx_blog_diagnostico_database

Así que ¿por dónde empezar? Lo primero es hacer una pausa, un corte y generar el listado completo de variables que maneja el negocio. En nuestro idioma, cuando trabajamos con un cliente, a esto le llamamos generar un glosario de variables. Esto le permite tanto al negocio como a nosotros entender la situación actual, la radiografía, el estatus. Ahora bien, este listado no es simplemente enumerar y nombrar cada dato o variable, sino realmente diseccionar cuestiones como: el tipo de variable, la periodicidad con la que se actualiza, la categoría a la que pertenece dentro de los procesos del negocio o de los atributos que analiza la compañía, el formato con el que se registra, entre otros. Un caso práctico lo vivimos a finales del año pasado trabajando con Andrés, dueño de una cadena de restaurantes con presencia en Monterrey y Playa del Carmen. Cuando Andrés llegó con nosotros con el reto de generar nuevas iniciativas de inteligencia para su negocio, lo primero que preguntamos fue precisamente “¿Qué datos tienen?” y después de un largo silencio concluimos que era necesario hacer el diagnostico.

Al construir el glosario de variables nos dimos cuenta de algunos detalles interesantes como, por ejemplo: registros con problemas ortográficos, formatos de fecha distintos entre cada sucursal (una registraba día/mes/año y otra lo registraba como año/mes/día), había productos que se registraban por peso mientras otros eran registrados por unidad o paquete, etc. Este primer gran paso nos permite hacer lo que un doctor, guardando sus proporciones, diagnosticar y entender que es lo que tenemos que hacer.

datlas_mx_blog_diagnostico_Model-variable-list-Predictor-variables-used-in-models-type-of-data-categorical-or

Una vez que entendimos los datos en su mayor granularidad y esencia, el siguiente gran paso del diagnostico es evaluar la estructura que guardan esos datos dentro de la infraestructura de la empresa. ¿En español? Tomamos el glosario de variables y nos metemos a las entrañas del negocio a ver literalmente la base de datos donde duerme cada uno de esos datos. La clave en este punto es entender si el acomodo, literal, de filas y columnas es el ideal para generar las manipulaciones y los tratamientos necesarios para generar inteligencia. Volviendo al caso de Andrés, como ejemplo, el dato de ventas se registraba en una base de datos que tenia a los clientes (un cliente por fila) y se iba llenando cada transacción (venta) por columna, es decir, si un cliente había comprado 5 veces tenias una base de datos con una fila (el nombre del cliente) y 5 columnas (una con cada fecha de compra). Claramente esta es una estructura difícil de manipular si te pones a pensar en generar analíticos descriptivos como la cantidad de veces que ha comprado dicho cliente o el total de clientes que han comprado 2 veces o más, por ejemplo. De esta forma, este segundo acercamiento nos permite diagnosticar la forma en la que el dato debe guardar una relación con la estructura de la base donde se esta registrando y guardando para poder capturar su potencial de análisis.

datlas_mx_blog_diagnostico_01-a-basic-flat-file-spreadsheet-database-100739687-large

Finalmente, el paso decisivo del diagnóstico es evaluar la relación que guardan las distintas bases de datos del negocio. Si te fijas, nos hemos ido desde lo más particular, que es el dato, pasando por lo más agregado que es la base de datos y hemos llegado a lo más general que es la relación de estas bases dentro de los procesos de negocio. Esta perspectiva esconde los últimos “síntomas” que necesitamos saber para poder dar un diagnóstico certero. En esta etapa lo que buscamos es entender la forma en la que las bases de datos se conectan entre ellas para contar la historia de cada dato enlistado en la parte del glosario. Lo importante es encontrar los datos conectores, es decir, aquellos datos claves que nos ayudan a interconectar una base con la otra. El ejemplo más claro, en el caso de Andrés, es la forma en la que el dato de cebollas dormía en una base de datos de recetas, donde cada receta tenía un identificador único (ID) que a su vez se conectaba a los datos de las ordenes que el mesero tomaba y enviaba a cocina para su ejecución y finalmente ese mismo identificador servía para descontar de la base de datos de inventarios los productos y la cantidad correspondiente. Se lee mucho más complicado de lo que es, pero el mensaje es muy sencillo y claro, entender la forma en la que se comunican las bases es clave para poder hacer un diagnóstico completo.

datlas_mx_blog_diagnostico_database2

De esta forma, siguiendo la analogía del doctor, podemos darnos cuenta fácilmente en que parte se encuentra el verdadero “dolor” e ir a tomar acciones puntuales sobre cada uno de ellos. En el caso de los datos, por ejemplo, las soluciones son claras: limpieza, clasificación o exploración de fuentes de generación de datos para capitalizar nueva información. En el tema de la base de datos individual donde duerme el dato las alternativas son: reestructura u homologación. Para la parte de la comunicación entre bases de datos lo que se puede hacer es: generar variables de identificación única, optimizar la interconexión entre bases de datos o replantear el diseño de consultas (querys). Con todo esto el negocio esta listo para poder capitalizar sus datos y generar inteligencia, que se traduce en mejor gestión de procesos, segmentación de clientes, mejoras a la oferta, ajustes de precio, control de inventarios y mucho más.

Así que ya lo sabes, si quieres aprovechar la generación de datos de tu negocio lo primero es realizar un diagnóstico. En Datlas estamos a tus ordenes para apoyarte, como a Andrés, en este proceso de descubrimiento para poder descifrar todos los beneficios que se esconden en tus bases de datos.

@DatlasMX

 

 

Diseño de perfiles y áreas de analítica para organizaciones – Datlas Research

Con el equipo Datlas al año tenemos la oportunidad e participar en algunos foros donde se repite mucho preguntas sobre qué perfiles y cómo preparase para generar una estrategia de datos. En realidad, tal y como lo pudiste leer en ¿Por qué fracasan los proyectos de ciencia de datos? las personas y la forma en que diseñamos el quehacer de sus funciones en una organización son principal factor de éxito para una estrategia de analítica de datos.

En esta columna resolveremos dudas y compartiremos mejores prácticas sobre procesos de diseño, entrevista y reclutamiento de profesionales de analítica de datos e inteligencia artificial en una organización. Todo esto siguiente la guía de puestos presentada en 5 perfiles para una estrategia de datos en tu organización .Que te recomendamos leer antes para que puedas tener un mejor contexto.

Datlas_barra_suscribir

ESTRUCTURA ORGANIZACIONAL

El pase de diapositivas requiere JavaScript.

Una estructura de reportes, de jerarquía o de organización para proyectos es muy variante ya que responde a los retos estratégicos de la organización. Específicamente para los datos no hay que olvidar que buscamos que en un mismo equipo se encuentren ingenieros, arquitectos, científicos y analistas al mismo nivel. Esto último debido a que la colaboración y la comunicación debe ser colaborativa. Uno de los métodos que con más frecuencia se usa en la industria son las células de trabajo. Estos son grupos pequeños, pero eficientes, de trabajo que cuentan con todos los recursos para resolver un problema de analítica avanzada.

DISEÑO DE PERFILES

El pase de diapositivas requiere JavaScript.

Las personas que trabajen en el área de analítica necesitan tener ciertas características:

  • Aprendizaje constante. La actualización de modelos de análisis y algoritmos es casi semanal. De la misma manera las nuevas paqueterías sobre machine learning en software como R o Python. Los perfiles tendrán que ser personas que puedan descifrar textos académicos y documentación en guías de programación sobre los modelos más recientes.
  • Curiosidad técnica. Frente a nuevos retos habrá que mostrar curiosidad y no miedo ante nuevas herramientas. Se buscan perfiles “políglotas” que puedan trabajar en distintos lenguajes de programación, estadística de todo tipo y comunicar sus resultados desde un “Power Point” hasta un tablero dashboard en “Power BI”. No tenerle miedo a experimentar e investigar nuevas plataformas.
  • Didáctica para explicar hallazgos.  Quien es analista de datos puede ser un experto/a en matemáticas, pero mientras no sepa explicar lo que hace no podrá influir en las decisiones y orientaciones de la organización. Es importante que el arte de explicar las variables relevantes en un modelo esté presente.
  • Interlocutor con el área de negocios. “Data Translator” o similar, es una capacidad que permite llevar los retos de negocios a problemas estadísticos que puedan ser respondidos con las técnicas correctas de analítica avanzada.
  • Gestión de proyectos. Aunque probablemente una posición gerencial o de dirección será quien gestione proyectos. Es importante que el perfil se pueda alinear a las dinámicas de registro, seguimiento y coordinación de trabajo para desarrollar proyectos. Ser un profesional con noción de urgencia así como mostrar compromisos con fechas de entrega.

PROCESO DE RECLUTAMIENTO

El pase de diapositivas requiere JavaScript.

A los científicos de datos les gusta responder a retos y en el mercado laboral de ciencia de datos la entrada a un puesto suele venir acompañada de un buen reto de programación. Un buen postulante deberá poder resolver un reto en materia, ofrecer una visualización y poder comunicar de manera eficiente los resultados de un caso de negocio.

1) Definir estrategia de analítica avanzada y dimensionar las áreas funcionales que ejecutarán la estrategia

2) Recopilar retos actuales y retos futuros para diseñar puestos que respondan a estas necesidades

3) Generar dinámicas para atraer talento: hackathones, retos en línea, revisión de github o portafolio, acertijos o casos de negocio que puedan poner a prueba a los postulantes

4) Considerar entrevistas de “match cultural” así como habilidades de comunicación y liderazgo

5) Período de entrada y “química” con el equipo existente. Retroalimentar y readaptar el proceso a la experiencia de la empresa en particular.

Datlas_barra_suscribir

LA ENTREVISTA

El pase de diapositivas requiere JavaScript.

Aquí es donde en realidad sucede la magia y se filtra a la mayor calidad de los candidatos. Es muy importante que alguien con conocimiento de industria y que entienda las necesidades de la empresa sea quién realice las entrevistas para obtener el puesto.

Primeramente una recomendación importante es enviar una prueba o reto de la que pueda enviar resultados preliminares por correo y explicar a fondo en la entrevista. En una ocasión, a manera personal, me tocó en NYC recibir desde el app de UBER algunas preguntas de código mientras hacía un viaje. Las contesté correctamente y me invitaban a enviar mi CV para su empresa. Ese tipo de dinámicas se ven “cool” , son modernas y además.

Durante la entrevista es relevante validar con casos o situaciones que se le pueden presentar en el trabajo y conocer muy bien cómo pudiera reaccionar esa persona a las situaciones. Estas simulaciones, sobre todo en problemas que involucran estadística, ayudarán a validar su nivel de conocimiento teórico. Finalmente el práctico es mayormente dominado durante el desempeño del rol

Finalmente asegurarse, como en cualquier puesto, que la persona cumpla con el perfil y que pueda generar proyectos internos para motivar a otras personas a usar las herramientas que sean desarrolladas por el área de analítica es muy importante.

CIERRE

Hasta aquí la columna de hoy. Pensamos que esta y otras guías podrán ser de utilidad a los reclutamientos de uno de los roles con más atención de los últimos 5 años. Probablemente los siguientes 5 años se especialicen aún  más. Esperamos que le sirva de orientación y que puedas compartir con más personas para que haya una mejor guía de qué observar para incrementar la calidad del área de analítica de datos.

Saludos

Equipo Datlas

– Keep it weird –

 

Lo que esconden tus datos: Análisis de CRM para mejorar precios, catálogos, marketing y ¡más!

La vida de un negocio son sus ventas. La complejidad es que las ventas son tanto arte como ciencia. Uno de los retos más comunes cuando trabajamos con empresas o grandes corporativos es el descifrar la fórmula para construir una estrategia comercial exitosa. Sin duda en estos tiempos esa fórmula se vuelve dinámica ante las circunstancias y son muchos los elementos a configurar. Por suerte la materia prima detrás de toda la parte “científica” de esto se encuentra en nuestro elemento favorito: los datos. En esta entrada vamos a platicar acerca de las distintas formas en las que los datos comerciales y de tu CRM se pueden usar para capitalizar mejoras en precios, catálogos, marketing, programas de descuentos y mucho más.free_Suscriber

Antes de comenzar es crucial entender un poco de historia. La gestión de la relación con clientes ha sido uno de los componentes más antiguos de los negocios. La infalible pluma y papel fueron suficiente en su momento para llevar el registro básico de las ventas y los clientes. En los años 50´s llegó el famoso Rolodex (se vale buscar en Google, yo también lo descubrí recientemente) que ofrecía la capacidad de girar los registros mientras añadías nuevos clientes y actualizabas la información de otros ya existentes. El siguiente gran paso se da a inicios de los 80´s cuando llegan las bases de datos a revolucionar el proceso de consolidación de la información de los clientes, aunque a finales de esa década el aprovechamiento de estas bases de datos era aún limitado, figuraba tan solo como un directorio o Rolodex digital, con pocos insights y casi nulas interacciones de la compañía con sus clientes. Hasta inicios de los 90´s comienza la automatización de los procesos de ventas y justo en 1995 se acuña el termino Customer Relationship Management o CRM, por sus siglas en inglés. A partir de esa década comienza la profundización en los análisis y una gestión mucho más detallada e inteligente de la relación con los clientes.

El pase de diapositivas requiere JavaScript.

Ahora bien, el CRM perse es una herramienta tecnológica pero su punto de partida, como en todo, son los datos que se alimentan en él. En este sentido la primera etapa importante antes de analizar los datos comerciales y de CRM es precisamente generarlos. Dentro de esta etapa de recolección de datos es importante establecer los procesos de negocio en donde interactúas con tu cliente y se abre la posibilidad de ese intercambio de datos o de información. Asimismo, es crucial que como negocio definas los datos “necesarios” y los datos “deseados” que buscas obtener de tus clientes para poder comenzar a llenar este CRM. Finalmente, debes establecer una mecánica de incentivos para poder propiciar de manera natural y benéfica para ambas partes el hecho de compartir estos datos.

Vamos a aterrizarlo en un caso de negocio. Eugenio, uno de nuestros clientes dentro de la industria energética, nos pidió apoyo para generar su estrategia go-to-market de su nuevo panel solar. Esta claro que analizamos sus datos comerciales y de su CRM, pero lo interesante aquí es resaltar los 3 atributos que mencionamos en el párrafo anterior. Eugenio tenia claro que uno de sus procesos de negocio mas importantes era el hecho de la interacción del cliente en su página web, dado que por la naturaleza del producto y el servicio que lo acompaña, el anaquel digital resultaba muy relevante. Después estableció que los datos que necesitaba obtener del cliente eran su ubicación y el consumo promedio de luz, aparte de los datos de contacto. Fue así como se le ocurrió armar una “calculadora de ahorro” dentro de su sitio web como un incentivo para que el cliente pudiera compartir estos y otros datos a cambio de un beneficio directo que era el calculo del monto estimado de ahorro que podía obtener con el nuevo panel solar que se estaba ofreciendo.

datlas_mx_blog_crm_customer_master_data_management-01

Hasta aquí se ha logrado establecer una dinámica para obtener los datos, el paso siguiente es precisamente adentrarnos en los datos. Cuando estamos analizando datos comerciales y de CRM es importante hacer un diagnostico y establecer el inventario completo de variables con el que vamos a estar trabajando, es decir, a pesar de que para un negocio un medio de contacto sea el teléfono, para otro podrá ser el correo electrónico o incluso ambos. En este sentido el punto de partida es entender muy bien la base de datos, las variables con las que vamos a estar “jugando” y comenzar a establecer algunas categorías de datos como, por ejemplo: perfil, canal fuente, dinámica. En el caso de Eugenio por ejemplo cuando hablamos de la categoría perfil estamos agrupando todos los datos que hablan del cliente como, por ejemplo: su nombre, su correo, su teléfono, el lugar donde vive, etc. Cuando hablamos de canal fuente estamos hablando de la forma en la que conoció y se entero de la empresa, como llego, si tuvo algún costo esa publicidad por la que se enteró, etc.

Finalmente, en la categoría de dinámica es necesario hacer una profundización todavía más importante ya que nos referimos a los datos que distinguen y diferencian a los clientes a lo largo de las etapas del proceso o ciclo de ventas. En este caso cuando hablamos de proceso o ciclo de ventas es relevante comprender la metodología que esta utilizando el negocio. Sabemos que existe mucha literatura, estudios y propuestas acerca de ventas, procesos y ciclos, algunas de 5 pasos, 7 etapas, 9 fases, etc. Aquí lo esencial es entender la forma en la que el negocio distingue entre un cliente que esta en la etapa 1 y como es que pasa a estar en la etapa 2, por ejemplo. En el caso de Eugenio, ellos tenían una gestión muy sencilla con 3 grandes etapas: lead, prospecto y cliente (o venta). En su equipo definieron un lead como todo aquel individuo que haya mostrado interés en su producto a través de compartir su información. Esa persona no podía pasar a la etapa de prospecto si no habían ocurrido 3 cosas: había entrado en contacto con un representante de ventas, había aceptado que se le generara una cotización y ya se le había generado y comunicado esa cotización. Finalmente se convertía en cliente (o venta) una vez que aceptada dicha propuesta o cotización y se generaba la factura de venta. De esta manera, se logra una claridad en cuanto a los datos que permite entender a quien realiza el análisis donde buscar y que datos utilizar al momento de atacar los distintos retos o hipótesis que se planteen al inicio del ejercicio.

El pase de diapositivas requiere JavaScript.

En cuanto se tiene claro los datos y las estructuras del CRM y la información comercial es momento de apalancarla para atacar los retos del negocio. En este caso, por ejemplo: mejorar precios, catálogos, marketing y programas de descuentos.

En el caso de mejoras o cambios en precio, tomando como ejemplo a Eugenio y su negocio, es de suma importancia poder apalancar los datos que tienen que ver directamente con la conversión, es decir, con la parte del proceso en el que pasa de prospecto a cliente. Lo que se hace aquí es agrupar a aquellos individuos que hayan tenido como principal indicador de “no conversión” un tema del precio y utilizar los datos del CRM para generar una segmentación. Ahora bien, cuando nos referimos a segmentación no estamos hablando del típico hombre/mujer, edad, etc. Sino un tema de necesidades, es decir, hay que descifrar que nos pueden decir los datos acerca de la necesidad o el beneficio percibido por el cliente en contraste con el precio. Por ejemplo, en el caso de Eugenio, ellos tenían claro el consumo promedio, con lo que pudieron hacer un análisis y encontraron una correlación entre consumo promedio y el precio estándar del nuevo panel, de tal forma que se dieron cuenta que para el punto de precio del nuevo panel el segmento de clientes al que debían dirigirse se distinguía por tener una necesidad de ahorro a partir de cierto consumo. ¿Y eso que con el precio? Precisamente estos insights permitieron que se buscaran alternativas para generar productos con un punto de precio más bajo para ese segmento detectado o incluso explorar alternativas como financiamientos, arrendamientos o planes de pagos que pudieran tener un impacto indirecto en la percepción del precio por parte del cliente.

datlas_mx_blog_crm_pricing

Por otro lado, en el tema de mejoras al catálogo de productos el acercamiento al reto debe darse de forma distinta. Retomando el ejemplo de Eugenio y su negocio, para este punto estaríamos enfocándonos en analizar los datos dentro de las etapas de lead y prospecto, para destacar cuales fueron aquellos productos en los que las personas mostraron más interés. Igualmente cabe la posibilidad de una segmentación por necesidades. Si analizamos, por ejemplo, las palabras claves o los anuncios utilizados en las campañas de generación de leads y las cruzamos con términos relacionados nos podríamos dar cuenta, como Eugenio, que existe un particular segmento de clientes que no solo está interesado en paneles, sino que en el contexto de su búsqueda esta preocupado por el medio ambiente, busca alternativas de energía sustentables, renovables, etc. De tal suerte que pudiera explorarse, haciendo quizá un A/B testing, la forma de incluir dentro del catalogo de productos unos focos o bombillas de tecnología lead ya que consumen menos energía, iluminan más, etc. De esta forma hay un impacto directo en el catalogo de productos.

datlas_mx_blog_consultoria_crm_catalogo

Finalmente, para el tema de marketing, que sin duda es todo un universo y un mundo en sí mismo, existen bastantes formas de apalancar los datos comerciales y del CRM para enfocar mejor las campañas de mercadotecnia. En el caso de Eugenio, e incluso para nosotros, la información de la fuente desde la que se genero ese lead ha sido muy importante para discriminar entre los distintos canales de difusión y marketing. Igualmente, los datos del perfil del cliente nos han ayudado a definir áreas geográficas, zonas, regiones en donde enfocar puntualmente las campañas. Complementando con el punto anterior y apalancando incluso también información de la fase de cliente (o venta) se pudieran analizar atributos o características claves que el cliente percibe y expresa acerca del producto como para ajustar los mensajes, las frases y los anuncios en términos de lenguaje, beneficios a comunicar y formas de realizar el acercamiento.

Así que estas son algunas de las formas en las que hemos apoyado a nuestros clientes a aprovechar toda la información comercial y de su CRM para generar mejoras que impacten en los resultados de su negocio. Si estas interesado en explorar algo como esto te invitamos a visitar nuestro Marketplace y agendar una sesión con nosotros para platicar al respecto y ver la forma en que pudiéramos ayudarte.

Hasta aquí la columna de hoy, gracias y no dejes de compartirnos tu opinión en redes sociales

@DatlasMX

 

5 pasos para aprovechar los datos de tus puntos de venta y mejorar tus resultados

Hace apenas un par de años comenzamos a escuchar el famoso concepto de transformación digital en las empresas. Este concepto hace referencia al aprovechamiento y la inserción de tecnología y digitalización dentro de los procesos de negocios. Uno de los pilares más importantes dentro de esta transformación digital es el análisis de datos. En un contexto en donde los datos y la información son lo más abundante, la necesidad de aprovechar este gran bagaje de información para la toma de decisiones de negocios se ha vuelto crucial. En esta columna vamos a hablar de un sencillo proceso de 5 pasos con el que hemos apoyado a los negocios a aprovechar la generación de datos desde sus puntos de ventas para capitalizar accionables comerciales y operativos que han impactado directamente sus resultados de manera positiva.

free_Suscriber

Para comenzar es necesario un poco de contexto. Cuando hablamos de aprovechar la generación de datos existe un componente importante que responde a las condiciones actuales de los negocios: el volumen. Mientras hace unas décadas la disponibilidad de información se limitaba a un par de libros contables, hoy las empresas tienen la capacidad de consumir información externa y, sobre todo, de obtener y generar una cantidad sin precedentes de variables respecto a sus transacciones, clientes y procesos. Es precisamente aquí en donde se introduce el famoso concepto de Big Data. Sin duda hemos hablado de este concepto en entradas anteriores, pero nos gustaría citar una frase del CEO de BBVA Analytics, Fabien Girardin, que sintetiza muy bien las ventajas de este concepto diciendo: “Lo que es nuevo con el Big Data, es la cantidad de datos que nos permite entender el mundo de mejor manera, y cuando digo ‘el mundo’ me refiero a los clientes, empresas, y también como funciona la propia organización. Eso nos permite realmente medir y entender los procesos, intentar automatizarlos, y ayudar a la toma de decisiones de manera nueva”.

Ahora bien, veamos como es que estas técnicas de aprovechamiento de grandes cantidades de información se pueden capitalizar para tu negocio o la empresa donde laboras. La receta consta de 5 sencillos pasos que se ilustran de una manera magistral en la siguiente imagen:

datlas_mx_blog_data_to_wisdom

Paso #1: Los datos

La primera etapa tiene que ver precisamente con la materia prima, es decir, con los datos. Este es el punto de partida para poder derivar verdadera inteligencia. Al hablar de datos hay que tener claros dos puntos importantes: el primero de ellos es responder la pregunta ¿dónde se esconden los datos? Muchos de nuestros clientes al principio aseguran que la falta de análisis dentro de su negocio tiene su origen en la “falta de datos”, pero esto no es necesariamente real. Los puntos de venta son por excelencia grandes generadores de datos. Sin duda no son los únicos, por lo que es importante mapear el viaje completo del usuario para identificar los puntos de interacción (touch points, en inglés) en los que el cliente interactúa con el negocio y en donde podemos estar capturando información.

Tomemos como ejemplo una tienda en línea, que han visto una evolución significativa en estas circunstancias de cuarentena. Para hacerlo todavía más simple pensemos en una tienda en línea que vende artículos para bebes. En este caso, el usuario tiene un viaje que podemos simplificar: el usuario conoce la marca/productos, entra a la página web, interactúa con el catalogo de productos, selecciona los artículos que va a comprar, realiza la transacción y sale contento(a) a esperar la entrega de los artículos que adquirió. Tan solo en este simple “viaje” podemos encontrar que el punto de venta ha logrado capturar datos como: edad, sexo, email y teléfono del cliente; el canal de procedencia, el tiempo que dedico a cada sección de la página, donde hizo click, los productos que estuvo evaluando, los filtros que utilizó, los artículos relacionados directamente a aquellos que incluyó en su carrito de compra, el ticket promedio, el total de la transacción, la dirección a la que pidió que se enviaran sus productos y la información de su método de pago, entre otros muchos detalles.

datlas_mx_blog_data_sources_ecommerce

Ahora bien, la cantidad de datos es sin duda impresionante y nos permite realizar análisis más nutritivos, pero es importante cuidar el segundo punto que citábamos arriba: la estructura de los datos. ¿A qué nos referimos con la estructura? Imagina un negocio hace 50 años que tuviera cada transacción anotada en una libreta y tuviera que ponerse a buscar en los miles de libretas de los años pasados para encontrar cuantas veces el Sr. Godínez (su cliente más frecuente) ha comprado en los últimos 3 años. Me canse tan solo de escribirlo. He aquí el segundo punto medular cuando hablamos de datos. Es de suma importancia cuidar que los datos se almacenen con una cierta estructura que permita identificarlos, como el caso del cliente, con un identificador o un folio. Asimismo, es importante cuidar que las estructuras habiliten la conexión entre los datos generados desde distintos procesos o puntos de contacto del negocio con el cliente. Un ejemplo claro en el caso de la tienda en línea para bebes sería tener un catalogo de productos con SKUs y una base de datos de pedidos que integren los distintos SKUs que cada cliente incluye en sus pedidos. Y todo esto ¿para qué? Justo vamos a verlo en los siguientes pasos.

Paso #2: De datos a información (la transformación)

Una vez identificadas las fuentes de datos, sobre todo aquellos generados por el punto de ventas, pasamos a transformar esos datos en información. Cuando hablamos de transformar estos datos nos referimos a tomar la materia prima y comenzar a darle forma, comenzar a construir y descifrar la historia detrás de esos datos para poder derivar la inteligencia. Es justo en esta etapa cuando tomamos, por ejemplo, todos los datos referentes a los clientes y comenzamos a construir los perfiles o avatares. Con los datos de los productos podemos generar canastas, catálogos, familias o categorías y/o agrupaciones. Con los datos transaccionales se pueden generar reportes de resultados e indicadores. Lo importante en esta etapa es poder apalancar la estructura de datos anteriormente establecida para que la transformación de esos datos en información se pueda dar de una manera sistemática y automatizada.

datlas_mx_blog_data_information_ecommerce

Paso #3: Interconectar (integraciones)

Esta etapa se distingue por integrar a la narrativa, a la historia, las diferentes fuentes de información. Retomando el ejemplo de la tienda en línea para bebes y teniendo en cuenta que de la fase anterior obtuvimos perfiles de clientes, catálogos de productos y resultados transaccionales, podemos generar una narrativa completa en esta sección. Imaginemos que de la información anterior seleccionamos uno de los perfiles de cliente formado, ejemplo: Perfil A. Una vez seleccionado el perfil comenzamos a cruzar la información con los catálogos de productos y obtenemos una lectura de los productos más afines al perfil de cliente seleccionado. Todo esto a su vez lo integramos con la información transaccional de tal suerte que podemos construir una narrativa capaz de contar una historia como esta: “El perfil A representa a clientes mujeres de 28 a 34 años, que principalmente llegan desde redes sociales como Instagram, interesadas en productos consumibles como pañales y leche en polvo, generalmente comprando 3 artículos por pedido con un ticket promedio de $890 MXN”

datlas_mx_blog_ecommerce_customer_profile

Ahora bien, lo más importante en este punto no es poder contar la historia sino tomar esa historia para generar las preguntas o hipótesis adecuadas, es decir, tomando la narrativa del ejemplo anterior un buen análisis parte de preguntarse cosas como ¿existe alguna relación entre su edad y la afinidad por productos de marcas de alta gama? ¿Qué tan probable es que este perfil compre artículos que no sean propiamente para su bebe (regalos u obsequios)?

Paso #4: Insights (analíticos)

En esta etapa es importante partir de la definición de este famoso concepto de insights. Si bien es un término en inglés que difícilmente tiene una traducción directa al español, lo claro es que se puede definir como “el entendimiento de una causa específica y su efecto dentro de un contexto particular. Entender la naturaleza interna de las relaciones”. Basados en esta definición, este cuarto paso justo se trata de responder las preguntas planteadas en la etapa 3 y descifrar las causas y efectos de esas relaciones. Retomando el ejemplo anterior, para el caso de la relación entre edad y afinidad de marcas, podemos contarles que este cliente pudo analizar y concluir que las mamás jóvenes son más afines a marcas de alta gama porque su falta de experiencia prioriza la novedad y la mercadotecnia de las marcas de alta gama, mientras que las madres con mayor experiencia ya tienen conocimiento sobre las marcas que realmente son funcionales y priorizan su decisión de compra basadas en los atributos de confianza y usabilidad que otras marcas, no necesariamente de alta gama, les pueden proveer.

datlas_mx_blog_ecommerce_analytics

Paso #5: Inteligencia (accionables)

Después del esfuerzo de las cuatro etapas anteriores llegamos a la parte que realmente impacta los resultados: las acciones. El catalizador de los análisis que las etapas anteriores pudieron proveer llega a su culmen cuando los datos, la información, la historia, las preguntas y las respuestas se convierten en lo que conocemos como inteligencia, es decir, acciones concretas que nos ayuden a influir sobre los resultados que hemos estado analizando. Tomemos el ejemplo citado, una vez que desciframos que hay un perfil de cliente que responde a ciertos atributos podemos generar estrategias de comunicación segmentadas con mensajes afines a ese tipo de características sobre los productos, por otro lado, se pueden apalancar cupones de descuentos que ayuden a aumentar las conversiones en ciertos días de la semana o promociones especiales en los meses más críticos, etc. Con uno de nuestros clientes incluso logramos capitalizar información de entorno para poder identificar geográficamente aquellas zonas en donde se concentraban los clientes potenciales del negocio para poder accionar campañas enfocadas en esas zonas y optimizar los presupuestos promocionales.

En esta etapa es importante recordar dos cosas: la primera es que la inteligencia, como los datos, debe almacenarse de una manera estructurada y debe comunicarse a todos los grupos de interés para que se pueda capitalizar su valor en un impacto positivo a los resultados. La segunda, íntimamente relacionada a esta, es que el proceso es iterativo, es decir, nunca acaba. Al igual que la captura de datos, este proceso debe estar “vivo” debe nutrirse de nuevos datos y continuar abonando a la inteligencia, mejorar los accionables y seguir buscando nuevas fuentes de generación de datos, incluso externas a la empresa, para poder impactar los resultados de manera positiva.

datlas_mx_blog_data_business_intelligence

Finalmente, esta es una forma sencilla en la que puedes obtener valor de los datos de tu negocio. No olvides que a pesar de enumerar 5 sencillos pasos cada uno de ellos tiene una complejidad dentro de si mismo y en Datlas estamos preparados para apoyarte en cada una de las etapas con metodologías y tecnologías que son capaces de adaptarse a cualquier industria y tamaño de negocio. Cuéntanos como estas aprovechando los datos de tus puntos de venta o contáctanos para comenzar a ayudarte ¡hoy mismo!

@DatlasMX

Sports Analytics: el nuevo MVP (jugador más valioso)

Durante los últimos años hemos estado escribiendo acerca de las distintas aplicaciones que tiene el análisis de datos. Desde los negocios hasta la música, las iniciativas sociales y muchas otras facetas más. En esta ocasión vamos a hablar del nuevo jugador más valioso en los deportes, una de las aplicaciones más populares del análisis de datos en los últimos años, los famosos Sports Analytics o analítica deportiva, es decir, el análisis de datos aplicado en los deportes. También puedes consultar nuestro blog anterior en donde hablamos de algunas aplicaciones y eventos de sports analytics. ¿Qué es? ¿Cuándo empezó todo esto? ¿Realmente que relevancia tiene en los resultados? Y ¿cómo pinta el futuro para esta industria? Es algo en lo que estaremos profundizando el día de hoy. Quédate al final y entérate de una noticia que tiene que ver con Datlas y los Sports Analytics.

free_Suscriber

Para comenzar lo más importante es tener una definición general de ¿qué son los sports analytics? Y es que, como su nombre lo dice, se refiere al análisis de las estadísticas relevantes e históricas buscando generar una ventaja competitiva para un equipo o un deportista en lo individual. A través de la recopilación y el análisis de estos datos, la analítica deportiva provee información a los jugadores, entrenadores y demás personal para facilitar la toma de decisiones antes, durante y después de los eventos deportivos.

Si bien esta es una práctica que ha tenido sus inicios hace más de 10 años, la realidad es que el término como tal de “sports analytics” se volvió famoso en la cultura deportiva después del lanzamiento de la película Moneyball en el 2011. La película está basada en el best-seller de Michael M. Lewis del 2003 “Moneyball: The Art of Winning an Unfair Game” que cuenta la historia acerca de la temporada 2002 de los Oakland Athletics, el equipo de beisbol de Oakland California, donde el Gerente General Billy Beane (interpretado en la película por el actor Brad Pitt) utiliza la analítica deportiva para construir un equipo competitivo con presupuesto mínimo. Si no has visto la película te recomiendo que aproveches esta cuarentena y la pongas en tu lista. Sin ánimos de arruinarte el final (spoiler alert) los resultados que los A´s lograron esa temporada fueron impresionantes. Tan solo al inicio de la temporada se posicionaron 10 juegos por detrás del líder de la división. Tres semanas después ya estaban a solo 4 juegos del primer lugar. Dos meses después el equipo comienza una impresionante racha ganadora que termina con 20 juegos al hilo. Eventualmente los A´s logran conquistar el titulo del oeste, pero pierden la serie mundial frente a Minnesota.

datlas_mx_sports_analytics_moneyball_movie

Aun así, muchos escépticos dirán que el caso de los A´s es uno en un millón y que, estadísticamente hablando, hace falta una mayor muestra para comprobar que el método realmente funciona. Precisamente tras la impresionante historia de Oakland, otros equipos comenzaron a invertir en sports analytics. Algunas franquicias como los Mavericks de Dallas en la NBA, las Águilas de Filadelfia en la NFL y los Boston Red Sox en la MLB son considerados como los equipos más sabios y con más inversión en analítica deportiva. De hecho, los Red Sox, que no ganaban la serie mundial desde que intercambiaron a Babe Ruth a los Yankess de Nueva York en 1918, lograron coronarse en 2004 y 2007 después de integrar analítica deportiva en su toma de decisiones.

Ahora bien, cualquiera de nosotros entiende que el deporte es más que solo el evento deportivo, es decir, que el éxito o fracaso depende tanto de la manera en la que se desempeñan durante el partido, pero también la forma en la que se preparan previamente y la forma en la que aprenden posteriormente al partido. De esta forma hablaremos de los 2 aspectos claves de la analítica deportiva: el análisis en campo y el análisis fuera del campo.

datlas_mx_sports_analytics_nfl

Por un lado, la analítica en el campo se enfoca en mejorar el rendimiento de los equipos y jugadores en el terreno de juego. Profundiza en aspectos como las tácticas de juego y la aptitud del jugador. Un ejemplo claro de este tipo de analítica es el de la selección de futbol alemana que en 2014 dejó al mundo enmudecido después de propinarle a Brasil una de las derrotas históricas más humillantes en la historia del futbol al ganarle 7-1 durante la semifinal de la Copa Mundial que ese año se disputaba precisamente en Brasil. ¿Cuál fue el secreto de Alemania? Mientras otros equipos tenían a un analista de video y desempeño, la selección alemana usó un software de analytics llamado Match Insights que convertía el video de 8 cámaras alrededor del campo en indicadores claves de desempeño como velocidad de los pases, promedio de posesión de balón, velocidad y distancia recorrida, posicionamiento y numero de toques al balón. Todos estos datos fueron habilitados al equipo directivo, entrenadores y hasta los jugadores a través de una aplicación móvil. Los movimientos de sus oponentes se convirtieron en personas, simulaciones y gráficas, lo que hizo que la aplicación fuera tan fácil e intuitiva como un video juego. La cantidad de información analizada fue enorme, el mismo gerente de la selección mencionó que 10 jugadores pueden producir 7 millones de datos en tan solo 10 minutos. Pero si crees que el análisis de datos que uso Alemania se limito a los partidos de la Copa Mundial, te quedaste corto, porque esta gran hazaña comenzó 2 años antes de la Copa del Mundo cuando estudiantes de la Universidad Deportiva de Cologne Alemania extrajeron datos de numerosos videos acerca del acerrimo rival de Alemania en aquella semifinal, descifrando patrones que reportaron ser una pieza clave en la preparación del equipo para esa Copa Mundial. La habilidad de Alemania para desmantelar la defensa de Brasil fue extraordinaria.

datlas_mx_sports_analytics_germany_brazil_7_1_world_cup_2014

Por otro lado, tenemos la analítica fuera del campo que se ocupa del lado comercial de los deportes. Esta enfocada en ayudar a una organización deportiva a través de datos que ayuden a aumentar las ventas de boletos y mercancías, mejorar la participación de los fanáticos, etc. El objetivo final es el crecimiento y aumentar la rentabilidad. Un ejemplo de este tipo de analítica es el más reciente lanzamiento de los Vaqueros de Dallas titulado “Pose with de Pros” (posa con los profesionales). Tras un extenso análisis de datos acerca de los aficionados y su experiencia dentro del estadio, la franquicia y AT&T unieron esfuerzos para crear, desarrollar y ejecutar una aplicación de realidad aumentada que permite a los fanáticos tomarse una fotografía con sus jugadores favoritos. Localizados dentro del estadio estos kioscos te permiten no solo tener tu selfie sino compartirla vía redes sociales gracias a la tecnología 5G habilitada por AT&T.

datlas_mx_sports_analytics_dallas_selfie_pros_stadium_at&t

Finalmente, hemos de reconocer que el análisis de datos se ha vuelto uno de los prospectos a convertirse en el nuevo jugador más valioso del deporte. Frente a un panorama de incertidumbre como la pandemia del COVID-19 incluso en los e-sports la analítica ha tenido un rol cada vez más relevante. Si te gustan los deportes, los datos o incluso ambos, esta es un área de oportunidad enorme para que puedas realizar tu vida profesional. De hecho, nos complace anunciarles qu en el siguiente episodio de nuestro podcast Café de Datos tendremos un invitado especial que se dedica a inteligencia deportiva con uno de los clubes más ganadores de la última década y con el que estaremos platicando acerca de Sports Analytics, como se vive en México, las grandes tendencias y formas en las que está revolucionando el deporte a nivel mundial. Si esta columna se te hizo interesante, espera a escuchar este próximo episodio que será mucho mejor.

Caso_Blog_Podcast_E1_FF

Sin más, nos leemos en la próxima entrada. No dejes de compartirnos tu opinión en nuestras redes sociales.

@DatlasMX

¿Cómo analizar a la competencia usando mapas? – Datlas Casos de Uso

Una de las claves del éxito de los negocios es la ubicación, como ya hemos hablado, pero para ubicar un negocio hay ciertos aspectos que la mayoría de las empresas, sin importar su giro o sector, toman en cuenta para realizar un análisis y seleccionar el mejor punto. Algunas de estas variables son:

  1. El producto/servicio que a vender (giro/sector)
  2. Competencia (directa, indirecta, sustitutos etc.)
  3. Mercado meta ideal (perfil del consumidor)
  4. Características de la ubicación y el entorno (historia, estructura, demografía, tráfico, accesibilidad, estacionamiento, etc.)
  5. Negocios en la zona (complementadores, etc.)
  6. Aspectos legales (uso de suelo, reglamentación, lineamientos, etc.)
  7. Aspectos financieros (costos, gastos, mantenimientos, etc.)

free_Suscriber

Sin duda algunos de estos puntos, en un inicio, los define el emprendedor/empresario como, por ejemplo: el mercado meta ideal o perfil del consumidor. Mientras que otros provienen de un análisis de mercado y entorno respecto a la ubicación analizada. En esta entrada nos vamos a enfocar en el análisis de competencia a través de nuestras plataformas de Mapas.

Para ello vamos a utilizar el caso de Andrea, una joven emprendedora con un concepto de gimnasio que mezclaba la parte tradicional de las maquinas y las pesas con toda esta tendencia del baile y las nuevas metodologías fitness. Andrea estaba por abrir su segunda sucursal en Nuevo León. Reconociendo que este mercado estaba teniendo un auge y que los competidores nacían de forma rápida y con facilidad, decidió enfocarse en analizar a la competencia alrededor de esta nueva oportunidad de ubicación. Así que ¿Cómo lo hizo?

En primer lugar Andrea entró al Marketplace de Datlas y adquirió su Mapa Premium para Nuevo León.

Quédate hasta el final y descubre el código de descuento para adquirir hoy mismo tu Mapa Premium para cualquiera de las geografías disponibles

datlas_mx_marketplace_mapa_premium

Una vez adquirido su mapa, entró directamente en la página web de Datlas (www.datlas.mx) y se autentificó como usuaria.

El pase de diapositivas requiere JavaScript.

Una vez dentro de su panel personalizado, se fue a la sección de Mapas y selecciono su Mapa Premium para Nuevo León.

datlas_mx_panel_personalizado

Una vez dentro del mapa, utilizo la barra de búsqueda por dirección para localizar la ubicación que estaba evaluando.

El pase de diapositivas requiere JavaScript.

En cuanto localizó la ubicación, Andrea hizo uso de una herramienta llamada “Consulta Establecimiento” que se encuentra justo en la cuarta posición de la barra lateral derecha, debajo de la herramienta de búsqueda específica y justo arriba de la herramienta de medición de distancia.

free_Suscriber

Haciendo uso de esta herramienta Andrea, y todos nuestros usuarios, pueden escribir una palabra clave, en este caso, por ejemplo: gimnasio y el sistema realiza una búsqueda de esa palabra clave en las bases de datos de negocios para obtener como resultado todos aquellos establecimientos que tengan esta palabra dentro de su nombre comercial y/o de su razón social.

En este caso, Andrea al poner gimnasio, obtuvo estos resultados:

El pase de diapositivas requiere JavaScript.

De igual forma, se pueden hacer consultas con palabras claves parecidas como, en este caso, “gym” y obtener también resultados:

datlas_mx_mapa_premium_nl_consulta_gym

De esta forma, Andrea pudo observar rápidamente el nivel de competencia que existía en el entorno y combinar las distintas herramientas de las que hemos estado hablando en entradas anteriores para complementar su análisis con una segmentación y prospección de cliente.

Finalmente, no olvides que tu también puedes empezar a analizar a tu competencia hoy mismo adquiriendo tu Mapa Premium para cualquiera de nuestras geografías disponibles, aprovecha el cupón BLOG50 para obtener un 50% de descuento (válido por tiempo limitado).

¡Visita nuestro Martketplace y aprovecha esta gran promoción!

 

También te invitamos a contarnos ¿qué reto enfrenta tu negocio actualmente? para poder sugerirte y escribir algunas formas de solución con nuestras plataformas. Escríbenos a ventas@datlas.mx o en nuestras redes sociales.

@DatlasMX

 

 

Evolución de Mancha Urbana en Nuevo León: Timelapse Satelital 1984 – 2019 – Datlas Research

Conforme crece la población mundial y los sistemas económicos más personas pasan de vivir de zonas rurales a zonas urbanas. En este fenómeno socieconómico han prosperado las megaciudades y la expansión de ciudades de manera acelerada. Recientemente la empresa Google liberó un proyecto llamado “Timelapse” dentro de “Google Earth Engine” que permite visualizar las fotografías satelitales históricas de coordenadas en todo el mundo. Increíbles visualizaciones sobre crecimientos de ciudades como Dubai y Tokio o desarrollo de países como Singapur o Corea del Sur pueden encontrarse en este ejemplo. Para esta columna exploramos el caso de Nuevo León, en México considerando imágenes de 1984, cuando había alrededor de 2.5 millones de habitantes en el Estado, hasta el 2019 con más de 5 millones de habitantes.

Estado de Nuevo León, México

En los últimos 35 años el Estado duplicó sus habitantes. La ciudad recién comienza a habilitar edificios estilo rascacielos y pequeñas torres de departamento. En general, los crecimientos que podemos detectar en las imágenes han sido hacia las áreas que hace 30 años eran rurales. Esto ha incrementado el tamaño de los municipios y generando zonas habitacionales lejos de los centros económicos de la ciudad. Es notorio que las distancias a los centros de trabajo son más largas, pero al mismo tiempo las nuevas colonias residenciales representan oportunidades asequibles para las personas que en los últimos 35 años han llegado a vivir al Estado o locales que han adquirido su propia vivienda.

Da click en el video para que veas la secuencia de imágenes satelitales.

Municipio de Santa Catarina – San Pedro Garza García

Algunos de los municipios con más dinamismo en estos años son Santa Catarina y San Pedro. El lado triste de la historia es que muchos de los pulmones o zonas verdes de estos municipios se han ido consumiendo poco a poco en el crecimiento de la ciudad. Danos tu opinión y velo con tus propios ojos.

Revisa el video en el 00:18 en adelante.

Huasteca, parque natural en Nuevo León

El parque natural de la Huasteca es una de las zonas donde más actividades de senderismo, escalada y recreación ocurren en el Estado. Esta región de la ciudad de Santa Catarina ha sido fuente de escándalos recientes ya que se están generando zonas comerciales en lo que se supone son zonas naturales protegidas ¿Qué opinas?

Revisa el video en el 00:26 en adelante.

 

Datlas_barra_suscribir

Cerro Topo Chico en Nuevo León

Otro de los ejemplos de cómo el crecimiento de la ciudad ha sido a costa de algunas de las zonas verdes del país se puede visualizar en la siguiente secuencia.

Revisa el video del 00:40 en adelante.

Estadio BBVA de fútbol en Nuevo León

Estas secuencias nos pueden ayudar a contar historias, tal es el caso de la urbanización y el desarrollo de la magno-obra del Estadio BBVA en Nuevo León.

Revisa el video del 00:48 en adelante.

Municipio de Apodaca

Finalmente repasaremos el caso completo de 2 municipios, el primero es el de Apodaca. Originalmente destacaba por su zona industrial, bodegas y el aeropuerto. Pero la cantidad de desarrollos habitacionales y comerciales ha prosperado y eso lo podemos notar desde esta secuencia.

Revisa el video del 00:33 en adelante

Municipio de García

El último municipio es el de García, el originario del Bronco (Gobernador del Estado), que en los últimos años completamente pasó de ser una zona verde a una zona en desarrollo. Podemos identificar cómo se generan los caminos y las rutas que conectan distintos poblados de García en esta secuencia.

Revisa el video del 00:65 en adelante.

Nosotros, desde Datlas, hemos capitalizado el valor de los mapas. Nos enfocamos a los tiempos más recientes y en nuestra plataforma mostramos más de 50 variables de cada coordenada en todo México.  Te invitamos a suscribirte a nuestro DEMO GRATIS y te dejamos un video para que la revises de primera mano.

 

Si te ha gustado la columna y sabes que le puede interesar a tus colegas no dudes en compartirla. Siguenos en redes sociales como @DatlasMX y comenta.

Saludos

Equipos Datlas

-Keep it weird-

Elaborado con la herramienta: https://earthengine.google.com/timelapse/

NUEVO DATLAS PLAYBOOK VOL. II – 100 usuarios lo recibirán antes que nadie

En Datlas iniciamos el año con muchos lanzamientos. Ya lucimos nuestro nuevo marketplace de datos y apis donde estaremos activando cupones de descuento durante el año. También lanzamos la plataforma de Laura para hacer estudios de mercado en cuestión de horas, gracias a nuestro sistema apoyado por inteligencia artificial. Y buscando continuar aportando a los entusiastas de datos hemos terminado de redactar nuestro “Datlas Playbook Vol. II”. En esta columna explicamos brevemente qué es un playbook y te invitamos a la dinámica para ser una de las primeras 100 personas en recibir este contenido.

Datlas_barra_suscribir

¿Qué es un Data Playbook?

Un “Data Playbook” es un documento que contiene “jugadas” y técnicas específicas para tu negocio alrededor de una estrategia de datos. Más que teoría, este texto es un diario de aprendizajes basados en ejecución de accionables.

Tras el éxito de nuestra primer versión ahora quisimos lanzar una segunda parte. En esta ocasión con más enfoque al desarrollo de estrategias para implementar Big Data.

A continuación te compartimos el índice

El pase de diapositivas requiere JavaScript.

Este obsequio lo podrás recibir antes que nadie participando en la siguiente dinámica

  1. Entra a nuestro marketplace y selecciona el producto de prelanzamiento. Puedes hacerlo dando click aqui.
  2. Después integra el carrito a tu cesta y vete directo a la pasarela de pagos. Da click aqui para llegar a la ruta directa

Marketplace_Playbook_2020_pasarela

3. Ingresa tu correo y da click en pagar. Completa tus datos y finaliza pedido.

4. El 27 de Enero serás de las primeras personas en recibir el nuevo playbook

Datlas_barra_suscribir

Hasta aqui la columna de hoy, esperamos te guste el próximo Data Playbook, te suscribas y aproveches los descuentos que estaremos compartiendo.

*********************************************************************

En Datlas nos dedicamos a transformar datos en decisiones de una manera ágil y sencilla. Apalancados de técnicas de big data e inteligencia artificial hemos desarrollado 3 plataformas la servicio de nuestros más de 500 usuarios. Con Datlas podrás tener a tu alcance estudios de mercado y soluciones de analytics de inmediato. Para más información contácta a ventas@datlas.mx

*************************************************************************/

Equipo Daltas

-Keep it weird-

 

 

10 Tendencias de negocios 2020 – Datlas research

Iniciamos el 2020 con toda la intensidad que viene acompañada de una nueva década. Para esta primera columna nos inspiramos en compartir información que hemos recolectado y que nos ha ayudado a nuestro proceso de planificación anual. Te interesará esta columna si tu organización, sobre todo, está pasando o planea pasar pronto por una transformación digital.

Datlas_barra_suscribir

10 Tendencias para el 2020

1) Continúa la adopción de tecnología y el compromiso con la transformación digital

Durante la década pasada los estudiosos y consultoras se dedicaron a encontrar la fórmula de crecimiento en un entorno tan cambiante. Tecnología, tecnología y tecnología. Entendiendo esto como la capacidad de una organización para absorber no sólo nuevas capacidades digitales, sino todos los métodos de trabajo que vienen acompañados de esto. Si había duda de que esto funcionaban la validación que algunas startups tecnológicas han puesto en el radar. Como organización tienes que estar atento a: Medir e incrementar la capacidad de absorción tecnológica, actualizar a tus equipos de trabajo y tener apertura a la innovación.

Datlas_Business-Transformation-gif

2) Integración de máquinas y humanos

Pasamos de los homo erectus a los homo sapiens ¿Qué sigue? una simbiosis cada vez más cercanas entre máquinas y humanos. Computadoras como extensiones de trabajo de profesionales. Analítica con pensamientos y cálculos a velocidades sobrehumanas. Humanos incrementando su fuerza gracias a exoesqueletos, entre otros.

Si bien esto despierta algunas conversaciones éticas, una organización no se debería de quedar atrás. En lo que deberías capitalizar tu atención es: Estudiando e identificando las máquinas más modernas que puedan darte una ventaja competitiva y anticiparte a las implementaciones que tu competencia podría explotar si tu no lo haces.

Datlas_0._stickman__2017._performance_

3) Nuevos métodos de trabajo

La transformación de  PMI a SCRUM, KAN BAN, AGILE, entre otros… a traído ciclos más rápidos de producción así como mejor uso de recursos. Nuevos puestos de trabajo como gestores de proyectos, scrum master y líder de cambio han sido de los reclutamientos más claves de los últimos años. Los equipos dentro de la organización deben de actualizarse a las mejores prácticas para su industria y cumplir con los rituales de seguimiento de proyectos de manera obsesiva. Si es posible hasta que los resultados de estos tengan impacto en los bonos de la compañía.

Datlas_scrum-kanban-agile-waterfall-comparatif-oeildecoach

4) Diversidad por todos lados (oferta y demanda)

En tu operación, dejar de contratar de una sola profesión, escuela e ideología se ha vuelto necesario si quieres ser empático con el consumidor que está allá afuera. La diversidad bien comunicada se reflejada en productos y servicios que se adaptan cada vez más rápido al mercado. Como líder en tu organización deberías poner atención a cumplir con cuotas de diversidad y a socializarlas con tu mercado.

Datlas_diversity_iStock-1024073052-1260x840

5) Combina valor de social con valor de negocios

El posicionamiento de las marcas va a cambiar en la siguiente década compensando el enfoque que las empresas le ponen a integrar valor social a su receta de negocios. La disposición a gastar estará acompañada con la identificación a causas sociales y éticas. Cualquier estructura de generación de valor de negocio debe tener claridad en las formas que comunica la generación de valor y económico. Nuevos enfoques en actividades de marketing, responsabilidad social y altruismo deberán ser aplicados.

Datlas_sharedvalue.png

Datlas_barra_suscribir

6) Incrementos a presupuestos de Ciberseguridad 

Los riesgos de ciberseguridad son cada vez más latentes.  Lo que antes significaba dañar los sistemas de una empresa para validar una capacidad hoy es un negocio y existen granjas de personas apuntando a sistemas vulnerables de corporaciones para ganar dinero. Las organizaciones migrando a la “digitalización” deben establecer un presupuesto para para protegerse de estos ataques. Con especial atención a la siguiente lista:

7) Enfoque a resolver problemas cotidianos y masivos (Salud y Finanzas)

Nuevos negocios y lineas de ingresos enfocados en atender problemas masivos donde existen muchos puntos de dolor. Por ejemplo los lentos y costosos procesos de atención de salud. Lo desesperante que puede ser encontrar todas las semanas los tratamientos necesarios para alguna condición específica. De manera similar, la atención selectiva de los grandes jugadores de sistemas financieros permite la entrada a nuevos participantes.

Las compañías deberían estar alertas de las oportunidades en estos dos sectores y como las regulaciones le abren pasos a otras industrias para participar en resolver estos problemas de millones de personas.

Datlas_Healthcare_cost_concept_gerenme_Getty_Images_large.jpg

8) Transparencia en todos los sentidos, sobretodo en en el manejo de la privacidad de datos personales

Las marcas continuarán siendo juzgadas por la transparencia que ofrecen desde la forma en que generan sus productos, los participantes en sus servicios y la realización de su propuesta de valor sin atentar contra el entorno ecológico. En el mismo sentido, los usuarios de servicios buscarán con más interés a marcas que muestren un manejo de privacidad de datos con seriedad. La confianza en las compañías sera una moneda de cambio de más importancia y las organizaciones deberán enfocarse en generar campañas que incrementen estos lazos en específico.

9) SoLoMo seguirá creciendo y tomando más relevancia

SoLoMo (Social, Location y Mobile) es un tipo de usuario que consume contenido en el lugar en el que se encuentra. Las marcas, junto con sus propuestas de valor, deberán de enfocarse en atraer la atención de sus consumidores en “micromomentos”. Los equipos de marketing deberán de apuntar a la omnicanalidad de difusión y buscar generadores de contenido que puedan apoyar a difundir con más asertividad sus mensajes a audiencias específicas.

10) La tensión internacional incrementa y con ello la incertidumbre

Con Irán-USA, BREXIT, Rusia y China incrementan las tensiones internacionales. Se están perdiendo los miedos por entrometerse en asuntos extranjeros en las potencias económicas más importantes del mundo.  Habrá mucha atención en los movimientos de las potencias asiáticas así como en el nacimiento de nuevos segmentos de consumidores más informados y con mayor poder adquisitivo. Las organizaciones deberían estar vigilantes de estos procesos considerando que puedan tener impacto en tipos de cambio así como políticas de importación.

Datlas_trillion_Growth_Trends_2020
Muy recomendado el reporte de BAIN. Podrás encontrar un vínculo al final de este blog.

 

Hasta aquí la columna de hoy.  Comenta qué tendencia te mantiene más ocupad@ en este inicio de año y cómo te estás preparando para incorporarla a tus actividades.

Equipo Datlas

-Keep it weird-

 

Otras referencias:

Fuente: