Archivo de la etiqueta: analisis

Lo que esconden tus datos: Análisis de CRM para mejorar precios, catálogos, marketing y ¡más!

La vida de un negocio son sus ventas. La complejidad es que las ventas son tanto arte como ciencia. Uno de los retos más comunes cuando trabajamos con empresas o grandes corporativos es el descifrar la fórmula para construir una estrategia comercial exitosa. Sin duda en estos tiempos esa fórmula se vuelve dinámica ante las circunstancias y son muchos los elementos a configurar. Por suerte la materia prima detrás de toda la parte “científica” de esto se encuentra en nuestro elemento favorito: los datos. En esta entrada vamos a platicar acerca de las distintas formas en las que los datos comerciales y de tu CRM se pueden usar para capitalizar mejoras en precios, catálogos, marketing, programas de descuentos y mucho más.free_Suscriber

Antes de comenzar es crucial entender un poco de historia. La gestión de la relación con clientes ha sido uno de los componentes más antiguos de los negocios. La infalible pluma y papel fueron suficiente en su momento para llevar el registro básico de las ventas y los clientes. En los años 50´s llegó el famoso Rolodex (se vale buscar en Google, yo también lo descubrí recientemente) que ofrecía la capacidad de girar los registros mientras añadías nuevos clientes y actualizabas la información de otros ya existentes. El siguiente gran paso se da a inicios de los 80´s cuando llegan las bases de datos a revolucionar el proceso de consolidación de la información de los clientes, aunque a finales de esa década el aprovechamiento de estas bases de datos era aún limitado, figuraba tan solo como un directorio o Rolodex digital, con pocos insights y casi nulas interacciones de la compañía con sus clientes. Hasta inicios de los 90´s comienza la automatización de los procesos de ventas y justo en 1995 se acuña el termino Customer Relationship Management o CRM, por sus siglas en inglés. A partir de esa década comienza la profundización en los análisis y una gestión mucho más detallada e inteligente de la relación con los clientes.

El pase de diapositivas requiere JavaScript.

Ahora bien, el CRM perse es una herramienta tecnológica pero su punto de partida, como en todo, son los datos que se alimentan en él. En este sentido la primera etapa importante antes de analizar los datos comerciales y de CRM es precisamente generarlos. Dentro de esta etapa de recolección de datos es importante establecer los procesos de negocio en donde interactúas con tu cliente y se abre la posibilidad de ese intercambio de datos o de información. Asimismo, es crucial que como negocio definas los datos “necesarios” y los datos “deseados” que buscas obtener de tus clientes para poder comenzar a llenar este CRM. Finalmente, debes establecer una mecánica de incentivos para poder propiciar de manera natural y benéfica para ambas partes el hecho de compartir estos datos.

Vamos a aterrizarlo en un caso de negocio. Eugenio, uno de nuestros clientes dentro de la industria energética, nos pidió apoyo para generar su estrategia go-to-market de su nuevo panel solar. Esta claro que analizamos sus datos comerciales y de su CRM, pero lo interesante aquí es resaltar los 3 atributos que mencionamos en el párrafo anterior. Eugenio tenia claro que uno de sus procesos de negocio mas importantes era el hecho de la interacción del cliente en su página web, dado que por la naturaleza del producto y el servicio que lo acompaña, el anaquel digital resultaba muy relevante. Después estableció que los datos que necesitaba obtener del cliente eran su ubicación y el consumo promedio de luz, aparte de los datos de contacto. Fue así como se le ocurrió armar una “calculadora de ahorro” dentro de su sitio web como un incentivo para que el cliente pudiera compartir estos y otros datos a cambio de un beneficio directo que era el calculo del monto estimado de ahorro que podía obtener con el nuevo panel solar que se estaba ofreciendo.

datlas_mx_blog_crm_customer_master_data_management-01

Hasta aquí se ha logrado establecer una dinámica para obtener los datos, el paso siguiente es precisamente adentrarnos en los datos. Cuando estamos analizando datos comerciales y de CRM es importante hacer un diagnostico y establecer el inventario completo de variables con el que vamos a estar trabajando, es decir, a pesar de que para un negocio un medio de contacto sea el teléfono, para otro podrá ser el correo electrónico o incluso ambos. En este sentido el punto de partida es entender muy bien la base de datos, las variables con las que vamos a estar “jugando” y comenzar a establecer algunas categorías de datos como, por ejemplo: perfil, canal fuente, dinámica. En el caso de Eugenio por ejemplo cuando hablamos de la categoría perfil estamos agrupando todos los datos que hablan del cliente como, por ejemplo: su nombre, su correo, su teléfono, el lugar donde vive, etc. Cuando hablamos de canal fuente estamos hablando de la forma en la que conoció y se entero de la empresa, como llego, si tuvo algún costo esa publicidad por la que se enteró, etc.

Finalmente, en la categoría de dinámica es necesario hacer una profundización todavía más importante ya que nos referimos a los datos que distinguen y diferencian a los clientes a lo largo de las etapas del proceso o ciclo de ventas. En este caso cuando hablamos de proceso o ciclo de ventas es relevante comprender la metodología que esta utilizando el negocio. Sabemos que existe mucha literatura, estudios y propuestas acerca de ventas, procesos y ciclos, algunas de 5 pasos, 7 etapas, 9 fases, etc. Aquí lo esencial es entender la forma en la que el negocio distingue entre un cliente que esta en la etapa 1 y como es que pasa a estar en la etapa 2, por ejemplo. En el caso de Eugenio, ellos tenían una gestión muy sencilla con 3 grandes etapas: lead, prospecto y cliente (o venta). En su equipo definieron un lead como todo aquel individuo que haya mostrado interés en su producto a través de compartir su información. Esa persona no podía pasar a la etapa de prospecto si no habían ocurrido 3 cosas: había entrado en contacto con un representante de ventas, había aceptado que se le generara una cotización y ya se le había generado y comunicado esa cotización. Finalmente se convertía en cliente (o venta) una vez que aceptada dicha propuesta o cotización y se generaba la factura de venta. De esta manera, se logra una claridad en cuanto a los datos que permite entender a quien realiza el análisis donde buscar y que datos utilizar al momento de atacar los distintos retos o hipótesis que se planteen al inicio del ejercicio.

El pase de diapositivas requiere JavaScript.

En cuanto se tiene claro los datos y las estructuras del CRM y la información comercial es momento de apalancarla para atacar los retos del negocio. En este caso, por ejemplo: mejorar precios, catálogos, marketing y programas de descuentos.

En el caso de mejoras o cambios en precio, tomando como ejemplo a Eugenio y su negocio, es de suma importancia poder apalancar los datos que tienen que ver directamente con la conversión, es decir, con la parte del proceso en el que pasa de prospecto a cliente. Lo que se hace aquí es agrupar a aquellos individuos que hayan tenido como principal indicador de “no conversión” un tema del precio y utilizar los datos del CRM para generar una segmentación. Ahora bien, cuando nos referimos a segmentación no estamos hablando del típico hombre/mujer, edad, etc. Sino un tema de necesidades, es decir, hay que descifrar que nos pueden decir los datos acerca de la necesidad o el beneficio percibido por el cliente en contraste con el precio. Por ejemplo, en el caso de Eugenio, ellos tenían claro el consumo promedio, con lo que pudieron hacer un análisis y encontraron una correlación entre consumo promedio y el precio estándar del nuevo panel, de tal forma que se dieron cuenta que para el punto de precio del nuevo panel el segmento de clientes al que debían dirigirse se distinguía por tener una necesidad de ahorro a partir de cierto consumo. ¿Y eso que con el precio? Precisamente estos insights permitieron que se buscaran alternativas para generar productos con un punto de precio más bajo para ese segmento detectado o incluso explorar alternativas como financiamientos, arrendamientos o planes de pagos que pudieran tener un impacto indirecto en la percepción del precio por parte del cliente.

datlas_mx_blog_crm_pricing

Por otro lado, en el tema de mejoras al catálogo de productos el acercamiento al reto debe darse de forma distinta. Retomando el ejemplo de Eugenio y su negocio, para este punto estaríamos enfocándonos en analizar los datos dentro de las etapas de lead y prospecto, para destacar cuales fueron aquellos productos en los que las personas mostraron más interés. Igualmente cabe la posibilidad de una segmentación por necesidades. Si analizamos, por ejemplo, las palabras claves o los anuncios utilizados en las campañas de generación de leads y las cruzamos con términos relacionados nos podríamos dar cuenta, como Eugenio, que existe un particular segmento de clientes que no solo está interesado en paneles, sino que en el contexto de su búsqueda esta preocupado por el medio ambiente, busca alternativas de energía sustentables, renovables, etc. De tal suerte que pudiera explorarse, haciendo quizá un A/B testing, la forma de incluir dentro del catalogo de productos unos focos o bombillas de tecnología lead ya que consumen menos energía, iluminan más, etc. De esta forma hay un impacto directo en el catalogo de productos.

datlas_mx_blog_consultoria_crm_catalogo

Finalmente, para el tema de marketing, que sin duda es todo un universo y un mundo en sí mismo, existen bastantes formas de apalancar los datos comerciales y del CRM para enfocar mejor las campañas de mercadotecnia. En el caso de Eugenio, e incluso para nosotros, la información de la fuente desde la que se genero ese lead ha sido muy importante para discriminar entre los distintos canales de difusión y marketing. Igualmente, los datos del perfil del cliente nos han ayudado a definir áreas geográficas, zonas, regiones en donde enfocar puntualmente las campañas. Complementando con el punto anterior y apalancando incluso también información de la fase de cliente (o venta) se pudieran analizar atributos o características claves que el cliente percibe y expresa acerca del producto como para ajustar los mensajes, las frases y los anuncios en términos de lenguaje, beneficios a comunicar y formas de realizar el acercamiento.

Así que estas son algunas de las formas en las que hemos apoyado a nuestros clientes a aprovechar toda la información comercial y de su CRM para generar mejoras que impacten en los resultados de su negocio. Si estas interesado en explorar algo como esto te invitamos a visitar nuestro Marketplace y agendar una sesión con nosotros para platicar al respecto y ver la forma en que pudiéramos ayudarte.

Hasta aquí la columna de hoy, gracias y no dejes de compartirnos tu opinión en redes sociales

@DatlasMX

 

Análisis de mercado con Inteligencia Artificial

Esta mañana tuvimos la oportunidad de realizar un Webinar Gratuito acerca de como estamos usando inteligencia artificial para realizar análisis de mercado de una forma ágil y sencilla aprovechando la gran cantidad de información disponible. Presentamos a Laura, nuestra asistente virtual. Si no tuviste oportunidad de asistir ¡no te preocupes! en esta columna te vamos a contar un poco de lo que estuvimos viendo. Si te interesa aprovechar nuestros Webinars gratis no olvides suscribirte en nuestra página web.

free_Suscriber

En primer lugar, comenzamos por definir el concepto de inteligencia artificial (I.A.). Sin duda no es un termino ajeno hoy en día, sino al contrario, se ha puesto tan de moda que muchas personas lo han escuchado, pero pocos saben con exactitud que es a lo que se refiere. La definición de Bill Bulko es una de nuestras favoritas: “La inteligencia artificial es el arte de hacer que las computadoras se comporten como aquellas que vemos en las películas”. Sin duda no es una definición académica, pero se acerca mucho a la realidad, sobre todo en años recientes donde hemos visto numerosas películas que tratan este tema. La realidad es que una definición más científica define la inteligencia artificial como un “programa de computación diseñado para realizar determinadas operaciones que se consideran propias de la inteligencia humana, como el autoaprendizaje”

datlas_mx_webinar_laura_IA

Ahora bien, la inteligencia artificial no es algo que haya nacido ayer, como dicen. Este tipo de programas computacionales tuvo sus inicios en los años 50´s con el famoso Alan Turing y su test para identificar si una computadora es capaz de “pensar como un ser humano”. Lo que también es verdad es que en la época de Alan Turing el término inteligencia artificial no existía siquiera, fue hasta 1956 que John McCarthy acuña el término y se comienza a utilizar. A lo largo de estos más de 60 años esta tecnología ha evolucionado desde los primeros chatbot, robots, hasta IBM Deep Blue que logró vencer al campeón de ajedrez. Esto nos lleva a otro punto importante, dentro de la inteligencia artificial existen distintos tipos o subgrupos dentro de los que destacan precisamente la robótica, los sistemas expertos, el procesamiento de lenguaje natural, visión computacional y machine learning. En este caso nosotros nos enfocamos en este último subgrupo mencionado: machine learning, que en su definición simple se entiende como “el estudio de los algoritmos computacionales que mejoran a través de la experiencia”

datlas_mx_webinar_laura_machine_learning

Después de esa rápida introducción al tema de inteligencia artificial es momento de platicar un poco del proceso que se lleva a cabo para poder generar este algoritmo que nos ayuda finalmente a realizar los análisis de mercado de forma automática. Para ello nosotros hemos personalizado y adaptado la técnica académica de CRISP-DM a la metodología Datlas y la hemos bautizado como Laboratorio de Datos. Este proceso consta de 6 actividades claves:

  • Extracción
  • Integración
  • Clasificación
  • Visualización
  • Entrenamiento
  • Reporteo

datlas_mx_webinar_laura_crisp_dm

Durante la primera fase del proceso lo que hacemos es todo el trabajo de minería de datos, es decir, nos conectamos a las diversas fuentes de información abierta, públicas, privadas y, de ser necesario, integramos también datos internos del cliente.

Pasando a la segunda etapa de integración, lo que sucede es que aquellas diversas fuentes de información y datos que ya tenemos se organizan y se “traducen” para lograr homologarlos bajo un mismo “idioma” que en nuestro caso es el componente geográfico o la georreferencia como le llaman técnicamente.

Enseguida viene la parte de clasificación, que muchas veces es uno de los pasos más subvaluados pero es de los más importantes porque es en esta parte en donde pasamos de los simples datos y de la información a la preparación de la interfaz de usuario, al diseño centrado en el consumidor final. La clasificación nos sirve para poder entregar datos a nivel agregado o a nivel granular dependiendo de su relevancia, por ejemplo: si tenemos datos de los check-ins en redes sociales, en esta fase es donde decidimos mostrarlos a través de mapas de calor clasificados por tipo de actividad, en vez de mostrarlos quizá como una masa de puntos individuales dentro de una geografía.

Una vez clasificado todo, pasamos a la parte del cifrado visual en donde elegimos las distintas maneras de presentar la información y se termina de gestar todo ese diseño que se planeo en la parte de clasificación.

Finalmente llegamos al penúltimo paso que es el de entrenar el algoritmo. En este punto es importante entender que cuando hablamos de inteligencia artificial hay distintos tipos de entrenamiento que se pueden ejercer sobre un algoritmo de este estilo. En general se clasifican de dos formas: entrenamiento supervisado y entrenamiento no supervisado.

datlas_mx_webinar_laura_entrenamiento_IA

Cuando hablamos de entrenamiento supervisado estamos básicamente hablando de tomar el set de datos que tenemos, extraer una muestra del 80%, por ejemplo, indicarle a la máquina cual es la variable de respuesta o lo que quiero calcular, estimar o predecir y pedirle que ajuste un modelo con esas variables. A partir de esto se usa el 20% restante de los datos para probar su asertividad del modelo y se realizan ajustes iterando esta práctica. Por otro lado, el aprendizaje no supervisado es aquel que permite a la maquina “deducir” o aprender a partir de un set de datos sin decirle exactamente que variable de respuesta esperamos o que tipo de ejercicio se quiere realizar. Para ponerlo en perspectiva, en 2016 Microsoft utilizó un entrenamiento no supervisado para generar su chatbot Tray y lo puso a aprender por si solo en base a las conversaciones e información de redes sociales. Este tipo de experimento resulto un tanto controversial ya que Tray se volvió racista y extremista debido a la exposición que tuvo a gran cumulo de datos e información de esta índole. En nuestro caso claramente, por el contexto de negocios utilizamos un aprendizaje supervisado.

free_Suscriber

Finalmente terminamos la sesión platicando acerca de un caso aplicado que tuvimos con un cliente en Nuevo León que nos planteó el reto de analizar una ubicación en el centro de Monterrey para descifrar cual podría ser el tipo de negocio ideal que pudiera posicionar en esa ubicación que pudiera estar generando un cierto monto de ganancias mensuales. Sorprendentemente cuando Laura realizó el análisis de entorno descubrió que dentro de la dinámica de la zona había un hospital que básicamente fungía como el generador de tráfico más fuerte y que había hecho que la zona tomara una vocación distinta en los últimos años. A partir de este hallazgo Laura fue a realizar un análisis de entorno de los principales hospitales públicos y privados de Nuevo León para derivar un top 10 de negocios que habitualmente se sitúan alrededor de un hospital y contrastarlo contra el entorno que estaba analizando para identificar aquellos tipos de negocios que tuvieran oportunidad de posicionarse en la ubicación definida por el cliente.

De esta forma logramos entregar al cliente 3 opciones de negocio con un cierto nivel de potencial económico que cumplía las restricciones citadas originalmente y ayudarlo a tomar la mejor decisión a través del uso de tecnología y apalancados en la gran cantidad de datos e información disponible actualmente. Si quieres conocer un poco más acerca de esta experiencia te invitamos a ver el video de testimonio de nuestro cliente

datlas_mx_webinar_laura_testimonio_barras_cardan

Finalmente te invitamos a mantenerte en contacto para recibir noticias de los siguientes Webinars y muchas sorpresas más que tendremos para ti. Hasta la próxima.

@DatlasMX

¿Cómo convertirte en analista estrella? Usando mapas – Datlas Casos de Uso

Hemos estado relatando los distintos casos de uso de nuestros clientes emprendedores y empresarios, pero hay una clase de clientes de los que no hemos platicado aún y es momento de hacerlo ya que ellos son la razón principal de que Datlas haya podido llegar a los grandes corporativos. En esta ocasión les contaremos la historia de Paulina, una analista junior dentro de un gran corporativo de bienes raíces con presencia nacional y oficinas centrales en Ciudad de México. Pau se dedica a realizar análisis y presentar reportes al equipo de desarrollo, con información relevante para evaluar la posibilidad de construir sobre un terreno u otro, comparando entre varias opciones. Antes de que Pau conociera Datlas su dinámica de trabajo consistía en consultar información de alrededor de 5 fuentes distintas, extraer dichos datos, sacar pantallazos de distintos sitios web, concentrar todo en una presentación y enviarla al equipo. Este proceso le tomaba alrededor de 4 horas para poder completar un solo análisis. Su entregable consistía en una sola lamina de presentación, con una imagen de la ubicación y una tabla resumen con datos como: población total, cantidad de hogares e ingreso promedio de la zona. Un buen día Paulina conoció a Datlas en una conferencia, entró a la página, probó el DEMO GRATIS de la plataforma de mapas y, a partir de ahí, todo cambio.

free_Suscriber

Su experiencia con el DEMO GRATIS le ayudó a darse cuenta de que el mapa Premium de Datlas integraba ya en una sola plataforma la información que ella capturaba de las 5 distintas fuentes. Asimismo, el hecho de partir desde una visualización de mapa le permitía a Pau mostrar una narrativa más homologada desde la imagen hasta el resumen de datos. Para una mejor explicación hagamos el caso rápidamente.

El paso #1 es entrar a tu panel personalizado y acceder al mapa Premium de CDMX. Para esto debiste haber adquirido tu licencia directamente en nuestro Marketplace. Quédate hasta el final y aprovecha el cupón de descuento que tenemos para ti.

datlas_panel_mapa_premium_cdmx

El paso #2 es localizar la ubicación que quieres analizar. En esta ocasión Paulina estaba analizando una zona a las afueras de la ciudad por lo que tuvo que hacer un ajuste antes de realizar su análisis. Entendiendo que su ubicación estaba del lado izquierdo a la carretera y que la carretera es una restricción u obstáculo de acceso, decidió medir la distancia paralela a la carretera para establecer un área rectangular para realizar su análisis.

El pase de diapositivas requiere JavaScript.

Una vez establecido el límite, procedemos al paso #3 que es realizar un análisis de la zona, en este caso mediante un área rectangular.

El pase de diapositivas requiere JavaScript.

Para este punto, Paulina ya tiene mucha más información que tan solo su par de variables iniciales. Es por ello que el paso #4 ella lo bautizó como: extraer hallazgos. De manera ilustrativa esta etapa se pudiera resumir de la siguiente manera:

datlas_mapa_premium_cdmx_hallazgos

Ahora bien, es importante denotar aquí que Paulina comenzó utilizando el mapa Premium dado que ella fue quien invirtió ($$$) de forma personal en la plataforma para poder probarla en su trabajo. Tras los primeros meses de uso Pau les mostró la plataforma a sus superiores y logró que el corporativo le aprobara contratar nuestra modalidad Socios, de la cual les hablamos en este blog anterior. Llegado este punto Pau fue capaz no solo de obtener los datos mostrados anteriormente sino nutrirlo con una capa de información especializada que, para su caso, fue la de nivel socioeconómico.

datlas_mapa_premium_cdmx_hallazgos_nse

Finalmente, el paso #5 para Pau es integrar estos hallazgos en una presentación ejecutiva para su equipo de desarrollo. De esta forma Paulina logró realizar durante las mismas 4 horas de trabajo, hasta 8 presentaciones completas que incluían más de 6 láminas cada una.

datlas_mapa_premium_cdmx_presentacion

De esta forma Pau logró convertirse no solo en la analista estrella dentro de su equipo y su compañía, sino que actualmente ha logrado obtener el cargo de gerencia de inteligencia de mercados capitalizando aún más los mapas, el sistema de reportes y hasta la consultoría en análisis de datos para seguir generando valor a su negocio, desde ahorro en tiempos, eficiencia en proceso, mejores tomas de decisiones, identificación de oportunidades y mucho más.

free_Suscriber

Tú también puedes convertirte en el analista estrella de tu organización. Entra ahora mismo a nuestro Marketplace y aprovecha el cupón BLOG20 para obtener un 20% de descuento en nuestros mapas Premium y Socios de CDMX o de cualquiera de nuestras geografías activas.

Mantente atento a nuestras redes porque pronto anunciaremos sorpresas alrededor de nuestros mapas.

@DatlasMX