AIRBNB En la zona metropolitana de Monterrey – DATLAS COLUMNA DE INVESTIGACIÓN

En Monterrey NL y su zona metropolitana cuenta con las condiciones necesarias para ser cede del turismo mundial, entre sus distintas empresas que promueven el turismo de negocios, sus grandes centros médicos que impulsan el turismo medico, así como los cientos de lugares y atractivos a visitar.

Todos estos visitantes a la sultana del norte tienen la misma necesidad, el hospedaje. Sin duda esta ciudad tiene cientos de hoteles distribuidos por toda la ciudad, pero una alternativa atractiva para miles de turistas es la de un Airbnb. Esta solución para hospedarse esta presente en la zona metropolitana y a continuación veremos algunos datos importantes que hemos encontrado analizando la oferta de esta compañía en la ciudad de Monterrey.

** También te puede interesar nuestro complemento a este análisis escrito en la columna de «Análisis de AIRBNB para México: Mérida Vs. Monterrey»

¿Cuántos Airbnb’s hay en la zona metropolitana de Monterrey?

Para finales del 2021 en Monterrey y su zona metropolitana se contabilizaron un total de 2,408 Airbnb’s. De todos los municipios de la zona metropolitana, si contabilizamos los alojamientos que hay en los municipios de: Monterrey, San Pedro, San Nicolás y Santa Catarina estos suman una cantidad de 2,189 o el 91% de todos los Airbnb’s.

¿Cuáles son los tipos de alojamiento y cual es la distribución?

Airbnb es famoso por tener una variedad enorme de tipos de alojamiento, desde un Ovni en el Reino Unido hasta una cueva en la cara de una colina en Francia1. Sin embargo, en Monterrey y su zona metropolitana los distintos tipos de alojamientos se pueden agrupar de manera sencilla en 4 grupos, los alojamientos enteros, las habitaciones privadas, las habitaciones competidas y los alojamientos distintos que podemos agrupar como otros.

** Te puede interesar nuestra columna de: «AIRBNB en CDMX»

¿Cuáles son los rangos de precios de Airbnb en la zona metropolitana de Monterrey?

Algunos datos que podemos encontrar a considerar los precios por noche de los alojamientos por municipio son la media del precio, así como el precio mas barato y mas caro.
La media mas alta la tiene el municipio de Santiago con $1,460, pero el precio mas alto por noche se encuentra en el municipio de Monterrey con $16,060.
El precio mas bajo de alojamientos por noche se encuentra por igual en $200 pesos en los municipios de Monterrey, San Pedro y Santa Catarina.

¿Cuál es la capacidad de huéspedes de Airbnb en la zona metropolitana de Monterrey?

Cada uno de los alojamientos de Airbnb tiene una capacidad de huéspedes distinta, sumando la capacidad en todos ellos en la zona metropolitana de Monterrey tenemos un total de 9,198 personas.

¿Cuál es da derrama económica de Airbnb en una noche en la zona metropolitana de Monterrey?

Suponiendo una ocupación del 100% en los alojamientos de Airbnb de la zona metropolitana, para noviembre del 2021, la derrama económica por noche seria de $3,139,120 pesos.
Con la distribución por municipio de la siguiente manera:

¿Cómo utilizar el mapa?

Por tiempo limitado, hasta el 1ero de Diciembre del 2021. ACTIVA TU CUENTA EN www.datlas.mx/register y solicita escribiendo a direccion@datlas.mx tu acceso a la plataforma

**Te puede interesar «DASHA: El Dashboard de Turismo con información para Nuevo León»

Conclusiones

Los Airbnb en la zona metropolitana de Monterrey son importantes para la derrama económica de la ciudad, estos no solo tienen una aportación directa, sino que son parte importante de la derrama indirecta, al facilitar que distintos tipos de turistas visiten la ciudad y disfruten de la amplia variedad de actividades que hay que disfrutar.

Equipo Datlas

– Keep it weird-

Fuentes

1.- https://www.dwell.com/article/unique-airbnb-fund-weirdest-home-rentals-e665f737

Dimensionando la industria de «Analítica de datos e Inteligencia Artificial» 2021 – Investigación Datlas

Nuevamente es el año 2021 y el ecosistema de la industria de productos-servicios de analítica de datos e inteligencia artificial se expande. Hace 2 años promovimos la publicación de matttruck.com quien dimensiona período a período el tamaño de la industria y sus distintos nichos.

En esta columna compartiremos la actualización al 2021.

** Revisa la edición del 2020: https://blogdatlas.wordpress.com/2020/02/04/dimensionando-industria-analitica-datlas/

Industria de analítica e inteligencia artificial 2021

Según el reporte podemos encontrar 7 industrias y varías sub-industrias para la industria de “datos” (Analítica, big data e inteligencia artificial).  Ahora haremos un pequeño enfoque a cada una.

1) Infraestructura

Este nicho contempla todo lo que tiene que ver con: Almacenaje, almacenaje distribuido, lago de datos, similares de almacenaje de bases de datos, herramientas para ETL, integraciones de datos, gobernanza de información, monitoreo de indicadores, entre otros.

2) Analítica y Machine Learning(ML)

Esto contempla todas las plataformas de inteligenica de negocios, visualización de datos, plataformas de analistas de datos, anlítica aumentada, catálogos, analytics de logs, búsqueda de información, entre otros.

3) Machine Learning e Inteligencia Artificial

Este grupo tiene como subgrupos los sistemas de documentación tipo «Notebook», plataformas de ciencia de datos, plataformas de ciencia de datos, etiquetado y generación de información, construcción de modelos, visión computacional, procesamiento de lenguaje computacional, sistemas conversacionales, hardware, entre otros.

4) Aplicaciones con enfoque a empresa e industria

Aplicaciones para empresa como marketing b2c, marketing b2b, ventas, experiencia del cliente, capital humano, legal, finanzas, automatización, seguridad. Otro tipo de aplicaciones como de educación, ciencias, inmobiliarias, finanzas, seguros, transportación, agricultura, entre otros.

5) Open source – Fuentes abiertas

Todo lo relacionado a fuentes abiertas (Y la mayoría gratuitas y con comunidades activas abonando). Como por ejemplo: Frameworks de trabajo, formatos, consultas tipo «query», bases de datos, orquestación, deep learning, colaboración, seguridad, entre otros.

6) Fuentes de Datos y APIs

Fuentes de datos como mercados de información, datos económicos, del aire, del espacio de mares, inteligencia geográfica, entre otros.

7) Más recursos de datos

Finalmente los recursos de datos que integran otros servicios de datos, escuelas e incubadoras y de investigación.

De la misma fuente, generaron un índice de compañías que más han levantado capital.

En ese sentido, varias de las compañías del ecosistema han mostrado fondeos impresionante ayudando a complementar el mensaje de lo vigorizante que es este tipo de industrias y el crecimiento que ha tenido.

¿Habías pensado que la industria de analítica de datos e inteligencia artificial era tan grande? ¿Sería interesante ver este tipo de dimensionamientos para Latinoamérica o Iberoamérica? Continúa la conversación en @DatlasMX.

Aprende más consultando nuestro DataPlaybook en línea y revisando DatlasAcademy (www.datlasacademy.com)

Fuente original para realizar esta columna: https://mattturck.com/

Equipo Datlas

– Keep it weird –

Utilities: abundancia de datos y gran oportunidad para analítica y big data – Investigación DATLAS

Hace alrededor de un mes tuvimos la oportunidad de tener como invitado en nuestro podcast Café de Datos al Global Head of AI & Analytics en Telefónica IoT & Big Data Tech el gran Antonio Pita Lozano con quien estuvimos platicando acerca de la ciencia de datos como una carrera profesional, como ensamblar equipos de ciencia de datos en las organizaciones e incluso nos comentó acerca del Máster en Ciencia de Datos del cual es director en KSchool. En esta columna vamos a tomar una de las aportaciones que más nos sorprendió de la charla con Antonio para profundizar un poco más.

Para iniciar, como es costumbre con nuestros invitados en el podcast, les pedimos que nos compartan ¿con quién se tomarían un café? si pudieran elegir a cualquier personaje de la historia. En este caso Antonio nos comentó un par de nombres famosos, pero terminó inclinándose por Alan Turing. Para quien no lo conozca Alan Turing fue un matemático nacido en Reino Unido que fue un protagonista del desarrollo del campo de la teoría computacional. Recientemente se hizo más famoso por su función de criptógrafo descifrando mensajes de los “nazis” con la máquina ENIGMA después de la segunda guerra mundial. De hecho en Datlas le hicimos un homenaje a este gran personaje por el Día de Muertos que celebramos en México, puedes ver el altar homenaje aquí.

Después de este pequeño ritual de bienvenida para calentar motores Antonio nos relató un poco de su carrera y desarrollo profesional. Durante este bloque comentamos acerca de la transformación digital que han experimentado, y aprovechado, algunos grandes sectores económicos como lo es la industria financiera. Asimismo le pedimos a Antonio que nos diera su perspectiva alrededor de sectores o industrias que tuvieran grandes cantidades de datos y al mismo tiempo una gran oportunidad de aprovecharlos o explotarlos de una mejor manera. Sorprendentemente para nosotros, Antonio nos hizo notar que uno de los sectores que ha tenido una inmersión importante en temas de analítica de datos, después del sector financiero, ha sido el sector de las Utilities y quisimos profundizar un poco en esta parte.

¿Qué son las Utilities?

Las utilities es la denominación en inglés de aquellas compañías que pertenecen al sector energético y de servicios colectivos que prestan servicios de los cuales no se puede prescindir como por ejemplo: electricidad, gas, agua, residuos, etc.

Se consideran empresas seguras puesto que los ingresos son estables, sin embargo, debido a la gran inversión que requieren, suelen tener grandes cantidades de deuda, provocando una gran sensibilidad ante los cambios en la tasa de interés. Un aumento de la tasa de interés, va acompañado del incremento de la deuda, lo que provoca que el funcionamiento de las Utilities sea mejor cuando las tasas de interés están decayendo o se mantienen bajas.

¿Cómo aprovechan el Big Data y la analítica de datos las Utilities?

Antes que nada hay que entender que estas empresas apalancan otra de las grandes tendencias de la transformación digital que es el Internet de las Cosas (IoT) y los sensores.

Growing Technology Acceptance Boosts Demand for IoT in Utilities

Esta nueva forma de obtener datos les permite generar casos de uso como:

Predicción, detección y prevención de cortes de energía

Un corte de energía puede hacer que todo un país se detenga, como el apagón del noreste de 2013 que afectó a más de 45 millones de personas en los Estados Unidos. Las condiciones climáticas desfavorables son una de las principales causas de tales cortes. Las Utilities están construyendo una infraestructura y sensores más inteligentes para mejorar la previsibilidad y prevenir estos escenarios de interrupciones.

Los sistemas modernos de cortes de energía emplean soluciones en tiempo real que operan en base a datos en vivo y algoritmos inteligentes para predecir y prevenir cualquier situación posible.

Estos sistemas son capaces de predecir el impacto de cualquier eventualidad cercana a la red, posibles cortes causados ​​debido a eventos de medidores inteligentes, cortes específicos de la región y más.

Gestión de carga inteligente

Para gestionar de forma eficiente la carga de energía, las Utilities necesitan equilibrar de forma estratégica e inteligente la demanda de energía con un suministro de energía óptimo en un período de tiempo determinado. Tener un sistema de gestión de carga inteligente les permite cubrir los requisitos de gestión de red de extremo a extremo, incluidas la demanda y las fuentes de energía con la ayuda de fuentes de energía distribuidas, sistemas de control avanzados y dispositivos de uso final.

Todos los componentes del sistema de gestión generan datos. Al aplicar análisis de Big Data, las empresas pueden tomar decisiones con precisión con respecto a la planificación y generación de energía, la carga de energía y la estimación del rendimiento.

▷ Mantenimiento Predictivo - Digitalización y optimización de las fábricas

Gestión preventiva de activos

Dado que es una industria intensiva en activos y depende en gran medida del rendimiento óptimo de sus equipos e infraestructura de red. La falla de estos activos puede causar serios problemas de distribución de energía y, en consecuencia, mermar la confianza del consumidor. Por lo tanto, prevenir este tipo de incidentes es una de las principales prioridades de la industria.

Para el mantenimiento preventivo de equipos, el Big Data y la analítica viene al rescate. Los activos están integrados con sensores inteligentes, rastreadores y soluciones de datos que transmiten información en tiempo real al centro. Los datos recopilados se pueden procesar y analizar para identificar posibles problemas con el mantenimiento del equipo, lo que permite un manejo proactivo de la situación.

Mayor eficiencia operativa

Aprovechar los datos en tiempo real de los activos relacionados con la tasa de actividad, el estado de las operaciones, el tiempo, el análisis de la oferta y la demanda, y más, ayudan a las empresas de Utilities a optimizar la eficiencia energética y el rendimiento de los activos. Las aplicaciones de Big Data y analítica les permiten mejorar la confiabilidad, la capacidad y la disponibilidad de sus activos de red mediante el monitoreo continuo del costo y el rendimiento.

Y… ¿de que tamaño es el mercado?

Finalmente, Antonio nos hizo reflexionar acerca de las aplicaciones de Big Data, analítica de datos, Internet de las Cosas y sensores que tiene este sector. Hemos visto ejemplos claros y aplicaciones con casos de negocios sustentados, pero como emprendedores, como proveedores de soluciones de analítica, la última disyuntiva que pudiéramos tener es ¿de qué tamaño es el pastel? y justo nos dimos cuenta que la inversión en analítica por parte de las Utilities ha venido creciendo desde el 2012 y el año pasado logró posicionarse en $3.8 billones de dólares, de los cuales Latinoamérica participa con alrededor de $0.5 billones de dólares.

Así que, al igual que nosotros esperamos que hayas aprendido como nosotros un poco más alrededor de una industria que a pesar de ser longeva tiene una gran oportunidad y ya esta adoptando nuevas tecnologías.

Si eres emprendedor, profesionista o simplemente te interesa adentrarte al mundo de la ciencia de datos te recomendamos escuchar el Episodio #44 de nuestro podcast Café de Datos con Antonio Pita y conocer más acerca del Máster en Ciencia de Datos de KSchool del cual Antonio es el director y tiene un modelo muy interesante de aprendizaje basado no solo en la teoría sino también en la práctica.

Hasta aquí la columna de hoy, no olvides compartirla con tus colegas y seguirnos en nuestras redes sociales como @DatlasMX

Bibliografía:

BigDataissuesandopportunitiesforelectricutilities.pdf

The role of big data analytics in Energy & Utilities (cigniti.com)

Utility | WikiFinanzas – Finanzas para Mortales (wiki-finanzas.com)

Chief Data Officer: Ahora los datos tienen asiento en el consejo

Hace un par de semanas tuvimos la oportunidad de colaborar en un podcast muy interesante donde platicamos un poco la historia de Datlas, el tema del análisis de datos y algunas cosas más. Una de las partes más interesantes fue cuando de pronto el entrevistador dijo algo así como:

Hace unos años los diseñadores empezaron a tener tal relevancia que decían que los diseñadores merecían una silla en el consejo, ¿Qué opinas respecto a los científicos de datos o analistas de datos? ¿merecen su silla en el consejo?

Y fue ahí donde comenzamos a hablar de este famoso puesto llamado Director de Datos o Chief Data Officer (CDO). Para nuestra sorpresa, algunos miembros de la audiencia no estaban tan familiarizados con este rol, así que en la columna de hoy vamos a profundizar en las responsabilidades de un CDO y porque son relevantes para los negocios hoy en día.

Datlas_Blog_Promo_SuscriberFree

¿Qué es un Chief Data Officer (CDO)?

El CDO se define como aquel funcionario corporativo responsable del gobierno y la utilización de la información como un activo a lo largo de toda la empresa, a través del procesamiento, análisis, extracción de datos, comercio de información y otros medios. Los CDO generalmente reportan al director ejecutivo (CEO), aunque dependiendo del área de especialización, esto puede variar. El CDO es miembro del equipo de administración ejecutiva y encargado de supervisar el procesamiento y minería de datos en toda la empresa.

Un poco de historia…

El rol de gerente para el procesamiento de datos no se elevó al de la alta gerencia antes de la década de 1980. A medida que las organizaciones han reconocido la importancia de la tecnología de la información, así como la inteligencia empresarial, la integración de datos, la gestión de datos maestros y el procesamiento de datos para el funcionamiento fundamental de las actividades comerciales diarias, esta función se ha vuelto más visible y crucial. Este rol incluye definir prioridades estratégicas para la empresa en el área de sistemas de datos, identificar nuevas oportunidades comerciales relacionadas con los datos, optimizar la generación de ingresos a través de los datos y, en general, representar los datos como un activo comercial estratégico en la mesa ejecutiva.

8 Ways Chief Data Officers Can Help Healthcare Thrive

Con el aumento de las arquitecturas orientadas a servicios (SOA), la integración de sistemas a gran escala y los mecanismos de intercambio / almacenamiento de datos heterogéneos (bases de datos, XML, EDI, etc.), es necesario contar con un individuo de alto nivel, que posea una combinación de conocimientos comerciales, habilidades técnicas y habilidades interpersonales para guiar la estrategia de datos. Además de las oportunidades de ingresos, la estrategia de adquisición y las políticas de datos del cliente, el CDO se encarga de explicar el valor estratégico de los datos y su importante papel como activo comercial y generador de ingresos para ejecutivos, empleados y clientes. Esto contrasta con la visión anterior de los sistemas de datos como simples sistemas de TI de back-end o soporte.

Registros indican que los primeros nombramientos de CDO en corporativos se dieron en el año 2002.

El CDO en la actualidad

De acuerdo a datos de Forbes en 2012, solo el 12% de las Fortune 1000 tenían un CDO. Para 2018, el 67.9% de las firmas encuestadas reportaron tener un CDO.

El CDO también puede ser responsable del análisis de datos (data analytics) y la inteligencia empresarial (business intelligence), el proceso de extraer información valiosa de los datos. Algunas funciones de gestión de datos pueden recaer en TI.

Ronald van Loon en Twitter: "The evolution of the chief data officer role  [#INFOGRAPHICS] by @EdBurnsTT @BizAnalyticsTT | Read more at  https://t.co/tfiwb3apdr #MachineLearning #ML #DataScience #DeepLearning #DL  #BigData #Analytics #BI ...

Por sus siglas en ingles el Chief Data Officer (CDO) es muchas veces confundido con el Chief Digital Officer o Chief Digital Information Officer. La principal distinción radica en que el director de datos es la persona senior, con un enfoque comercial, que comprende la estrategia y la dirección del negocio, pero su enfoque está en cómo respaldar eso con datos.

Asimismo algunas organizaciones también utilizan roles como el Chief Information Officer (CIO) o el Chief Technology Officer (CTO) de forma indistinta con el de Chief Data Officer (CDO). Para hacer una clara diferenciación entre ambos nos gusta citar la analogía que hace Caroline Carruthers, directora de la firma de consultoria Carruthers and Jackson, ex directora de datos (CDO) de Network Rail y co-autora de “The Chief Data Officer’s Playbook and Data-Driven Business Transformation: How to Disrupt, Innovate and Stay Ahead of the Competition”. Ella utiliza la analogía de la cubeta y el agua para explicar la clara distinción entre un CDO y un CIO. Así lo explica:

El director de información (CIO) es responsable de la cubeta. Ellos son responsables de asegurarse de que la cubeta sea del tamaño correcto, que no tenga agujeros, que sea segura y que esté en el lugar correcto. El director de datos (CDO) es responsable del fluido que entra en el balde, sale del balde, que va al lugar correcto, que tiene la calidad adecuada y el fluido adecuado para empezar. Ni la cubeta ni el agua funcionan el uno sin el otro.«

The Chief Data Officer | Deloitte

Finalmente, ¿Cómo se si necesito un CDO?

Sin duda el gobierno corporativo es una estructura que muchas veces se asocia a las organizaciones más grandes, empresas nacionales o internacionales. La realidad es que más allá del nombramiento o del puesto como tal, cualquier organización puede adoptar una figura que ostente el rol de CDO dentro de su compañía. Desde una startup hasta nuestros colegas PyMEs pueden adaptar este puesto, a su propia escala, para realmente tener una cultura centrada en los datos. Al final del día lo importante es que esta persona sea responsable de ver en los datos ese activo valioso para la empresa, sobre el cual se puede derivar un valor importante y muchas veces hasta una ventaja competitiva para el negocio.

Datlas_Promo_Podcast_Suscribe

Inteligencia Artificial y Big Data en los negocios, ¿Qué efectos tuvo el COVID-19 en estas tendencias? – DATLAS Investigación

A inicios de año se nos presentó un reto sin precedentes que afectó completamente la forma en la que hacemos negocios. En respuesta a este gran cambio muchas empresas hicieron un replanteamiento de estrategias y objetivos al final del primer semestre del año. Nosotros no fuimos la excepción, como proveedores nos tocó presenciar de primera mano como muchos negocios lidiaban en distintas maneras con este reto de la pandemia. Fue ahí, justo unos meses después del gran shock inicial que comenzamos a notar una revaloración que las empresas estaban haciendo respecto a sus datos, como un activo clave, y por ende acerca de tecnologías como la Inteligencia Artificial (I.A.) y el Big Data.

Datlas_Blog_Promo_SuscriberFree

Comprometidos con seguir aportando a nuestro ecosistema, y conscientes de lo que estábamos presenciando, organizamos un Programa de 6 Sesiones para este segundo semestre del año (una vez al mes) en donde exponemos con casos de negocios reales los beneficios que empresas de todos los tamaños han podido capitalizar el uso de datos y aprovechar estas tecnologías. Justo este viernes tendremos nuestra segunda sesión titulada “El impacto del Big Data y la Inteligencia Artificial en los negocios” y es por ello que, en esta columna, hablaremos de como estas tendencias han impactado el mundo de los negocios y que tanto la pandemia a “afectado” su adopción.

La relación del Big Data & la I.A.

Antes de profundizar es necesario dejar en claro la razón de hablar en conjunto acerca del Big Data y la Inteligencia Artificial. En un sentido general el Big Data se refiere a esta manipulación de grandes cantidades de datos o información en diversos formatos, mientras que la Inteligencia Artificial (I.A.) se refiere a programas computacionales que son capaces de emular actividades del cerebro humano como el aprendizaje con base a experiencia (eventos pasados). Siendo así, no podemos hablar de Inteligencia Artificial sin hablar de Big Data dado que para construir modelos o algoritmos de I.A. se necesitan datos, que precisamente son obtenidos y manipulados por el Big Data.

¿Qué impacto esperábamos hace algunos años?

Apenas hace un par de años (2018), según información de Deloitte, 9 de cada 10 ejecutivos afirmaban que los sistemas de I.A. transformarían sus modelos de negocio.

datlas_mx_blog_deloitte_encuesta

Además, se esperaba que la Inteligencia Artificial diera lugar a la aparición de nuevos perfiles profesionales que debían convivir con los ya existentes. Estos perfiles especializados abren un nuevo abanico de posibilidades innovadoras que afectan directamente a procesos y herramientas, que ven mejorado su rendimiento.

Impacto actual

Actualmente, lejos de verse mermado el acelerado crecimiento y adopción de soluciones de I.A., por ejemplo, se ha visto una expansión interesante a nivel mundial y también en Latinoamérica. En el caso de asistentes virtuales inteligentes (tipo Siri y Alexa) en Latinoamérica se manejan más de 850 millones de conversaciones en negocios B2B y B2C para atraer, generar, crecer y retener clientes. Y este es solo un tipo de aplicación y una de las múltiples formas de derivar beneficios.

Por otro lado, el Big Data se utiliza para promover productos, desarrollar mejores estrategias comerciales, llegar a los clientes, explorar nuevos mercados y audiencias objetivo, optimizar el flujo de trabajo, reducir los costos y obtener otras ventajas competitivas en el mercado.

Natural Language Processing: A Short Introduction To Get You Started |

Ahora bien, sabemos que no todos los negocios han sufrido esta pandemia de la misma forma. Existen sectores o industrias que han sido impactados de forma más crítica, mientras otros han podido lidiar con esto de una manera menos acelerada. De la misma forma el impacto que estas tendencias del Big Data y la I.A. han tenido en las distintas verticales de negocio ha sido variado, en términos de sus aplicaciones, pero igualmente relevante y trascendente. Por mencionar algunos ejemplos puntuales profundizaremos en industrias como: retail, marketing y publicidad, así como el transporte y logística.

Retail, Marketing y publicidad

La tarea más frecuente de las soluciones de Big Data está relacionada con la búsqueda de patrones de comportamiento que se puedan emplear para muchos propósitos. Comprender los hábitos y deseos de los clientes es la principal preocupación de cualquier negocio, y el análisis de Big Data es la única forma válida de lograr resultados precisos basados en un gran muestreo y cálculos extensos en lugar de intuiciones y experiencias personales.

Otra aplicación común de Big Data en las empresas de retail, marketing y publicidad es el análisis predictivo sobre la base de grandes conjuntos de datos. La mayor cantidad y volumen de datos permite obtener resultados más precisos, configurar más parámetros antes del análisis e incluso ampliar los temas y las posibilidades generales de pronóstico.

Qué es el Big Data Marketing y qué ventajas ofrece?

Transporte y logística

Las empresas de transporte también manejan grandes volúmenes de información sobre vehículos, pasajeros, equipaje y carga. La necesidad de administrar flujos de datos extensos con restricciones de tiempo estrictas impuestas por los horarios de transporte requiere soluciones de software de alto rendimiento diseñadas específicamente para Big Data.

El propósito práctico de tales soluciones radica en rastrear la entrega de carga, monitorear el uso y suministro de combustible, el estado técnico del estacionamiento de vehículos de la empresa, los controles de salud de los conductores y el horario de trabajo, así como muchos otros factores relevantes. De esta forma, las empresas pueden utilizar el software Big Data para priorizar la seguridad además de la optimización habitual del consumo de recursos y la mejora de la eficacia.

How does Big Data save logistics? - How does Big Data save logistics? -  Régens

¿Cómo pinta el futuro?

Los analistas empresariales predicen que los ingresos del mercado global de Big Data alcanzarán los 103 mil millones de dólares en 2027. No importa si tu empresa es grande o pequeña, siempre hay una forma de beneficiarse de las soluciones de Big Data. La ventaja más importante que ofrece esta tecnología es el conocimiento de las necesidades y los patrones de comportamiento de los clientes. Esta información, junto con los pronósticos de alta precisión permite a los empresarios diseñar estrategias comerciales efectivas en lugar de perder tiempo y dinero en el método de prueba y error. La capacidad de manejar grandes volúmenes de información utilizando soluciones de software automatizadas también simplifica enormemente la gestión empresarial, incluidos aspectos como mantenimiento, inventario, envío, carga de trabajo y otros.

Si quieres conocer un caso real aplicado de Big Data e Inteligencia Artificial y enterarte de como puedes tu mismo comenzar a aplicar estas tecnologías en tu negocio el próximo lunes, no te pierdas nuestra sesión este viernes. Inscríbete gratis aquí.

datlas_mx_6_sesiones_2S2020_bigdata_analytics_ia_sesion2_promo

Análisis de datos desde Google Analytics

Nuestra filosofía desde el día zero ha sido que con los datos y la tecnología adecuada las personas podrán resolver problemas cada vez más complejos. En más de una ocasión nos hemos enfrentado a un público que desconoce términos como análisis de datos o big data. Uno de los ejemplos más claros e intuitivos que solemos comentar en estos foros es precisamente el de Google Analytics, esta herramienta de Google que nos permite conocer las principales métricas de nuestro sitio web, desde el número de visitantes que recibimos hasta las páginas que más consultan los visitantes cuando acceden al mismo. Este aplicativo nos permite adentrarnos en el mundo del análisis de datos desde un panel de control simple de comprender para cualquier profesional. En esta columna vamos a repasar algunos de los conceptos que nosotros mismos y algunos de nuestros clientes hemos tenido que estudiar cuando nos adentramos al mundo de Google Analytics, así como un par de preguntas interesantes a plantear cuando estas analizando los datos.

free_Suscriber

Top 5 de conceptos básicos

Sin duda habrá un montón más, pero por lo menos para nosotros, de inicio, estos han sido los conceptos menos intuitivos y que más trabajo nos costo entender. Al mismo tiempo son conceptos que nos dan insights claves a la hora de los análisis y la derivación de accionables.

  1. Adquisición: las métricas de adquisición muestran de dónde proviene su tráfico, ya sea búsquedas de Google, enlaces a redes sociales u otros sitios web.
  2. Porcentaje de rebote: un rebote es una visita al sitio web de una sola página, por lo que la tasa de rebote de su sitio es el porcentaje de visitas a una sola página que tiene su sitio. En general, lo ideal es que este número sea lo más bajo posible.
  3. Objetivos de conversión: es la finalización de una actividad en su sitio que es importante para el éxito de su empresa, como un registro completo para el newsletter. OJO: esto debemos configurarlo desde inicio antes de que Google rastree cualquier proceso de conversión.
  4. Sesiones: una sesión es un único período de visualización activo continuo por un visitante. Si un usuario visita un sitio varias veces en un día, cada visita única cuenta como una sesión.
  5. Vistas de página únicas: la cantidad de páginas nuevas por sesión de visualización que los usuarios han visitado.

datlas_mx_blog_google_analytics_logo

Ahora bien, hasta aquí por lo menos sabemos de que se tratan el montón de datos que podemos ver en el panel de Google Analytics, pero lo realmente importante de los datos es la inteligencia que guardan detrás y lo que podemos accionar con ellos una vez que hayamos analizado a fondo sus “historias”. Para esto existen también algunos consejos y lineamientos que hemos aprendido en los últimos años y queremos compartir con ustedes.

En primer lugar y lo más importante es plantear las preguntas a resolver antes de entrar en analytics. Pero ¿cómo? ¿antes de entrar? ¿no estábamos ya dentro? Sin duda es algo contra intuitivo, pero importantísimo. El paso previo para poder entrarle a cualquier análisis es plantear las preguntas a resolver, es decir, tener claro lo que se va a investigar, por ejemplo: ¿por qué no estoy teniendo suficientes suscriptores a pesar de estar dirigiendo mucho tráfico a mi página? ¿dónde pudiera estar el cuello de botella?

datlas_mx_blog_google_analytics_panel

Una vez teniendo clara la pregunta podemos entrar a explorar los indicadores claves que nos ayuden a responder o validar las hipotesis. Por ejemplo, mencionamos el concepto de porcentaje de rebote o incluso los mismos objetivos de conversión que son métricas o indicadores por los que podemos empezar para descifrar esta incógnita. En este punto es importante mencionar el segundo de los consejos: personalizar alertas. Existe una opción dentro de Google Analytics que te permite establecer alertas dadas ciertas condiciones en los indicadores. Configurando alertas podrás establecer procesos o protocolos específicos. Uno de nuestros clientes, por ejemplo, tiene establecido que si el trafico de la pagina baja cierto nivel le llega una alerta al equipo de marketing que inmediatamente acciona una campaña de Adwords para contrarrestar el efecto.

El tercer consejo es analizar la velocidad del sitio. Hoy en día las nuevas generaciones estamos cada vez más acostumbrados a la inmediatez y no hay nada más dañino para un negocio en términos de posicionamiento que un sitio web que se tarde años (más de 3 segundos para millenials y posteriores) en cargar. En la sección de comportamiento (behavior) podrás encontrar los page timings y algunas sugerencias al respecto.

datlas_mx_blog_site_speed

El penúltimo tip que queremos compartirles tiene que ver con conocer a sus clientes. Dentro de Google Analytics se pueden visualizar las categorías de afinidad de los usuarios que visitan tu sitio web. Esto no solo sirve para temas del sitio web como ajustes de narrativa o visuales sino también para entender el perfil de los clientes y poder accionar otro tipo de estrategias de manera holística en el negocio como por ejemplo despliegues promocionales, activaciones, ajustes a presentaciones de ventas, actividades de prospectación y más.

Finalmente, una de las cosas más graciosas que hemos aprendido en este mundo de Google Analytics: hay que excluir el tráfico interno. Es bastante interesante ver como de pronto el mismo equipo es el responsable de una parte importante del tráfico en el sitio web, incluso muchas veces metiendo sesgo o ruido a los números y por ende, a los análisis. Este último consejo es muy importante, se pueden excluir direcciones IP especificas para que Google Analytics omita contabilizar sus efectos en los indicadores.

De esta forma llegamos al final de esta columna, si quieres aprender más acerca de Google Analytics contáctanos y podemos apoyarte. Si ya haz tenido experiencia en este mundo y tienes algunos conceptos que compartir con la comunidad o incluso consejos como los antes mencionados por favor compártelos en nuestras redes sociales

@DatlasMX

4 pasos para preparar tus bases de datos para análisis – MANUALES DATLAS

Hoy en día la transformación digital cuenta con distintos pilares dentro de los que destaca la analítica o análisis de datos. Apalancar todo el valor que esconden las grandes cantidades de información disponibles en la actualidad permite que los negocios y la sociedad, en general, se organice y genere valor de formas innovadoras. Para lograr un análisis de datos, la materia prima es clave: las bases de datos. Como cualquier materia prima las bases de datos guardan atributos y características que las hacen ser mejores o peores al momento de ser utilizadas como input para un análisis. En esta columna vamos a revisar 4 sencillos pasos con los que podrás asegurar que tus bases de datos estén preparadas y listas para realizar análisis de calidad que generen un verdadero valor diferencial para tu negocio. Estos 4 pasos son: limpieza, reestructura, homologación y clasificación.

#1 Limpieza de datos

El llamado data cleansing, por su traducción al idioma inglés, es el proceso de descubrir y corregir o, en casos extremos, eliminar registros de datos que han sido identificados como erróneos dentro de una tabla o base de datos. Este proceso de limpieza de datos permite identificar datos incompletos, incorrectos, inexactos, no pertinentes, etc. y luego sustituir, modificar o eliminar estos datos sucios.

Hay distintos métodos para limpieza de datos. Uno de ellos es el análisis gramatical que identifica errores de sintaxis, es decir, si el sistema lo tiene declarado como una variable numérica y el usuario registro una palabra, este tipo de análisis lo identifica. Existe la transformación, que básicamente ajusta los datos dentro de un formato esperado, en la mayoría de las ocasiones la transformación es para normalizar los datos y ajustarse a valores mínimos y máximos. Otra forma es el eliminar duplicados, que como su nombre lo dice, simplemente identifica registros repetidos y elimina uno de ellos. Finalmente, existen métodos estadísticos mediante los cuales la estadística descriptiva hace visualmente reconocibles las anomalías y posteriormente expertos se encargan de ajustar ese tipo de datos mediante la sustitución de los mismos por valores promedios o algún otro tipo de tratamiento, dependiendo de la naturaleza del dato.

Una vez detectados estos datos “sucios” es necesario identificar las causas para poder establecer flujos de trabajo ejecutables de forma automática para que corrijan o excluyan este tipo de datos. En temas técnicos es común el uso de bibliotecas como Pandas para Python o Dplyr para R.

datlas_mx_blog_data_cleansing

#2 Reestructura de bases de datos

Este segundo paso del proceso de preparación de bases de datos tiene que ver literalmente con tomar una base de datos de cierta estructura como, por ejemplo, 10 columnas por 3 filas y alterarla de tal forma que al final quede una base de datos completamente nueva de, por ejemplo, 6 columnas por 7 filas, pero con los mismos datos ya limpios que obtuvimos en el paso anterior. Para ilustrar este punto utilizaremos un ejemplo muy sencillo:

Supongamos que levantamos una encuesta sobre productos y marcas que podemos encontrar en el baño de cada entrevistado. Los resultados de la encuesta nos darían una base de datos de la siguiente forma:

EntrevedadsexoProd_1Prod_2Prod_3Marca1Marca2Marca3NSE
110FDesodo

 

rante

Pasta de dientesJabon líquidoAXECRESTNUBELUZA
225MPasta de dientesSham

 

poo

Jabon en gelCOLGATEELVIVEAMIGOB
323FCrema para peinarPasta de dientesJabon de barraSEDALCOLGATEESCUDOC

Si quisiéramos que los datos nos digan que artículos son los que las mujeres de 24 a 30 años tienen en su baño, necesitamos manipular los datos de forma que podamos obtener como respuesta a esta pregunta un cálculo de frecuencia.

En este segundo paso es donde tomamos en cuenta las hipótesis o los objetivos de análisis para generar la reestructura de la información. En este caso, por ejemplo, la base de datos ya reestructurada quedaría así:

EntrevistadoEdadSexoNum_ProdDescripcionMarca
110F1DesodoranteAXE
110F2Pasta de dientesCREST
110F3Jabón LíquidoNUBELUZ
225M1Pasta de dientesCOLGATE
225M2ShampooELVIVE
225M3Jabon en gelAMIGO
323F1Crema para peinarSEDAL

Con lo cual podríamos establecer, suponiendo que utilicemos Excel, un filtro en la columna de edad para seleccionar las edades superiores a 24 años e inferiores a 30, al mismo tiempo que filtramos en la columna de sexo la letra F (de femenino) y simplemente calculamos el total de filas que quedan desplegadas de la tabla. De esta manera respondemos la pregunta inicial.

#3 Homologación de bases de datos

En este punto ya comenzamos a jugar con distintas bases de datos, es decir, muchas veces las empresas tienen distintas áreas donde el modo con el que tratan los datos es distinto. Por lo tanto, al momento de tratar de unificar resultados o compararlos, puede que no se estén tomando parámetros similares y eso difícilmente podrá permitir que se realicen cruces de información de manera eficiente.

Al homologar bases de datos es necesario generar estructuras preestablecidas y un glosario de variables que defina claramente los formatos y las especificaciones necesarias para cada tipo de variable registrada. Un caso muy común por ejemplo es el formato de fechas entre dos bases de datos distintas, mientras uno maneja el formato día/mes/año otro tiene registros como mes/día/año con lo que a la hora de hacer un cruce de información las fechas nunca logran empatar y es imposible realizar un cruce de forma adecuada.

datlas_mx_blog_homologacion_bases_de_datos

#4 Clasificación de bases de datos

Finalmente, tenemos el paso de clasificación. En este punto literalmente el objetivo es darle una etiqueta o categoría a cada base de datos de acuerdo al contexto que estemos manejando, la utilidad de la misma base de datos o las necesidades que estas satisfagan al interior de la organización. De forma general existen dos tipos de clasificaciones para las bases de datos: según la variabilidad de los datos o según su contenido.

Dentro de la primera clasificación existen las bases de datos estáticas, que generalmente son bases de datos de consulta, con registros históricos que no van a cambiar. El típico ejemplo aquí son las ventas de hace 5 años para una compañía de artículos deportivos. Por otro lado, están las bases de datos dinámicas, donde la información cambia a través del tiempo por actividades como: actualización, borrado y edición de datos. El mejor ejemplo en este caso son las bases de datos de clientes (CRM) donde hay constantes actualizaciones de información o incluso eliminación de prospectos.

En la segunda clasificación tenemos las bases de datos bibliográficas, que guardan literalmente registros de autor, fecha de publicación, editorial, etc. En contraste existen las bases de datos de texto completo que almacenan el contenido completo de las citas bibliográficas anteriormente citadas, por ejemplo. También existen subclases como directorios, bibliotecas, etc.

datlas_mx_blog_clasificacion_bases_de_datos

De esta forma logramos tener una integridad entre los datos almacenados, la base de datos que los resguarda, las distintas bases de datos dentro de una organización y su capacidad de complementarse al momento de realizar un análisis. Así de fácil podemos cuidar la calidad de nuestros datos para asegurar que podamos aprovechar todo el poder y las ventajas del big data a la hora de realizar analítica.

Si te interesa conocer más acerca de estos procesos o necesitas ayuda con tus bases de datos, visita nuestro Marketplace o contáctanos en nuestras redes sociales

@DatlasMX

Dashboards de negocios, guía para principiantes – MANUALES DATLAS

Un avión donde viajan 300 personas que puede ser conducido por 2 personas, una megaciudad de más de 5 millones de habitantes conducida desde un «war-room» (C4 ó C5) con 20 personas, o la gestión de un mundial de fútbol en más de 20 ciudades a la vez controlado por un equipo de 40 profesionales ¿Qué herramienta tienen en común?  Todos en algún momento usaron dashboards.

Datlas_Blog_Promo_SuscriberFree

En los negocios ocurre igual. Un tablero de control o dashboard es un lugar donde se pueden monitorear los aspectos más importantes del quehacer de una organización. Sinedo así,en el campo de «inteligencia de negocios» o «business intelligence», este tipo de herramientas le ayuda a los tomadores de decisiones y operativos a reaccionar de forma efectiva a cambios en el negocio.

1) ¿Qué es un dashboards de negocios?

Es un gráfica que refleja el estatus operativo de datos recolectados en tiempo real (o casi tiempo real) visualizados en una plataforma. Un ejemplo de lo que podría ver un empresa que se dedica a envíos de comida a domicilio en un dashboard.

El pase de diapositivas requiere JavaScript.

Así como los pilotos en un avión monitorean la altura, velocidad, ruta y otros aspectos del vuelo. En un negocio podríamos vigilar las órdenes , las ventas, tiempos de entregan las entregas exitosas, los artículos más vendidos, entre otros.

Te puede interesar nuestra columna titulada: Ranking de Dashboards de COVID-19.

2) Características de un dashboard

Para ser considerado un buen panel de control tendría que integrar:

  • Un sistema valioso de indicadores
  • Visualización e interacción intuitiva
  • Buena calidad de datos como insumo y amplitud en cortes temporales
  • Un sistema completo de arquitectura que permita actualización automática

Recomendamos que leas nuestro ejemplo en: Analítica en Dashboards para Turismo.

Datlas_Promo_Facebook_Suscribe

3) ¿Cuáles son los tipos de dashboards?

Datlas_niveles

  • Dashboard estratégico: Resume y sintetiza los indicadores más importantes de la compañía para tomar decisiones de manera rápida basadas en datos
  • Dashboards analíticos: Puede ser estratégico y operativo, destinado a que los equipos de mandos altos y medios puedan tomar decisiones de manera más ágil
  • Dashboards operativos: Enfatiza el reporteo de información constante y continua
4) ¿Qué acciones debería habilitar un dashboard?
A) Seguimiento a KPIs
Datlas_saludkpis

Una vez que se realizó el trabajo de planificación estratégica donde se delimitaron los KPIs que los equipos de trabajo deberán de cuidar para que los proyectos tengan buena salud es importante poder visualizarlo en el dashboard. Por lo mismo es útil generar un «semáforo» donde rojo sea señal de gran oportunidad para mejorar y verde sea buena salud.

B) Alertar de comportamientos fuera de rango o prevenciones
Datlas_alertas

Las mejores implementaciones de inteligencia de negocios generan tableros que están listos para alertar sobre comportamientos críticos o situaciones que necesitan inmediata atención. Idealmente estas notificaciones tienen que ser desarrolladas por las personas con más experiencia en la organización y con base a atender las oportunidades que de no atenderse podrían representar un costo no reemplazable a la compañía.

Datlas_Promo_Youtube_Suscribe
C) Monitoreo en tiempo real
Datlas_gif_Realtime_Dashboard

En una etapa más avanzada habrá que procurar que el monitoreo de los datos sea en tiempo real. Esto requiere necesidades más sofisticadas de infraestructura y que se cuenten con iniciativas de ciberseguridad para asegurar que no haya fugas de información. Esto permitiría una toma de decisiones más oportunas sobre datos que sean reales.

Cierre

Los dashboards permiten ser más eficientes y eficaces en la toma de decisiones operativas y en el cumplimiento de la estrategia de una organización. Hay que trabajar de la mano con el área o la función de planeación en nuestra compañía para generar buena calidad de KPIs, alertas y sobre todo garantizar que los datos más dinámicos sean actualizados en tiempo real.

Datlas_Promo_Podcast_Suscribe

Si te interesa seguir conociendo más de este tema (KPIs y herramientas de medición te invitamos a nuestra próxima charla. Puedes registrarte aquí GRATIS: https://bit.ly/dfuturos4 

WhatsApp Image 2020-07-06 at 9.05.32 AM

También solicitar en nuestro marketplace una llamada para platicar sobre este tema y evaluar cómo con alguno de nuestros casos aplicados podemos ayudar a tu organización.

Fuentes:

V de Variedad en Big Data: datos estructurados y no estructurados

En más de una ocasión hemos tenido la oportunidad de presentarnos en foros donde hablamos de Big Data como esta nueva gran tendencia dentro del marco de la transformación digital. Al comenzar cada una de nuestras presentaciones, como es nuestra fiel costumbre, contextualizamos acerca de los conceptos que abordamos. Dentro de la explicación de lo que es el Big Data hacemos referencias a las famosas 5 Vs: Volumen, velocidad, variedad, veracidad y valor. Implícitamente, dentro de la característica de variedad hablamos del origen de los datos, las fuentes de donde provienen y del tipo de estructura que tienen. En esta columna vamos precisamente a profundizar en los datos y las bases de datos estructuradas y no estructuradas, lo que son y como es que nosotros las apalancamos dentro de los reportes automatizados Laura para capitalizar un mejor entendimiento, análisis y descubrimiento de oportunidades con alto impacto para el negocio.

free_Suscriber

Como punto de partida hay que entender a que nos referimos con datos estructurados y no estructurados. En primer lugar, los datos estructurados se refieren a la información que se suele encontrar en la mayoría de las bases de datos relacionales (Relational Database Management System o RDBMS por sus siglas en inglés), es decir, en un formato estructurado usando filas y columnas. Suelen ser archivos de texto que se almacenan en formato tabla u hojas de cálculo con títulos para cada categoría que permite identificarlos. Son datos que tienen perfectamente definido la longitud, el formato y el tamaño y que pueden ser ordenados y procesados fácilmente por todas las herramientas de minería de datos. De igual manera, los datos pueden generarse de forma humana o mecánica siempre que los datos se creen dentro de una estructura RDBMS. Para ejemplificarlo de forma más simple, imagina cuando tomaban lista en el salón de clase y el profesor tenía una tabla con nombres, apellidos, la fecha de la clase y un montón de palomitas. Así se “ven” los datos estructurados.

El pase de diapositivas requiere JavaScript.

Por otro lado, existe una clasificación diametralmente opuesta a esta: los datos no estructurados. Aunque si bien entendemos que técnicamente existe también el término de datos semiestructurados en esta ocasión utilizaremos los opuestos para ejemplificar el punto de la variedad dentro del big data y los beneficios de fusionar los distintos tipos de datos a la hora de generar los análisis. Así que, volviendo al tema, los datos no estructurados, que son la otra cara de la moneda son aquellos datos, generalmente binarios, que no poseen una estructura identificable. Es un conglomerado masivo y desorganizado de varios objetos que no tienen valor hasta que se identifican y almacenan de manera organizada. No tienen un formato especifico, pueden ser textuales o no textuales. En su modo más simple, son documentos en PDF, archivos de Word, videos, audios, las fotos satelitales de las hectáreas de siembre que tiene una empresa agrícola, entre otros ejemplos. De la misma forma que los datos estructurados, este otro tipo de datos puede ser generado tanto por humanos como por maquinas.

datlas_mx_blog_datos_no_estructurados
Ejemplo de datos no estructurados (textual)

Ahora bien, ¿Qué relevancia tiene esta variedad de los datos? ¿Qué relación guarda con esto del Big Data? Pues precisamente estadísticas mostradas por empresas como Kyocera estiman que alrededor del 80% de la información relevante para un negocio se origina en forma no estructurada, principalmente en formato texto. Esto quiere decir que, al tener la posibilidad de integrar datos no estructurados al análisis, automáticamente el volumen de información (otra de las V del Big Data) disponible para análisis aumenta a más del doble. Imagínate que llegara un nuevo vendedor y pudiera leer todos los corres de prospección escritos en los últimos 5 años de historia de la compañía. Toda la riqueza detrás de ese tipo de ejercicio hoy es posible gracias al Big data, pero tomar ventaja de los datos no estructurados es una tarea retadora, ya que existe la necesidad de organizar los archivos, categorizar el contenido y entonces obtener información que pueda estructurarse de tal forma que sea capaz de fusionarse con los datos ya estructurados. Aunque sin duda hoy existen en el mercado herramientas de software para el procesamiento, gestión o almacenamiento de este tipo de datos, sigue siendo importante el papel de los analistas de negocio o los mismos dueños para establecer una priorización de esfuerzos con base al beneficio potencial que pudiera obtenerse de ese esfuerzo por capitalizar los datos no estructurados.

datlas_mx_blog_datos_no_estructurados_a_estructurados

Finalmente, desde nuestra experiencia hemos logrado consultar bases de datos estructuradas y no estructuradas para realizar los reportes automatizados de Laura y entregar un verdadero valor agregado al cliente comparado al de los estudios tradicionales que generaba un equipo de analistas sin este tipo de herramientas. Tomemos como ejemplo las redes sociales, un tweet. Hoy es muy común que la gente se exprese libre y abiertamente en twitter acerca de lo que le gusta, le disgusta o incluso donde esta. En nuestro caso, uno de los elementos integrados dentro de Laura es el análisis de tráfico peatonal por categoría de negocios, es decir, que tanta gente está tweeteando acerca de una cierta marca de restaurante o producto. Para poder apalancar estos datos de forma inteligente se hace un proceso de análisis de texto que extraer el nombre del establecimiento, lo coteja con un diccionario de negocios, lo clasifica dentro de la categoría a la que pertenece ese negocio y finalmente lo agrega, de forma estructurada, en una base de datos que pasa a ser consultada como un mapa de calor dentro de nuestras plataformas de Mapas de Inteligencia y a su vez como una imagen de la ubicación analizada y el entorno al hablar de los reportes Laura. Esto nos ha permitido apoyar a negocios a tomar mejores decisiones de ubicación, ponderando no solamente los típicos indicadores estructurados y “fijos” sino también la información no estructurada y, en este caso, dinámica para ofrecer una perspectiva realmente nueva y más holística de las condiciones a las que se enfrenta el negocio al momento de tomar una decisión.

datlas_mx_casos_uso_consultoria_derrama_economica_luztopia_2019

Como este caso hemos aprovechado otro tipo de datos no estructurados para apoyar a empresas de distintas formas, en tu caso ¿generas información no estructurada? ¿te interesa aprovechar el poder que esconde esa información? ¿o simplemente te gustaría experimentar con la información no estructurada que existe allá afuera y que hoy podemos poner a tu disposición? Contáctanos y cuéntanos

@DatlasMX

 

Clustering para generar segmentos de mercado – INVESTIGACIÓN DATLAS

Como lo platicamos en «La historia de las tecnologías de información computacional» desde que el poder de cómputo ha incrementado hemos buscado formas de generar análisis más completos y asertivos para nuestros casos de estudio.

Datlas_Blog_Promo_SuscriberFree

Uno de ellos es el análisis de clúster que es una técnica estadística multivariante cuyo objetivo es formar grupos de elementos homogéneos o similares que al mismo tiempo sean heterogéneos o distintos entre sí. ¿En español y negocios? Hay casos en donde generar una estrategia para cada cliente puede ser costoso, pero si agrupamos a estos clientes en segmentos podemos impactar a grupos similares con estrategias puntuales.

En esta columna explicaremos un caso de ejemplo de clustering para generar segmentos de clientes. Los datos que revisaremos vienen de encuestas levantadas con visitantes al festival Luztopia. (Si te interesan sólo los resultados favor de pasar al final de la columna). El objetivo identificar segmentos de asistentes específicos al festival para la ideación y generación de mejores promociones el próximo año.

El pase de diapositivas requiere JavaScript.

Para ser justos hay que explicar que existen distintos tipos de análisis para generar estas agrupaciones o clústers. Los dos grandes grupos son: No jerárquicos y jerárquicos. En este caso en particular usaremos uno de los métodos  no jerarquicos. Lo que quiere decir que un clúster generado no depende de otro clúster, son independientes.  Dentro de los no  jerarquicos utilizaremos los asociados al algoritmo «k-means», que está dentro de la familia de los no jerárquicos. Este algoritmo usa de inicio medias aribtrarias y, mediante pruebas sucesivas, va ajustando el valor de la misma. La idea es no ponernos más técnicos, pero si te interesa conocer más a detalle te recomendamos revisar la p.23 de este documento. En pocas palabras k-means nos apoyará ensamblando clústers de perfiles que sean similares entre sí, pero a la vez diferentes entre cada grupo.

BASE DE DATOS

La información que revisaremos son un par de encuestas que incluyen datos como los siguientes:

Datlas_blog_clustering2

En concreto usaremos para armar los clústers las variables numéricas, tales como: Edad de personas que respondieron, tamaño de su grupo, cantidad de menores de 18 en el grupo, gasto en cena, gasto en productos dentro del recorrido, gasto total estimado y tiempo de estancia en el evento. Para quienes han analizado datos similares ya se podrán imaginar el tipo de respuestas que podremos generar: ¿Cuáles son los perfiles que más visitan? ¿Qué perfiles gastan más en su recorrido? ¿Habrá relación entre los visitantes que van con niños y su compra en cenas? ¿Extender el recorrido en tiempo haría que las personas consuman más cenas? Entre otros.

Este es el tipo de respuestas que generamos en los reportes que trabajamos en Datlas, sin embargo para fines de esta columna nos ubicaremos en el ejercicio de clústers buscando generar segmentos para los cuales podamos generar nuevas promociones.

Datlas_Promo_Facebook_Suscribe

MÉTODO

Un paso que algunos analistas descuidan es el proceso de «normalizar» datos. Una vez que empiezas por el camino de #machinelearning va a ser un paso que será muy común.  «Escalar» es un proceso de redimensión de variables para que estas se encuentren entre rangos de -5 a 5, por ejemplo. Este proceso ayuda a centrar los datos alrededor de la media.  Estos métodos tienen área de oportunidad cuando tenemos anomalías, pero en este caso dado la distribución de las variables hacía sentido escalar. A continuación un contraste del proceso.

El pase de diapositivas requiere JavaScript.

A partir de este proceso generamos una matriz de distancia entre las variables. Esto nos indica en rojo los registros de variables, en este caso visitantes a Luztopia, que son más distintos en perfiles y hábitos de consumo. Aunque realmente es complicado leerlo así. Por lo mismo es un paso intermedio

Datlas_matriz_Distancia_Cluster

Un siguiente paso es hacer una primera iteración de clústers. En esta ocasión supervisamos al algoritmo para que nos entregue de regreso 4 clústers. Cada punto que vemos en la gráfica es una encuesta respondida por la muestra de visitantes que estamos evaluando. En el clúster 1, por ejemplo, pudieran ser todos los visitantes que asistieron con niños a Luztopia. Eso genera una diferenciación tan crítica, que separa este clúster de los demás. Sin embargo los otros clústers se traslapan.

Datlas_ClusterPlot_4

Lo ideal es que el traslape sea mínimo o nulo. En este sentido podemos retar la cantidad de clústers que le pedimos al sistema generar. Para esto podemos usar un proceso que nos recomienda la cantidad de clúster óptimos.

Datlas_optimal_Clusters

De acuerdo a este proceso 2 son los números ideales y óptimos de clústers. También lo serían 5 ó 6, pero en realidad manejar estrategias de negocio para tantos grupos puede ser complicado. Por esta razón seleccionamos 2 como caso de uso.

Datlas_ClusterPlot_2

Finalmente, para poner en práctica nuevas estrategias de negocios, podemos identificar cuáles son las medias de cada una de las variables, cómo contrastan los clústers y algo que recomendamos es generar «avatars» o «buyers personas» que permitan comunicar hacia dentro de la organización la manera de trabajar.

TESTIMONIO

Hasta aqui la columna de hoy. Te compartimos finalmente el testimonio de nuestra colaboración con el «Clúster de Turismo NL» donde usamos técnicas como estas para generar distintos entendimientos del festival Luztopia. Además puedes revisar el podcast que grabamos con ellos si te interesa «Analitica en sector Turismo».

Si te interesa conocer y contratar este tipo de servicios de «Clustering sobre resultados de encuestas o investigaciones para generar segmentos y seleccionar los mejores mensajes para tu mercado» te recomendamos visitar nuestro marketplace y solicitar una llamada de orientación. Contáctanos también en ventas@datlas.mx

Datlas_Promo_Podcast_Suscribe

Saludos

Equipo @DatlasMX

– Keep it weird-