¿Cómo establecer el precio de mi producto/servicio? – Columna de investigación Datlas

¿Cuánto es barato? ¿Cuánto es caro? ¿Por qué si estoy vendiendo no me sale para pagar las quincenas? Después de años de dar conferencias y workshops sobre procesos comerciales y consumir más del doble de contenido alrededor de canales de venta, comercialización, marketing y demás nos encontramos con que uno de los dilemas más comunes y de los menos abordados es el tema del famoso precio o pricing en inglés. ¿Cómo establecer el precio de mi producto o servicio? Eso es de lo que hablaremos en esta columna del blog Datlas.

**También te podría interesar: El arte de las ventas: Diferencia entre venta inbound y outbound 

El punto de partida, como muchos de los temas que abordamos, es que existen diversas metodologías para poder establecer el precio de cualquier producto o servicio. Algunas de las más comunes son:

  1. Costos más Ganancia

Esta técnica implica calcular todos los costos asociados con la producción del producto o la prestación del servicio. Estos costos pueden ser clasificados como directos o indirectos, fijos o variables, pero invariablemente todos los costos se deben de tomar en cuenta. Es importante recordar que cuando hablamos de costos directos nos referimos a conceptos como: materiales y mano de obra directa. Por otro lado, cuando hablamos de costos indirectos nos referimos a conceptos como: gastos generales y administrativos. De igual forma, cuando hablamos de costos fijos nos referimos a conceptos como: renta del edificio, luz, agua. Mientras que cuando hablamos de costos variables nos referimos conceptos como: horas de uso de las maquinas, materia prima consumida por tonelada de producción. Al final, cuando ya se tienen todos los costos calculados se le suma de manera directa un monto de ganancia deseado, ya sea como porcentaje o como monto monetario directo. Ahora bien, veamos ejemplos rápidos:

**También de podría interesar: IMPULSA TU NEGOCIO CON DATOS

Ejemplo de producto – Una hamburguesa: sumas el costo del pan, la carne, los condimentos, el carbon (porque si, deben ser al carbón porque #regios), los minutos que el chef invirtió en cocinarla y finalmente te da un total de $40 pesos mexicanos (MXN). A eso le sumas un 25% de ganancia y finalmente tienes un precio al público de $50 MXN

Ejemplo de servicio – Asesoría legal para hacer un contrato: sumas el costo de la luz de la oficina, la renta, una tarifa por hora del tiempo del abogado o asesor legal y finalmente te da un total de $2,000 MXN. A eso le agregas tu 35% de ganancia y te da un precio final al público de $2,700 MXN

Ahora bien, en esta primera técnica es importante tomar en cuenta que existen conceptos que se suelen no traducir en costos, pero que son muy relevantes a la hora de ponerle el precio a algunos productos o servicio, como por ejemplo: el costo de financiamiento y el costo de adquisición del cliente. El costo del financiamiento tiene que ver con ese costo de oportunidad al momento de tener que aceptar las condiciones del cliente que te pide entregarle hoy su producto o darle su servicio y te paga hasta dentro de 30 días. Mientras que el costo de adquisición del cliente (CAC) tiene que ver con el costo del esfuerzo de adquirir un nuevo cliente a partir de todos los esfuerzos de marketing, prospección, etc. En el caso de quienes somos proveedores de servicios B2B estos dos conceptos pueden hacer la diferencia entre un precio que nos de utilidades o un precio que nos lleve a la quiebra.

2. Precio Basado en la Demanda: Aquí se establece el precio según la disposición que tengan los clientes para pagar por el producto o servicio. Ahora bien, ¿Cómo le hacemos para saber la disposición que tienen los clientes para pagar? Existen varias maneras de hacerlo, siendo la más común realizar estudios de mercado y análisis de la elasticidad del precio para determinar cuánto están dispuestos a pagar los consumidores por el valor percibido del producto o servicio. Ahora bien, veamos ejemplos rápidos:

Ejemplo de producto – Una botella de agua o refresco en pleno festival de música después de 4 horas. Seguramente esa agua de $15 MXN se convertirá en una botella más cara que las que compras en el antro para festejar tu cumpleaños un fin de semana (bueno, no tan cara, pero sí más del doble)

**También te podría interesar: ¿Qué es el sell-in y sell-out? ¿Y cómo se aprovecha en el análisis de datos? 

Ejemplo de servicio – Una boleada de zapatos/tenis en pleno aeropuerto o en un hotel o afuera de un restaurante lujoso. Te aseguro que ese servicio de $50-100 MXN en el centro, se convertirá en un servicio premium con productos organicos, artesanales o lo que sea para terminar costando el doble o más

3. Precio Basado en la Competencia: Consiste en fijar el precio de un producto o servicio en función de lo que están cobrando los competidores por productos similares. Esto puede implicar fijar precios por debajo, al mismo nivel o por encima de los competidores, dependiendo de la estrategia de posicionamiento de la marca. Y aquí podemos irnos directo a los ejemplos:

Ejemplo de producto – El kilo de arroz o frijoles en cierta tienda de autoservicio que se promociona como «la más baja» es siempre contar con la referencia de un competidor (la otra tienda) y ofrecerlo por lo menos 10% más barato. ¿Por qué? Para «robarle» mercado a la competencia

Ejemplo de servicio – El típico taller mecánico de colonia que te pide la cotización que te dio la agencia y casi en automático te da un 40% de descuento justificando que «acá no se pagan tantos costos fijos»

En cualquiera de los casos, como negocio debes cuidar que tus niveles de costos de producción sean lo suficientemente bajos como para soportar que aún con los descuentos que das frente a tu competencia haya un margen de ganancia digno para tu organización

Finalmente no olvidemos que existen otras técnicas que se enfocan en la forma de presentar el precio al cliente final y toman en cuenta cuestiones psicológicas, estrategias de penetración de mercado, aumento incremental del precio, etc. Pero todas ellas deben tomar como punto de partida un calculo de precio inicial para poder generar esos posicionamientos.

No olvides que cada organización y situación puede requerir una o varias de estas técnicas, y es importante considerar varios factores desde tu mercado meta (B2B vs B2C) hasta el prestigio de tu marca.

**También te podría interesar: 5 tendencias de analítica avanzada para retailers y cpgs

Sin más, recuerda que puedes aprender más de pricing en nuestro nuevo Reto Academy «Big Data y herramientas de automatización de ventas»

– Equipo Datlas –

-Keep it weird-

¿Qué es el sell-in y sell-out? ¿Y cómo se aprovecha en el análisis de datos? – Columna de investigación Datlas

De la misma forma en la que cuando aprendes un idioma nuevo te enseñan algunos verbos claves y como conjugarlos, en el ámbito profesional, sobre todo si te quieres dedicar a temas que tengan que ver con el comercio y la fabricación de productos de consumo masivo, hay cierta terminología clave que debes conocer. En la columna de hoy te presentamos 2 conceptos transcendentales: sell-in y sell-out. Y, sobre todo, como estos datos pueden aprovecharse en la analítica para realizar casos de uso de alto valor agregado.

Antes que nada, contexto

El término «retail» se refiere al sector de la economía que se dedica a la venta de bienes y servicios directamente a los consumidores finales, generalmente en pequeñas cantidades. Las empresas minoristas, también conocidas como minoristas o detallistas, son aquellas que operan en este sector y venden productos y servicios directamente a los consumidores a través de tiendas físicas, tiendas en línea, catálogos, quioscos, entre otros canales de venta. Un ejemplo claro son las tienditas de la esquina, que forman parte del conocido: «canal tradicional».

El retail es un componente fundamental de la economía, ya que facilita la distribución y venta de una amplia variedad de productos y servicios a los consumidores finales. Las empresas minoristas pueden ser grandes cadenas internacionales, como Walmart o Amazon, o pequeñas tiendas locales operadas por propietarios independientes, como la tiendita de la esquina que mencionamos al inicio.

El éxito en el sector minorista depende de varios factores, como la ubicación de la tienda, la selección de productos, la experiencia del cliente, el servicio al cliente, la estrategia de precios y la capacidad de adaptarse a las tendencias del mercado y a las preferencias del consumidor. El retail es un sector dinámico y altamente competitivo que está sujeto a cambios constantes impulsados por la evolución tecnológica, las tendencias de consumo y otros factores externos.

En el retail hay 3 jugadores claves: los fabricantes de los productos, el comercializador (tienda) y el consumidor final. Tomemos un ejemplo, para ser mas claros, imagina una marca de productos que compras en tu supermercado. Esa marca vendría a ser el fabricante. El supermercado en donde la compras vendría a ser el comercializador y finalmente tú serías el consumidor final. Si vieramos un ejemplos de la cadena de valor agroalimentaria se vería de la siguiente manera:

Ahora si, definamos los conceptos

Como lo menciona el título, dentro del retail y la fabricación de productos existen dos terminos claves. El primero de ellos es el famoso «sell-in». El término «sell-in» se refiere a la venta de productos por parte de un fabricante, mayorista o distribuidor a un minorista o a otro socio comercial. Es el proceso mediante el cual se coloca el producto en el canal de distribución y se registra como una venta, aunque el producto aún no se haya vendido al consumidor final. Tomando como ejemplo la cadena de valor agroalimentaria, citada anteriormente, imagina a un agricultor de tomate que le vende sus tomates a un supermercado como Soriana. La venta que registra el tomatero hacia Soriana vendría a ser el «sell-in».

En otras palabras, «sell-in» se refiere a las ventas realizadas por un proveedor a sus clientes minoristas o distribuidores. El sell-in es importante para medir la demanda de los minoristas y distribuidores y para gestionar adecuadamente el inventario y la cadena de suministro.

Por otro lado existe un concepto hermano llamado «sell-out». El término «sell-out» se refiere a las ventas realizadas por minoristas o distribuidores a los consumidores finales. En otras palabras, es la cantidad de productos que realmente se venden a los clientes en las tiendas o puntos de venta. Siguiendo el ejemplo de los tomates, este dato sería la venta de tomates que tuvo el supermercado hacia los consumidores finales, como tu y yo.

El sell-out es un indicador clave para evaluar la demanda real de un producto en el mercado. Mientras que el «sell-in» se refiere a la venta de productos desde el fabricante o mayorista al minorista o distribuidor, el «sell-out» representa la parte final de la cadena, donde los productos se venden directamente a los consumidores.

Las empresas suelen prestar mucha atención al sell-out ya que proporciona información crucial sobre cómo está siendo recibido un producto por parte de los consumidores finales y cómo está funcionando en el mercado. Esto les ayuda a ajustar sus estrategias de marketing, producción y distribución para maximizar las ventas y satisfacer la demanda del mercado.

¿Cómo se aprovecha esto en el análisis de datos?

Una vez que entendimos la constitución de la cadena de valor del retail y los conceptos de sell-in y sell-out, es importante comprender la relevancia que tienen estos datos al momento de analizarse y convertirlos en valor para los negocios.

Con los datos de sell-in, que representan las ventas de un fabricante, mayorista o distribuidor a los minoristas o socios comerciales, se pueden realizar varios tipos de análisis para obtener información valiosa sobre el desempeño de los productos y la salud del negocio. Algunos ejemplos de análisis de datos que se pueden realizar con el sell-in incluyen:

  1. Análisis de tendencias de ventas: Observar las fluctuaciones en las ventas a lo largo del tiempo para identificar patrones estacionales, ciclos de vida del producto y cambios en la demanda.
  2. Evaluación del desempeño del producto: Comparar las ventas de diferentes productos para identificar cuáles tienen un mejor desempeño en términos de volumen de ventas, participación en el mercado, rentabilidad, etc.
  3. Análisis de la distribución: Evaluar la penetración del producto en diferentes canales de distribución y geografías para identificar oportunidades de expansión o áreas de mejora.
  4. Análisis de la efectividad de la promoción: Evaluar el impacto de las actividades promocionales, como descuentos, ofertas especiales o marketing en punto de venta, en las ventas de los productos.
  5. Gestión de inventario: Utilizar los datos de sell-in para prever la demanda futura y optimizar los niveles de inventario en los almacenes y puntos de venta.
  6. Segmentación de clientes: Analizar las ventas por cliente o segmento de clientes para identificar tendencias de compra, preferencias y oportunidades de mercado específicas.
  7. Análisis de precios: Evaluar el impacto de los cambios en los precios de venta en las ventas y la rentabilidad del producto.

Estos son solo algunos ejemplos de los tipos de análisis que se pueden realizar con los datos de sell-in. En general, el análisis de datos de sell-in es fundamental para comprender el rendimiento de los productos en el mercado y tomar decisiones estratégicas informadas para mejorar las operaciones comerciales.

Por otro lado, con los datos de sell-out, que representan las ventas realizadas por los minoristas o distribuidores a los consumidores finales, se pueden realizar diversos tipos de análisis para comprender mejor el comportamiento del mercado y optimizar las estrategias comerciales. Algunos ejemplos de análisis de datos que se pueden realizar con el sell-out incluyen:

  1. Análisis geoespacial: Utilizar datos de ubicación para comprender patrones de compra en diferentes regiones geográficas y optimizar la distribución y la asignación de recursos.
  2. Análisis de canales de distribución: Evaluar la eficacia y el rendimiento de diferentes canales de distribución para identificar oportunidades de mejora y optimización.

Estos sin dejar de lado aquellos mencionados anteriormente como parte de los ejemplos de aprovechamiento del sell-in. Estos son solo algunos ejemplos de los tipos de análisis de datos que se pueden realizar con el sell-out. En resumen, el análisis de datos de sell-out es fundamental para comprender el comportamiento del consumidor, optimizar las estrategias comerciales y mejorar el rendimiento general de las ventas en el mercado minorista.

¿Y ahora qué?

Como reflexiones finales es importante entender que cuando entras a una industria debes comprender el idioma. En el caso del retail, conocer conceptos como sell-in y sell-out facilitará tu entendimiento y conversaciones. Finalmente es importante identificar la relevancia que tiene estos datos al momento de apalancarnos de la analítica y ciencia de datos. La fotografía, por así llamarla, que te dan los datos de ventas del fabricante al comercializador puedes ayudarte a entender la demanda, ajustar estrategias y empujar productos, pero la comprensión de los datos de ventas de la tienda al consumidor final te pueden llevar a generar modelos de analítica predictiva tan poderosos que pueden predecir la cantidad de ventas esperadas en una cierta ubicación en un momento del tiempo. Esto y mucho más son ejercicios que entusiastas como nosotros hemos realizado en colaboración con marcas de fabricantes y de mismos retailers. El potencial es muy grande, ¿ya lo estás aprovechando?

Equipo Datlas

– Keep it weird –

Métodos avanzados para lidiar con datos nulos – Columna de Investigación DATLAS

De seguro alguna vez se te ocurrió que la mejor manera de lidiar con valores nulos en un set de datos es reemplazarlos con la media de los datos o simplemente eliminar el dato. Estas formas de lidiar con los valores nulos, corresponden a maneras simples y sencillas que a medida que aumente la cantidad de datos, mayor será el ruido que genere tu análisis si se continua implementando dichas técnicas. Es por eso que en la entrada de hoy, revisaremos 5 métodos avanzados para manejar datos faltantes sin desviar el objetivo principal de tu análisis.

MICE, el método de imputación en cadena:

El método MICE (Multiple Imputation by Chained Equations), que en español se conoce como algoritmo de Imputación Múltiple con Ecuaciones Encadenadas, funciona como un proceso iterativo que aproxima el valor faltante a partir de una serie de regresiones consecutivas. Un dato curioso de este método es que la primera iteración cambiara los valores nulos por la columna en la ue estaremos ejecutando la operación, sin embargo, a medida que aumenten las iteraciones, el valor nulo se acercará a un valor más real a los datos presentados. Un ejemplo de su aplicación es la toma de la presión arterial. Tal vez, en algunos individuos hagan falta lecturas de la presión, por lo tanto, el MICE estimará estos valores faltantes utilizando variables como la edad, el peso y los niveles de cortisol.

MissForest, el algoritmo que utiliza machine learning:

Este método se deriva de las aplicaciones del machine learning o aprendizaje de máquinas. Es un algoritmo de imputación no paramétrico basado en bosques aleatorios. Puede manejar variables conitnuas o categóricas para estimar los valores faltantes. Por ejmplo, si tengo un set de datos de marketing en donde haen falta ingresos e historial de compras para algunso registros, entonces, este algoritmo puede predecir los valores faltantes considerando otras características como la edad, la ubicación y las preferencias de productos.

Datawig, la paquetería que implementa el deep learning:

El datawig es una paquetería que utiliza autoencoders, que son una forma de redes neuroanles, para aprender la forma de los datos. Primero, codifica la dimensionalidad de los datos, disminuyendo su tamaño para despues decodificar el resultado, con la idea de reconstruir los datos originales. Es importante considerar que este algoritmo utiliza las columnas no fatantes como entrada, mientras que su salida serían los valores faltantes. Además, es útil cuando los datos siguen comportamientos no lineales y complejos. Un plus que tiene este método, es que puede lidiar con valores categóricos y numéricos (como MissForest lo hace) y es sencillo de usar, de hecho, como el resto de algoritmos que se han visto a lo largo de la entrada, su implementación puede ser escrita en pocas líneas en Python.

SoftImpute, imputación con álgebra lineal:

SoftImpute se basa en la idea de completar matrices de baja clasificación. Es decir, supongamos que tienes una matriz de datos con valores faltantes. El algoritmo plantea esto como un problema de optimización, donde se busca la matriz de rango más bajo que es coherente con lo observado y lo desconocido. Esta diseñado para manejar matrices de datos incompletas y busca patrones y estructuras subyacentes de los datos. A diferencia del método de Datawig, este algoritmo se enfoca más en la aplicación de álgebra lineal y no en el aprendizaje de máquinas. Un ejemplo para el uso práctico de este algoritmo puede ser en un set de datos de reseñas de películas en donde existan usuarios que no hayan completado su reseña, entonces, SoftImpute puede imputar las calificaciones faltantes al determinar una matriz de rango bajo para ajustar las calificaciones observadas.

Amelia, limpieza con modelos estadísticos:

Por último, Amelia es un conjunto de herramientas y técnicas para imputar datos faltantes en conjuntos de datos. Utiliza la técnica del boostratpping y modelos estadísticos para crear múltiples conjuntos de datos imputados y estima la incertidumbre asociada con los valores faltantes. Básicamente, Amelia muestrea repetidamente los datos observados para crear varios conjuntos de datos para después ajustar un modelo estadístico para imputar valores faltantes. Por ejemplo, si tenemos datos con información demográfica y resultados de pruebas médicas. Amelia podría ser utilizado para imputar valores faltantes en los resultados de las pruebas médicas al ajustar un modelo que tiene en cuenta la relación entre las variables demográficas y los resultados de las pruebas.

En conclusión:

Hemos revisado 5 métodos de imputación que sirven como herramientas para manejar los valores faltantes. No obstante, el uso de estos métodos dependerá del análisis que estés realizando, sea un análisis atemporal, temporal, entre otros. Sin duda estos métodos enriquecerán tu análisis, además de ser algoritmos con una sencilla aplicación en lenguajes de programación como Python. Mucha suerte al manejar valores faltantes!

Equipo Datlas

-Keep it weird-

El Análisis de Componentes Principales Simplificado – Columna de Investigación DATLAS

¿Te has preguntado alguna vez cómo las empresas pueden tomar decisiones importantes, como predecir tendencias de mercado o recomendar productos personalizados? La respuesta está en el mundo mágico de los datos y el análisis de componentes principales, una herramienta que desglosa datos complejos en algo más fácil de entender.

¿Qué es el Análisis de Componentes Principales (PCA)?

Imagina que tienes una caja llena de juguetes, pero no sabes exactamente qué hay dentro. Quieres simplificarlo y obtener una idea general de qué tipo de juguetes tienes. Eso es precisamente lo que hace el PCA con los datos. Toma una montaña de información y la descompone en piezas más manejables. En términos técnicos, se refiere a la reducción de dimensionalidad de una base de datos perdiendo la menor cantidad de información posible.

¿Cómo funciona?

Piensa en tu caja de juguetes como un conjunto de datos con muchas características (como el color, el tamaño y la forma de cada juguete). El PCA toma todas estas características y las organiza de manera que las más importantes estén primero y las menos importantes, al final. En otras palabras, te muestra qué características son las que realmente importan. Es decir, se ponderan aquel conjunto de variables que represente un gran porcentaje de la información sin tener que utilizar todas y cada una de las variables disponibles.

¿Por qué es importante?

Ahora bien, ¿por qué alguien querría hacer esto? Bueno, imagina que eres dueño de una tienda en línea y quieres saber qué productos compran juntos tus clientes. ¿Deberías mostrarles más camisetas cuando compran jeans, o tal vez bufandas? Aquí es donde entra en juego el PCA. Al identificar patrones en los datos, puedes tomar decisiones más inteligentes sobre cómo promocionar tus productos.

Ejemplo en la vida real: Reconocimiento de rostros

El PCA se utiliza en muchas áreas, desde el procesamiento de imágenes hasta la biología. Un ejemplo emocionante es el reconocimiento de rostros en la seguridad y la tecnología. Imagina que tienes una enorme cantidad de fotos de personas, y deseas identificar automáticamente quién es quién. El PCA puede ayudarte a reducir la cantidad de información a las características más importantes de los rostros, como la forma de los ojos o la nariz, lo que facilita la tarea de identificación.

Sin matemáticas complicadas, ¿por qué debería importarme?

Incluso si las matemáticas no son tu fuerte, el PCA sigue siendo relevante. Piensa en ello como una lupa para tus datos. Te permite ver patrones y tendencias que de otra manera podrían pasar desapercibidos. Esto puede ser útil en tu vida cotidiana, desde tomar decisiones financieras hasta entender mejor las noticias y las tendencias en las redes sociales. El análisis de componentes principales tiene un potencial sumamente alto para una diversa gama de aplicaciones no solo en la industria sino también en distinos rubros como los negocios, la academia, la salud y demás.

Conclusión: El PCA es tu amigo

El Análisis de Componentes Principales es como un mago que simplifica datos complejos para que todos podamos entenderlos. No importa si eres un apasionado de la ciencia de datos o simplemente alguien curioso, esta herramienta tiene el potencial de mejorar tu comprensión del mundo que te rodea. Así que la próxima vez que escuches sobre el PCA, ¡sabrás que estás un paso más cerca de desvelar los secretos de los datos!

Equipo Datlas

– Keep it weird –

¿Cómo se puede mejorar la gestión de proyectos de analítica de datos? – Investigación Datlas

La gestión de proyectos de analítica de datos es un tema crítico para las empresas que buscan mejorar su capacidad para tomar decisiones efectivas y precisas, aumentar su eficiencia y anticiparse a las tendencias del mercado.

Sin embargo, la gestión de proyectos de analítica de datos puede ser complicada si no se planifica y administra adecuadamente. A continuación, te presentamos algunos consejos para mejorar la gestión de proyectos de analítica de datos para tu organización.

1. Establecer objetivos claros

Es crucial establecer qué se quiere lograr con la analítica de datos y tener una idea clara de cómo se utilizará para tomar decisiones clave. Los objetivos deben ser medibles, alcanzables y específicos, lo que significa que se deben definir indicadores o métricas para evaluar el progreso del proyecto.

Por ejemplo, si la organización quiere mejorar la satisfacción del cliente, lo puede hacer mediante la cantidad de clientes que regresan o la calificación del servicio.

2. Identificar los datos necesarios

Una vez que se han establecido los objetivos del proyecto, es importante identificar los datos que se necesitan para cumplirlos. Esto implica evaluar la calidad y la fiabilidad de los datos que se están utilizando, las fuentes de datos y los métodos de recopilación de datos. Si se trabaja con clientes, entonces, revisar la transferencia de información mediante un análisis exploratorio de datos.

También es necesario evaluar la capacidad de la organización para analizar los datos y utilizarlos para tomar decisiones, es decir, proponer programas informáticos y el hardware necesario para analizar y almacenar grandes cantidades de datos.

3. Seleccionar el equipo adecuado

Se necesita un equipo adecuado que tenga las habilidades necesarias para manejar los datos y analizarlos correctamente. Esto puede incluir matemáticos, estadísticos, analistas de datos, programadores y/o economistas.

Es importante seleccionar a personas que tengan experiencia en la analítica de datos y que estén comprometidos con el proyecto. Además, se debe garantizar que el equipo tenga la cantidad adecuada de recursos y que se les brinde el apoyo necesario para completar el proyecto con éxito.

4. Establecer un plan de trabajo

Una vez que se ha seleccionado el equipo y se han identificado los datos necesarios, es importante establecer un plan de trabajo para el proyecto de analítica de datos. El plan debe incluir un cronograma y un presupuesto detallados que se ajusten a los objetivos, entregables pactados y a los recursos disponibles.

5. Utilizar la visualización de datos

La visualización de datos es una forma efectiva de comunicar hallazgos clave e información compleja de manera clara y concisa. Utilizando herramientas de visualización de datos, se pueden identificar patrones y tendencias clave en grandes cantidades de información. Un ejemplo de esto son los mapas interactivos y personalizados que ofrecemos en Datlas.

Además, las visualizaciones de datos pueden ayudar a identificar posibles áreas problemáticas en proyectos de analítica de datos, lo que permite a los equipos solucionar problemas de manera más rápida y efectiva.

6. Mantener una comunicación abierta

La comunicación abierta y efectiva es esencial para la gestión de proyectos de analítica de datos. Es importante asegurarse de que todas las partes interesadas estén informadas sobre el progreso del proyecto y de que se permita la retroalimentación de manera efectiva. Ambos pilares son críticos para garantizar que el proyecto se esté ejecutando en la dirección correcta y que se estén utilizando los recursos de manera más eficiente.

7. Evaluar y ajustar el proyecto

Por último, es importante evaluar y ajustar continuamente el proyecto a lo largo de su desarrollo. Esto significa identificar problemas potenciales y hacer los ajustes necesarios para superarlos.

Además, es importante evaluar el progreso del proyecto con regularidad y hacer los ajustes necesarios para garantizar que se cumplan los objetivos. Esto puede implicar la reasignación de recursos o la modificación de los objetivos para garantizar que el proyecto sea lo más efectivo posible.

Cerramos esta nota mencionando que, la gestión de proyectos de analítica de datos puede ser complicada, pero al seguir estos consejos para mejorar la gestión de proyectos de analítica de datos, puedes tomar ventaja de la información que se tiene y tomar decisiones más informadas y precisas para llevar a tu organización a un nuevo nivel de eficiencia y éxito.

Equipo Datlas

– Keep it weird –

Referencias:

  1. https://pmi-levante.org/aprende-de-mi-proyecto-la-gestion-de-un-proyecto-de-analisis-de-datos/
  2. https://datos.gob.es/es/noticia/como-poner-en-marcha-un-proyecto-de-analitica-de-datos

Keep it Weird ; @DatlasMX en el #SXSW 2023 gracias a #PeakNL – Ecosistemas DATLAS

Las convenciones y conferencias le sirven a profesionales para conectar entre sí, aprender, mantenerse actualizados y ¿Por qué no? Hacer nuevos negocios. No fue la excepción para Datlas en la pasada experiencia del mes de Marzo 2023 en el evento South by Southwest (SXSW) que se llevó a cabo en la ciudad de Austin, Texas. En compañía de una delegación de startups y autoridades regias nos dirigimos con la misión de buscar nuevas inversiones así como la construcción de potenciales proyectos comerciales. En esta columna te platicaremos algunos de los destacados.

Austin, Texas … la tierra actual de los HQ de Tesla , de UT Austin, de los Longhorns, entre otras. Es la actual sede donde la mayoría de las compañías de tecnología que antes residían en «Silicon Valley» han migrado. Algunos motivos principales es el efersevente ecosistema que se está impulsando, salarios paga más bajo en contraste con California, menos carga fiscal y precios relativos por debajo que otros territorios en Estados Unidos.

Este sitio que hay que tener en la mira, fue la sede del evento donde fuimos a participar y aprender como delegación de Nuevo León. Al final, con la intención de conectar más entre ciudades Monterrey-Austin ; Estados Nuevo León – Texas ; y poder generar impulsos económicos. En esta ocasión, con foco a startups.

Desde un punto de vista personal de Datlas les compartimos algunas imágenes de nuestra experiencia. Por ejemplo en charlas de Mapas auspiciadas por TOM TOM, Microsoft, Amazon y Lyft. Nuevos proyectos de mapas vienen en camino y nos motivó estar en la exclusiva de una nueva plataforma para competir con Google maps.

Por otro lado participamos en la charla del presidente de la compañía OPENAI quien hoy ha impulsado lanzamientos de inteligencia generativa como CHATGPT. Hablaron de la nueva versión (Que unas horas después liberaron) y de los riesgos de la tecnología. Otra de las charlas destacadas fue una donde participaron agencias de seguridad Nacional y gestores públicos de Inteligencia Artificial de los Estados Unidos de América. Compartieron distintas perspectivas sobre legislación y un poco del futuro de lo que viene en este sentido.

El evento, multisede, multihorario, contaba con más de 10 sedes y , entre 20 y 40 eventos, sucediendo al mismo tiempo. Por suerte había una aplicación donde por temática podíamos escoger dónde conectar.

Algunos de los eventos que más frecuentamos fueron los «Meet up» que tenían la simple intención de conectar con otros profesionales de industria. Se lograron algunas preventas e intenciones de contectar con Monterrey, Nuevo León. Los extranjeros, nos tienen en el mapas

Si tienes ganas de conocer a detalle un poco más de los eventos capturamos algunos testimonios e imágenes que compartimos en este videoblog

Sin más, queremos agradecer las atenciones de #PeakNL y #DesarrolloEconomicoMonterrey

Con ellos participamos en algunas conexiones y eventos representando a México… ya que existió una ausencia de #CASAMEXICO en el evento. En este sentido se levanto la #CASAMONTERREY de forma temporal en un evento donde pudimos charlar con muchos FOUNDERS latinos. Por nuestra parte, muy inquietos por conocer el camino que habían recorrido para abrir sucursales de sus startups en Estados Unidos, así como las conexiones con fondos de capital.

Como Datlas, te recomendamos vigilar las iniciativas que están sucediendo de forma internacional para conectar #startups con otros países. ¿A qué país extranjero crees que una startup mexicana debería de exportar por primera vez?

Equipo Datlas

– Keep it weird –

¿Por qué las empresas deben de invertir en la ciencia de datos? – COLUMNA DE OPINIÓN DATLAS

A lo largo de la historia las empresas han generado una gran base de datos proveniente de diversas áreas de su compañía como pueden ser sus ventas, sus niveles de producción, su logística de entregas, clientes, colaboradores, entre muchas otras áreas. Sin embargo, la ciencia de datos permitió que el análisis de esta información fuera una ventaja exponencial para las empresas, posibilitando la transformación de los datos en información cualitativa y cuantitativa.

Es importante resaltar que la base de datos de información a escalado a tal nivel que con ayuda de la información pública las compañías pueden hacer un análisis mucho más exhaustivo y potenciar su crecimiento con una toma de decisiones asertivas.  

La ciencia de datos o el «big data» es un termino que se ha escuchado mucho en los últimos años, pero… ¿Qué es? y ¿Por qué las empresas de invertir en esta herramienta?

La ciencia de datos es el campo o conjunto de aplicaciones de la inteligencia artificial que transforma los datos en información útil para la toma de decisiones.


La ciencia de datos es el campo o conjunto de aplicaciones de la inteligencia artificial que transforma los datos en información útil para la toma de decisiones.

La ciencia de datos combina una variedad de herramientas analíticas (estadísticas, análisis cuantitativo, análisis predictivo y otros métodos científicos) para extraer valor de los datos recopilados de internet, fuentes de datos de dispositivos, entre otros.

El principal motivo por el cual las empresas deben de invertir en la ciencia de datos es porque esta aumenta la efectividad en la toma de decisiones, en palabras de nuestro invitado Eduardo de la Garza de podcast «Café de Datos»: «Te podrá ayudar a hacer el doble en la mitad del tiempo».

Es por eso que DATLAS quiso contribuir con el apoyo de la analitica de los datos Nosotros como compañia de análitica con el objetivo de ayudar a las empresas a interpretar la base de datos que han generado y a partir de sus necesidades generar una o multiples alternativas para resolverlas.

A continuación te presentamos 2 casos en concreto en los que DATLAS a participado en la analítica de datos para mejorar la toma de desiciones en campos específicos de su organización:
(por motivos de connfidencialidad, se presentara un caso breve sin el nombre de los participantes/clientes)

CASO PRÁCTICO 1: Problematica, un cliente que cuenta con una linea de franquiceas desea abrir una sucursal más, sin embargo, no sabe cual es la mejor ubicación para colocar su local. Solución, el cliente contrata a Datlas para que lo apoye para elegir la mejor ubicación según los criteros de valuación más importantes para el cliente.

Para ello, Datlas solicita la base de infromación del cliente para poder análizarla y complementarla con infromación pública como población, sector economico, uso de suelo, entre otros aspectos inportantes a considerar para proceder a análizar las mejores ubicaciónes a trabes de un mapa de inteligencia que permita destacar los pros y contras de cada ubicación y el cliente pueda tomar la mejor desición. Es inmportante aclarar que esta infromación le será util al cliente por los proximos 5-10.

CASO PRÁCTICO 2: Problematica, una empresa dedicada al rubro de turismo requiere saber cual es la derrama económica que genera el turismo en un estado específico de la república de México. Solución, el cliente contrata a Datlas para que desarolle un dashboard que le permita observar y gestiónar las métricas o KPIs objetivos de las estrategias requeridas.

Estos son dos ejemplos muy prácticos en los que Datlas te puede apoyar en la toma de desiciones, sin embargo, la ciencia de datos puede darse en cualquier área de la empresa como marketing, publicidad, finanzas, ventas, logistica, coordinación interna, entre muchas otras.

Estos son algunos blogs de Datlas que te permitiran saber más de los casos presentados:

  1. ¿Cómo encontrar la mejor ubicación para mi negocio de…. – Investigación Datlas
  2. Analítica en Turismo: Datos de INEGI y Datatur para construir estrategias en el sector hotelero – INVESTIGACIÓN DATLAS

Si quieres seguir conociendo más de este tema, a continuación te compartimos algunos Blogs que te pueden interesar:

1. Towards Data Science, este es un blog dirigido por una comunidad de científicos de datos. Fomenta un ecosistema de conocimiento hacia la ciencia de datos e ideas, directrices; Los lectores pueden compartir sus opiniones sobre diversas iniciativas mediante el análisis de la evaluación y la información relacionada.

2. Data Science Central, esta plataforma cubre temas relacionados con el análisis de los datos, la tecnología, herramientas de apoyo, visualización de datos, código y entremuchos otros.

3. Data Science | Google News, este sitio incluye las últimas tendencias y noticias en una amplia gama de áreas, incluidas noticias generales y tendencias específicas en la industria de la ciencia de datos.

Hasta aqui la columna de hoy, recuerda seguirnos en nuestras redes @DatlasMX

– Equipo Datlas –

12 Preguntas de Analítica y Tecnología que puedes responder con Podcast – Ecosistemas Datlas

En un mundo con abundancia de información y con mucho interés en aprender ciencia de datos ¿Cómo priorizo? Bueno pues te hicimos la tarea. En este blog priorizamos y desarrollamos los blogs más relevantes para que termines este 2022 escuchando mucho de lo que tienes que aprender para estrategias de ciencia de datos y analítica.

Adicional, sabemos que muchas de las personas que nos siguen estarán interesad@s en temas de tecnología como innnovación y complementamos el listado con algunos de los mejores episodios de estos tópicos. No olvides suscribirte y evaluarnos en CAFE DE DATOS una vez que escuches cualquier episodio en la lista.

1) ¿Qué demonios son los analytics?

Click al episodio; Comencemos con lo básico, desde el equipo de DATLAS ponemos a tod@s en el mismo piso de entendimeinto

2) ¿Cómo estructurar equipos de Analytics?

Click al episodio ; Desde el equipo de DATLAS te contamos la experiencia y la investigación que realizamos para estructurar equipos de analítica avanzada

3) ¿Cómo iniciar y vender internamente en mi organización una estrategia de Analítica?

Click al episodio ; Tuvimos un episodio con DAVID PUENTE de ARCA CONTINENTAL quien nos habló de la venta interna de proyectos y estructura de soluciones para el equipo de ARCA

4) ¿Qué oportunidad de innovación tiene un corporativo al implementar analítica de datos?

Click al episodio; Estuvo con nosotros CARL WALLACE quien nos dió los contrastes de implementaciones de analytics en el mundo startups vs. mundo corportaivo

5) Analíticas a la Moneyball ¿Cómo aprovechar analítica en industrias de retail?

Click al episodio; Estuvo con nosotros Edwin Hernández Directivo de Farmacias del Ahorro quien con algunas analogías nos habló de casos de uso y aprovechamiento de datos en retail

6) ¿Cómo aprovechar datos públicos para investigaciones y exploraciones de análisis?

Click al episodio; Estuvo con nosotros el Dr. Santaella, ahora ex-presidente del INEGI quien nos compartió los avances del instituto que más datos públicos genera en México en materia de ciencia de datos y tecnología

7) ¿Cuáles son algunas tendencias importantes que líderes de equipo deben de tomar en cuenta en analytics?

Click al episodio; Recopilamos y sintetizamos desde el equipo directivo de Datlas las 5 tendencias de mayor impacto para el 2022 en analítica

8) ¿Qué casos de éxito existen de transformación digital impulsada por analítica en empresas?

Click al episodio; Tuvimos al Director de XPERTAL Rodrigo Rey quien con su experiencia en FEMSA y antres en NEORIS enriqueció nuestros puntos de vistas de digital

9) ¿Qué es la econometría espacial y cuáles son algunas aplicaciones con datos geo-referenciados?

Click al episodio; Nos visitó en el episodio el Dr. Miguel Flores especialista en econometría espacial de la UANL

10) ¿Cuál es el rol de un traductor de datos en el negocio y cómo funciona?

Click al episodio; Nos acompañó Néstor García de OXXO para hablarnos de los Data Champions

11) ¿Cómo impulsar la creativas y el interés social?

Click al episodio; LABNL participó con nosotros vía Idalia Santos para compartirnos su expertise de este tema

12) ¿Cuáles son los ejemplos más recientes de implementación de analítica en negocios transaccionales o de salud?

Click al episodio; Participó con nosotros Mail Laredo quien se introduce como responsable de parte del desarrollo para una de las Farmacias más grandes de México

Hasta aqui el episodio de hoy. Recuerda continuar aprendiendo activamente y si eres quien consume mejor contenido por lectura te invitamos a revisar nuestro último lanzamiento de DATA PLAYBOOK 2022 para aprender de las últimas experiencias del equipo ¿De qué otros temas te gustaría que habláramos en el podcast? Compártenos en @datlasmx.

Equipo Datlas

– Keep it weird – –

Los 3 tipos de analítica de datos – COLUMNA DE OPINIÓN

La analítica de datos hoy en día se utiliza mundialmente con diversos usos, ya sea en la función pública o el sector privado. El INEGI y el Banco de México son dos ejemplos de instituciones que hacen uso del análisis de datos. Por otro lado, el sector privado tiene muchos ejemplos desde Meta, Google, Apple y Microsoft. Un ejemplo puntual de estas empresas y caso de uso, es de la empresa de la manzana, que en sus dispositivos cuenta con una herramienta para medir el rendimiento de la persona. Esta herramienta describe el uso que se le ha dado al dispositivo, este tipo de análisis es el descriptivo.

Tiempo de pantalla de Apple

Así como estos ejemplos, existen muchos más que nos ayudan a describir, predecir o, mejor aún, prescribir qué deberíamos hacer en el futuro para cuidar nuestras operaciones. En esta columna definiremos y ahondaremos en 3 tipos de analítica que te podrán servir para avanzar en tus proyectos de datos.

** También te puede interesar: A/B Testing para experimentar con datos y tecnología

Analítica Descriptiva

El análisis descriptivo (o de informes) se refiere a saber qué está sucediendo en la organización y comprender algunas tendencias subyacentes y las causas de tales ocurrencias. En primer lugar, esto implica la consolidación de las fuentes de datos y la disponibilidad de todos los datos relevantes en una forma que permita la elaboración de informes y análisis adecuados. A partir de esta infraestructura de datos, podemos desarrollar informes, consultas, alertas y tendencias apropiados utilizando diversas herramientas y técnicas de generación de informes.

Una tecnología significativa que se ha convertido en un actor clave en esta área es la visualización. Usando las últimas herramientas de visualización en el mercado, ahora podemos desarrollar conocimientos poderosos en las operaciones de nuestra organización.

Analítica Predictiva

El análisis predictivo tiene como objetivo determinar qué es probable que suceda en el futuro. Este análisis se basa en técnicas estadísticas, así como en otras técnicas desarrolladas más recientemente que caen dentro de la categoría general de minería de datos. El objetivo de estas técnicas es poder predecir si es probable que el cliente cambie a un competidor («abandono»), qué es probable que el cliente compre a continuación y cuánto, a qué promociones respondería un cliente, si esto el cliente es un riesgo digno de crédito, y así sucesivamente. Se utilizan varias técnicas para desarrollar aplicaciones analíticas predictivas, incluidos varios algoritmos de clasificación.

Empresas de venta en linea usan análisis predictivo

Un caso de uso de analítica predictiva aplicada es en Amazon, por ejemplo, cualquier búsqueda de productos en Amazon.com da como resultado que el minorista también sugiera otros productos similares en los que un cliente pueda estar interesado.

Analítica prescriptiva

El objetivo del análisis prescriptivo es reconocer lo que está sucediendo, así como el pronóstico probable y tomar decisiones para lograr el mejor rendimiento posible. Este grupo de técnicas ha sido históricamente estudiado bajo el paraguas de las OR o ciencias de la gestión y generalmente están encaminadas a optimizar el rendimiento de un sistema. El objetivo aquí es proporcionar una decisión o una recomendación para una acción específica. Estas recomendaciones pueden adoptar la forma de una decisión específica de sí o no para un problema, una cantidad específica (por ejemplo, el precio de un artículo específico o el pasaje aéreo a cobrar) o un conjunto completo de planes de producción.

Un caso aplicado para este tipo de análisis es una ferretería, que suministra barras de acero configuradas a medida para sus clientes. Estas barras se pueden cortar en formas o tamaños específicos y pueden tener requisitos únicos de material y acabado. La empresa adquiere materias primas de todo el país y las guarda en su almacén. Cuando un posible cliente llama a la empresa para solicitar una cotización de las barras especiales que cumplen con los requisitos específicos del material (composición, origen del metal, calidad, formas, tamaños, etc.), el vendedor generalmente tiene poco tiempo para envíe dicha cotización que incluya la fecha en que se puede entregar el producto y, por supuesto, los precios, etc. Debe tomar decisiones de disponibilidad para prometer, que determinan en tiempo real las fechas en las que puede prometer la entrega de los productos que los clientes solicitaron durante la etapa de cotización.

Anteriormente, un vendedor tenía que tomar tales decisiones analizando informes sobre el inventario disponible de materias primas. Es posible que parte de la materia prima disponible ya se haya comprometido con el pedido de otro cliente. Por lo tanto, es posible que el inventario en stock no sea realmente el inventario libre disponible.

** Te puede interesar: Algoritmos Supervisados

Una ferretería aunque suele ser pequeñas, venden gran cantidad de materiales.

Por otro lado, puede haber materia prima que se espera entregar en un futuro cercano que también podría usarse para satisfacer el pedido de este posible cliente. Finalmente, incluso podría haber una oportunidad de cobrar una prima por un nuevo pedido al reutilizar el inventario previamente comprometido para satisfacer este nuevo pedido mientras se retrasa un pedido ya comprometido. Por supuesto, tales decisiones deben basarse en los análisis de costo-beneficio de retrasar un pedido anterior. Por lo tanto, el sistema debería poder extraer datos en tiempo real sobre inventario, pedidos comprometidos, materia prima entrante, restricciones de producción, etc. Para respaldar estas decisiones, se desarrolló un DSS (Sistemas de soporte a decisiones) en tiempo real para encontrar una asignación óptima del inventario disponible y para respaldar análisis hipotéticos adicionales. El DSS utiliza un conjunto de modelos de programación de enteros mixtos que se resuelven mediante software comercial.

Hasta aqui la columna de hoy. Síguenos en nuestras redes para estar enterad@ de la nueva temporada de podcast y recomendarnos nuevas temáticas que te gustaría explorar para este blog.

Equipo Datlas

– Keep it weird –

Fuente de imagen de portada: https://gravitar.biz/bi/tipos-analitica/

¿Qué es y para qué sirve el análisis topológico de datos? – Columna de Investigación Datlas

La generación de información es algo que ha sobrepasado límites que hace no mucho tiempo eran impensables. Para 2020, la media de información almacenada mundial en internet ha sobrepasado los 35 zetabytes (1 zetabyte = 1 billón de terabytes), lo cual ha llevado tanto a la ciencia de datos como al Big Data a convertirse en herramientas clave para conseguir el éxito de organizaciones y empresas. Sin embargo, en ocasiones, es simplemente demasiada información con la cual lidiar, por lo que el proceso de análisis y de obtención de recomendaciones basadas en datos, se vuelve más lento y contraintuitivo.

Ante esta problemática, es de esperarse que nuevas técnicas y metodologías comiencen a ver la luz conforme la tecnología avanza y el poder computacional al que somos capaces de acceder aumenta también. Entre estas nuevas técnicas, hay una que se está volviendo cada vez más relevante por sus excelentes capacidades para lidiar con grandes nubes de datos y poder extraer información de utilidad de ellas; el Análisis Topológico de Datos (o TDA por sus siglas en inglés).

Para entenderla, primero tenemos que entender qué es la topología. La topología es una rama de las matemáticas relativamente joven (nació apenas en el siglo 17), y su objetivo es el estudio de las propiedades invariantes de las figuras en el espacio… Bien, lo anterior podría no tener mucho sentido a menos que se esté un tanto familiarizado con el argot matemático, por lo que ahora, para ponerlo en términos simples, usaremos el siguiente ejemplo:

Imagina por un momento una bola típica de plastilina en tus manos, todos estamos de acuerdo en que la plastilina es un material maleable, ¿verdad? Uno puede usar esa bola para hacer distintas figuras, por ejemplo, con suficiente dedicación, podemos moldear un cubo, una pirámide u otros poliedros. En matemáticas, al acto de moldear esas figuritas de plastilina, le llamamos transformación. Bueno, con esto en mente, podemos decir que una bola de plastilina es topológicamente equivalente a un cubo de la misma plastilina, puesto que podemos formar uno a partir del otro. Sin embargo, tenemos una sola regla: No se puede romper la plastilina ni se le pueden hacer hoyos. Entonces, las preguntas que se haría un topólogo sobre la plastilina son: ¿Qué es lo que hace que podamos formar un cubo a partir de una esfera? ¿o viceversa? ¿Qué aspectos de la figura siguen igual a pesar de aplicarle una transformación?

Para un topólogo, un circulo es lo mismo que una elipse, una esfera es lo mismo que un cubo, y se aplica un razonamiento similar para otras figuras. Incluso, existe un chiste un tanto popular entre matemáticos, que dice que un topólogo no puede distinguir entre una taza de café y una dona.

Ahora bien, volviendo al punto principal. ¿Qué tienen que ver las figuras de plastilina con el análisis de datos?

Si nosotros tomamos una figura y colocamos dos puntos cualesquiera sobre ella, esos puntos van a estar a cierta distancia uno del otro, ¿cierto? Por ejemplo, la distancia del trabajo a casa es un ejemplo de colocar dos puntos sobre una esfera (la tierra). Pero, ¿Qué pasa con esa distancia si la figura original se deforma siguiendo la única regla de la topología? Pues evidentemente, dependiendo de la transformación, esa distancia puede hacerse mas grande o más pequeña. Por ejemplo, si La Tierra fuera de plastilina, y la convirtiéramos en otra figura, entonces la distancia entre la casa y el trabajo evidentemente cambiaría, ¿verdad?

Bueno, el ejemplo anterior fue solamente utilizando dos puntos, la casa, y el trabajo. Pero ahora imagina una base de datos gigantesca, con millones de puntos, como las que empresas como Facebook o Google generan todos los días. ¿Esos puntos sobre qué figura están? La respuesta es muy simple, están sobre el plano cartesiano en algo que los matemáticos llamamos Rn (R a la n potencia)  . Es decir, en el espacio. Como recordaremos de la secundaría, el plano cartesiano es algo así para 2 y 3 dimensiones.

Entonces, aplicando lo que hemos aprendido, si yo tomara el plano cartesiano y lo deformo, ¿Qué les sucede a los puntos que están sobre él? Evidentemente la distancia entre ellos cambia y puntos que estarían lejos entre sí, ahora puede que estén más cerca, u otras cosas muy interesantes pueden pasar.

Además, recordemos que muchos métodos de clasificación utilizan la “distancia” como forma de afirmar si existe una similitud fuerte o no entre varias observaciones. Por lo tanto, si deformamos el plano de forma correcta, es posible que podamos encontrar patrones en los datos que de otra forma estarían ocultos para nosotros y para nuestros algoritmos. Entonces, estas nubes enormes de datos pueden ser subdivididas en clústeres más pequeños y cada uno de estos, ser unido con sus vecinos en relación con la distancia que exista entre ellos, formando así, lo que en topología conocemos como complejos simpliciales.

El TDA definitivamente es mucho más complicado matemáticamente hablando, sin embargo, es una herramienta muy poderosa que está siendo desarrollada para facilitar el trabajo con grandes cantidades de datos.

¿Quieres aprender acerca de esta y otras técnicas innovadoras de análisis de datos?

Equipo Datlas

– Keep it weird –

Referencias:

Carlsson, G.: Topology and Data., Bulletin of the American Mathematical Society no. 46 (2009) 255–308.

Eaton, C., Deroos, D., Deutsch, T., Lapis, G., Zikopoulos, P.: Understanding Big Data. Analytics for enterprise class Hadoop and Streaming Data, The McGraw Hill Companies, 2012

Kahle, M.: Random geometric complexes., Discrete and Computational Geometry 45 no. 3 (2011).