Todas las entradas por Datlas

(Esp) En DATLAS habilitamos "big data" (grandes cantidades de datos) en formas amigables para el usuario para resolver preguntas complejas más rápidas (Eng) Enabling big data in a user-friendly way to solve complex questions more quickly Liga: www.datlas.mx

4 Metodologías para proyectos de Data Science – Datlas Research

Datlas_quote1_Method

Métodos, métodos y  más métodos. Aunque parecer que en el largo plazo limitan nuestra imaginación son herramientas que facilitan la entrada, práctica y control en un campo de dominio que queremos alcanzar. Desde Datlas, nuestra startup de analytics, hemos trabajado con “métodos de data science” en nuestros proyectos internos, aún sin tener usuarios. Ahora que los tenemos les puedo confirmar que el método es uno de los recursos más importante para establecer claridad en la comunicación y avances de los proyectos. En esta columna expondremos 3 de los métodos más usados en proyectos de ciencia de datos. Al final también integraremos nuestra propia versión de método de trabajo.

Datlas_barra_suscribir

1) KDD (Knowledge Discovery in Databases)

Datlas_KDD

Metodología de 5 pasos. Inicia con la selección donde de un data set principal hay que selecciónar un subconjunto de variables que nos pueden apoyar en la exploración del fenómeno que estamos estudianto. En el pre-procesamiento realizamos la limpieza y balanceo de datos. En la transformación, el método sugiere que reduzcamos dimensiones con técnicas estadísticas para manejar la menor cantidad de variables necesarias. En minería de datos buscamos patrones de interés o representativos en relación al objetivo de la minería de datos. Finalmente para colarnos al conocimiento pasamos por el proceso de intepretación y evaluación de modelo.  Al final de la iteración se le otorga una calificación al modelo y si no se cumplieron satisfactoriamente los objetivos se repite hasta que sean logrados.

2) SEMMA (Sample, Explore, Modify, Model and Access)

Datlas_SEMMA

En esta metodología iniciamos con “sample” o un muestro de la base de datos principal (que asumimos que es muy pesada y lenta de procesar) para poder hacer manipulaciones sobre este pequeño set de una manera ágil. Después exploramos los datos para ganar entendimiento e ideas, así como refinir nuestro proceso de búsqueda de anomalías, patrones y tendencias. Llegamos entonces al paso de modificar donde nos enfocamos en crear, seleccionar y transformar variables para enfocarnos en un proceso de selección. En esta etapa también se buscan anomalías y reducir el número de variables. Luego sigue la etapa de modelaje en donde debemos aplicar distintos métodos estadísticos evaluando sus fortalezas y cumplimiento de objetivos. Finalmente la etapa de “access” que significa evaluar la confiabilidad y utilidad de los hallazgos. Se evalúa particularmente el “performance”.

De la misma manera del modelo anterior, si no se logran los objetivos en una primera iteración tendremos que repetir el proceso.

 

3) CRIPS-DM (Cross-Industry Standard Process for Data Mining)

Datlas_CRISPDM

Seguimos con el “famosisimo” CRIPS-DM, el método más usado en la industria y es que IBM, la compañía dueña de Watson que antes desarrollaba poderosas computadoras, es quien desarrolló este modelo. La diferencia clave es que cualquier etapa del modele puede tener retorno o iniciar una reversa al método. Si durante la etapa en particular el especialista encontró que los datos no son suficientes para resolver su objetivo, puede regresar a cualquiera de la otras etapas.

En la etapa de “Entendimiento de negocio” primero se determinan los objetivos de negocio: Antecedentes, objetivos estratégicos de impacto y criterios de éxito. Después revisamos la situación, inventariamos recursos, realizamos un análisis de costo-beneficio, determinamos objetivos y producimos un plan de proyecto.

En “Data Understanding” es donde recolectamos los datos iniciales, describimos cada uno de estos datos, exploramos y verificamos la calidad de la información.

En “Data preparation” seleccionamos la información más razonable, la limpiamos, construimos variables de ser necesario, integramos datos y finalmente formateamos. El entregable de esta etapa sería un dataset listo para trabajar.

Para la etapa de “Modeling”, similar a los otros modelos, experimentamos con distintas técnicas, consideramos supuestos, hacemos pruebas, definimos parámetros y revisamos funcionalidad general de los modelos.

En “Evaluación” es donde considerando los criterios de éxito definidos consideramos como positiva y/o negativa la evaluación. Aqui mismo definimos los siguientes pasos y tomamos las decisiones necesarias.

Finalmente en “Deployment”, esta etapa sólo se activa si el proyecto tuvo evaluación positiva. Se genera entonces un plan de desarrollo, un plan de mantenimiento, se genera un reporte final y presentación para socializar el caso de estudio.

Comparando métodos

Datlas_comparando_metodos_DS_

A manera personal pienso que el CRIPS-DM se lleva de calle los métodos de antes. Por algo es más usado el CRIPS-DM y principalmente porque mezcló la necesidad de entendimiento del negocio con la parte científica del desarrollo de análisis de datos.

Datlas_barra_suscribir

4 ¿Cómo lo trabajamos en Datlas?

Datlas_metodo_laboratoriodedatos

Nuestro método, titulado “Laboratorio de Datos”, es similar a los modelos revisados con anterioridad. Tras un entendimiento central de negocio (En donde se ubica la imagen de nuestro mapa en el diagrama superior) entendemos las necesidades del negocio, dimensionamos el proyecto y seleccionamos los métodos experimentales. Ese entendimiento no necesariamente te tiene que llevar a la extracción de datos, ya que puede haber un avance previo. Sobre todo nosotros que trabajamos con datos de clientes, en muchas de las ocasiones llegamos a integrar o clasificar.

Asumiendo que sea un proyecto tradicional, iniciamos en la etapa de extracción donde dimensionamos y entendemos el tipo de variables con las que vamos a trabajar. En nuestro caso generamos un glosario de variables- Para la integración y clasificación buscamos ir preparando un ambiente de trabajo que nos permita geo-referenciar y mapear variables. Si estos 3 pasos iniciales cuentan con una evaluación positiva podemos pasar a la etapa de visualizar o reportar.  Cuyo objetivo principal es generar los principales recursos para socializar y pedir retroalimentación a los usuarios potenciales. Tras realizar los ajustes necesarios podremos llegar a entrenar un modelo con técnicas de inteligencia artificial.  Los pasos en el método son iterativos y se puede regresar a cualquier paso una vez que el entendimiento central del negocio se va enriqueciendo con cada etapa del proceso.

Para más detalle de este método puedes solicitar una conferencia o sesión de capacitación en direccion@datlas.mx

**También te puede interesar: ¿Cómo aprender ciencia de datos? 6 pasos

Datlas_quote2_Method

Hasta aqui la columna de hoy.  ¿Cuál es tu método y como darle libertad a la creatividad en el proceso? ¿Cuál seleccionarás para tu siguiente proyecto?  Comparte con tus colegas y comenta qué crees que podría mejorar los métodos de ciencia de datos.

Equipo Datlas MX

-Keep it weird-

 

 

 

Evolución de Mancha Urbana en Nuevo León: Timelapse Satelital 1984 – 2019 – Datlas Research

Conforme crece la población mundial y los sistemas económicos más personas pasan de vivir de zonas rurales a zonas urbanas. En este fenómeno socieconómico han prosperado las megaciudades y la expansión de ciudades de manera acelerada. Recientemente la empresa Google liberó un proyecto llamado “Timelapse” dentro de “Google Earth Engine” que permite visualizar las fotografías satelitales históricas de coordenadas en todo el mundo. Increíbles visualizaciones sobre crecimientos de ciudades como Dubai y Tokio o desarrollo de países como Singapur o Corea del Sur pueden encontrarse en este ejemplo. Para esta columna exploramos el caso de Nuevo León, en México considerando imágenes de 1984, cuando había alrededor de 2.5 millones de habitantes en el Estado, hasta el 2019 con más de 5 millones de habitantes.

Estado de Nuevo León, México

En los últimos 35 años el Estado duplicó sus habitantes. La ciudad recién comienza a habilitar edificios estilo rascacielos y pequeñas torres de departamento. En general, los crecimientos que podemos detectar en las imágenes han sido hacia las áreas que hace 30 años eran rurales. Esto ha incrementado el tamaño de los municipios y generando zonas habitacionales lejos de los centros económicos de la ciudad. Es notorio que las distancias a los centros de trabajo son más largas, pero al mismo tiempo las nuevas colonias residenciales representan oportunidades asequibles para las personas que en los últimos 35 años han llegado a vivir al Estado o locales que han adquirido su propia vivienda.

Da click en el video para que veas la secuencia de imágenes satelitales.

Municipio de Santa Catarina – San Pedro Garza García

Algunos de los municipios con más dinamismo en estos años son Santa Catarina y San Pedro. El lado triste de la historia es que muchos de los pulmones o zonas verdes de estos municipios se han ido consumiendo poco a poco en el crecimiento de la ciudad. Danos tu opinión y velo con tus propios ojos.

Revisa el video en el 00:18 en adelante.

Huasteca, parque natural en Nuevo León

El parque natural de la Huasteca es una de las zonas donde más actividades de senderismo, escalada y recreación ocurren en el Estado. Esta región de la ciudad de Santa Catarina ha sido fuente de escándalos recientes ya que se están generando zonas comerciales en lo que se supone son zonas naturales protegidas ¿Qué opinas?

Revisa el video en el 00:26 en adelante.

 

Datlas_barra_suscribir

Cerro Topo Chico en Nuevo León

Otro de los ejemplos de cómo el crecimiento de la ciudad ha sido a costa de algunas de las zonas verdes del país se puede visualizar en la siguiente secuencia.

Revisa el video del 00:40 en adelante.

Estadio BBVA de fútbol en Nuevo León

Estas secuencias nos pueden ayudar a contar historias, tal es el caso de la urbanización y el desarrollo de la magno-obra del Estadio BBVA en Nuevo León.

Revisa el video del 00:48 en adelante.

Municipio de Apodaca

Finalmente repasaremos el caso completo de 2 municipios, el primero es el de Apodaca. Originalmente destacaba por su zona industrial, bodegas y el aeropuerto. Pero la cantidad de desarrollos habitacionales y comerciales ha prosperado y eso lo podemos notar desde esta secuencia.

Revisa el video del 00:33 en adelante

Municipio de García

El último municipio es el de García, el originario del Bronco (Gobernador del Estado), que en los últimos años completamente pasó de ser una zona verde a una zona en desarrollo. Podemos identificar cómo se generan los caminos y las rutas que conectan distintos poblados de García en esta secuencia.

Revisa el video del 00:65 en adelante.

Nosotros, desde Datlas, hemos capitalizado el valor de los mapas. Nos enfocamos a los tiempos más recientes y en nuestra plataforma mostramos más de 50 variables de cada coordenada en todo México.  Te invitamos a suscribirte a nuestro DEMO GRATIS y te dejamos un video para que la revises de primera mano.

 

Si te ha gustado la columna y sabes que le puede interesar a tus colegas no dudes en compartirla. Siguenos en redes sociales como @DatlasMX y comenta.

Saludos

Equipos Datlas

-Keep it weird-

Elaborado con la herramienta: https://earthengine.google.com/timelapse/

Dimensionando la industria de “Analítica de datos e Inteligencia Artificial” – Datlas Research

¿Cuántas empresas de analítica de datos existen? ¿En qué industrias están participando? ¿Quién está desarrollando Inteligencia Artificial? Hoy hablaremos del mapa de mercado desarrollado por “Firstmark”  (@matttruck). Desde Datlas, startup mexicana de analytics, dedicamos esta columna a profundizando en el dimensionamiento y la clasificación de la industria completa de analítica de datos e inteligencia artificial.

Mapa completo de industria al 2019

2019_Matt_Turck_Big_Data_Landscape_Final_Datlas
Descarga aqui: https://cloudup.com/ck5aIRPKNuU

Según el reporte podemos encontrar 7 industrias y 82 sub-industrias para la industria de “datos” (Analítica, big data e inteligencia artificial).  Ahora haremos un pequeño enfoque a cada una.

1) Infraestructura

Abrir una empresa de analítica de datos y de tecnología hace 20 años tenía como 80% del presupuesto dedicado a infraestructura. Comprar potentes procesadores y sobre todo capacidad de almacenaje físico. Sin embargo, en los últimos 10 años ha ido en incremento los oferentes de poder de cómputo distribuido y almacenaje por nube.

1_Infrastructure_Panorama_Datlas

2) Analítica y Machine Learning(ML)

¿Tableau? ¿Power BI? ¿Watson? la mayoría de sus servicios corporativos pertenecen a la vertical de la subindustria de analítica y ML.  En estas plataformas es posible encontrar soluciones para convertir datos en algoritmos o visualizaciones y así mismo en ventajas comparativas para una empresa.

2_Analytics_ML_Panorama_Datlas

3) Aplicaciones con enfoque a empresa

Hay otro segmento de soluciones prediseñadas donde participan las tecnologías de analítica de nicho. Soluciones para gobierno, industria inmobiliaria o financiera son alguno de los ejemplos de empresas que han generado soluciones tan específicas como para atender un nicho. Estas startups buscan como estrategia ser tan importante en la industria que se acerque algun gigante como IBM, Microsoft o Palantir para adquirir su participación en la industria.

3_Aplicaciones_Empresa_Panorama_Datlas

4) Analítica de infraestructura cruzada

Son compañías que desarrollan diversas plataformas suficientemente robustas como para adaptarse a distintas industrias. En su mayoría podemos entender estos desarrollo como empresas que buscan generar ecosistemas más que productos o servicios.

4_Infraestructura_Cruzada_Analytics_Panorama_Datlas

**Si te interesa conocer más de analítica de datos y Big data te invitamos a solicitar GRATIS el DATA PLAYBOOK Vol. II de DATLAS. Solicítalo aqui. **

Datlas_Playbook_prelaunch

5) Open source – Fuentes abiertas

Hay otro segmento de compañías, organizaciones y desarrolladores independientes que son fieles creyentes del “open source”. Esto hace referencia a los aplicativos que son gratuitos y mejorados por la comunidad que los utiliza. Aunque pareciera que no hay incentivos, casos de éxito como R, Hadoop o Linux , que son Open-source, son impulsores de cambios y mejoras en las industrias de manera significativa.

5_OpenSource_Panorama_Datlas

6) Fuentes de Datos y APIs

Los modelos de analítica y Big data requieren datos listos para ser consumidos. Es decir limpios, estructurados y actualizados. En este sentido hay una serie de empresas de fuentes de datos que se han encargado de desarrollar APIs o carreteras directas a fuentes de datos de valor.  Este es el caso, sobre todo, de aplicaciones móviles que recopilan datos de usuarios y como modelo de negocio comercializan esos datos.

6_RecursosdeDatos_Apis_Panorama_Datlas

Si quieres conocer más de este tema te puede interesar ¿Cómo funciona Location intelligence? el blog donde explicamos este tema a detalle

7) Más recursos de datos

Finalmente otros recursos de datos como las escuelas, incubadoras, centros de investigación o plataformas de retos de datos como Kaggle. Sin restarle importancia (Consideremos que Google ha adquirido un par de estas empresas), continua el incremento y las empresas que quieren ganar nombre desde verticales más tradicionales como consultoría, educación o desarrollo de patentes/algoritmos propietarios.

7_RecursosDatos_Panorama_Datlas

¿Qué opinas del tamaño de la industria? ¿Te imaginabas? Hasta aqui la columna de hoy si te gustó el contenido recuerda compartir y aprovecha nuestros descuentos en el MARKETPLACE DE DATLAS.

***BONUS 8 de Enero 2020*** CB Insights libera un reporte de Tendencias en Inteligencia Artificial donde estructuran las iniciativas de “Alphabet”. Parece que ellos están entendiendo como ir capturando la industria desde distintas empresas.

Alphabet_CB_Insights_KEY_AI_Initiatives_Google

 

Equipo Datlas

-Keep it weird-

 

 

 

 

Invitación al “Coronavirus 2019 nCoV” Challenge – BLOG DATLAS

¿Corona Virus? Has escuchado del Virus de origen Chino y que ha escalado a alerta internacional en varios de los organismos más importante del mundo. Esta columna no trata sobre este virus, pero sí sobre lo que las comunidades de datos, médicas y de la industria 4.0 están organizando en Nuevo León. El 1ero Febrero del 2020 se lanzó el “Coronavirus 2019 nCoV” Challenge” y desde el complejo de Cintermex, en Monterrey Nuevo León, México se compartieron todos los detalles.

El pase de diapositivas requiere JavaScript.

Ver video de lanzamiento : https://www.facebook.com/events/1460461244115540/1462774587217539/?notif_t=plan_mall_activity&notif_id=1580587321422468

Para participar en esta convocatoria no tienes que ser de Monterrey o Mexicano. Es internacional y gracias a la bondad de las redes sociales podrán participar personas de todo el mundo. Al momento ya hay algunos grupos de España y Mexicanos interesados en esta colaboración. La idea es trabajar durante un mes en algunas propuestas escalables apalancados en tecnologías y medicina para apoyar a las causas de investigación del Corona Virus.

La convocatoria es más específica, la puedes consultar en esta liga : http://bit.ly/ConvocatoriaCoronavirus2019nCoVChallenge

Destacando lo más importante:

El Coronavirus (2019 – nCoV) Challenge es un reto abierto colaborativo para prevención y difusión de información sobre esta enfermedad, el cual se divide en los siguientes tracks:

1) Desarrollo de información para investigación

2) Soluciones de obtención de información y analítica”

Aprovecha que, de acuerdo a la convocatoria, desde el 5 de Febrero deben de estar los registros completos. El cierre del reto será el día 28 de febrero 2020 a las 14:00 hrs (Tiempo del centro de México)

(También te puede interesar nuestras investigaciones de analítica de datos sobre SISMOS EN MÉXICO y HURACANES )

Finalmente , dentro de la convocatoria se extendió la invitación a organizaciones que quisieran ser patrocinadoras. Desde Datlas nosotros estaremos aportando con mentorías y asesorias de analítica de datos. Pero si eres de una empresa y deseas sumarte. Sigue las siguientes instrucciones:

Si desea sumarse a esta iniciativa como patrocinador por favor realice su registro antes del 05 de Febrero 2020 en: http://bit.ly/RegistroPatrocinadoresCoronavirus2019nCoVChallenge

#CoronavirusChallenge #Coronavirus #2019nCoV #Salud #Mexico #DataScience #Cienciadedatos

 

Hasta aqui la columna de hoy. Este evento organizado por: Colegio de Médicos Cirujanos del Estado de Nuevo León, Data Science Monterrey, Hacking Health Monterrey, Women in Data Science, Power and Engineering y Saturday AI Monterrey. Pueden buscarlos en redes sociales para más detalles

Datlas_barra_suscribir

Saludos

-Keep it weird-

Equipo Datlas

¿Cómo construir un CHECKLIST para iniciativas de analítica de datos? – Datlas research

Hace un par de blogs conversamos sobre cómo cerca del 70% de los proyectos de datos fracasan. Identificando el problema ¿No vendría bien una fórmula que reduzca este oportunidad de error? ¿Hay una receta? Pues la respuesta es sí y no es como la de la abuela, la receta del éxito en los datos no es ningún secreto. Tiene que ver con hábito, cultura y método. En esta columna profundizamos entre métodos que vienen de distintos ángulos: Academia, profesión, ciencia , entre otros para concretar un “listado” a estilo “checklist” de preparaciones para implementar un proyecto de analítica en una organización. Nosotros, desde Datlas, invitamos a las organizaciones a evaluar más de 100 puntos a la hora implementar nuestras tecnologías o cualquier tecnología de analítica. Para esta ocasión hicimos un resumen. Es importante aclarar que el sesgo de este escrito es hacia corporativos y empresas grandes, que tienen funciones repartidas en departamentos con responsabilidades específicas y la burocracia habitual de la estructura vertical de un gran negocio.

Datlas_barra_suscribir

I. Entendiendo el contexto

Datlas_checklist1

Ya hemos discutido antes en ¿Cómo ejecutar una estrategia de Big Data en mi organización? como el contexto y los objetivos tienen principal relevancia a la hora de llevar un proyecto de analítica. Sin embargo cuando la iniciativa de datos arranca desde una gran organización hay otros puntos a clarificar para aumentar las probabilidades de éxito de un proyecto de analítica. Todos ellos tienen que ver con entender el contexto.

Si pudiéramos enumerar 6 elementos importantes qué tomar en cuenta son: Estrategia, datos, analítica, implementación, mantenimiento o soporte y restricciones.

Datlas_Playbook_prelaunchEn general, entender el contexto con la profundidad adecuada nos habilita a tomar todas las precauciones necesarias a la hora de diseñar los presupuestos financieros, técnicos y temporales de un proyecto.  De manera errónea muchas organizaciones le dan el mismo trato a un proyecto de analítica que a un proyecto de TI (Como activar un nuevo punto de venta o implementar un nuevo equipo de hardware). Sin embargo la historia e investigaciones de los últimos 10 años nos vinculan a que los proyectos de analítica requieren equipos especializados y esto es debido a que tienen un “checklist” distinto.

 

*También te puede interesar: Los 5 perfiles para una estrategia de datos éxitosa en mi organización. Y tener nuestroData Playbook Vol. II” GRATIS antes que nadie.

II. Generando un checklist personalizado para proyectos de analítica

Hay un montón de literatura sobre este tipo de checklist, pero siguiendo nuestra fuente favorita de “Fast.ai” encontramos la siguiente estructura a la hora de hacer un checklist para proyectos de analítica. Integra 6 aspectos, pero agregaremos uno más y al final de la columna explicaremos porqué.

1) Aspectos Organizacionales

Datlas_checklist_organizacional

Debemos de iniciar cuidando los higiénicos, esto quiere decir los aspectos organizacionales que van en relación a las personas que llevarán a cabo la estrategia. La probabilidad de éxito en un proyecto de datos incrementa si se tienen métodos de trabajo en reclutamiento, ubicación de talento y medición de resultados. Estas 5 preguntas pueden servir de orientación.

2) Aspectos Estratégicos

Datlas_checklist_Estrategia

Una iniciativa de datos habilita un pronunciamiento estratégico de la compañía y no al revés. En este sentido los proyectos de big data e inteligencia artificial deben de responder y aportar a algunos de los objetivos estratégicos de la compañía. Sencillamente cada hora dedicada a junta, proyecto, investigación o desarrollo de un científico de datos deberá estar apuntando a cumplir un objetivo estratégico.

3) Datos

Datlas_checklist_data

El error común de las organizaciones es que inician por los datos, cuando en realidad previo a esto ya establecimos que deberían estar las personas, cultura y estrategia. Luego hay que invitar a los “técnicos” a participar en el checklist para validar el grado de factibilidad a la hora de consultar bases de datos específicas.

4) Capacidades analíticas

Datlas_checklist_analytics

Los datos son la materia prima, pero necesitamos a las mentes expertas que les van a sacar valor y nos guiarán hacia el cumplimiento de los objetivos establecidos. Estas capacidades incluyen, pero no se limitan, a evaluar herramientas óptimas para trabajar, programar ETL para formatear bases de datos en los formatos requeridos y la gestión general del proceso de obtención de valor. Similar a como lo comentamos en ¿Cómo convertir tus datos en dinero?

5) Implementación

Datlas_checklist_implementación

Este tema tiene que ver con el diseño experimental a la hora de implementar un ejercicio de analítica. Sobre todo para poder contrastar si haber integrado la analítica tuvo un cambio a favor o en contra de la manera en que tradicionalmente se hacía esa tarea. Por ejemplo,  si ahora implementaste un nuevo equipo, tecnologías e infraestructura para analizar el programa de lealtad de tu compañía ¿Cómo validas que la inversión haya retornado? Ahorraste en tiempos, ganaste más dinero, lograste mejores redenciones e las promociones que les enviaste. La sección de implementación se relaciona con los factores que definen el éxito del proyecto.

6) Mantenimiento

Datlas_checklist_mantenimiento

Un checklist de éxito en proyectos de analítica tiene que contemplar los procesos de mantenimiento. Por ejemplo en este caso de revisar programas de lealtad hay que responder ¿Cómo será la carga de nuevos usuarios? ¿Cada cuándo? SI algo falla ¿Quién lo resuelve? ¿Cada cuándo se “refactoriza” o se retan los algoritmos?

Y vamos a ser redundante en uno,por temas de  experiencia propia, tendremos que incluir la importancia de analizar

7) Restricciones

Todas las preguntas asociadas a las restricciones en todas las áreas funcionales con las que colaboraremos. Pueden ser desde presupuesto financiero, tiempo disponible, recursos dedicados, otros proyectos activos, entre otros. Todo lo que vaya a tener un impacto o riesgo en nuestro proyecto puede afectar.

Datlas_barra_suscribir

Hasta aqui la columna de hoy, esperamos que después de haber leído esto tengas una mayor idea de cómo implementar un CHECKLIST para tu organización. Recuerda utilizar estos recursos como inspiración y adaptarlo al contexto y madurez tecnológica de tu negocio. Recuerda compartir y no olvides registrarte al nuevo “DATA PLAYBOOK VOL II” que estaremos liberando muy pronto GRATIS. Sólo da click en la liga.

Elaborado con ideas y experiencias propias de la startup DATLAS e inspirado por la fuente: https://www.fast.ai/2020/01/07/data-questionnaire/

Hablemos de Sport Analytics, 5 aplicaciones de data science en el deporte – Datlas research

En vísperas del evento de MIT SLOAN SPORT ANALYTICS y centrados en la conversación de la intervención de tecnologías en los próximos eventos olímpicos dedicaremos esta columna a hablar de “Sport Analytics” o analítica aplicada en deportes. Para ser más específicos, al uso de los datos y analítica avanzada en deportes y cómo esto ha tenido efecto en el espectáculo, competencia y deporte.

Datlas_barra_suscribir

Como principal inspiración, hace un par de días se viralizó una imagen en la red de cómo el básquetbol, el deporte ráfaga, ha cambiado en los últimos 20 años. O al menos las ubicaciones de los tiros más recurrentes. Una imagen dice más que mil palabras, pero para los apasionados del juego hay un enorme cambio en la disciplina hacia impulsar los tiros de tres ¿Por qué? Los equipos que han sido campeones en los últimos 10 años tiran más de 3 puntos ¿Casualidad o coincidencia? Cualquiera que sea la respuesta, las implicaciones en el espectáculo, las prácticas de los jugadores y la estrategia de los entrenadores son relevantes a estudiar.

Datlas_Basquetbol

Similar a esta situación de la NBA, la liga de básquetbol de Estados Unidos, la analítica está presente en casi todos los deportes. Por esto motivamos una investigación y compartimos los hallazgos alrededor de las 5 prácticas más frecuentes de aplicaciones de analítica entre los equipos y organizaciones deportivas.

 

1) Entender mejor las posiciones y patrones de movimiento de sus competidores

El pase de diapositivas requiere JavaScript.

La liga de fútbol mexicana integró a los entrenamientos y partidos GPS a los jugadores, en la NBA se revisan los videos para generar mapas de calor de movimientos. El hockey también integra sensores de movimiento e impacto. Las integraciones de equipos de tecnología en jugadores y deportistas han sido más frecuentes que en el campo. Cuando no existen sensores, se realizan revisiones a partidos que terminan siendo estadísticas en bases de datos que áreas de inteligencia deportiva analizarán.

 

2) Ser más eficientes en tiros, batazos, raquetazos… dependiendo del contexto

El pase de diapositivas requiere JavaScript.

Con principales aplicaciones en el beisbol, el juego se ha vuelvo adaptable al competidor y la situación del juego. Decisiones dinámicas sobre dónde ubicar a las “bases” para tener mejor probabilidad de un “out” son calculadas. De manera similar en el “Tenis”, la plataforma de visualización de datos ESRI, facilita visualizaciones de juegos profesionales para tener lectura de cual es el traslado de la bola durante un juego.

 

3) Prevenir lesiones y personalizar entrenamientos

El pase de diapositivas requiere JavaScript.

 

Los jugadores en ligas profesionales no son económicos. El mercado del deporte llega a sueldos exorbitantes. En ese sentido la condición física y de salud en la que estos jugadores están disponibles para competir representa un activo financiero para sus equipos. Este tipo de analítica ocurre tras bambalinas, durante los entrenamientos y otorgando más puntos de información a los preparadores físicos para personalizar todo tipo de entrenamiento dado la fatiga muscular y retos a futuro de los deportistas.

4) Brindarles una mejor experiencia a las AFICIONES y espectadores

El pase de diapositivas requiere JavaScript.

 

Siguiendo el ejemplo de la NFL, en el continente americano, o el Tae-kwon-do, en Asia, hay aplicaciones tecnológicas que capturan y visualizan información para mantener a los espectadores al filo de su butaca. Al mismo tiempo esto comienza a jugar más relevancia en el diseño de experiencia del juego. El limite es la creativad y los presupuestos, los mejores equipos han encontrado formas de colaborar con startups, universidades y centros de investigación para estos desarrollos.

5) Mejorar los diseños y la interacción con los estadios 

Datlas_stadiums

Finalmente, si en tu siguiente visita al estadio o complejo deportivo te invitan a participar en una encuesta, que no te sorprenda, probablemente es que están buscando que mejore el servicio del equipo.  La consulta constante a la afición sobre su experiencia viene acompañado de lograr mayores asistencias al estadio y tomar mejores decisiones de espectáculo.

Datlas_barra_suscribir

En general, hace 5 años intervenir con analytics el deporte era novedad. Hoy en día es más que una necesidad. Las referencias de atención en innovación es el “Barcelona Innovation HUB”, en experiencia de estadios “Cowboys”, en recolección de datos “Bases de datos de equipos de beisból” y en inteligencia deportiva podremos monitorear a las ligas de fútbol profesionales donde ya existen más de 25 proveedores de información globales.

Hasta aqui la columna de hoy, compártenos tus expectativas sobre los siguientes pasos en la analítica para el deporte. Califica si para ti esto ha mejorado o afectado el espectáculo de alguna forma.  Si te interesa conocer más de analítica sé de los primeros 100 usuarios en recibir nuestro “DATA PLAYBOOK VOL. II” completamente gratis. Da click aqui  sigue las intrucciones.

El pase de diapositivas requiere JavaScript.

Fuentes investigadas para el blog:

NUEVO DATLAS PLAYBOOK VOL. II – 100 usuarios lo recibirán antes que nadie

En Datlas iniciamos el año con muchos lanzamientos. Ya lucimos nuestro nuevo marketplace de datos y apis donde estaremos activando cupones de descuento durante el año. También lanzamos la plataforma de Laura para hacer estudios de mercado en cuestión de horas, gracias a nuestro sistema apoyado por inteligencia artificial. Y buscando continuar aportando a los entusiastas de datos hemos terminado de redactar nuestro “Datlas Playbook Vol. II”. En esta columna explicamos brevemente qué es un playbook y te invitamos a la dinámica para ser una de las primeras 100 personas en recibir este contenido.

Datlas_barra_suscribir

¿Qué es un Data Playbook?

Un “Data Playbook” es un documento que contiene “jugadas” y técnicas específicas para tu negocio alrededor de una estrategia de datos. Más que teoría, este texto es un diario de aprendizajes basados en ejecución de accionables.

Tras el éxito de nuestra primer versión ahora quisimos lanzar una segunda parte. En esta ocasión con más enfoque al desarrollo de estrategias para implementar Big Data.

A continuación te compartimos el índice

El pase de diapositivas requiere JavaScript.

Este obsequio lo podrás recibir antes que nadie participando en la siguiente dinámica

  1. Entra a nuestro marketplace y selecciona el producto de prelanzamiento. Puedes hacerlo dando click aqui.
  2. Después integra el carrito a tu cesta y vete directo a la pasarela de pagos. Da click aqui para llegar a la ruta directa

Marketplace_Playbook_2020_pasarela

3. Ingresa tu correo y da click en pagar. Completa tus datos y finaliza pedido.

4. El 27 de Enero serás de las primeras personas en recibir el nuevo playbook

Datlas_barra_suscribir

Hasta aqui la columna de hoy, esperamos te guste el próximo Data Playbook, te suscribas y aproveches los descuentos que estaremos compartiendo.

*********************************************************************

En Datlas nos dedicamos a transformar datos en decisiones de una manera ágil y sencilla. Apalancados de técnicas de big data e inteligencia artificial hemos desarrollado 3 plataformas la servicio de nuestros más de 500 usuarios. Con Datlas podrás tener a tu alcance estudios de mercado y soluciones de analytics de inmediato. Para más información contácta a ventas@datlas.mx

*************************************************************************/

Equipo Daltas

-Keep it weird-

 

 

¿Por qué pueden fracasar los proyectos de Ciencia de datos?

Según estadísticas de Kaggle, entre el 70 y 85% de los proyectos de ciencia de datos fallan en alguna rubrica a la hora de ser implementados. En esta columna dedicaremos un espacio para analizar sobre las principales razones de fracaso en proyectos de analíticas. Esto lo haremos utilizando una encuesta a más de 16,000 participantes de la industria de “data science”.

Como preámbulo, es justo entender en esta lectura porqué estos proyectos nacen de manera inherente con problemas de dimensionamientos en tiempo, recursos y esfuerzos.  Como cualquier iniciativa de tecnologías, los proyectos de información son complejos. Entre más grande la organización más difícil se vuelve integrar una visión estratégica a problemas de datos. Aún en compañías pequeñas y medianas nos vamos a enfrentar al retador mundo de la estadística y cómo usar técnicas matemáticas adecuadas para sacarle valor a los datos de mi negocio. Esto sin mencionar que en cualquiera de los casos hay que hacer una venta interna sobre lo que probablemente será una “caja negra” . Todo esto se traduce en resistencias internas en la organización, plantear proyectos sobre fundamentos que no se conocen al 100% , entre otros.

También puedes leer: “No se aprende “Big Data” en un curso de 2 horas, pero tampoco requieres un doctorado” .Datlas_barra_suscribir

Con este importante contexto , vamos a tener la óptica de que en proyectos de analítica de datos es muy probable que nos enfrentes a algunos de estos obstáculos (mencionados como respuestas de la encuesta).

El pase de diapositivas requiere JavaScript.

Problemas de Colaboración-Organización

En una compañía , este tipo de proyectos involucra a 3 áreas: negocios, TI y analítica (si existe el área, en su defecto sería TI o similar). Las encuestas muestran que existe principalmente faltas de comunicación.  Esto principalmente viene de que cada área tiene sus especialistas, a los que les gusta hablar su propio lenguaje. También que no necesariamente se le informa al negocio la manera en que se está resolviendo el problema.

Datos

En general las compañías y organizaciones tienen datos gracias a los sistemas que han implementado durante la última década. El problema es que esta información no está lista para consumir. Al menos el 30% de los que respondieron la encuesta identificaron la falta de datos como un reto. Lo más común es que el proyecto se estime sin considerar los tiempos reservados a la limpieza e integración de datos con los que se va a trabajar.

Talento

Los especialistas en datos están muy demandados y dentro de las organizaciones han optado por capacitar a su personal interno para resolver estos retos de analítica. Sin embargo, esto ha traído consigo falta de método y de respuestas precisas a los retos de negocio. En la encuesta mencionan el 42% de los retos son asignados a la obtención de talento. También puedes leer “5 perfiles para una estrategia de datos en tu organización”.  La necesidad de desarrollar  e incorporar equipos con experiencia en el área de analítica que puedan planear proyectos con mayor probabilidad de éxito cuidando los temas de fracaso común como los mencionados en la encuesta.

Herramientas y Presupuesto

Resolver nuevos retos de big data algunas veces requiere de nueva infraestructura.  Entre mayor sea la cantidad de datos y las áreas de la compañía a atender se van a requerir herramientas más sofisticadas y presupuestos.  Algunas de ellas las mencionamos en nuestro “Data Playbook”. Pero como aclaramos en la charla del INCMTY 2019,  las tecnología es relevante pero no es lo más importante. El presupuesto primeramente debe ir dirigido a la cultura y personas que estarán revisando los temas, más que a la tecnología. Al final las personas indicadas harán el mejor uso de los recursos que se le asignen a los proyectos.

3_Datlas_Piramide_Porquefracasan_proyectosdeDatos

Cierre

Termina la columna de hoy con la recomendación que la “planeación de escenarios” nos puede ser de utilidad en proyectos de big data. Esto significa que si ya sabemos las posibilidades de enfrentarnos a estos retos deberíamos de prepararnos dando por hecho que estos obstáculos que hemos nombrado aparecerán en el curso del proyecto. Siendo así podríamos generar nuestro propio “checklist” para verificar que contamos con todo lo necesario para echar a andar alguna iniciativa de datos y sobre todo los compromisos de negocio que vienen acompañados de las mismas.

Datlas_barra_suscribir

Esperamos te haya gustado la columna y comparte tus comentarios así como precauciones que tomas en proyectos de datos. Te invitamos además a participar en nuestra lista de prelanzamiento para el “Data Playbook Vol II”.

Equipo Datlas

Keep it weird

 

10 Tendencias de negocios 2020 – Datlas research

Iniciamos el 2020 con toda la intensidad que viene acompañada de una nueva década. Para esta primera columna nos inspiramos en compartir información que hemos recolectado y que nos ha ayudado a nuestro proceso de planificación anual. Te interesará esta columna si tu organización, sobre todo, está pasando o planea pasar pronto por una transformación digital.

Datlas_barra_suscribir

10 Tendencias para el 2020

1) Continúa la adopción de tecnología y el compromiso con la transformación digital

Durante la década pasada los estudiosos y consultoras se dedicaron a encontrar la fórmula de crecimiento en un entorno tan cambiante. Tecnología, tecnología y tecnología. Entendiendo esto como la capacidad de una organización para absorber no sólo nuevas capacidades digitales, sino todos los métodos de trabajo que vienen acompañados de esto. Si había duda de que esto funcionaban la validación que algunas startups tecnológicas han puesto en el radar. Como organización tienes que estar atento a: Medir e incrementar la capacidad de absorción tecnológica, actualizar a tus equipos de trabajo y tener apertura a la innovación.

Datlas_Business-Transformation-gif

2) Integración de máquinas y humanos

Pasamos de los homo erectus a los homo sapiens ¿Qué sigue? una simbiosis cada vez más cercanas entre máquinas y humanos. Computadoras como extensiones de trabajo de profesionales. Analítica con pensamientos y cálculos a velocidades sobrehumanas. Humanos incrementando su fuerza gracias a exoesqueletos, entre otros.

Si bien esto despierta algunas conversaciones éticas, una organización no se debería de quedar atrás. En lo que deberías capitalizar tu atención es: Estudiando e identificando las máquinas más modernas que puedan darte una ventaja competitiva y anticiparte a las implementaciones que tu competencia podría explotar si tu no lo haces.

Datlas_0._stickman__2017._performance_

3) Nuevos métodos de trabajo

La transformación de  PMI a SCRUM, KAN BAN, AGILE, entre otros… a traído ciclos más rápidos de producción así como mejor uso de recursos. Nuevos puestos de trabajo como gestores de proyectos, scrum master y líder de cambio han sido de los reclutamientos más claves de los últimos años. Los equipos dentro de la organización deben de actualizarse a las mejores prácticas para su industria y cumplir con los rituales de seguimiento de proyectos de manera obsesiva. Si es posible hasta que los resultados de estos tengan impacto en los bonos de la compañía.

Datlas_scrum-kanban-agile-waterfall-comparatif-oeildecoach

4) Diversidad por todos lados (oferta y demanda)

En tu operación, dejar de contratar de una sola profesión, escuela e ideología se ha vuelto necesario si quieres ser empático con el consumidor que está allá afuera. La diversidad bien comunicada se reflejada en productos y servicios que se adaptan cada vez más rápido al mercado. Como líder en tu organización deberías poner atención a cumplir con cuotas de diversidad y a socializarlas con tu mercado.

Datlas_diversity_iStock-1024073052-1260x840

5) Combina valor de social con valor de negocios

El posicionamiento de las marcas va a cambiar en la siguiente década compensando el enfoque que las empresas le ponen a integrar valor social a su receta de negocios. La disposición a gastar estará acompañada con la identificación a causas sociales y éticas. Cualquier estructura de generación de valor de negocio debe tener claridad en las formas que comunica la generación de valor y económico. Nuevos enfoques en actividades de marketing, responsabilidad social y altruismo deberán ser aplicados.

Datlas_sharedvalue.png

Datlas_barra_suscribir

6) Incrementos a presupuestos de Ciberseguridad 

Los riesgos de ciberseguridad son cada vez más latentes.  Lo que antes significaba dañar los sistemas de una empresa para validar una capacidad hoy es un negocio y existen granjas de personas apuntando a sistemas vulnerables de corporaciones para ganar dinero. Las organizaciones migrando a la “digitalización” deben establecer un presupuesto para para protegerse de estos ataques. Con especial atención a la siguiente lista:

7) Enfoque a resolver problemas cotidianos y masivos (Salud y Finanzas)

Nuevos negocios y lineas de ingresos enfocados en atender problemas masivos donde existen muchos puntos de dolor. Por ejemplo los lentos y costosos procesos de atención de salud. Lo desesperante que puede ser encontrar todas las semanas los tratamientos necesarios para alguna condición específica. De manera similar, la atención selectiva de los grandes jugadores de sistemas financieros permite la entrada a nuevos participantes.

Las compañías deberían estar alertas de las oportunidades en estos dos sectores y como las regulaciones le abren pasos a otras industrias para participar en resolver estos problemas de millones de personas.

Datlas_Healthcare_cost_concept_gerenme_Getty_Images_large.jpg

8) Transparencia en todos los sentidos, sobretodo en en el manejo de la privacidad de datos personales

Las marcas continuarán siendo juzgadas por la transparencia que ofrecen desde la forma en que generan sus productos, los participantes en sus servicios y la realización de su propuesta de valor sin atentar contra el entorno ecológico. En el mismo sentido, los usuarios de servicios buscarán con más interés a marcas que muestren un manejo de privacidad de datos con seriedad. La confianza en las compañías sera una moneda de cambio de más importancia y las organizaciones deberán enfocarse en generar campañas que incrementen estos lazos en específico.

9) SoLoMo seguirá creciendo y tomando más relevancia

SoLoMo (Social, Location y Mobile) es un tipo de usuario que consume contenido en el lugar en el que se encuentra. Las marcas, junto con sus propuestas de valor, deberán de enfocarse en atraer la atención de sus consumidores en “micromomentos”. Los equipos de marketing deberán de apuntar a la omnicanalidad de difusión y buscar generadores de contenido que puedan apoyar a difundir con más asertividad sus mensajes a audiencias específicas.

10) La tensión internacional incrementa y con ello la incertidumbre

Con Irán-USA, BREXIT, Rusia y China incrementan las tensiones internacionales. Se están perdiendo los miedos por entrometerse en asuntos extranjeros en las potencias económicas más importantes del mundo.  Habrá mucha atención en los movimientos de las potencias asiáticas así como en el nacimiento de nuevos segmentos de consumidores más informados y con mayor poder adquisitivo. Las organizaciones deberían estar vigilantes de estos procesos considerando que puedan tener impacto en tipos de cambio así como políticas de importación.

Datlas_trillion_Growth_Trends_2020
Muy recomendado el reporte de BAIN. Podrás encontrar un vínculo al final de este blog.

 

Hasta aquí la columna de hoy.  Comenta qué tendencia te mantiene más ocupad@ en este inicio de año y cómo te estás preparando para incorporarla a tus actividades.

Equipo Datlas

-Keep it weird-

 

Otras referencias:

Fuente:

 

El santo grial de analytics: “Location Intelligence”, y su controversia con la privacidad – Datlas research

(Este blog es una adaptación del trabajo de investigación del #NYTIMES referido en: https://www.nytimes.com/interactive/2019/12/19/opinion/location-tracking-cell-phone.html)

En los últimos 2 años el escándalo de privacidad de“Cambridge Analytica”y Facebook ha levantado polvo sobre lo invasivo que puede llegar a ser la tecnología en nuestras vidas. Nos dimos cuenta que la red social más importante del mundo podía saber tanto de nosotros (como perfil, amigos, familiares, hobbies, donde estábamos, con quién nos tomábamos fotos, etc.) al grado de poder usar esta información para influenciar nuestros gustos y preferencias. Tal y como lo expusimos en el blog sobre el documental de Netflix “The Great Hack”.

Mientras como usuarios nos preocupábamos por hacer conciencia y comprender esta nueva realidad que vino acompañada de servicios digitales  “gratuitos” (por que tu verdadera moneda de intercambio es tu información), existe otra cara de la historia. Nos referimos a las empresas que estaban aprovechando la poca o nula regulación sobre privacidad de datos para generar formulas de marketing nunca antes vistas. En esta columna hablaremos de un caso que publicó recientemente NYTIMES sobre “Inteligencia de Ubicación” o “Location Intelligence” para Nueva York tratando de explicar los beneficios de estas aplicaciones de analítica, haciendo énfasis en que no podemos dejar atrás el enfoque la privacidad de los datos de las personas.

Si quieres comprender cómo la ubicación le sirve al plan de marketing de un negocio también puedes leer: El secreto de tu negocio: Ubicación, ubicación y ubicación

¿Cómo funciona?

La “inteligencia de ubicación” es una técnica que aprovecha la generación de datos geo-referenciados, es decir datos que vienen acompañados de atributos como coordenadas o referencias geográficas para visualizar en mapas, que permite generar análisis dinámicos de muy alta resolución. Compañías como UBER y DIDI utilizan este tipo de datos para ubicar a sus transportes y usuarios dentro de su app. Pero por otro lado hay otras aplicaciones que venden datos de nuestras ubicaciones sin que necesariamente estemos enterados de cómo o cuándo obtienen estos datos.

Una aplicación, por ejemplo, genera datos nos debería de pedir permisos de ubicación cuando usas el app. En algunos casos, como Waze o UBER, no abre el app si no accedemos a dar este permiso y encender nuestro localizador GPS.

Datlas_comofunciona_

Mientras este abierta la aplicación o puede estar cerrada, pero con servicios de segundo plano, el APP estará registrando nuestros movimientos y ubicaciones en bases de datos que luego serán procesadas y comercializadas. El deber ser es que toda esta información se “anonimice” , es decir se borren identificaciones de personas que puedan ponerlos en riesgo. Sin embargo hay casos de estudio que han sacado a relucir que debido a este tipo de apps podemos ubicar a casi cualquier persona. Aqui un ejemplo de cómo “trackear” al presidente Donald Trump que realizó el NYTIMES

¿Cómo se aprovecha esta información?

El pase de diapositivas requiere JavaScript.

En las imágenes anteriores se comparte un ejemplo para NYC.  De compañías telefónicas y aplicaciones se integraron las ubicaciones durante una semana de los usuarios de un teléfono inteligente en NYC. Aunque de manera integrada no nos dicen mucho, es relevante saber que podemos aislar un punto en específico e identificar su recorrido.

En el caso de la nota particularmente se analizaron datos para Nueva York, sin embargo datos similares están disponibles para México ¿Dónde? … no está tan sencillo. Pero compartimos los logros de @sasha_trub que compartió estos mapas en Twitter con el fin de contrastar los usuarios de IPHONE contra los de ANDROID. Sin embargo cada punto es un usuario de celular que ha sido georeferenciado y podría ser localizado con más profundidad.

El pase de diapositivas requiere JavaScript.

Quién comercializa esta información

Al menos en el continente Americano las empresas con más presencia en el comercio de datos geo-referenciados de usuarios son estas 20:Datlas_logos_compañías

El gobierno de Estados Unidos ya está intentando “limitar” la venta al extranjero de este tipo de información, sobre todo la que utiliza aplicaciones de Inteligencia Artificial. Esto por temas de “seguridad nacional”.

Por otro lado hay mucho generador independiente de aplicativos en facebook, google maps, instagram y otras redes sociales que mediante la habilitación de filtros o juegos obtienen datos de usuarios y se las venden a alguna de estas empresas.

Todos conectados, todos arriesgados

Datlas_smarthead

Para cerrar la columna, te recomendamos tomarte quince minutos para conocer el caso específico del NY TIME (puedes ver la liga al inicio de la columna) y también ser consciente de que la próxima ves que enciendas tu GPS alguien seguramente está registrando estos datos para lanzar alguna campaña de marketing o comercializarlos

¿Qué deberíamos hacer con esta situación? ¿Cómo garantizar que se anónimo y que haya una práctica correcta? Comenta y comparte.

Equipo Datlas

-Keep it weird-