Todas las entradas por Datlas

(Esp) En DATLAS habilitamos "big data" (grandes cantidades de datos) en formas amigables para el usuario para resolver preguntas complejas más rápidas (Eng) Enabling big data in a user-friendly way to solve complex questions more quickly Liga: www.datlas.mx

CORONAVIRUS PT. 2/2 – CONSTRUYENDO UN MODELO DE RESPUESTA INMEDIATA CON DATOS GEOESPACIALES (DATLAS RESEARCH)

Si quieres visualizar esta plataforma revisa el video aqui. Para acceder directamente a la plataforma de la que hablamos en este blog escríbenos tus motivos a direccion@datlas.mx .

Esta es la segunda parte de la serie de blogs del #COVID-19. Puedes encontrar el primer capítulo en: El efecto dominó de una pandemia en la economía regional. Vale la pena que le eches un  vistazo antes, para entender mejor el riesgo de no tomar las medidas adecuadas en épocas del Coronavirus.

Datlas_barra_suscribir

Lo que sigue,inspirados en la herramienta GOTHAM de la empresa PALANTIR utilizada en el Huracán Florence en el 2018 para desplegar equipos de rescate en las zonas más marginadas del Norte y Sur-Carolina en esta columna generaremos un postulado de cómo podríamos construir un modelo de respuesta inmediata para México. Específicamente utilizando datos de Nuevo León.

Usaremos el modelo Datlas como ejemplo

Datlas_metodo_laboratoriodedatos

Puedes leer más de esta metodología en este blog.

Diagnóstico del problema y objetivo

Un modelo de respuesta inmediata, en el contexto de datos geo-espaciales, contextualiza el entorno y la situación de estudio (En este caso el COVID) para enfocar la atención hacia las ubicaciones más vulnerables en caso de una catástrofe. En situaciones donde el tiempo y la dispersión juegan un rol crítico, es importante tener a la mano herramientas que soporten la labor de enfoque hacia la infraestructura y cuerpos de rescate.

El objetivo de la investigación será identificar en un plano geográfico  los puntos de concentración de personas más vulnerables para que en caso de una catástrofe sanitaria tengamos más claridad hacia los puntos de despliegue de equipos de rescate.

Datlas_Blog_Modelorescate_Covid

Criterio y extracción de datos

Hemos estado revisando que las poblaciones más vulnerables en el COVID-19 son primeramente mayores a 60 años. Sumado a esto las viviendas en niveles socieconómicos bajos tendrían más restricciones de acceder a recursos para protegerse por su cuenta. En muchos programas sociales se utiliza el índice de marginación nacional de la CONAPO (véase al final en fuentes) como medida de vulnerabilidad. Esto ya que representa una medida-resumen que permite diferenciar entidades federativas y municipios de acuerdo con las carencias que padece la población, como resultado de la falta de acceso a la educación, la residencia en viviendas inadecuadas, la percepción de ingresos monetarios insuficientes y las relacionadas con la residencia en localidades pequeñas (CONAPO, 2018).

Otro tema que hace sentido contemplar es la cantidad de ubicaciones de servicios de salud como clínicas, laboratorios, farmacias, hospitales y similares que pudieran ponderar la vulnerabilidad de estos grupos. Usaremos datos del DENUE INEGI, así como Google places para corroborar estas ubicaciones.

Integración y clasificación de datos

Clasificamos las variables en distintos grupos:

  • Personas mayores a 60 años (Dado que el virus es más letal en este grupo de edad)
  • Indice de marginación (Tendrían mayores restricciones para cuidarse por su propia cuenta)
  • Promedio de habitantes por vivienda (Mayor indice de propagación y contagio casero)
  • Población Total (Potencialmente, los cuadros de la ciudad donde una actividad de rescate impactaría más personas)
  • NSE preponderante (Buscaríamos priorizar NSE bajos, dado su vulnerabilidad)
  • Servicios de Salud (Farmacias, clínicas, asilos, hospitales y similares)

En este caso, el orden de las clasificaciones representa lo que teóricamente puede representar un mayor enfoque para grupos  vulnerables. Es decir, estos pudieran ser criterios de enfoque para equipos de rescate

Datlas_Blog_Modelorescate_Covid_2

Modelaje y entrenamiento

Al no ser especialistas en temas de salud, lo más correcto es compartir este mapa con especialistas que puedan darnos más sensibilidad de campo sobre qué otras variables contemplar o cuál debería ser la prioridad. A partir de esto podríamos entrenar un modelo más especializado.

Para fines de este ejercicio y dándonos un poco de licencia para soñar, podríamos imaginar que los efectos de las variables en una ecuación podrían ser sumados y otros multiplicados. Algunos sería relevante contemplarlos con crecimiento exponencial. Los matemáticos son los encargados de esto. Cuando nosotros generamos modelos comenzamos de lo más básico y, de ser necesario, en cada etapa del proceso elevamos un poco el modelo de complejidad.

Simplificando, una vez estandarizadas las variables, podríamos ir modelando un indicador que agregue el efecto de distintas variables

Datlas_Blog_Modelorescate_Covid_3

Datlas_barra_suscribir

Visualización

¿Cuál sería el efecto final? ¿Cómo se vería? La mejor forma de enfocar en este tipo de mapas es con mapas de calor. Eso nos permitiría identificar el efecto de una serie de variables de manera inmediata.

Ver video: https://youtu.be/4OIFN86nz5U

 

Reporte de acciones a tomar

  • Colaborar con expertos regionales para avanzar en establecer protocolos de rescate y  árboles de decisión de priorización en cuestión de atención sanitaria
  • Destacar zonas específicas para que se realicen revisiones periódicas, mediciones de temperatura, entrevistas a miembros de hogares en las manzanas indicadas y similares
  • Acercar infraestructura médica temporal de apoyo en caso de que el Covid crezca a una fase 2 ó 3
  • Ceder un contacto directo de atención para esta zona específica, sobre todo cuando son mayores de 60 años
  • Generar un plan de mediano plazo para intervenir esta zona, sobre todo ante los efectos económicos negativos que probablemente ocurran en un par de meses

Futuras investigaciones

En futuras investigaciones y con datos como los códigos postales o polígonos donde hay más infectados podríamos asociar correlaciones y causalidades para validar que estos efectos se cumplan. Conocer la capacidad de hospitales en términos de camillas, especialistas, respiradores, entre otros sería de mucha utilidad.También los hospitales y laboratorios que sí están realizando pruebas o tratamientos de COVID.

Creo que ya hay demasiados mapas sobre la evolución del COVID19. Hay que motivar a pensar en los siguientes pasos: Los efectos económicos y sociales.  Esperamos que estas 2 columnas de blogs apoyen a continuar la investigación en este sentido.

PRUEBA EL MAPA

Solicita con un escrito de motivos a direccion@datlas.mx , gracias por tu participación recuerda compartir la columna y dejar tu opinion.

Fuentes:

Coronavirus pt. 1/2 – El efecto dominó de una pandemia a la economía regional (Datlas Research)

  • “-26% fue el promedio de caída en los principales precios de las acciones mexicanas, aún y tomando las medidas fiscales/monetarias necesarias podría empeorar por temas coyunturales (precios de petróleo, tratados comerciales, precio dólar,etc.)”

 

  • “+50% de los negocios en sectores estratégicos con potenciales impactos durante las semanas de cuarentena”

 

  • “18% (23M) de los empleos posiblemente impactados y se empeoraría si los industriales/maquilas fueran enviados a casa (37M en total)”

Resuena el Coronavirus (COVID19) por todos lados , probablemente no haya una persona con internet que no haya escuchado de esta pandemia ¿Pero qué sigue? ¿Qué sigue para México? En Datlas no somos expertos en salud o virus, pero sí en datos. Desde un ángulo económico, nos preocupa y ocupa el efecto de contagio de un problema sanitario a los bolsillos de las empresas y dueños de negocios.  Investigamos y preparamos dos columnas buscando prepararnos para los efectos dominó detonados del Coronavirus. En esta columna hablaremos de los mecanismos de contagio y dimensionaremos de manera general los posibles impactos. Entendiendo como impactos potenciales reducciones en producción o empleos con contracciones asociadas a los efectos del COVID. La segunda columna la puedes consultar aqui.

Datlas_barra_suscribir

Primer mecanismo – Efecto en la bolsa de valores americana

Datlas_CualCrisis_
Consultado: 13 de Marzo 2020 considerando el avance de una semana de las acciones más importantes de Estados Unidos. Fuente: https://finviz.com

El precio de las acciones públicas de las empresas resumen de cierta forma las expectativas de resultados de una empresa con base a las decisiones que toman y los efectos que tienen coyuntura en su industria. Cuando, por ejemplo, suben los precios del petróleo se impactan todas las compañías que en su cadena productiva tienen alguna dependencia con este insumo. Por ejemplo: FEDEX (En su entrega de paquetería utilizan vehículos que consumen gasolina. Y que al subir precios del petróleo se suben precios de la gasolina). De la misma forma con el COVID representa un efecto negativo en negocios relacionados al turismo, producción (cuando viene de China),

¿Quién la anda reventando en la crisis? Los precios de las acciones de los digitales. Zoom (VideoLlamadas), Pizzas Dominós (Por sus entregas a domicilio), Empresas de telesalud como TELADOC y SOPAS CAMBELL (Enlatados no perecederos que la gente compra en tiempos de crisis, sobre todo cuando su expectativa es que no vaya a tomar )

Segundo mecanismo – Las empresas más importantes del país

Datlas_Mexico_EfectoEconomia
Impacto del COVID19 y otros efectos globales sobre las acciones de las empresas mexicanas listadas más importantes. Consultado: 13 de Marzo 2020 considerando el avance de una semana de las acciones más importantes de México. Fuente: https://finviz.com/

Crisis financiera (no económica, relax) , pero las bolsas y los impactos sobre las expectativas de resultados de las empresas más importantes del mundo han tenido efectos negativos. A México le pegó  y durísimo. No es que no lo estemos haciendo bien, tampoco somos de los países con más casos identificados. Pero nuevamente, nuestra dependencia a Estados Unidos y las cadenas de proveduría Chinas impactaron muchos de los eslabones productivos en el país.

Tercer mecanismo – Sectores estratégicos (Reducción de ingresos comerciales, rentas familiares y empleos)

Datlas_Mexico_GiroDeNegocio
Fuente: Elaboración propia con datos del INEGI seleccionando los negocios en sectores estratégicos que según la prensa han tenido impactos

Para comprender este efecto hay que identificar a las empresas como detonantes económicos y habilitadores de consumo. Ya que las empresas generan empleos, los empleos rentas para las familias, estas rentas dan acceso a servicios de consumo como despensa (Sector consumo), vacaciones (turismo) y hasta adquisición de viviendas (Sector inmobiliario). A su vez consumos en estos sectores generan círculos virtuosos y efectos multiplicadores a otros sectores del sistema. El punto es que este tipo de anomalías, el COVID o Coronavirus, va debilitando lentamente los ensambles de este círculo virtuoso reduciéndolo en tamaño o en el peor de los casos rompiendo lazos entre sectores.

En los ejemplos más prácticos. Sectores como los comerciales (Cierre de algunas unidades de venta al público), turísticos (Traslados y eventos pospuestos), educación (Cancelación de clases)y corporativos(Trabajos de oficina enviando empleados a home-office) siendo los más impactados.

Cuarto mecanismo – Empleos

Datlas_empleoimpacto_nacional2
Fuente: Elaboración propia con datos del INEGI seleccionando los empleos en sectores estratégicos que según la prensa han tenido impactos

Cuando hablamos de ficha de dominó y los efectos de contagio de una anomalía como el COVID, hay que aclarar que se va ir dando lentamente. Conforme más tiempo tome la desaparición de sus efectos , más tiempo tomará regresar las actividades a su normalidad. En lo que eso sucede, algunos empleos serán impactados. En la tabla superior tomamos en cuenta los 55M de personas que dicen tener algún tipo de empleo, a partir de eso 23M

¿Podríamos estar peor? Si…

  • No se tomen medidas de prevención para reducir la propagación en centros de trabajo, ya que tardaríamos más tiempo en regresar a la “normalidad”
  • La comisión de tipo de cambio donde participa BANXICO no tome las medidas adecuadas para proteger el peso, ya que es uno de los mecanismos para mitigar o alentar los efectos de contagio
  • Qué gobiernos con grandes relaciones con México (osea Estados Unidos) incrementen protecciones a sus fronteras.
  • Que el gobierno haga ojos ciegos y oídos sordos a los impactos en sectores estratégicos. Lo que debería de estar peleando son subsidios para apoyar a las industrias con efectos más negativos para que puedan recuperar los resultados en este año. Y sobre hacerlo para que no despidan gente o reduzcan sus turnos

Datlas_barra_suscribir

¿Cómo prepararnos?

En el siguiente capítulo…. haremos un escenario puntual de cómo herramientas geo-espaciales nos pudieran ayudar de distintas formas para mitigar riesgos por este tipo de situaciones de muchas maneras.

Para seguir conociendo más de analítica de datos te recomendamos suscribirte a nuestro PODCAST “Café de Datos”

Caso_Blog_Podcast_E1_FF

Fuentes:

¿Cómo usar los datos del INEGI para diseñar una estrategia en el sector Turismo? (Caso Nuevo León, México) – Datlas Research –

El Instituto Nacional de Estadística y Geografía (INEGI) es una agencia del gobierno Mexicano que coordina y reúne los principales indicadores estadísticos y geográficos del país. Es autónomo y financiado con los impuestos de los contribuyentes. Desde Datlas hemos realizado algunos casos de estudio y análisis con esta información y nos gustaría compartirte un estudio que hicimos con enfoque en “co-crear” productos para Turismo. Al mismo tiempo damos algunos datos interesantes para Nuevo León.

Datlas_barra_suscribir

El objetivo de la investigación es diseñar un análisis geoestadístico para lanzar un producto/servicio que incremente la derrama económica de los huéspedes (turistas) que visitan los hoteles de la región y que al mismo tiempo incremente su satisfacción durante su estancia en la ciudad.

Datlas_blog_turismo_inegi_1

La propuesta de negocio a evaluar es una alianza comercial entre restauranteros, museos y servicios de hospedaje que se traduzca en una mejor experiencia de estancia donde el huésped pueda tener a la mano experiencias culinarias, culturales y a precios preferenciales por quedarse en un hotel que esté dentro de la alianza.

Datlas_blog_turismo_inegi_2

Para esto consultamos el Directorio Estadístico Nacional de Unidades Económicas (DENUE), específicamente para Nuevo León, donde enfocamos la extracción de datos hacia Hoteles, restaurantes y museos. Una vez que evaluamos estas bases de datos que integran direcciones, códigos postales, tamaños y otros rasgos de cada uno de los negocios podemos responder la siguiente pregunta ¿Cuáles códigos postales tienen presencia de los 3 socios de la alianza: Hoteles, restaurantes y Museos en Nuevo León?

Datlas_blog_turismo_inegi_3
Tabla 1 . Códigos postales con presencias de Hoteles, Restaurantes y Museos

En esta tabla segmentamos por código postal (CP) las regiones que cumplen con la presencia de Hoteles, restaurantes y Museos. Para un lanzamiento piloto hace más sentido enfocarnos en regiones que tengan más potencial de éxito en donde los turistas puedan encontrar cerca de sus hoteles, en el mismo código postal, restaurantes o museos qué visitar.

Datlas_barra_suscribir

Otra variable relevante para decidir donde lanzar pudiera ser el tamaño de los hoteles. Si bien el DENUE no tiene la cantidad de habitaciones por hotel, podemos hacer una estimación con el conteo del número de empleados necesarios para la operación del negocio.

Datlas_blog_turismo_inegi_4
Tabla 2. Tamaño de hoteles considerando empleados y filtros de Tabla 1

Teniendo más sensibilidad sobre la relevancia del tamaño de los hoteles en el programa de alianzas que queremos generar podemos comunicar estos hallazgos con visualizaciones. A continuación, un ejemplo de gráfico

Datlas_blog_turismo_inegi_5
Gráfico A. Tamaño de hoteles considerando empleados y filtros de Tabla 1
% = Proporción de hoteles medianos y grandes con relación al total

Para pilotear la propuesta con más probabilidad de éxito podríamos enfocarnos en reclutar los hoteles en los códigos postales seleccionados con mayor proporción de hoteles medianos y grandes. Que nos daría una cobertura inicial del programa de alianzas para las mejores zonas de: Monterrey, Apodaca, Linares, San Pedro y San Nicolás de los Garza.

Datlas_blog_turismo_inegi_6
Gráfico B. Mapa de zonas de más oportunidad para implementar el programa de alianzas en presencia de hoteles (medianos y grandes), restaurantes y museos

Como análisis adicional podemos consultar otras bases que cuenten con una mejor actualización que la del INEGI. Por brindar un ejemplo exploramos la base de datos de YELP, una plataforma de “ratings” (evaluaciones) y directorios de atracciones en ciudades de todo el mundo.

Datlas_blog_turismo_inegi_7

Usando YELP, un directorio de restaurantes y atracciones evaluadas por una comunidad que ya ha visitado ese lugar.

YELP indexa y registra restaurantes de una gama más “Premium” por lo que sería interesante evaluar si hay oportunidad de tener un programa de alianza regular y otro premium.

Encontramos 1,050 restaurantes de gama alta evaluados en rating y nivel de precio para Nuevo León.

Datlas_blog_turismo_inegi_8
Tabla 3. Registros de Tabla 1 enriquecida con datos de YELP

Hay 3 códigos postales donde hay posibilidad de generar una experiencia de gama de alta para turistas considerando los niveles de precio y el rating promedio de los restaurantes de la zona.

Para dimensionar una oportunidad en ventas (caso de ejemplo para fines del ejercicio) asumiremos un tráfico promedio de 100 turistas al mes para cada uno de los 61 hoteles medianos-grandes analizados dando un total de 6,100 turistas.

Si cada uno participará en un programa donde pagando $300 puedes acceder a una experiencia de restaurante + hotel podríamos impactar $1.8M de MXN al sector de manera mensual.

Si de los 6,100 turistas, el 10% quisiera participar en el programa premium, podríamos generar $366k mensuales adicionales de esta fuente

Datlas_blog_turismo_inegi_9
Hay 3 códigos postales donde hay posibilidad de generar una experiencia de gama de alta para turistas considerando los niveles de precio y el rating promedio de los restaurantes de la zona.

Muchas gracias por leer este episodio de investigación. Al igual que este caso, en otras industrias es posible utilizar los datos del INEGI y otras bases de datos digitales para orientar mejor nuestras decisiones de negocio. También te puede interesar nuestro caso en el sector inmobiliario.

Si te gusto no olvides compartir  y recuerda dejar tus comentarios

Datlas_barra_suscribir

– Equipo Datlas –

Keep it weird

OFICIAL: Lanzamiento de PODCAST “Café de datos” auspiciado por @DatlasMX

No hay fecha que no se llegue, ni plazo que no se cumpla cuando uno persevera en el intento. El día de hoy nos da un gusto publicar un proyecto que se ha cocinado desde el 2019 y nos ha tenido desvelados en 2020.

blog_podcast_Socialsharing__

Café de datos” es un podcast elaborado por la startup de analytics Datlas (datlas.mx). Tiene como objetivo difundir conocimientos, métodos, tendencias e historias relacionadas con la analítica de datos. El podcast va dirigido a una audiencia que busca iniciarse en la analítica de datos y emprendedores que tienen interés de conocer más sobre estos temas. Buscamos comunicar de manera sencilla y con muchos ejemplos este tipo de temas que le apoyen a la audiencia a profesionalizarse en big data, inteligencia artificial y algoritmos.

Cada temporada del podcast tiene 3 formatos de capítulos: 1) Analytics (Elaborado por el equipo Datlas donde explicamos conceptos claves), 2) Invitados (Integrando testimonios de expertos que nos acercan a las prácticas más importantes en la industria) y 3) Emprendimiento (Buscando motivar y sembrar ideas innovadoras en las personas que están buscando iniciar proyectos dentro y fuera de sus organizaciones).

Social_Sharing_T1_Gif_4capitulos

Lanzamos este 29 de febrero 2020 con 4 capítulos: 1) Lanzamiento, 2) Qué demonios son los analytics, 3) Big data en mi organización ¿Cómo la inicio? y 4) Invitado: Aldo Valadez ¿Cómo hacer Analytics a lo grande? ; La primera temporada subiremos nuevos capítulos cada semana.

Nos encantaría que nos apoyes suscribiéndose y compartiendo desde el app.

Sobre la organización

Como recomendación personal, te recomendamos escuchar esta súper entrevista que tuvimos con Aldo Valadez, director de analytics de Banregio.

Social_Sharing_T1_GIF_E4

blog_podcast_Socialsharing__

Hasta aqui el mensaje, continuamos generando contenido en más formatos para seguir democratizando el acceso al conocimiento de analítica de datos. Hoy damos nustro granito de arena.

Saludos

Equipo Datlas 

 

La Historia de las TIC en México – Datlas Research

Al día de hoy hablamos de analítica, transformación digital y madurez tecnológica, pero alguna vez te has preguntado ¿Cómo empezó? ¿De dónde vienen? ¿Cómo fue la evolución? En la columna de hoy daremos un espacio para explicar la historia de las tecnologías de información y comunicación (TIC) en México.

 

I. Orígenes

Se puede dimensionar desde 1958 cuando llega el primer computador IBM 650 a la UNAM. Esto significó la llegada del primer computador a México y América Latina.

Datlas_historia1

 

En 1961 por el IPN se crea el centro nacional de computadoras donde juega un rol importante IBM-709

Datlas_historia2

En 1968 el IPN la primera microcomputadora llega a la ciudad con la PDP-8. También por INTELSAT México logro unirse al sistema satelital y transmitir mundialmente los XIX juegos olímpicos

En 1970 los datos del IX censo general de población y vivienda se procesan electrónicamente por primera vez en el INEGI. En 1972 se crea el consorcio TELEVISA y se crea el primer servicio de televisión vía satélite. En 1973 IBM introduce el disco duro.

En 1982 en México aparecen las primeras computadoras personales de IBM, la 53100 y la PC Junior. En 1984 Apple inaugura su primera fábrica en el país con la producción de Apple 11. En 1989 nace Iusacell y se convierte la primera compañía telefónica en México.

Datlas_barra_suscribir

En 1995 Microsoft introduce el primer sistema operativo. El 2000 se da inicio el programa e- México que busca apoyarse en las TIC para reducir la brecha digital. En 2002 la red mexicana escolar ILCE tienen un total 7000 escuelas conectadas a internet.

 

II. Principales motivantes

  • Integrar tecnologías para eficiencias en censos
  • Acelerar los avances en la educación (UNAM e IPN)
  • Eventos deportivos (Olimpiadas 1968)
  • Vanguardia en lo corporativo
  • Globalización y conexión con el mundo exterior
  • Integración financiera a bolsas de valores

 

III. Obstáculos en desarrollo

Datlas_historia3

De acuerdo con datos de la Organización para la Cooperación y el Desarrollo Económico (OCDE) y de la Unión Internacional de Telecomunicaciones (UIT), en el 2015 en México apenas el 39.2% de los hogares contaban con una conexión a internet, para el 2016 el porcentaje se elevó́ a 47%, en el 2017 fue de 50.9 por ciento y el año pasado el porcentaje de hogares en el país con acceso a la red era del 52.9 por ciento.

Esto demuestra que, si no fuera por los teléfonos inteligentes, el porcentaje de personas en México con Internet sería mucho menor de lo registrado hoy en día.

Datlas_historia4

 

Si bien las TIC han alcanzado niveles importantes de adopción tanto en hogares como en usuarios, el crecimiento en el acceso a dichas tecnologías parece haberse estancado. Esto significa que a pesar de los avances que se han logrado, se necesitan nuevas políticas públicas y de inversión para garantizar un acceso universal.

Por ejemplo, aún existen 16.4 millones de hogares que no cuentan con acceso Internet, de los cuales el 49% de éstos se encuentran concentrados en los siguientes estados de la República:  Chiapas, Estado de México, Guanajuato, Jalisco, Oaxaca, Puebla y Veracruz.

Cabe resaltar que en 13 de los 32 estados se registró que más de la mitad de hogares están desconectados; sobresalen los casos de Chiapas, donde 75 de cada 100 hogares están desconectados, y en Oaxaca, donde 71 de cada 100 también carecen del servicio.

Datlas_barra_suscribir

 

IV. Situación actual

De acuerdo con la Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares (ENDUTIH), la cual cuenta con datos estadístico de Enero de 2015 a Diciembre de 2018, el incremento en el número de individuos con acceso a este servicio se ha elevado de manera gradual y constante.

Hace cuatro años, 62.4 millones de personas hacían uso del Internet, para el 2016, el número creció a 65.5 millones, en 2017 fue de 71.3 millones y para el 2018 se registraron 74.3 millones de usuarios en todo el territorio mexicano.

Datlas_historia5

De todos los usuarios, el 92.7 por ciento de ellos accede a través de su teléfono móvil, lo que equivale a 68.9 millones de personas de 6 años en adelante; le siguen las computadoras portátiles con el 32.6 por ciento (24.2 millones de personas); las computadoras de escritorio con el 32 por ciento (23.8 millones de personas); las tabletas con el 17.8 por ciento (13.2 millones de personas); televisores inteligentes con el 16.6 por ciento (12.3 millones de persones) y por último los que se conectan a través de una consola de videojuego con el 6.9 por ciento (5.1 millones de personas).

Datlas_historia6

V. Futuro

  • Industria 4.0
  • IOT
  • Tecnologías 5G
  • Robotización
  • Big Data

Datlas_historia7

Datlas_barra_suscribir

Hasta aqui la columna de hoy ¿Qué otro dato conoces de la historia de las TICs? ¿Crees que han avanzado a buena velocidad?  Cuando queremos progresar es importante conocer de dónde venimos para plantear de manera objetiva hacia donde vamos.

Saludos

-Equipo Datlas-

 

Fuentes:

4 Metodologías para proyectos de Data Science – Datlas Research

Datlas_quote1_Method

Métodos, métodos y  más métodos. Aunque parecer que en el largo plazo limitan nuestra imaginación son herramientas que facilitan la entrada, práctica y control en un campo de dominio que queremos alcanzar. Desde Datlas, nuestra startup de analytics, hemos trabajado con “métodos de data science” en nuestros proyectos internos, aún sin tener usuarios. Ahora que los tenemos les puedo confirmar que el método es uno de los recursos más importante para establecer claridad en la comunicación y avances de los proyectos. En esta columna expondremos 3 de los métodos más usados en proyectos de ciencia de datos. Al final también integraremos nuestra propia versión de método de trabajo.

Datlas_barra_suscribir

1) KDD (Knowledge Discovery in Databases)

Datlas_KDD

Metodología de 5 pasos. Inicia con la selección donde de un data set principal hay que selecciónar un subconjunto de variables que nos pueden apoyar en la exploración del fenómeno que estamos estudianto. En el pre-procesamiento realizamos la limpieza y balanceo de datos. En la transformación, el método sugiere que reduzcamos dimensiones con técnicas estadísticas para manejar la menor cantidad de variables necesarias. En minería de datos buscamos patrones de interés o representativos en relación al objetivo de la minería de datos. Finalmente para colarnos al conocimiento pasamos por el proceso de intepretación y evaluación de modelo.  Al final de la iteración se le otorga una calificación al modelo y si no se cumplieron satisfactoriamente los objetivos se repite hasta que sean logrados.

2) SEMMA (Sample, Explore, Modify, Model and Access)

Datlas_SEMMA

En esta metodología iniciamos con “sample” o un muestro de la base de datos principal (que asumimos que es muy pesada y lenta de procesar) para poder hacer manipulaciones sobre este pequeño set de una manera ágil. Después exploramos los datos para ganar entendimiento e ideas, así como refinir nuestro proceso de búsqueda de anomalías, patrones y tendencias. Llegamos entonces al paso de modificar donde nos enfocamos en crear, seleccionar y transformar variables para enfocarnos en un proceso de selección. En esta etapa también se buscan anomalías y reducir el número de variables. Luego sigue la etapa de modelaje en donde debemos aplicar distintos métodos estadísticos evaluando sus fortalezas y cumplimiento de objetivos. Finalmente la etapa de “access” que significa evaluar la confiabilidad y utilidad de los hallazgos. Se evalúa particularmente el “performance”.

De la misma manera del modelo anterior, si no se logran los objetivos en una primera iteración tendremos que repetir el proceso.

 

3) CRIPS-DM (Cross-Industry Standard Process for Data Mining)

Datlas_CRISPDM

Seguimos con el “famosisimo” CRIPS-DM, el método más usado en la industria y es que IBM, la compañía dueña de Watson que antes desarrollaba poderosas computadoras, es quien desarrolló este modelo. La diferencia clave es que cualquier etapa del modele puede tener retorno o iniciar una reversa al método. Si durante la etapa en particular el especialista encontró que los datos no son suficientes para resolver su objetivo, puede regresar a cualquiera de la otras etapas.

En la etapa de “Entendimiento de negocio” primero se determinan los objetivos de negocio: Antecedentes, objetivos estratégicos de impacto y criterios de éxito. Después revisamos la situación, inventariamos recursos, realizamos un análisis de costo-beneficio, determinamos objetivos y producimos un plan de proyecto.

En “Data Understanding” es donde recolectamos los datos iniciales, describimos cada uno de estos datos, exploramos y verificamos la calidad de la información.

En “Data preparation” seleccionamos la información más razonable, la limpiamos, construimos variables de ser necesario, integramos datos y finalmente formateamos. El entregable de esta etapa sería un dataset listo para trabajar.

Para la etapa de “Modeling”, similar a los otros modelos, experimentamos con distintas técnicas, consideramos supuestos, hacemos pruebas, definimos parámetros y revisamos funcionalidad general de los modelos.

En “Evaluación” es donde considerando los criterios de éxito definidos consideramos como positiva y/o negativa la evaluación. Aqui mismo definimos los siguientes pasos y tomamos las decisiones necesarias.

Finalmente en “Deployment”, esta etapa sólo se activa si el proyecto tuvo evaluación positiva. Se genera entonces un plan de desarrollo, un plan de mantenimiento, se genera un reporte final y presentación para socializar el caso de estudio.

Comparando métodos

Datlas_comparando_metodos_DS_

A manera personal pienso que el CRIPS-DM se lleva de calle los métodos de antes. Por algo es más usado el CRIPS-DM y principalmente porque mezcló la necesidad de entendimiento del negocio con la parte científica del desarrollo de análisis de datos.

Datlas_barra_suscribir

4 ¿Cómo lo trabajamos en Datlas?

Datlas_metodo_laboratoriodedatos

Nuestro método, titulado “Laboratorio de Datos”, es similar a los modelos revisados con anterioridad. Tras un entendimiento central de negocio (En donde se ubica la imagen de nuestro mapa en el diagrama superior) entendemos las necesidades del negocio, dimensionamos el proyecto y seleccionamos los métodos experimentales. Ese entendimiento no necesariamente te tiene que llevar a la extracción de datos, ya que puede haber un avance previo. Sobre todo nosotros que trabajamos con datos de clientes, en muchas de las ocasiones llegamos a integrar o clasificar.

Asumiendo que sea un proyecto tradicional, iniciamos en la etapa de extracción donde dimensionamos y entendemos el tipo de variables con las que vamos a trabajar. En nuestro caso generamos un glosario de variables- Para la integración y clasificación buscamos ir preparando un ambiente de trabajo que nos permita geo-referenciar y mapear variables. Si estos 3 pasos iniciales cuentan con una evaluación positiva podemos pasar a la etapa de visualizar o reportar.  Cuyo objetivo principal es generar los principales recursos para socializar y pedir retroalimentación a los usuarios potenciales. Tras realizar los ajustes necesarios podremos llegar a entrenar un modelo con técnicas de inteligencia artificial.  Los pasos en el método son iterativos y se puede regresar a cualquier paso una vez que el entendimiento central del negocio se va enriqueciendo con cada etapa del proceso.

Para más detalle de este método puedes solicitar una conferencia o sesión de capacitación en direccion@datlas.mx

**También te puede interesar: ¿Cómo aprender ciencia de datos? 6 pasos

Datlas_quote2_Method

Hasta aqui la columna de hoy.  ¿Cuál es tu método y como darle libertad a la creatividad en el proceso? ¿Cuál seleccionarás para tu siguiente proyecto?  Comparte con tus colegas y comenta qué crees que podría mejorar los métodos de ciencia de datos.

Equipo Datlas MX

-Keep it weird-

 

 

 

Evolución de Mancha Urbana en Nuevo León: Timelapse Satelital 1984 – 2019 – Datlas Research

Conforme crece la población mundial y los sistemas económicos más personas pasan de vivir de zonas rurales a zonas urbanas. En este fenómeno socieconómico han prosperado las megaciudades y la expansión de ciudades de manera acelerada. Recientemente la empresa Google liberó un proyecto llamado “Timelapse” dentro de “Google Earth Engine” que permite visualizar las fotografías satelitales históricas de coordenadas en todo el mundo. Increíbles visualizaciones sobre crecimientos de ciudades como Dubai y Tokio o desarrollo de países como Singapur o Corea del Sur pueden encontrarse en este ejemplo. Para esta columna exploramos el caso de Nuevo León, en México considerando imágenes de 1984, cuando había alrededor de 2.5 millones de habitantes en el Estado, hasta el 2019 con más de 5 millones de habitantes.

Estado de Nuevo León, México

En los últimos 35 años el Estado duplicó sus habitantes. La ciudad recién comienza a habilitar edificios estilo rascacielos y pequeñas torres de departamento. En general, los crecimientos que podemos detectar en las imágenes han sido hacia las áreas que hace 30 años eran rurales. Esto ha incrementado el tamaño de los municipios y generando zonas habitacionales lejos de los centros económicos de la ciudad. Es notorio que las distancias a los centros de trabajo son más largas, pero al mismo tiempo las nuevas colonias residenciales representan oportunidades asequibles para las personas que en los últimos 35 años han llegado a vivir al Estado o locales que han adquirido su propia vivienda.

Da click en el video para que veas la secuencia de imágenes satelitales.

Municipio de Santa Catarina – San Pedro Garza García

Algunos de los municipios con más dinamismo en estos años son Santa Catarina y San Pedro. El lado triste de la historia es que muchos de los pulmones o zonas verdes de estos municipios se han ido consumiendo poco a poco en el crecimiento de la ciudad. Danos tu opinión y velo con tus propios ojos.

Revisa el video en el 00:18 en adelante.

Huasteca, parque natural en Nuevo León

El parque natural de la Huasteca es una de las zonas donde más actividades de senderismo, escalada y recreación ocurren en el Estado. Esta región de la ciudad de Santa Catarina ha sido fuente de escándalos recientes ya que se están generando zonas comerciales en lo que se supone son zonas naturales protegidas ¿Qué opinas?

Revisa el video en el 00:26 en adelante.

 

Datlas_barra_suscribir

Cerro Topo Chico en Nuevo León

Otro de los ejemplos de cómo el crecimiento de la ciudad ha sido a costa de algunas de las zonas verdes del país se puede visualizar en la siguiente secuencia.

Revisa el video del 00:40 en adelante.

Estadio BBVA de fútbol en Nuevo León

Estas secuencias nos pueden ayudar a contar historias, tal es el caso de la urbanización y el desarrollo de la magno-obra del Estadio BBVA en Nuevo León.

Revisa el video del 00:48 en adelante.

Municipio de Apodaca

Finalmente repasaremos el caso completo de 2 municipios, el primero es el de Apodaca. Originalmente destacaba por su zona industrial, bodegas y el aeropuerto. Pero la cantidad de desarrollos habitacionales y comerciales ha prosperado y eso lo podemos notar desde esta secuencia.

Revisa el video del 00:33 en adelante

Municipio de García

El último municipio es el de García, el originario del Bronco (Gobernador del Estado), que en los últimos años completamente pasó de ser una zona verde a una zona en desarrollo. Podemos identificar cómo se generan los caminos y las rutas que conectan distintos poblados de García en esta secuencia.

Revisa el video del 00:65 en adelante.

Nosotros, desde Datlas, hemos capitalizado el valor de los mapas. Nos enfocamos a los tiempos más recientes y en nuestra plataforma mostramos más de 50 variables de cada coordenada en todo México.  Te invitamos a suscribirte a nuestro DEMO GRATIS y te dejamos un video para que la revises de primera mano.

 

Si te ha gustado la columna y sabes que le puede interesar a tus colegas no dudes en compartirla. Siguenos en redes sociales como @DatlasMX y comenta.

Saludos

Equipos Datlas

-Keep it weird-

Elaborado con la herramienta: https://earthengine.google.com/timelapse/

Dimensionando la industria de “Analítica de datos e Inteligencia Artificial” – Datlas Research

¿Cuántas empresas de analítica de datos existen? ¿En qué industrias están participando? ¿Quién está desarrollando Inteligencia Artificial? Hoy hablaremos del mapa de mercado desarrollado por “Firstmark”  (@matttruck). Desde Datlas, startup mexicana de analytics, dedicamos esta columna a profundizando en el dimensionamiento y la clasificación de la industria completa de analítica de datos e inteligencia artificial.

Mapa completo de industria al 2019

2019_Matt_Turck_Big_Data_Landscape_Final_Datlas
Descarga aqui: https://cloudup.com/ck5aIRPKNuU

Según el reporte podemos encontrar 7 industrias y 82 sub-industrias para la industria de “datos” (Analítica, big data e inteligencia artificial).  Ahora haremos un pequeño enfoque a cada una.

1) Infraestructura

Abrir una empresa de analítica de datos y de tecnología hace 20 años tenía como 80% del presupuesto dedicado a infraestructura. Comprar potentes procesadores y sobre todo capacidad de almacenaje físico. Sin embargo, en los últimos 10 años ha ido en incremento los oferentes de poder de cómputo distribuido y almacenaje por nube.

1_Infrastructure_Panorama_Datlas

2) Analítica y Machine Learning(ML)

¿Tableau? ¿Power BI? ¿Watson? la mayoría de sus servicios corporativos pertenecen a la vertical de la subindustria de analítica y ML.  En estas plataformas es posible encontrar soluciones para convertir datos en algoritmos o visualizaciones y así mismo en ventajas comparativas para una empresa.

2_Analytics_ML_Panorama_Datlas

3) Aplicaciones con enfoque a empresa

Hay otro segmento de soluciones prediseñadas donde participan las tecnologías de analítica de nicho. Soluciones para gobierno, industria inmobiliaria o financiera son alguno de los ejemplos de empresas que han generado soluciones tan específicas como para atender un nicho. Estas startups buscan como estrategia ser tan importante en la industria que se acerque algun gigante como IBM, Microsoft o Palantir para adquirir su participación en la industria.

3_Aplicaciones_Empresa_Panorama_Datlas

4) Analítica de infraestructura cruzada

Son compañías que desarrollan diversas plataformas suficientemente robustas como para adaptarse a distintas industrias. En su mayoría podemos entender estos desarrollo como empresas que buscan generar ecosistemas más que productos o servicios.

4_Infraestructura_Cruzada_Analytics_Panorama_Datlas

**Si te interesa conocer más de analítica de datos y Big data te invitamos a solicitar GRATIS el DATA PLAYBOOK Vol. II de DATLAS. Solicítalo aqui. **

Datlas_Playbook_prelaunch

5) Open source – Fuentes abiertas

Hay otro segmento de compañías, organizaciones y desarrolladores independientes que son fieles creyentes del “open source”. Esto hace referencia a los aplicativos que son gratuitos y mejorados por la comunidad que los utiliza. Aunque pareciera que no hay incentivos, casos de éxito como R, Hadoop o Linux , que son Open-source, son impulsores de cambios y mejoras en las industrias de manera significativa.

5_OpenSource_Panorama_Datlas

6) Fuentes de Datos y APIs

Los modelos de analítica y Big data requieren datos listos para ser consumidos. Es decir limpios, estructurados y actualizados. En este sentido hay una serie de empresas de fuentes de datos que se han encargado de desarrollar APIs o carreteras directas a fuentes de datos de valor.  Este es el caso, sobre todo, de aplicaciones móviles que recopilan datos de usuarios y como modelo de negocio comercializan esos datos.

6_RecursosdeDatos_Apis_Panorama_Datlas

Si quieres conocer más de este tema te puede interesar ¿Cómo funciona Location intelligence? el blog donde explicamos este tema a detalle

7) Más recursos de datos

Finalmente otros recursos de datos como las escuelas, incubadoras, centros de investigación o plataformas de retos de datos como Kaggle. Sin restarle importancia (Consideremos que Google ha adquirido un par de estas empresas), continua el incremento y las empresas que quieren ganar nombre desde verticales más tradicionales como consultoría, educación o desarrollo de patentes/algoritmos propietarios.

7_RecursosDatos_Panorama_Datlas

¿Qué opinas del tamaño de la industria? ¿Te imaginabas? Hasta aqui la columna de hoy si te gustó el contenido recuerda compartir y aprovecha nuestros descuentos en el MARKETPLACE DE DATLAS.

***BONUS 8 de Enero 2020*** CB Insights libera un reporte de Tendencias en Inteligencia Artificial donde estructuran las iniciativas de “Alphabet”. Parece que ellos están entendiendo como ir capturando la industria desde distintas empresas.

Alphabet_CB_Insights_KEY_AI_Initiatives_Google

 

Equipo Datlas

-Keep it weird-

 

 

 

 

Invitación al “Coronavirus 2019 nCoV” Challenge – BLOG DATLAS

¿Corona Virus? Has escuchado del Virus de origen Chino y que ha escalado a alerta internacional en varios de los organismos más importante del mundo. Esta columna no trata sobre este virus, pero sí sobre lo que las comunidades de datos, médicas y de la industria 4.0 están organizando en Nuevo León. El 1ero Febrero del 2020 se lanzó el “Coronavirus 2019 nCoV” Challenge” y desde el complejo de Cintermex, en Monterrey Nuevo León, México se compartieron todos los detalles.

El pase de diapositivas requiere JavaScript.

Ver video de lanzamiento : https://www.facebook.com/events/1460461244115540/1462774587217539/?notif_t=plan_mall_activity&notif_id=1580587321422468

Para participar en esta convocatoria no tienes que ser de Monterrey o Mexicano. Es internacional y gracias a la bondad de las redes sociales podrán participar personas de todo el mundo. Al momento ya hay algunos grupos de España y Mexicanos interesados en esta colaboración. La idea es trabajar durante un mes en algunas propuestas escalables apalancados en tecnologías y medicina para apoyar a las causas de investigación del Corona Virus.

La convocatoria es más específica, la puedes consultar en esta liga : http://bit.ly/ConvocatoriaCoronavirus2019nCoVChallenge

Destacando lo más importante:

El Coronavirus (2019 – nCoV) Challenge es un reto abierto colaborativo para prevención y difusión de información sobre esta enfermedad, el cual se divide en los siguientes tracks:

1) Desarrollo de información para investigación

2) Soluciones de obtención de información y analítica”

Aprovecha que, de acuerdo a la convocatoria, desde el 5 de Febrero deben de estar los registros completos. El cierre del reto será el día 28 de febrero 2020 a las 14:00 hrs (Tiempo del centro de México)

(También te puede interesar nuestras investigaciones de analítica de datos sobre SISMOS EN MÉXICO y HURACANES )

Finalmente , dentro de la convocatoria se extendió la invitación a organizaciones que quisieran ser patrocinadoras. Desde Datlas nosotros estaremos aportando con mentorías y asesorias de analítica de datos. Pero si eres de una empresa y deseas sumarte. Sigue las siguientes instrucciones:

Si desea sumarse a esta iniciativa como patrocinador por favor realice su registro antes del 05 de Febrero 2020 en: http://bit.ly/RegistroPatrocinadoresCoronavirus2019nCoVChallenge

#CoronavirusChallenge #Coronavirus #2019nCoV #Salud #Mexico #DataScience #Cienciadedatos

 

Hasta aqui la columna de hoy. Este evento organizado por: Colegio de Médicos Cirujanos del Estado de Nuevo León, Data Science Monterrey, Hacking Health Monterrey, Women in Data Science, Power and Engineering y Saturday AI Monterrey. Pueden buscarlos en redes sociales para más detalles

Datlas_barra_suscribir

Saludos

-Keep it weird-

Equipo Datlas

¿Cómo construir un CHECKLIST para iniciativas de analítica de datos? – Datlas research

Hace un par de blogs conversamos sobre cómo cerca del 70% de los proyectos de datos fracasan. Identificando el problema ¿No vendría bien una fórmula que reduzca este oportunidad de error? ¿Hay una receta? Pues la respuesta es sí y no es como la de la abuela, la receta del éxito en los datos no es ningún secreto. Tiene que ver con hábito, cultura y método. En esta columna profundizamos entre métodos que vienen de distintos ángulos: Academia, profesión, ciencia , entre otros para concretar un “listado” a estilo “checklist” de preparaciones para implementar un proyecto de analítica en una organización. Nosotros, desde Datlas, invitamos a las organizaciones a evaluar más de 100 puntos a la hora implementar nuestras tecnologías o cualquier tecnología de analítica. Para esta ocasión hicimos un resumen. Es importante aclarar que el sesgo de este escrito es hacia corporativos y empresas grandes, que tienen funciones repartidas en departamentos con responsabilidades específicas y la burocracia habitual de la estructura vertical de un gran negocio.

Datlas_barra_suscribir

I. Entendiendo el contexto

Datlas_checklist1

Ya hemos discutido antes en ¿Cómo ejecutar una estrategia de Big Data en mi organización? como el contexto y los objetivos tienen principal relevancia a la hora de llevar un proyecto de analítica. Sin embargo cuando la iniciativa de datos arranca desde una gran organización hay otros puntos a clarificar para aumentar las probabilidades de éxito de un proyecto de analítica. Todos ellos tienen que ver con entender el contexto.

Si pudiéramos enumerar 6 elementos importantes qué tomar en cuenta son: Estrategia, datos, analítica, implementación, mantenimiento o soporte y restricciones.

Datlas_Playbook_prelaunchEn general, entender el contexto con la profundidad adecuada nos habilita a tomar todas las precauciones necesarias a la hora de diseñar los presupuestos financieros, técnicos y temporales de un proyecto.  De manera errónea muchas organizaciones le dan el mismo trato a un proyecto de analítica que a un proyecto de TI (Como activar un nuevo punto de venta o implementar un nuevo equipo de hardware). Sin embargo la historia e investigaciones de los últimos 10 años nos vinculan a que los proyectos de analítica requieren equipos especializados y esto es debido a que tienen un “checklist” distinto.

 

*También te puede interesar: Los 5 perfiles para una estrategia de datos éxitosa en mi organización. Y tener nuestroData Playbook Vol. II” GRATIS antes que nadie.

II. Generando un checklist personalizado para proyectos de analítica

Hay un montón de literatura sobre este tipo de checklist, pero siguiendo nuestra fuente favorita de “Fast.ai” encontramos la siguiente estructura a la hora de hacer un checklist para proyectos de analítica. Integra 6 aspectos, pero agregaremos uno más y al final de la columna explicaremos porqué.

1) Aspectos Organizacionales

Datlas_checklist_organizacional

Debemos de iniciar cuidando los higiénicos, esto quiere decir los aspectos organizacionales que van en relación a las personas que llevarán a cabo la estrategia. La probabilidad de éxito en un proyecto de datos incrementa si se tienen métodos de trabajo en reclutamiento, ubicación de talento y medición de resultados. Estas 5 preguntas pueden servir de orientación.

2) Aspectos Estratégicos

Datlas_checklist_Estrategia

Una iniciativa de datos habilita un pronunciamiento estratégico de la compañía y no al revés. En este sentido los proyectos de big data e inteligencia artificial deben de responder y aportar a algunos de los objetivos estratégicos de la compañía. Sencillamente cada hora dedicada a junta, proyecto, investigación o desarrollo de un científico de datos deberá estar apuntando a cumplir un objetivo estratégico.

3) Datos

Datlas_checklist_data

El error común de las organizaciones es que inician por los datos, cuando en realidad previo a esto ya establecimos que deberían estar las personas, cultura y estrategia. Luego hay que invitar a los “técnicos” a participar en el checklist para validar el grado de factibilidad a la hora de consultar bases de datos específicas.

4) Capacidades analíticas

Datlas_checklist_analytics

Los datos son la materia prima, pero necesitamos a las mentes expertas que les van a sacar valor y nos guiarán hacia el cumplimiento de los objetivos establecidos. Estas capacidades incluyen, pero no se limitan, a evaluar herramientas óptimas para trabajar, programar ETL para formatear bases de datos en los formatos requeridos y la gestión general del proceso de obtención de valor. Similar a como lo comentamos en ¿Cómo convertir tus datos en dinero?

5) Implementación

Datlas_checklist_implementación

Este tema tiene que ver con el diseño experimental a la hora de implementar un ejercicio de analítica. Sobre todo para poder contrastar si haber integrado la analítica tuvo un cambio a favor o en contra de la manera en que tradicionalmente se hacía esa tarea. Por ejemplo,  si ahora implementaste un nuevo equipo, tecnologías e infraestructura para analizar el programa de lealtad de tu compañía ¿Cómo validas que la inversión haya retornado? Ahorraste en tiempos, ganaste más dinero, lograste mejores redenciones e las promociones que les enviaste. La sección de implementación se relaciona con los factores que definen el éxito del proyecto.

6) Mantenimiento

Datlas_checklist_mantenimiento

Un checklist de éxito en proyectos de analítica tiene que contemplar los procesos de mantenimiento. Por ejemplo en este caso de revisar programas de lealtad hay que responder ¿Cómo será la carga de nuevos usuarios? ¿Cada cuándo? SI algo falla ¿Quién lo resuelve? ¿Cada cuándo se “refactoriza” o se retan los algoritmos?

Y vamos a ser redundante en uno,por temas de  experiencia propia, tendremos que incluir la importancia de analizar

7) Restricciones

Todas las preguntas asociadas a las restricciones en todas las áreas funcionales con las que colaboraremos. Pueden ser desde presupuesto financiero, tiempo disponible, recursos dedicados, otros proyectos activos, entre otros. Todo lo que vaya a tener un impacto o riesgo en nuestro proyecto puede afectar.

Datlas_barra_suscribir

Hasta aqui la columna de hoy, esperamos que después de haber leído esto tengas una mayor idea de cómo implementar un CHECKLIST para tu organización. Recuerda utilizar estos recursos como inspiración y adaptarlo al contexto y madurez tecnológica de tu negocio. Recuerda compartir y no olvides registrarte al nuevo “DATA PLAYBOOK VOL II” que estaremos liberando muy pronto GRATIS. Sólo da click en la liga.

Elaborado con ideas y experiencias propias de la startup DATLAS e inspirado por la fuente: https://www.fast.ai/2020/01/07/data-questionnaire/