ciencia de datos a la mexicana, próximo lanzamiento de playbook en 2020 – datlas MANUALES

La ciencia datos en el 2020 no debería ser “ciencia de cohetes” (rocket science) o no se le debería de ver como una caja negra. Está comprobado que “Lo que no se mide no se puede mejorar” y ahora, actualizando esta frase, “Lo que no se mide, no se analiza matemáticamente y no se socializa no se puede mejorar”. Absolutamente de esto se trata la ciencia de datos aplicada para convertir esos datos en historias (insights) y esas historias en accionables.

Uno de nuestros motivadores con Datlas ha sido desarrollar contenido para incrementar el entusiasmo y la aplicación por la ciencia de datos. Este año lo hemos hecho logrando más de 65 mil hits en nuestro blog, más de 4,000 escuchas en nuestra primera temporada del podcast “Café de Datos”, patrocinando el hackathon estudiantil más grande de México y dando más de 30 conferencias y webinars a empresas y estudiantes del ecosistema de transformación digital.

compartir experiencias e incrementar en conjunto el uso de plataformas de big data, analítica e inteligencia artificial.

**También te puede interesar nuestros Data Playbook Volumen I y II desde nuestro marketplace. Da click aqui para obtenerlo GRATIS.

Ahora te presentamos nuestro Data Playbook Volumen III”, nuestra tercera edición del compilado de nuestros aprendizajes como startup en crecimiento. En este contenido encontrarás definiciones de conceptos, metodologías y, lo más importante, aplicaciones de ciencia de datos. Contamos con lujo de detalle desde la construcción y desarrollo de modelos de respuesta inmediata, estrategias para el sector turismo, plataformas de inteligencia para “Dark Kitchens” hasta estrategias de analítica para aseguradoras. Finalmente sensibilizamos y ampliamos la conversación de nuestro podcast sobre privacidad e inteligencia de ubicación (“Location Intelligence”).

Solicita aqui para ser parte del lanzamiento este 15 de septiembre

En concreto compartiremos muchos de los métodos y aplicaciones prácticas que hemos desarrollado en el último año para negocios y gobiernos. Este tipo de lecturas le servirá a personas que están interesadas en aprender más de ciencia de datos asi como quienes ya están aplicando casos en organizaciones. Lo importante es conocer qué alcances existen, cómo prepararse y cómo acompañarse de startups o empresas aliadas que ayuden a las organizaciones a llegar ahí más rápido.

Hasta aqui la columna de hoy, estamos muy entusiasmados por este lanzamiento que llevamos en el equipo más de un mes preparando. Las y los invitamos a suscribirse en el bloque superior para recibirlo GRATIS.

Equipo Datlas

-Keep it weird-

5 ejercicios de ciencia de datos que todo e-commerce debería realizar – Datlas Manuales

En un e-commerce o tienda en línea cada click e interacción que se tiene con el sitio web es una oportunidad de almacenar datos para generar desarrollos que mejoren la experiencia del usuario. Y por ende, que puedan incrementar los ingresos o desarollar ahorros en la operación. Algunas preguntas que podrían salir al leer estadisticas en sistemas como google analytics serían:  ¿Por qué estarías cargando costos logísticos de un producto que ni si quiera se visualiza? ¿Si tu top 80% de ventas se concentra en 5 productos cómo te pudieras diversificar más? ó ¿Al usuario que adquiere zapatos cómo le recomiendo calcetines (productos similares?

**En la columna algunos términos están vinculados a otras columnas que hemos escrito que pueden apoyarte a incrementar tu conocimiento sobre el tema**

Datlas_Blog_Promo_SuscriberFree

Así como estos ejemplos, el E-commerce es uno de los sectores que más aplicaciones de ciencia de datos tiene por su abundancia de puntos de recolección de datos. En esta columna exploraremos algunas de las técnicas más utilizadas.

5 aplicaciones de ciencia de datos para e-commerce

1) Predicciones y pronósticos de venta en diferentes jerarquías de catálogo

Datlas_prediccion_gif

Los analistas y las personas en general somos buenos para pensar cómo podrían ser las cosas en el futuro, pero malos para puntualmente saber cuándo ocurrirá (¿Coronavirus o COVID-19? Imposible de predecir). Por otro lado la escuela de planeación de escenarios nos propone prepararnos para toda las posibles vetas que se abrirán al futuro dado nuestro contexto y las decisiones que tomamos.

Llevando esto al sentido del e-commerce, si buscamos una predicción de ventas para mejorar la toma de decisiones no solamente nos tenemos que basar en la venta de la última semana o mes. Podemos aprovechar todo el entorno digital, desde la lectura de tendencias que nos brinda plataformas como «google trends», tendencias de facebook o platicas de twitter hasta la información interna del sitio como tiempo de estancia en sitio web, carritos sin pagar con ciertos artículos seleccionados, entre otros.

Es importante destacar, que la aplicación deberá aprovechar las bondades de ciencia de datos y capitalizar información a distintas jerarquías. Tradicionalmente en una oferta comercial se segmenta por: Categoría, subcategoría, segmento, subsegmento…. hasta llegar a producto. Esta estructura de datos nos permite aumentar la resolución al momento de generar análisis y predicciones. Entender si, por ejemplo ciertos «shorts o pantalones cortos» que vendemos en nuestra tienda están incrementando su venta porque toda la categoría de «ropa para verano» está creciendo o porque se trata de un comportamiento atípico.

2) Sistema de recomendaciones entre productos

El pase de diapositivas requiere JavaScript.

«Otros usuarios que compraron este producto también compraron…» ¿Te suena familiar? (También ocurre en netflix o en spotify cuando te recomiendan contenido de manera autónoma) Y es que en el mundo digital los sitios de e-commerce operan generan segmentos de manera dinámica. Esto significa que los comportamientos de compra entre grupos similares de de usuarios tienden a tener los mismos patrones.

En casos aplicados, almacenar los artículos que un usuario visualiza, qué tipo de correos electrónicos o campañas de marketing provocan clicks o usar sus cookies para aumentar la inteligencia en las recomendaciones son formas de pensar en algoritmos que nos puedan ayudar a generar un sistema de recomendación.

Es importante que en un inicio no queramos poner la vara tan alta si empezamos en cero.  Podemos comenzar trabajando en «batch», es decir off-line, y cada 15 días actualizar el sistema de recomendación. A partir de los resultados podemos obtener mayor presupuesto y automatizar el flujo por completo.

Datlas_Promo_Facebook_Suscribe

3) Modelado de valor por vida (lifetime value) de usuarios

Datlas_LFTV

¿Cuál es la definición de «lifetime value»? Es una predicción del ingreso neto atributido a la relación futura con un cliente. En resumen, es el dinero que estimamos que un nuevo cliente nos pueda dejar a lo largo de la vida. Normalmente trabajamos este indicador de la mano del CAC («Customer adquisition cost»). De esta manera una empresa como UBER o DIDI puede ofrecerte $150 MXN de viajes gratis porque sabe que hay una alta probabilidad de que en el primer año multipliquen por 10 el valor ($1,500 MXN de viajes en un año) una vez que descargues el app y sincronices tu tarjeta de crédito.

Fórmula:

(Valor de orden promedio) * (Número de ordenes repetidas) * (Tiempo que dura como cliente)

Este tipo de información puede ayudar para establecer objetivos de crecimiento de la página, optimizar estrategias de marketing, ajustar campañas y promocionales. Algunas empresas como Amazon o Rappi te proponen modelos como «prime» en donde te obsequian todas las entregas dado que eso representaría mayores incentivos para que seas su cliente durante más tiempo

4) Modelo de CHURN (identificar los clientes que puedes perder)

Datlas_Recomendacion_gif3

Así cómo podemos identificar de qué clientes podemos incrementar más la venta, también podemos identificar qué clientes son los que estamos a punto de perder. Un buen e-commerce administra métricas como: Número de clientes perdidos, % de clientes perdidos, valor de la pérdida de negocio recurrente, entre otros.

Si queremos trabajar en campañas de retención para disminuir el CHURN hay que primeramente identificar a los clientes. Normalmente lo hacemos por usuarios, pero también puede ser por su IP, atributos de pago (cuenta de paypal o últimos dígitos de una tdc o tdd) , horarios, comportamientos, entre otros.

Datlas_Promo_Podcast_Suscribe

5) Detección de fraudes

DatlaS_fraud

Finalmente, el fraude y los hackeos están a la vuelta de la esquina cuando se trata de negocios digitales. En E-commerce, el aprovechamiento y uso de tarjetas de crédito robadas para pagos por internet es uno de los casos de los que hay que prevenirse ¿Por qué? Por los contracargos. Esto es, en pocas palabras, una reclamación interpuesta por un tarjetahabiente ante el banco emisor por un cargo no reconocido a sus tarjetas. Como consecuencia el banco no le paga al comercio.

En una situación donde un ladrón de tarjetas roba datos, compra en mercadolibre, por ejemplo, el cliente afectado levanta un reclamo al banco, el banco no le paga a mercadolibre, pero mercadolibre ya había enviado la mercancia ¿Quién pierde? La respuesta es mercado libre porque esa mercancía que envío no va a ser pagada.

Existen en el mercado muchos motores antifraudes, tarjetas y listas negras, pero como e-commerce una empresa puede trabajar en su propia lista y mejor aún colocar un «puntuaje» a cada usuario que realice actividades sospechosas.

**Te puede interesar este blog donde escribimos las aplicaciones y casos de uso que podemos lograr si BANXICO o el gobierno libera listas de tarjetas que se reclaman por fraudes**

Datlas_Promo_Youtube_Suscribe

Hasta aqui la columna de hoy. Esperamos te haya servido y si estás considerando abrir un e-commerce o quieres conocer más sobre aplicaciones de analítica en estos canales de venta no dudes visitar nuestro marketplace y contactarnos para una llamada de brief.

Equipo Datlas

-Keep it weird-

 

Fuente de motivación:

https://towardsdatascience.com/5-data-science-project-every-e-commerce-company-should-do-8746c5ab4604

4 pasos para preparar tus bases de datos para análisis – MANUALES DATLAS

Hoy en día la transformación digital cuenta con distintos pilares dentro de los que destaca la analítica o análisis de datos. Apalancar todo el valor que esconden las grandes cantidades de información disponibles en la actualidad permite que los negocios y la sociedad, en general, se organice y genere valor de formas innovadoras. Para lograr un análisis de datos, la materia prima es clave: las bases de datos. Como cualquier materia prima las bases de datos guardan atributos y características que las hacen ser mejores o peores al momento de ser utilizadas como input para un análisis. En esta columna vamos a revisar 4 sencillos pasos con los que podrás asegurar que tus bases de datos estén preparadas y listas para realizar análisis de calidad que generen un verdadero valor diferencial para tu negocio. Estos 4 pasos son: limpieza, reestructura, homologación y clasificación.

#1 Limpieza de datos

El llamado data cleansing, por su traducción al idioma inglés, es el proceso de descubrir y corregir o, en casos extremos, eliminar registros de datos que han sido identificados como erróneos dentro de una tabla o base de datos. Este proceso de limpieza de datos permite identificar datos incompletos, incorrectos, inexactos, no pertinentes, etc. y luego sustituir, modificar o eliminar estos datos sucios.

Hay distintos métodos para limpieza de datos. Uno de ellos es el análisis gramatical que identifica errores de sintaxis, es decir, si el sistema lo tiene declarado como una variable numérica y el usuario registro una palabra, este tipo de análisis lo identifica. Existe la transformación, que básicamente ajusta los datos dentro de un formato esperado, en la mayoría de las ocasiones la transformación es para normalizar los datos y ajustarse a valores mínimos y máximos. Otra forma es el eliminar duplicados, que como su nombre lo dice, simplemente identifica registros repetidos y elimina uno de ellos. Finalmente, existen métodos estadísticos mediante los cuales la estadística descriptiva hace visualmente reconocibles las anomalías y posteriormente expertos se encargan de ajustar ese tipo de datos mediante la sustitución de los mismos por valores promedios o algún otro tipo de tratamiento, dependiendo de la naturaleza del dato.

Una vez detectados estos datos “sucios” es necesario identificar las causas para poder establecer flujos de trabajo ejecutables de forma automática para que corrijan o excluyan este tipo de datos. En temas técnicos es común el uso de bibliotecas como Pandas para Python o Dplyr para R.

datlas_mx_blog_data_cleansing

#2 Reestructura de bases de datos

Este segundo paso del proceso de preparación de bases de datos tiene que ver literalmente con tomar una base de datos de cierta estructura como, por ejemplo, 10 columnas por 3 filas y alterarla de tal forma que al final quede una base de datos completamente nueva de, por ejemplo, 6 columnas por 7 filas, pero con los mismos datos ya limpios que obtuvimos en el paso anterior. Para ilustrar este punto utilizaremos un ejemplo muy sencillo:

Supongamos que levantamos una encuesta sobre productos y marcas que podemos encontrar en el baño de cada entrevistado. Los resultados de la encuesta nos darían una base de datos de la siguiente forma:

EntrevedadsexoProd_1Prod_2Prod_3Marca1Marca2Marca3NSE
110FDesodo

 

rante

Pasta de dientesJabon líquidoAXECRESTNUBELUZA
225MPasta de dientesSham

 

poo

Jabon en gelCOLGATEELVIVEAMIGOB
323FCrema para peinarPasta de dientesJabon de barraSEDALCOLGATEESCUDOC

Si quisiéramos que los datos nos digan que artículos son los que las mujeres de 24 a 30 años tienen en su baño, necesitamos manipular los datos de forma que podamos obtener como respuesta a esta pregunta un cálculo de frecuencia.

En este segundo paso es donde tomamos en cuenta las hipótesis o los objetivos de análisis para generar la reestructura de la información. En este caso, por ejemplo, la base de datos ya reestructurada quedaría así:

EntrevistadoEdadSexoNum_ProdDescripcionMarca
110F1DesodoranteAXE
110F2Pasta de dientesCREST
110F3Jabón LíquidoNUBELUZ
225M1Pasta de dientesCOLGATE
225M2ShampooELVIVE
225M3Jabon en gelAMIGO
323F1Crema para peinarSEDAL

Con lo cual podríamos establecer, suponiendo que utilicemos Excel, un filtro en la columna de edad para seleccionar las edades superiores a 24 años e inferiores a 30, al mismo tiempo que filtramos en la columna de sexo la letra F (de femenino) y simplemente calculamos el total de filas que quedan desplegadas de la tabla. De esta manera respondemos la pregunta inicial.

#3 Homologación de bases de datos

En este punto ya comenzamos a jugar con distintas bases de datos, es decir, muchas veces las empresas tienen distintas áreas donde el modo con el que tratan los datos es distinto. Por lo tanto, al momento de tratar de unificar resultados o compararlos, puede que no se estén tomando parámetros similares y eso difícilmente podrá permitir que se realicen cruces de información de manera eficiente.

Al homologar bases de datos es necesario generar estructuras preestablecidas y un glosario de variables que defina claramente los formatos y las especificaciones necesarias para cada tipo de variable registrada. Un caso muy común por ejemplo es el formato de fechas entre dos bases de datos distintas, mientras uno maneja el formato día/mes/año otro tiene registros como mes/día/año con lo que a la hora de hacer un cruce de información las fechas nunca logran empatar y es imposible realizar un cruce de forma adecuada.

datlas_mx_blog_homologacion_bases_de_datos

#4 Clasificación de bases de datos

Finalmente, tenemos el paso de clasificación. En este punto literalmente el objetivo es darle una etiqueta o categoría a cada base de datos de acuerdo al contexto que estemos manejando, la utilidad de la misma base de datos o las necesidades que estas satisfagan al interior de la organización. De forma general existen dos tipos de clasificaciones para las bases de datos: según la variabilidad de los datos o según su contenido.

Dentro de la primera clasificación existen las bases de datos estáticas, que generalmente son bases de datos de consulta, con registros históricos que no van a cambiar. El típico ejemplo aquí son las ventas de hace 5 años para una compañía de artículos deportivos. Por otro lado, están las bases de datos dinámicas, donde la información cambia a través del tiempo por actividades como: actualización, borrado y edición de datos. El mejor ejemplo en este caso son las bases de datos de clientes (CRM) donde hay constantes actualizaciones de información o incluso eliminación de prospectos.

En la segunda clasificación tenemos las bases de datos bibliográficas, que guardan literalmente registros de autor, fecha de publicación, editorial, etc. En contraste existen las bases de datos de texto completo que almacenan el contenido completo de las citas bibliográficas anteriormente citadas, por ejemplo. También existen subclases como directorios, bibliotecas, etc.

datlas_mx_blog_clasificacion_bases_de_datos

De esta forma logramos tener una integridad entre los datos almacenados, la base de datos que los resguarda, las distintas bases de datos dentro de una organización y su capacidad de complementarse al momento de realizar un análisis. Así de fácil podemos cuidar la calidad de nuestros datos para asegurar que podamos aprovechar todo el poder y las ventajas del big data a la hora de realizar analítica.

Si te interesa conocer más acerca de estos procesos o necesitas ayuda con tus bases de datos, visita nuestro Marketplace o contáctanos en nuestras redes sociales

@DatlasMX

Dashboards de negocios, guía para principiantes – MANUALES DATLAS

Un avión donde viajan 300 personas que puede ser conducido por 2 personas, una megaciudad de más de 5 millones de habitantes conducida desde un «war-room» (C4 ó C5) con 20 personas, o la gestión de un mundial de fútbol en más de 20 ciudades a la vez controlado por un equipo de 40 profesionales ¿Qué herramienta tienen en común?  Todos en algún momento usaron dashboards.

Datlas_Blog_Promo_SuscriberFree

En los negocios ocurre igual. Un tablero de control o dashboard es un lugar donde se pueden monitorear los aspectos más importantes del quehacer de una organización. Sinedo así,en el campo de «inteligencia de negocios» o «business intelligence», este tipo de herramientas le ayuda a los tomadores de decisiones y operativos a reaccionar de forma efectiva a cambios en el negocio.

1) ¿Qué es un dashboards de negocios?

Es un gráfica que refleja el estatus operativo de datos recolectados en tiempo real (o casi tiempo real) visualizados en una plataforma. Un ejemplo de lo que podría ver un empresa que se dedica a envíos de comida a domicilio en un dashboard.

El pase de diapositivas requiere JavaScript.

Así como los pilotos en un avión monitorean la altura, velocidad, ruta y otros aspectos del vuelo. En un negocio podríamos vigilar las órdenes , las ventas, tiempos de entregan las entregas exitosas, los artículos más vendidos, entre otros.

Te puede interesar nuestra columna titulada: Ranking de Dashboards de COVID-19.

2) Características de un dashboard

Para ser considerado un buen panel de control tendría que integrar:

  • Un sistema valioso de indicadores
  • Visualización e interacción intuitiva
  • Buena calidad de datos como insumo y amplitud en cortes temporales
  • Un sistema completo de arquitectura que permita actualización automática

Recomendamos que leas nuestro ejemplo en: Analítica en Dashboards para Turismo.

Datlas_Promo_Facebook_Suscribe

3) ¿Cuáles son los tipos de dashboards?

Datlas_niveles

  • Dashboard estratégico: Resume y sintetiza los indicadores más importantes de la compañía para tomar decisiones de manera rápida basadas en datos
  • Dashboards analíticos: Puede ser estratégico y operativo, destinado a que los equipos de mandos altos y medios puedan tomar decisiones de manera más ágil
  • Dashboards operativos: Enfatiza el reporteo de información constante y continua
4) ¿Qué acciones debería habilitar un dashboard?
A) Seguimiento a KPIs
Datlas_saludkpis

Una vez que se realizó el trabajo de planificación estratégica donde se delimitaron los KPIs que los equipos de trabajo deberán de cuidar para que los proyectos tengan buena salud es importante poder visualizarlo en el dashboard. Por lo mismo es útil generar un «semáforo» donde rojo sea señal de gran oportunidad para mejorar y verde sea buena salud.

B) Alertar de comportamientos fuera de rango o prevenciones
Datlas_alertas

Las mejores implementaciones de inteligencia de negocios generan tableros que están listos para alertar sobre comportamientos críticos o situaciones que necesitan inmediata atención. Idealmente estas notificaciones tienen que ser desarrolladas por las personas con más experiencia en la organización y con base a atender las oportunidades que de no atenderse podrían representar un costo no reemplazable a la compañía.

Datlas_Promo_Youtube_Suscribe
C) Monitoreo en tiempo real
Datlas_gif_Realtime_Dashboard

En una etapa más avanzada habrá que procurar que el monitoreo de los datos sea en tiempo real. Esto requiere necesidades más sofisticadas de infraestructura y que se cuenten con iniciativas de ciberseguridad para asegurar que no haya fugas de información. Esto permitiría una toma de decisiones más oportunas sobre datos que sean reales.

Cierre

Los dashboards permiten ser más eficientes y eficaces en la toma de decisiones operativas y en el cumplimiento de la estrategia de una organización. Hay que trabajar de la mano con el área o la función de planeación en nuestra compañía para generar buena calidad de KPIs, alertas y sobre todo garantizar que los datos más dinámicos sean actualizados en tiempo real.

Datlas_Promo_Podcast_Suscribe

Si te interesa seguir conociendo más de este tema (KPIs y herramientas de medición te invitamos a nuestra próxima charla. Puedes registrarte aquí GRATIS: https://bit.ly/dfuturos4 

WhatsApp Image 2020-07-06 at 9.05.32 AM

También solicitar en nuestro marketplace una llamada para platicar sobre este tema y evaluar cómo con alguno de nuestros casos aplicados podemos ayudar a tu organización.

Fuentes:

¿Cómo analizar a la competencia usando mapas? – Datlas Casos de Uso

Una de las claves del éxito de los negocios es la ubicación, como ya hemos hablado, pero para ubicar un negocio hay ciertos aspectos que la mayoría de las empresas, sin importar su giro o sector, toman en cuenta para realizar un análisis y seleccionar el mejor punto. Algunas de estas variables son:

  1. El producto/servicio que a vender (giro/sector)
  2. Competencia (directa, indirecta, sustitutos etc.)
  3. Mercado meta ideal (perfil del consumidor)
  4. Características de la ubicación y el entorno (historia, estructura, demografía, tráfico, accesibilidad, estacionamiento, etc.)
  5. Negocios en la zona (complementadores, etc.)
  6. Aspectos legales (uso de suelo, reglamentación, lineamientos, etc.)
  7. Aspectos financieros (costos, gastos, mantenimientos, etc.)

free_Suscriber

Sin duda algunos de estos puntos, en un inicio, los define el emprendedor/empresario como, por ejemplo: el mercado meta ideal o perfil del consumidor. Mientras que otros provienen de un análisis de mercado y entorno respecto a la ubicación analizada. En esta entrada nos vamos a enfocar en el análisis de competencia a través de nuestras plataformas de Mapas.

Para ello vamos a utilizar el caso de Andrea, una joven emprendedora con un concepto de gimnasio que mezclaba la parte tradicional de las maquinas y las pesas con toda esta tendencia del baile y las nuevas metodologías fitness. Andrea estaba por abrir su segunda sucursal en Nuevo León. Reconociendo que este mercado estaba teniendo un auge y que los competidores nacían de forma rápida y con facilidad, decidió enfocarse en analizar a la competencia alrededor de esta nueva oportunidad de ubicación. Así que ¿Cómo lo hizo?

En primer lugar Andrea entró al Marketplace de Datlas y adquirió su Mapa Premium para Nuevo León.

Quédate hasta el final y descubre el código de descuento para adquirir hoy mismo tu Mapa Premium para cualquiera de las geografías disponibles

datlas_mx_marketplace_mapa_premium

Una vez adquirido su mapa, entró directamente en la página web de Datlas (www.datlas.mx) y se autentificó como usuaria.

El pase de diapositivas requiere JavaScript.

Una vez dentro de su panel personalizado, se fue a la sección de Mapas y selecciono su Mapa Premium para Nuevo León.

datlas_mx_panel_personalizado

Una vez dentro del mapa, utilizo la barra de búsqueda por dirección para localizar la ubicación que estaba evaluando.

El pase de diapositivas requiere JavaScript.

En cuanto localizó la ubicación, Andrea hizo uso de una herramienta llamada «Consulta Establecimiento» que se encuentra justo en la cuarta posición de la barra lateral derecha, debajo de la herramienta de búsqueda específica y justo arriba de la herramienta de medición de distancia.

free_Suscriber

Haciendo uso de esta herramienta Andrea, y todos nuestros usuarios, pueden escribir una palabra clave, en este caso, por ejemplo: gimnasio y el sistema realiza una búsqueda de esa palabra clave en las bases de datos de negocios para obtener como resultado todos aquellos establecimientos que tengan esta palabra dentro de su nombre comercial y/o de su razón social.

En este caso, Andrea al poner gimnasio, obtuvo estos resultados:

El pase de diapositivas requiere JavaScript.

De igual forma, se pueden hacer consultas con palabras claves parecidas como, en este caso, «gym» y obtener también resultados:

datlas_mx_mapa_premium_nl_consulta_gym

De esta forma, Andrea pudo observar rápidamente el nivel de competencia que existía en el entorno y combinar las distintas herramientas de las que hemos estado hablando en entradas anteriores para complementar su análisis con una segmentación y prospección de cliente.

Finalmente, no olvides que tu también puedes empezar a analizar a tu competencia hoy mismo adquiriendo tu Mapa Premium para cualquiera de nuestras geografías disponibles, aprovecha el cupón BLOG50 para obtener un 50% de descuento (válido por tiempo limitado).

¡Visita nuestro Martketplace y aprovecha esta gran promoción!

 

También te invitamos a contarnos ¿qué reto enfrenta tu negocio actualmente? para poder sugerirte y escribir algunas formas de solución con nuestras plataformas. Escríbenos a ventas@datlas.mx o en nuestras redes sociales.

@DatlasMX

 

 

CORONAVIRUS PT. 2/2 – CONSTRUYENDO UN MODELO DE RESPUESTA INMEDIATA CON DATOS GEOESPACIALES (DATLAS RESEARCH)

Si quieres visualizar esta plataforma revisa el video aqui. Para acceder directamente a la plataforma de la que hablamos en este blog escríbenos tus motivos a direccion@datlas.mx . Agradecemos a los medios que nos han difundido:

El pase de diapositivas requiere JavaScript.

Esta es la segunda parte de la serie de blogs del #COVID-19. Puedes encontrar el primer capítulo en: El efecto dominó de una pandemia en la economía regional. Vale la pena que le eches un  vistazo antes, para entender mejor el riesgo de no tomar las medidas adecuadas en épocas del Coronavirus.

Datlas_Blog_Promo_SuscriberFree

Lo que sigue,inspirados en la herramienta GOTHAM de la empresa PALANTIR utilizada en el Huracán Florence en el 2018 para desplegar equipos de rescate en las zonas más marginadas del Norte y Sur-Carolina en esta columna generaremos un postulado de cómo podríamos construir un modelo de respuesta inmediata para México. Específicamente utilizando datos de Nuevo León.

Usaremos el modelo Datlas como ejemplo

Datlas_metodo_laboratoriodedatos

Puedes leer más de esta metodología en este blog.

Diagnóstico del problema y objetivo

Un modelo de respuesta inmediata, en el contexto de datos geo-espaciales, contextualiza el entorno y la situación de estudio (En este caso el COVID) para enfocar la atención hacia las ubicaciones más vulnerables en caso de una catástrofe. En situaciones donde el tiempo y la dispersión juegan un rol crítico, es importante tener a la mano herramientas que soporten la labor de enfoque hacia la infraestructura y cuerpos de rescate.

Datlas_Promo_Facebook_Suscribe

El objetivo de la investigación será identificar en un plano geográfico  los puntos de concentración de personas más vulnerables para que en caso de una catástrofe sanitaria tengamos más claridad hacia los puntos de despliegue de equipos de rescate.

Datlas_Blog_Modelorescate_Covid

Criterio y extracción de datos

Hemos estado revisando que las poblaciones más vulnerables en el COVID-19 son primeramente mayores a 60 años. Sumado a esto las viviendas en niveles socieconómicos bajos tendrían más restricciones de acceder a recursos para protegerse por su cuenta. En muchos programas sociales se utiliza el índice de marginación nacional de la CONAPO (véase al final en fuentes) como medida de vulnerabilidad. Esto ya que representa una medida-resumen que permite diferenciar entidades federativas y municipios de acuerdo con las carencias que padece la población, como resultado de la falta de acceso a la educación, la residencia en viviendas inadecuadas, la percepción de ingresos monetarios insuficientes y las relacionadas con la residencia en localidades pequeñas (CONAPO, 2018).

Otro tema que hace sentido contemplar es la cantidad de ubicaciones de servicios de salud como clínicas, laboratorios, farmacias, hospitales y similares que pudieran ponderar la vulnerabilidad de estos grupos. Usaremos datos del DENUE INEGI, así como Google places para corroborar estas ubicaciones.

Integración y clasificación de datos

Clasificamos las variables en distintos grupos:

  • Personas mayores a 60 años (Dado que el virus es más letal en este grupo de edad)
  • Indice de marginación (Tendrían mayores restricciones para cuidarse por su propia cuenta)
  • Promedio de habitantes por vivienda (Mayor indice de propagación y contagio casero)
  • Población Total (Potencialmente, los cuadros de la ciudad donde una actividad de rescate impactaría más personas)
  • NSE preponderante (Buscaríamos priorizar NSE bajos, dado su vulnerabilidad)
  • Servicios de Salud (Farmacias, clínicas, asilos, hospitales y similares)

En este caso, el orden de las clasificaciones representa lo que teóricamente puede representar un mayor enfoque para grupos  vulnerables. Es decir, estos pudieran ser criterios de enfoque para equipos de rescate

Datlas_Blog_Modelorescate_Covid_2

Modelaje y entrenamiento

Al no ser especialistas en temas de salud, lo más correcto es compartir este mapa con especialistas que puedan darnos más sensibilidad de campo sobre qué otras variables contemplar o cuál debería ser la prioridad. A partir de esto podríamos entrenar un modelo más especializado.

Para fines de este ejercicio y dándonos un poco de licencia para soñar, podríamos imaginar que los efectos de las variables en una ecuación podrían ser sumados y otros multiplicados. Algunos sería relevante contemplarlos con crecimiento exponencial. Los matemáticos son los encargados de esto. Cuando nosotros generamos modelos comenzamos de lo más básico y, de ser necesario, en cada etapa del proceso elevamos un poco el modelo de complejidad.

Simplificando, una vez estandarizadas las variables, podríamos ir modelando un indicador que agregue el efecto de distintas variables

Datlas_Blog_Modelorescate_Covid_3

Datlas_Promo_Youtube_Suscribe

Visualización

¿Cuál sería el efecto final? ¿Cómo se vería? La mejor forma de enfocar en este tipo de mapas es con mapas de calor. Eso nos permitiría identificar el efecto de una serie de variables de manera inmediata.

Ver video: https://youtu.be/4OIFN86nz5U

Reporte de acciones a tomar

  • Colaborar con expertos regionales para avanzar en establecer protocolos de rescate y  árboles de decisión de priorización en cuestión de atención sanitaria
  • Destacar zonas específicas para que se realicen revisiones periódicas, mediciones de temperatura, entrevistas a miembros de hogares en las manzanas indicadas y similares
  • Acercar infraestructura médica temporal de apoyo en caso de que el Covid crezca a una fase 2 ó 3
  • Ceder un contacto directo de atención para esta zona específica, sobre todo cuando son mayores de 60 años
  • Generar un plan de mediano plazo para intervenir esta zona, sobre todo ante los efectos económicos negativos que probablemente ocurran en un par de meses

Futuras investigaciones

En futuras investigaciones y con datos como los códigos postales o polígonos donde hay más infectados podríamos asociar correlaciones y causalidades para validar que estos efectos se cumplan. Conocer la capacidad de hospitales en términos de camillas, especialistas, respiradores, entre otros sería de mucha utilidad.También los hospitales y laboratorios que sí están realizando pruebas o tratamientos de COVID.

Creo que ya hay demasiados mapas sobre la evolución del COVID19. Hay que motivar a pensar en los siguientes pasos: Los efectos económicos y sociales.  Esperamos que estas 2 columnas de blogs apoyen a continuar la investigación en este sentido.

PRUEBA EL MAPA

Solicita con un escrito de motivos a direccion@datlas.mx , gracias por tu participación recuerda compartir la columna y dejar tu opinion.

Datlas_Promo_Podcast_Suscribe

Fuentes:

¿Cómo segmentar mi mercado usando mapas? – Datlas Caso de Uso

Hace un par de columnas comenzamos esta sección de casos de uso de nuestros clientes utilizando los mapas Datlas. En la primera edición platicamos acerca de la prospección de clientes. Si no has tenido oportunidad de leerla, te invitamos a dar click aquí. En esta ocasión nos enfocaremos en un nuevo caso de uso: segmentación de mercado. Seguramente si has llevado clases acerca de mercadotecnia o ventas sabrás que segmentar el mercado se refiere a la actividad de dividir a toda una masa critica en grupos con características similares para poder enfocar los esfuerzos de venta de tu producto o servicio. En esta columna les platicaremos acerca del caso de Carlos, uno de nuestros clientes en Ciudad de México. Charlie tuvo la oportunidad de acondicionar un local comercial que tenia su familia en una buena zona y puso una pizzería, pero con el nuevo concepto de “dark kitchens”, es decir, sin tener un frente con atención a clientes, solo dedicándose a la parte de entregas a domicilio a través de todas estas nuevas plataformas. Contrario a su expectativa inicial, no logró capturar suficientes clientes durante las primeras semanas y fue entonces que se le ocurrió usar Datlas para conocer el mercado a su alrededor y poder segmentarlo para hacer promociones.

free_Suscriber

Para este ejercicio vamos a usar el mapa Premium de Ciudad de México, disponible en nuestro Marketplace. Una vez adquiriendo el mapa puedes accesarlo a través de tu panel personalizado.

El pase de diapositivas requiere JavaScript.

Una vez dentro de la plataforma el paso #1 es identificar la ubicación de tu negocio. En este caso la pizzería de Carlos se encontraba en la Condesa, sobre Avenida Michoacán.

datlas_mapa_premium_cdmx_ubicacion

Enseguida, el paso #2 es definir/conocer el radio de influencia de tu negocio. En el caso de los restaurantes, la naturaleza propia de su servicio les da la ventaja de poder definir su radio de influencia, es decir, delimitar perfectamente su zona de cobertura para envíos a domicilio. En contraste, negocios del sector retail por ejemplo, muchas veces necesitan conocer o descubrir su radio de influencia y calcularlo con base al numero de competidores en su entorno y la distancia que pueda haber entre ellos. De todas maneras, dedicaremos una columna específicamente para el tema de radios de influencia. Por el momento, regresando al caso de Charlie, se definió que la operación de la pizzería podría atender a un mercado de hasta 2 kilómetros a la redonda.

Siendo así, se utiliza la herramienta de análisis que vienen en la barra lateral derecha dentro de la plataforma. Una vez seleccionada nos pedirá elegir la forma de delimitación que vamos a utilizar. Existen varias opciones dentro de las cuales destaca el análisis radial, rectangular o en base a selección específica de polígonos. Para el caso de Carlos se utilizó el análisis radial. La forma en la que esta herramienta funciona es dando click justo en la ubicación definida en el paso #1 y abriendo el radio hasta la distancia definida en el paso #2.

El pase de diapositivas requiere JavaScript.

Una vez establecido el radio de influencia el paso #3 es obtener los resultados para analizarlos. Como ya saben, los resultados arrojan variables demográficas, socioeconómicas, comerciales y hasta dinámicas. De esta forma Carlos puede saber cuanta gente hay dentro de ese radio de influencia, sus características, poder adquisitivo, cantidad de negocios, generadores de tráfico y mucho más.

En este caso destacaron varios hallazgos claves:

  1. La mayoría de la población son mujeres
  2. La mayoría de la población es soltera, aunque viven en hogares de 2-3 personas
  3. La mayoría de la población tiene más de 32 años
  4. Hay más de 11,000 negocios, predominantemente micronegocios de 0 a 5 trabajadores y los sectores más relevantes son: comercial, servicios profesionales e industrial

El pase de diapositivas requiere JavaScript.

Finalmente, el paso #4 es generar los segmentos claves para definir estrategias para cada uno. En este caso Charlie hizo dos grandes segmentos: hogares y negocios. Para capitalizar la oportunidad en los hogares, enfocó sus campañas y promociones a las mujeres mayores de 30 años e hizo un tamaño de pizza especial para 2-3 personas, con sus respectivas promociones y combos.

Para el segmento de negocios, se lanzó a realizar alianzas estratégicas con algunos comercios de alrededor y comenzó a empujar una tradición similar a los “viernes de tacos”, pero llamada “jueves de pizza”. Igualmente les ofreció programar pedidos para que no tuvieran que esperar a las horas pico de comida para solicitar su comida y así ahorrar tiempo y esfuerzo. También les ofreció formatos de pizza y complementos tipo botanas/canapés para los días de juntas y pequeños eventos internos. Finalmente les ofreció descuentos especiales para los trabajadores que hacen “horas extras” en sus pizzas y productos más rentables.

free_Suscriber

De esta forma, en tan solo algunas horas, Carlos fue capaz de segmentar su mercado, generar un par de estrategias y comenzar a ejecutarlas de manera que en un par de semanas comenzó a ver resultados e incluso los clientes comenzaron a darle retroalimentación y nuevas ideas para seguir aumentando el menú y mejorando el servicio.

Si crees que ya estas listo para ponerte manos a la obra y segmentar tu mercado para mejorar los resultados de tu negocio puedes ir directamente a nuestro Marketplace y aprovechar el código de descuento BLOG100 para obtener $100 MXN de regalo en tu primera compra de cualquiera de nuestros mapas Premium.
De esta manera concluimos el blog de hoy, mantente atento a todos los nuevos casos de uso, videos y nuevos lanzamientos que tendremos para ti.

@DatlasMX

4 Metodologías para proyectos de Data Science – INVESTIGACIÓN DATLAS

Datlas_quote1_Method

Métodos, métodos y  más métodos. Aunque parecer que en el largo plazo limitan nuestra imaginación son herramientas que facilitan la entrada, práctica y control en un campo de dominio que queremos alcanzar. Desde Datlas, nuestra startup de analytics, hemos trabajado con «métodos de data science» en nuestros proyectos internos, aún sin tener usuarios. Ahora que los tenemos les puedo confirmar que el método es uno de los recursos más importante para establecer claridad en la comunicación y avances de los proyectos. En esta columna expondremos 3 de los métodos más usados en proyectos de ciencia de datos. Al final también integraremos nuestra propia versión de método de trabajo.

** Si quieres aprender más de analítica, datos y transformación digital inicia de manera gratuita con 3 cursos que ofrecemos en www.datlasacademy.com

Datlas_Blog_Promo_SuscriberFree

1) KDD (Knowledge Discovery in Databases)

Datlas_KDD

Metodología de 5 pasos. Inicia con la selección donde de un data set principal hay que selecciónar un subconjunto de variables que nos pueden apoyar en la exploración del fenómeno que estamos estudianto. En el pre-procesamiento realizamos la limpieza y balanceo de datos. En la transformación, el método sugiere que reduzcamos dimensiones con técnicas estadísticas para manejar la menor cantidad de variables necesarias. En minería de datos buscamos patrones de interés o representativos en relación al objetivo de la minería de datos. Finalmente para colarnos al conocimiento pasamos por el proceso de intepretación y evaluación de modelo.  Al final de la iteración se le otorga una calificación al modelo y si no se cumplieron satisfactoriamente los objetivos se repite hasta que sean logrados.

Datlas_Promo_Facebook_Suscribe

2) SEMMA (Sample, Explore, Modify, Model and Access)

Datlas_SEMMA

En esta metodología iniciamos con «sample» o un muestro de la base de datos principal (que asumimos que es muy pesada y lenta de procesar) para poder hacer manipulaciones sobre este pequeño set de una manera ágil. Después exploramos los datos para ganar entendimiento e ideas, así como refinir nuestro proceso de búsqueda de anomalías, patrones y tendencias. Llegamos entonces al paso de modificar donde nos enfocamos en crear, seleccionar y transformar variables para enfocarnos en un proceso de selección. En esta etapa también se buscan anomalías y reducir el número de variables. Luego sigue la etapa de modelaje en donde debemos aplicar distintos métodos estadísticos evaluando sus fortalezas y cumplimiento de objetivos. Finalmente la etapa de «access» que significa evaluar la confiabilidad y utilidad de los hallazgos. Se evalúa particularmente el «performance».

De la misma manera del modelo anterior, si no se logran los objetivos en una primera iteración tendremos que repetir el proceso.

3) CRIPS-DM (Cross-Industry Standard Process for Data Mining)

Datlas_CRISPDM

Seguimos con el «famosisimo» CRIPS-DM, el método más usado en la industria y es que IBM, la compañía dueña de Watson que antes desarrollaba poderosas computadoras, es quien desarrolló este modelo. La diferencia clave es que cualquier etapa del modele puede tener retorno o iniciar una reversa al método. Si durante la etapa en particular el especialista encontró que los datos no son suficientes para resolver su objetivo, puede regresar a cualquiera de la otras etapas.

En la etapa de «Entendimiento de negocio» primero se determinan los objetivos de negocio: Antecedentes, objetivos estratégicos de impacto y criterios de éxito. Después revisamos la situación, inventariamos recursos, realizamos un análisis de costo-beneficio, determinamos objetivos y producimos un plan de proyecto.

En «Data Understanding» es donde recolectamos los datos iniciales, describimos cada uno de estos datos, exploramos y verificamos la calidad de la información.

En «Data preparation» seleccionamos la información más razonable, la limpiamos, construimos variables de ser necesario, integramos datos y finalmente formateamos. El entregable de esta etapa sería un dataset listo para trabajar.

Para la etapa de «Modeling», similar a los otros modelos, experimentamos con distintas técnicas, consideramos supuestos, hacemos pruebas, definimos parámetros y revisamos funcionalidad general de los modelos.

En «Evaluación» es donde considerando los criterios de éxito definidos consideramos como positiva y/o negativa la evaluación. Aqui mismo definimos los siguientes pasos y tomamos las decisiones necesarias.

Finalmente en «Deployment», esta etapa sólo se activa si el proyecto tuvo evaluación positiva. Se genera entonces un plan de desarrollo, un plan de mantenimiento, se genera un reporte final y presentación para socializar el caso de estudio.

Comparando métodos

Datlas_comparando_metodos_DS_

A manera personal pienso que el CRIPS-DM se lleva de calle los métodos de antes. Por algo es más usado el CRIPS-DM y principalmente porque mezcló la necesidad de entendimiento del negocio con la parte científica del desarrollo de análisis de datos.

*Si quieres aprender más de arquitectura y proyectos de datos revisa este blog (Data Lake Vs. Data Warehouse Vs. Data Mart) 

4 ¿Cómo lo trabajamos en Datlas?

Datlas_metodo_laboratoriodedatos

Nuestro método, titulado «Laboratorio de Datos», es similar a los modelos revisados con anterioridad. Tras un entendimiento central de negocio (En donde se ubica la imagen de nuestro mapa en el diagrama superior) entendemos las necesidades del negocio, dimensionamos el proyecto y seleccionamos los métodos experimentales. Ese entendimiento no necesariamente te tiene que llevar a la extracción de datos, ya que puede haber un avance previo. Sobre todo nosotros que trabajamos con datos de clientes, en muchas de las ocasiones llegamos a integrar o clasificar.

Datlas_Promo_Youtube_Suscribe

Asumiendo que sea un proyecto tradicional, iniciamos en la etapa de extracción donde dimensionamos y entendemos el tipo de variables con las que vamos a trabajar. En nuestro caso generamos un glosario de variables- Para la integración y clasificación buscamos ir preparando un ambiente de trabajo que nos permita geo-referenciar y mapear variables. Si estos 3 pasos iniciales cuentan con una evaluación positiva podemos pasar a la etapa de visualizar o reportar.  Cuyo objetivo principal es generar los principales recursos para socializar y pedir retroalimentación a los usuarios potenciales. Tras realizar los ajustes necesarios podremos llegar a entrenar un modelo con técnicas de inteligencia artificial.  Los pasos en el método son iterativos y se puede regresar a cualquier paso una vez que el entendimiento central del negocio se va enriqueciendo con cada etapa del proceso.

Para más detalle de este método puedes solicitar una conferencia o sesión de capacitación en direccion@datlas.mx

**También te puede interesar: ¿Cómo aprender ciencia de datos? 6 pasos

Datlas_quote2_Method

Hasta aqui la columna de hoy.  ¿Cuál es tu método y como darle libertad a la creatividad en el proceso? ¿Cuál seleccionarás para tu siguiente proyecto?  Comparte con tus colegas y comenta qué crees que podría mejorar los métodos de ciencia de datos.

Datlas_Promo_Podcast_Suscribe

Equipo Datlas MX

-Keep it weird-

Carta a Santa Claus Gov – 7 bases de datos deberían transparentar los gobiernos – (Call to action: BANXICO, INEGI, SHCP, Iniciativa Digital, SSPC…) – manuales datlas

Este Diciembre es época de dar y recibir buenos deseos. Si el «Buenfin» no te cumplió o no tenías tu «aguinaldo» en el momento es mejor iniciar a preparar esas cartas y buenos deseos de navidad. Nosotros en Datlas ya hicimos la nuestra y la queremos compartir contigo.  Como todos los años buscamos nuevas fuentes de datos y, junto con algunas comunidades de datos, somos vigilantes de la información que libera el gobierno. En esta columna compartimos:

7 bases de datos que deberían transparentar los gobiernos como regalo de navidad para «dateros»

Es importante establecer de antecedente que esta carta de deseos tiene sesgo para México, sus gobiernos Estatales y Municipales.

También puedes leer nuestro blog: ¿Qué pasa si un gobierno no libera datos?

Datlas_barra_suscribir

 

1) Datos de inseguridad geo referenciados

En México, hay regiones del país que son muy propensos a riesgos de homicidios, secuestros, entre otros. Liberar estos datos es arriesgado por temas de investigaciones o podrían dar nuevas ideas a gente que planea este tipo de actos. Pero por otro lado hay otros eventos menores como robos, asaltos y/o atracos que pudieran ser socializados con mayor resolución.

Si tuviéramos datos de inseguridad podríamos tener mapas de delito que nos den lectura de qué zonas son más peligrosas para caminar o andar a cierta hora. La gente local «ya lo sabe» , pero imaginate la utilidad que le pudiera dar a turistas o a negocios que quieren decidir una nueva ubicación.

¿Cómo hacerlo rentable? Intercambiar o vender estos datos con UBER, DIDI, CABIFY, GOOGLE MAPS, WAZE, etc. para que ajusten sus algoritmos evitando así que conductores pasen por zonas de peligro o ajustando sus tarifas con la variable de riesgo de inseguridad.

BONUS: Existen muy buenos generadores de datos de inseguridad. De hecho hemos publicado los datos de elcri.men en nuestro blog de datos de inseguridad.  Pero si tuviéramos más datos y a mayor detalle podríamos generar cosas increíbles.

Inseguridad_Datlas_TOp

2) Datos de tránsito y choques de autos geo referenciados

Al menos en México, el protocolo de un choque de autos es esperar que un oficial de tránsito llegue al lugar de los hechos para que pueda apoyar a definir un culpable. Otros rituales de los tránsitos es realizar «antialcoholicas» o «retenes» los fines de semana, multas por exceso de velocidad, entre otros.

Por otro lado he de reconocer que al menos en el municipio donde trabajo hay tránsitos muy amables que hasta servicio de auxilio ofrecen. Cuando hay que cambiar una llanta o caímos en un bache nos apoyan para resolverlo. En cualquiera de los casos los datos que generan en estas interacciones podrían ser valiosos para otros conductores y/o para aseguradoras.

¿Qué necesitamos? Datos de incidentes de tránsito (positivos o negativos) con su coordenada. Esto nos permitiría tener estadísticas más puntuales y ser más objetivos en la implementación. Aqui un ejemplo que estuvimos trabajando.

ezgif.com-video-to-gif

3) Datos de nuevas aperturas y cierres de negocio con coordenadas

Entender la dinámica de apertura de nuevos negocios nos da un termómetro implícito de cómo está la economía. Y en la búsqueda de nuevos indicadores económicos que puedan complementar al PIB para dar una imagen más realista de la situación en un país una base de datos como esta sería de mucha utilidad.

La mayoría de las veces los negocios tienen que pedir permisos para vender alcohol, prestar cierto tipo de servicio, altas en Hacienda, entre otros. Todos estos registros viven en silos aislados.

¿Cómo podría funcionar? Bases de datos unificadas con la información de nuevos negocios que pudieran habilitar auditorias más inmediatas de bancos para créditos, generar un mejor contexto al gobierno de las zonas donde más se está impulsando la economía y tomar acciones donde más negocios corren peligro.

Datlas_Imagen_Correo1

 

4) Información de nuevos desarrollos urbanos

Similar al punto anterior. La construcción es una de las brújulas más importantes de la economía de un país. Es motor económico y generador de empleo, sobre todo cuando se dedica a construcciones de aeropuertos, plazas comerciales u otros aparatos que van a multiplicar el valor económico.

Sobre todo en proyectos públicos, debería haber más transparencia en las oportunidades específicas que va a generar un nuevo proyecto. Este potencial, contextualizado, puede motivar la participación de más inversionistas en nuevos desarrollos generando así un círculo virtuoso.

¿Cómo arrancar? Podríamos tener mapas con todos los desarrollos de un Estado, la etapa en la que se encuentran y descripción del proyecto. También lineas de contacto para que proveedores puedan ofrecer sus servicios y al mismo tiempo un estimado de impacto en el avalúo que estará generando la zona.

Datlas_Error_Maps

5) Datos de calidad del aire con mayor resolución

En este punto ya hay avances, pero no por iniciativa del Gobierno, sino por comunidades y empresas que hacen esfuerzos independientes. De hecho no hay un estándar de medición que esté alineado a lo que recomiendan las organizaciones internacionales.

Necesitamos más infraestructura que de visibilidad de la situación del aire. Un medidor por municipio no es suficiente, hay que ampliar e incentivar a empresas y dueños de edificios a que promuevan estas medidas para ayudarnos a todos como sociedad.

¿Qué debemos continuar haciendo? Implementando más infraestructura de información abierta para que desarrolladores implementen nuevas ideas y propuestas de soluciones.

BONUS: Al menos en Nuevo León, tenemos ya algunos intentos. Y es bueno saber que empresas están impulsando iniciativas de estudiantes y emprendedores como Heineken con su árbol de algas purificador de aire.

Datlas_monitor_aire_calidad

6) Más métricas para calificar escuelas según los resultados de sus alumnos

En México hay un rezago educativo y no se va a curar mañana, ni el próximo año. Tomará más tiempo y es justo decir que siendo la educación uno de los pilares más importantes de desarrollo de un país debería ser una de las áreas que se maneje con más cálculo.

Necesitamos más claridad sobre la calidad que ofrece cada institución, su profesorado, alumnado, ubicación y entorno. Esto nos ayudaría a identificar oportunidades inmediatas para fortalecer, atender y/o dejar de hacer en términos educativos.

Datlas_calidad_Escuela

7) El «nice to have» –  Datos de transacciones de TPV y fraudes en línea desagregados

Aunque el IoT (internet of things) suena como una novedad, desde hace más de 10 años los países tienen un sensor económico que no se ha capitalizado al máximo, nos referimos a las TPV (terminales punto de venta). Osea donde pasas tu tarjeta de crédito o débito cuando pagas.

Cada transacción concreta termina en una base de datos. De la misma forma las transacciones en línea están dejando un rastro que puede dar más visibilidad de cómo le está yendo a ciertas zonas en el sentido de negocios.

Podríamos comenzar a desarrollar soluciones como las de Barcelona con su mapa de calor de retail que ayuda a nuevos negocios a identificar zonas de alto potencial.

Datlas_mastercard

Hasta aquí la columna de hoy, ahora la pregunta es ¿Qué opinas? ¿Cuál otra base de datos podría ser una buen aportación y sobre todo ¿Cómo la usarías para el beneficio de la sociedad?

Deja tus comentarios y comparte. Feliz Diciembre.

Equipo Datlas

-Keep it weird-

¿Cómo aprender Ciencia de datos? 6 lecciones prácticas tras años de intentos – MANUALES DATLAS

Durante los últimos años hemos encontrado una explosión de fuentes de aprendizaje en lo relacionado a temas de ciencia de datos. Estos van desde técnicas de autoestudio, ser sombra de científicos, lecturas especializadas, cursos presenciales, cursos en línea, etc.

De todos estos medios compartiremos en esta columna 6 reflexiones importantes que te serán de utilidad si piensas aprender o estás aprendiendo técnicas de ciencia de datos.

Datlas_Blog_Promo_SuscriberFree

También puedes leer.

Datlas_Learned_youngone

1) El objetivo de aprender lo tiene el estudiante. Dejamos claro que el maestro no tiene obligación de que aprendas, más bien el estudiante es quien tiene como meta aprender

  • Establecer metas claras en una línea de tiempo: Ser principiante en al menos un lenguaje de programación en menos de 6 meses
  • Cualquier maestro que encuentres (amigos, maestros formales, libros, cursos en línea, etc.) Puede que sea una figura con alto «expertise», pero es tu trabajo sacarle el mayor provecho

Datlas_datascience_everywhere

2) Se les aconseja a los estudiantes rodearse de todo lo que huela, se vea y se sienta como «Data Science»

  • Entrar a comunidades locales de Datos. Desde grupos de Facebook, los eventos , conferencias más enfocados al tema que tengas cerca, colegas de aprendizaje y finalmente cambia tu lectura a libros de estos temas
  • También busca aportar a la comunidad de regreso lo más pronto posible

Datlas_dominios

3) Apalanca tu aprendizaje iniciando con un campo de dominio donde tengas experiencia laboral

  • Usa tu experiencia laboral, específicamente los datos a los que has estado expuest@ con más frecuencia para que sea un menor reto descifrar la información que vas a analizar
  • También es recomendable mapear 2 ó 3 sectores nuevos de los que quieres aprender y enfocar tus estudios a esas áreas específicas de datos

Datlas_failfast_learnfaster

4) Vas a cometer errores, así que haz que sean rápidos. Recuerda que se aprende más de tus propios errores y no los de los demás

  • Ponte aprueba buscando bases de datos por tu cuenta y generando análisis sin ningún tipo de guía más que tú propia ideación. Sólo ten en cuenta la utilidad de los casos de estudio que estés revisando
  • Ponte en los zapatos del usuario final o de un cliente que quisiera usar esos datos como ventaja para su negocio. Haz el recorrido completo de un analista de datos para transformar datos en accionables

Datlas_nerdreading

Datlas_Promo_Facebook_Suscribe

5) Aprende a leer documentación técnica y a encontrar información

  • Ciencia de datos tiene como fundamentos la estadística y programación, sin embargo estos son solo los primeros pasos ya que durante el camino habrá que leer mucho para aprender de librerías y métodos que necesitemos aplicar a nuestros análisis
  • Consulta cuáles son las paqueterías o librerías más utilizadas en el lenguaje de programación que estás aprendiendo. Personalmente recomiendo seguir en twitter a otros científicos de datos que publiquen algunos de sus análisis

Datlas_motivation

6) Sé paciente, positivo y busca fuentes de motivación, las necesitarás

  • Ten paciencia, no te frustres. Un buen aprendizaje toma tiempo, a veces avanzamos demasiado rápido y porque tenemos que refrescar la estadística nos frenamos un poco. O bien nos entretenemos mucho en descubrir cómo funciona un nuevo algoritmo cuando con una regresión básica hubieramos solucionado el reto. Hay que ir midiendo qué métodos de aprendizaje nos funcionan mejor
  • También recomiendo seguir en linkedin a personalidades que ya sean científicos de datos de grandes empresas que constantemente publican consejos y guías de aprendizaje para mantenerse más motivado

Datlas_Promo_Podcast_Suscribe

Hasta aqui la columna de hoy, recuerda que en este blog contamos con distintos casos de investigación que pueden animarte a investigar. También concluimos con un vínculo a nuestras publicaciones que hemos hecho en conferencias de datos. Esperemos que haya muchos entusiastas de los datos, coméntanos en nuestra redes en Facebook , Twitter e Instagram.

Equipo Datlas