Archivo de la etiqueta: Ciencia de datos

ciencia de datos a la mexicana, próximo lanzamiento de playbook en 2020 – datlas MANUALES

La ciencia datos en el 2020 no debería ser “ciencia de cohetes” (rocket science) o no se le debería de ver como una caja negra. Está comprobado que “Lo que no se mide no se puede mejorar” y ahora, actualizando esta frase, “Lo que no se mide, no se analiza matemáticamente y no se socializa no se puede mejorar”. Absolutamente de esto se trata la ciencia de datos aplicada para convertir esos datos en historias (insights) y esas historias en accionables.

Uno de nuestros motivadores con Datlas ha sido desarrollar contenido para incrementar el entusiasmo y la aplicación por la ciencia de datos. Este año lo hemos hecho logrando más de 65 mil hits en nuestro blog, más de 4,000 escuchas en nuestra primera temporada del podcast “Café de Datos”, patrocinando el hackathon estudiantil más grande de México y dando más de 30 conferencias y webinars a empresas y estudiantes del ecosistema de transformación digital.

compartir experiencias e incrementar en conjunto el uso de plataformas de big data, analítica e inteligencia artificial.

**También te puede interesar nuestros Data Playbook Volumen I y II desde nuestro marketplace. Da click aqui para obtenerlo GRATIS.

Ahora te presentamos nuestro Data Playbook Volumen III”, nuestra tercera edición del compilado de nuestros aprendizajes como startup en crecimiento. En este contenido encontrarás definiciones de conceptos, metodologías y, lo más importante, aplicaciones de ciencia de datos. Contamos con lujo de detalle desde la construcción y desarrollo de modelos de respuesta inmediata, estrategias para el sector turismo, plataformas de inteligencia para “Dark Kitchens” hasta estrategias de analítica para aseguradoras. Finalmente sensibilizamos y ampliamos la conversación de nuestro podcast sobre privacidad e inteligencia de ubicación (“Location Intelligence”).

Solicita aqui para ser parte del lanzamiento este 15 de septiembre

En concreto compartiremos muchos de los métodos y aplicaciones prácticas que hemos desarrollado en el último año para negocios y gobiernos. Este tipo de lecturas le servirá a personas que están interesadas en aprender más de ciencia de datos asi como quienes ya están aplicando casos en organizaciones. Lo importante es conocer qué alcances existen, cómo prepararse y cómo acompañarse de startups o empresas aliadas que ayuden a las organizaciones a llegar ahí más rápido.

Hasta aqui la columna de hoy, estamos muy entusiasmados por este lanzamiento que llevamos en el equipo más de un mes preparando. Las y los invitamos a suscribirse en el bloque superior para recibirlo GRATIS.

Equipo Datlas

-Keep it weird-

Ciencia de datos para todos : ¿Cómo ha cambiado la movilidad de los usuarios de Twitter en Monterrey por el covid-19?

“Twitter es lo qué está pasando en el mundo y sobre lo que las personas están hablando en este momento.”

Las redes sociales son relativamente nuevas y han cobrado importancia en nuestra vida cotidiana al grado que no nos sentimos cómodos si vamos a un restaurante y no publicamos en Instagram lo que ordenamos para que nuestros amigos se enteren donde estuvimos y que hacíamos ahí o por ejemplo cuando por la mañana nos levantamos a hacer ejercicio y es imposible no publicar nuestra foto en lo más alto de la montaña.

Es por eso que el análisis de las interacciones en las redes sociales ha cobrado la misma importancia, para muchos negocios, que las redes sociales en nuestras vidas. Por ejemplo, para saber de qué se está hablando de nuestra marca, si es algo positivo o negativo y cuantificarlo. Estos enfoques son muy bien conocidos en el área de análisis de textos.

Sin embargo, el día de hoy nuestro enfoque tomara otro rumbo. Responderemos a dos preguntas fundamentales: ¿Cómo ha sido el comportamiento de los usuarios en los últimos meses?  Y ¿Cómo ha cambiado por el covid-19?  

*También te puede interesar un estudio similar para Jalisco o CDMX

Desarrollo

Con una base de datos de alrededor 7200 check-in’s (el registro de una persona en cierto lugar), más de 15 variables (fecha y hora, lugar donde se hizo el registro, municipio de residencia, usuario, ubicación exacta, entre otras) y algo de trabajo se pueden generar diversos insigths de valor.

Pero antes de llegar a esos insigths de valor hay camino por recorrer. La primera pregunta en cuestión es: ¿Cómo conseguir este tipo de información en un sitio web tan protegida como lo es Twitter?

No hay forma de conseguir esta información si no es mediante la API (Application Programming Interface) de Twitter. La API cumple la función de una interfaz para que dos softwares interactúen y puedan intercambiar información. Para tu poder hacer un request desde tu computadora (Con programas como Python y R) y acceder a este tipo de información debes llenar una solicitud, una vez aprobada la solicitud Twitter te hará llegar las API keys, el identificador que te autentica como usuario de las API. Para más información clic aquí.

 

Una vez obtenido la información sigue la fase de trabajar los datos para posteriormente pasar a la fase de análisis. Nos referimos a la fase de homologar ciertas variables o categorizar observaciones en función de valores que toman algunas variables, en nuestro caso categorizamos los lugares a donde las personas han asistido los últimos meses. Otro ejemplo de esta fase es poner las fechas en un mismo formato (año/mes/día o día/mes/año) para no tener problemas al momento de visualizar los datos en una línea de tiempo.

Datlas_Promo_Facebook_Suscribe

 

Ahora si el plato fuerte, el análisis. Aquí empezamos viendo la estructura y distribución de cada una de nuestras variables, y modificar en caso de que algo este fuera de lugar, por ejemplo, las variables categóricas cambiarlas a factores si están como texto. Una gran parte del análisis es el momento de crear visualizaciones, esta es la parte creativa del analista porque ahora si que los límites para crear visualizaciones son muy extensos, claro, siempre con el cuidado de generar buenas visualizaciones no únicamente en el sentido de que se vean bonitas sino que también transmitan un mensaje claro y único. Otra gran parte del análisis es crear modelos estadísticos que expliquen a una variable (variable dependiente “y”) en función de otras variables (variables independientes “x”) y/o ayuden a predecir el comportamiento de la variable en el futuro.

Finalmente, llegamos a la etapa de conclusión y exposición de resultados, básicamente es ver el contraste entre la hipótesis que te hayas planteado o la pregunta que quieres responder y lo que los datos te dicen para después plasmarlo en una presentación o un texto.

Todas estas etapas aunque se escuchen muy “básicas” realmente las llevamos a cabo en nuestro análisis y es por eso que nos pareció importante no sólo exponer los resultados sino todo el desarrollo para que el lector que no este tan familiarizado en este ámbito pueda tener una mejor comprensión y no solo eso sino que se lleve un verdadero aprendizaje .

¿Qué encontramos?

Antes de empezar con las visualizaciones es importante mencionar que las primeras medidas preventivas en Nuevo León tomaron lugar el 17 de marzo del 2020, el día que cancelaron actividades escolares a nivel bachillerato y superior, y posteriormente el día 20 del mismo mes en los niveles básicos (primaria y secundaria).

La primera incógnita que nos gustaría responder es : ¿En qué magnitud o proporción ha disminuido el tráfico de check-ins en Twitter una vez iniciadas las medidas preventivas covid-19?

Esta gráfica ordena los días de la semana por mes, cada color es una etapa diferente: diciembre-2019 (azul) , antes de prevención covid (verde) y una vez iniciada la etapa de prevención covid (rojo).
Esta gráfica ordena los días de la semana y nos ayuda a visualizar la proporción de check-ins realizados en cada etapa.

 

 

Para poder crear estas visualizaciones tuvimos que categorizar nuestros datos en tres grupos (diciembre-2019, Antes de prevención covid y Después de prevención covid). En las dos gráficas se aprecia una caída significativa en los check-ins registrados una vez iniciadas las prevenciones covid. Se podría argumentar que esto se debe a la naturaleza de los meses abril, mayo y junio, sin embargo, llama mucho la atención que la primera mitad de marzo tenga mucha actividad y la segunda mitad se vea estancada. Hablando más puntualmente los chek-ins tuvieron una disminución del 75%.

Datlas_Promo_Podcast_Suscribe

 

Otra visualización que hicimos fue una especie de heatmap que nos permitiera ver por mes cuales fueron los municipios del área metropolitana con mayor actividad y en este sentido ver que municipios menos siguieron las recomendaciones de los expertos.

Heatmap de actividad por municipio y mes. No se estandarizo para numero de check-ins por habitante.

Ahora, pasaremos a contestar la pregunta ¿Cómo ha cambiado el comportamiento de los check-ins durante el covid? Para responder esta pregunta hicimos un cluster de 17 grupos y visualizamos la proporción de check-ins para cada grupo. Algunos de los grupos son: comida (restaurantes), entretenimiento (cines, boliches, parques, etc), Salud (hospitales, clínicas y gimnasios), Autoservicio (tiendas de autoservicio como H-E-B y Walmart), residencial (zonas residenciales), etc.

Proporción y orden de los grupos en las diferentes etapas de la contingencia. Comparativa de tipo de lugar donde la gente hace check-ins por etapa.

Podemos observar que en las primeras dos gráficas el orden y proporción de los grupos son muy parecidos y esto cambia considerablemente para la tercera. Dos grupos que han cobraron mucha importancia durante el tiempo de la pandemia son autoservicio y residencial, por otra parte, los grupos de entretenimiento, vida nocturna y aeropuerto pasaron de ser primeros a últimos. Considerar todos los ángulos a la hora de hacer un análisis es muy importante porque si no nos detuviéramos a ver a donde realmente la gente ha acudido y solo hubiéramos analizado las primeras tres gráficas probablemente nos quedaríamos con una mala impresión de los municipios de Monterrey y San Nicolás que han sido los municipios con mayor actividad y precisamente con esta gráfica podemos ver que mucha de esa actividad es desde sus casas.

Datlas_Promo_Youtube_Suscribe

Por último ¿qué podemos decir de estos resultados? Tenemos información suficiente para decir que la pandemia ha cambiado la manera en la que las personas hacen check-ins en magnitud y forma. En su mayoría la gente se está quedando en casa y está asistiendo primordialmente a lugares de primera necesidad como tiendas de autoservicio donde surten la despensa y restaurantes, no obstante, se sigue asistiendo a lugares que probablemente no se consideren de primera necesidad como ir al aeropuerto para ir a vacacionar y asistir a hoteles, donde, probablemente hoy sean los lugares con mayor riesgo de contagio y es por eso que invitamos a todos nuestros lectores a seguir las indicaciones de los expertos y no salir de casa a menos que sea necesario.

Esta columna fue desarrollada por Alejandro Rodalgo,  participante del programa de “intern” de Datlas en investigación. 

Saludos

Equipo Datlas

Diseño de perfiles y áreas de analítica para organizaciones – Datlas Research

Con el equipo Datlas al año tenemos la oportunidad e participar en algunos foros donde se repite mucho preguntas sobre qué perfiles y cómo preparase para generar una estrategia de datos. En realidad, tal y como lo pudiste leer en ¿Por qué fracasan los proyectos de ciencia de datos? las personas y la forma en que diseñamos el quehacer de sus funciones en una organización son principal factor de éxito para una estrategia de analítica de datos.

En esta columna resolveremos dudas y compartiremos mejores prácticas sobre procesos de diseño, entrevista y reclutamiento de profesionales de analítica de datos e inteligencia artificial en una organización. Todo esto siguiente la guía de puestos presentada en 5 perfiles para una estrategia de datos en tu organización .Que te recomendamos leer antes para que puedas tener un mejor contexto.

Datlas_barra_suscribir

ESTRUCTURA ORGANIZACIONAL

El pase de diapositivas requiere JavaScript.

Una estructura de reportes, de jerarquía o de organización para proyectos es muy variante ya que responde a los retos estratégicos de la organización. Específicamente para los datos no hay que olvidar que buscamos que en un mismo equipo se encuentren ingenieros, arquitectos, científicos y analistas al mismo nivel. Esto último debido a que la colaboración y la comunicación debe ser colaborativa. Uno de los métodos que con más frecuencia se usa en la industria son las células de trabajo. Estos son grupos pequeños, pero eficientes, de trabajo que cuentan con todos los recursos para resolver un problema de analítica avanzada.

DISEÑO DE PERFILES

El pase de diapositivas requiere JavaScript.

Las personas que trabajen en el área de analítica necesitan tener ciertas características:

  • Aprendizaje constante. La actualización de modelos de análisis y algoritmos es casi semanal. De la misma manera las nuevas paqueterías sobre machine learning en software como R o Python. Los perfiles tendrán que ser personas que puedan descifrar textos académicos y documentación en guías de programación sobre los modelos más recientes.
  • Curiosidad técnica. Frente a nuevos retos habrá que mostrar curiosidad y no miedo ante nuevas herramientas. Se buscan perfiles “políglotas” que puedan trabajar en distintos lenguajes de programación, estadística de todo tipo y comunicar sus resultados desde un “Power Point” hasta un tablero dashboard en “Power BI”. No tenerle miedo a experimentar e investigar nuevas plataformas.
  • Didáctica para explicar hallazgos.  Quien es analista de datos puede ser un experto/a en matemáticas, pero mientras no sepa explicar lo que hace no podrá influir en las decisiones y orientaciones de la organización. Es importante que el arte de explicar las variables relevantes en un modelo esté presente.
  • Interlocutor con el área de negocios. “Data Translator” o similar, es una capacidad que permite llevar los retos de negocios a problemas estadísticos que puedan ser respondidos con las técnicas correctas de analítica avanzada.
  • Gestión de proyectos. Aunque probablemente una posición gerencial o de dirección será quien gestione proyectos. Es importante que el perfil se pueda alinear a las dinámicas de registro, seguimiento y coordinación de trabajo para desarrollar proyectos. Ser un profesional con noción de urgencia así como mostrar compromisos con fechas de entrega.

PROCESO DE RECLUTAMIENTO

El pase de diapositivas requiere JavaScript.

A los científicos de datos les gusta responder a retos y en el mercado laboral de ciencia de datos la entrada a un puesto suele venir acompañada de un buen reto de programación. Un buen postulante deberá poder resolver un reto en materia, ofrecer una visualización y poder comunicar de manera eficiente los resultados de un caso de negocio.

1) Definir estrategia de analítica avanzada y dimensionar las áreas funcionales que ejecutarán la estrategia

2) Recopilar retos actuales y retos futuros para diseñar puestos que respondan a estas necesidades

3) Generar dinámicas para atraer talento: hackathones, retos en línea, revisión de github o portafolio, acertijos o casos de negocio que puedan poner a prueba a los postulantes

4) Considerar entrevistas de “match cultural” así como habilidades de comunicación y liderazgo

5) Período de entrada y “química” con el equipo existente. Retroalimentar y readaptar el proceso a la experiencia de la empresa en particular.

Datlas_barra_suscribir

LA ENTREVISTA

El pase de diapositivas requiere JavaScript.

Aquí es donde en realidad sucede la magia y se filtra a la mayor calidad de los candidatos. Es muy importante que alguien con conocimiento de industria y que entienda las necesidades de la empresa sea quién realice las entrevistas para obtener el puesto.

Primeramente una recomendación importante es enviar una prueba o reto de la que pueda enviar resultados preliminares por correo y explicar a fondo en la entrevista. En una ocasión, a manera personal, me tocó en NYC recibir desde el app de UBER algunas preguntas de código mientras hacía un viaje. Las contesté correctamente y me invitaban a enviar mi CV para su empresa. Ese tipo de dinámicas se ven “cool” , son modernas y además.

Durante la entrevista es relevante validar con casos o situaciones que se le pueden presentar en el trabajo y conocer muy bien cómo pudiera reaccionar esa persona a las situaciones. Estas simulaciones, sobre todo en problemas que involucran estadística, ayudarán a validar su nivel de conocimiento teórico. Finalmente el práctico es mayormente dominado durante el desempeño del rol

Finalmente asegurarse, como en cualquier puesto, que la persona cumpla con el perfil y que pueda generar proyectos internos para motivar a otras personas a usar las herramientas que sean desarrolladas por el área de analítica es muy importante.

CIERRE

Hasta aquí la columna de hoy. Pensamos que esta y otras guías podrán ser de utilidad a los reclutamientos de uno de los roles con más atención de los últimos 5 años. Probablemente los siguientes 5 años se especialicen aún  más. Esperamos que le sirva de orientación y que puedas compartir con más personas para que haya una mejor guía de qué observar para incrementar la calidad del área de analítica de datos.

Saludos

Equipo Datlas

– Keep it weird –

 

¿Por qué pueden fracasar los proyectos de Ciencia de datos?

Según estadísticas de Kaggle, entre el 70 y 85% de los proyectos de ciencia de datos fallan en alguna rubrica a la hora de ser implementados. En esta columna dedicaremos un espacio para analizar sobre las principales razones de fracaso en proyectos de analíticas. Esto lo haremos utilizando una encuesta a más de 16,000 participantes de la industria de “data science”.

Como preámbulo, es justo entender en esta lectura porqué estos proyectos nacen de manera inherente con problemas de dimensionamientos en tiempo, recursos y esfuerzos.  Como cualquier iniciativa de tecnologías, los proyectos de información son complejos. Entre más grande la organización más difícil se vuelve integrar una visión estratégica a problemas de datos. Aún en compañías pequeñas y medianas nos vamos a enfrentar al retador mundo de la estadística y cómo usar técnicas matemáticas adecuadas para sacarle valor a los datos de mi negocio. Esto sin mencionar que en cualquiera de los casos hay que hacer una venta interna sobre lo que probablemente será una “caja negra” . Todo esto se traduce en resistencias internas en la organización, plantear proyectos sobre fundamentos que no se conocen al 100% , entre otros.

También puedes leer: “No se aprende “Big Data” en un curso de 2 horas, pero tampoco requieres un doctorado” .

Datlas_Blog_Promo_SuscriberFree

Con este importante contexto , vamos a tener la óptica de que en proyectos de analítica de datos es muy probable que nos enfrentes a algunos de estos obstáculos (mencionados como respuestas de la encuesta).

El pase de diapositivas requiere JavaScript.

Problemas de Colaboración-Organización

En una compañía , este tipo de proyectos involucra a 3 áreas: negocios, TI y analítica (si existe el área, en su defecto sería TI o similar). Las encuestas muestran que existe principalmente faltas de comunicación.  Esto principalmente viene de que cada área tiene sus especialistas, a los que les gusta hablar su propio lenguaje. También que no necesariamente se le informa al negocio la manera en que se está resolviendo el problema.

Datos

En general las compañías y organizaciones tienen datos gracias a los sistemas que han implementado durante la última década. El problema es que esta información no está lista para consumir. Al menos el 30% de los que respondieron la encuesta identificaron la falta de datos como un reto. Lo más común es que el proyecto se estime sin considerar los tiempos reservados a la limpieza e integración de datos con los que se va a trabajar.

Talento

Los especialistas en datos están muy demandados y dentro de las organizaciones han optado por capacitar a su personal interno para resolver estos retos de analítica. Sin embargo, esto ha traído consigo falta de método y de respuestas precisas a los retos de negocio. En la encuesta mencionan el 42% de los retos son asignados a la obtención de talento. También puedes leer “5 perfiles para una estrategia de datos en tu organización”.  La necesidad de desarrollar  e incorporar equipos con experiencia en el área de analítica que puedan planear proyectos con mayor probabilidad de éxito cuidando los temas de fracaso común como los mencionados en la encuesta.

Datlas_Promo_Facebook_Suscribe

Herramientas y Presupuesto

Resolver nuevos retos de big data algunas veces requiere de nueva infraestructura.  Entre mayor sea la cantidad de datos y las áreas de la compañía a atender se van a requerir herramientas más sofisticadas y presupuestos.  Algunas de ellas las mencionamos en nuestro “Data Playbook”. Pero como aclaramos en la charla del INCMTY 2019,  las tecnología es relevante pero no es lo más importante. El presupuesto primeramente debe ir dirigido a la cultura y personas que estarán revisando los temas, más que a la tecnología. Al final las personas indicadas harán el mejor uso de los recursos que se le asignen a los proyectos.

3_Datlas_Piramide_Porquefracasan_proyectosdeDatos

Cierre

Termina la columna de hoy con la recomendación que la “planeación de escenarios” nos puede ser de utilidad en proyectos de big data. Esto significa que si ya sabemos las posibilidades de enfrentarnos a estos retos deberíamos de prepararnos dando por hecho que estos obstáculos que hemos nombrado aparecerán en el curso del proyecto. Siendo así podríamos generar nuestro propio “checklist” para verificar que contamos con todo lo necesario para echar a andar alguna iniciativa de datos y sobre todo los compromisos de negocio que vienen acompañados de las mismas.

Datlas_Promo_Podcast_Suscribe

Esperamos te haya gustado la columna y comparte tus comentarios así como precauciones que tomas en proyectos de datos. Te invitamos además a participar en nuestra lista de prelanzamiento para el “Data Playbook Vol II”.

Equipo Datlas

Keep it weird

¿Cómo aprender Ciencia de datos? 6 lecciones prácticas tras años de intentos – Datlas TIPS –

Durante los últimos años hemos encontrado una explosión de fuentes de aprendizaje en lo relacionado a temas de ciencia de datos. Estos van desde técnicas de autoestudio, ser sombra de científicos, lecturas especializadas, cursos presenciales, cursos en línea, etc.

De todos estos medios compartiremos en esta columna 6 reflexiones importantes que te serán de utilidad si piensas aprender o estás aprendiendo técnicas de ciencia de datos.

Datlas_Blog_Promo_SuscriberFree

También puedes leer.

Datlas_Learned_youngone

1) El objetivo de aprender lo tiene el estudiante. Dejamos claro que el maestro no tiene obligación de que aprendas, más bien el estudiante es quien tiene como meta aprender

  • Establecer metas claras en una línea de tiempo: Ser principiante en al menos un lenguaje de programación en menos de 6 meses
  • Cualquier maestro que encuentres (amigos, maestros formales, libros, cursos en línea, etc.) Puede que sea una figura con alto “expertise”, pero es tu trabajo sacarle el mayor provecho

Datlas_datascience_everywhere

2) Se les aconseja a los estudiantes rodearse de todo lo que huela, se vea y se sienta como “Data Science”

  • Entrar a comunidades locales de Datos. Desde grupos de Facebook, los eventos , conferencias más enfocados al tema que tengas cerca, colegas de aprendizaje y finalmente cambia tu lectura a libros de estos temas
  • También busca aportar a la comunidad de regreso lo más pronto posible

Datlas_dominios

3) Apalanca tu aprendizaje iniciando con un campo de dominio donde tengas experiencia laboral

  • Usa tu experiencia laboral, específicamente los datos a los que has estado expuest@ con más frecuencia para que sea un menor reto descifrar la información que vas a analizar
  • También es recomendable mapear 2 ó 3 sectores nuevos de los que quieres aprender y enfocar tus estudios a esas áreas específicas de datos

Datlas_failfast_learnfaster

4) Vas a cometer errores, así que haz que sean rápidos. Recuerda que se aprende más de tus propios errores y no los de los demás

  • Ponte aprueba buscando bases de datos por tu cuenta y generando análisis sin ningún tipo de guía más que tú propia ideación. Sólo ten en cuenta la utilidad de los casos de estudio que estés revisando
  • Ponte en los zapatos del usuario final o de un cliente que quisiera usar esos datos como ventaja para su negocio. Haz el recorrido completo de un analista de datos para transformar datos en accionables

Datlas_nerdreading

Datlas_Promo_Facebook_Suscribe

5) Aprende a leer documentación técnica y a encontrar información

  • Ciencia de datos tiene como fundamentos la estadística y programación, sin embargo estos son solo los primeros pasos ya que durante el camino habrá que leer mucho para aprender de librerías y métodos que necesitemos aplicar a nuestros análisis
  • Consulta cuáles son las paqueterías o librerías más utilizadas en el lenguaje de programación que estás aprendiendo. Personalmente recomiendo seguir en twitter a otros científicos de datos que publiquen algunos de sus análisis

Datlas_motivation

6) Sé paciente, positivo y busca fuentes de motivación, las necesitarás

  • Ten paciencia, no te frustres. Un buen aprendizaje toma tiempo, a veces avanzamos demasiado rápido y porque tenemos que refrescar la estadística nos frenamos un poco. O bien nos entretenemos mucho en descubrir cómo funciona un nuevo algoritmo cuando con una regresión básica hubieramos solucionado el reto. Hay que ir midiendo qué métodos de aprendizaje nos funcionan mejor
  • También recomiendo seguir en linkedin a personalidades que ya sean científicos de datos de grandes empresas que constantemente publican consejos y guías de aprendizaje para mantenerse más motivado

Datlas_barra_suscribir

Hasta aqui la columna de hoy, recuerda que en este blog contamos con distintos casos de investigación que pueden animarte a investigar. También concluimos con un vínculo a nuestras publicaciones que hemos hecho en conferencias de datos. Esperemos que haya muchos entusiastas de los datos, coméntanos en nuestra redes en Facebook , Twitter e Instagram.

Equipo Datlas

Excel simple para Analytics de Salud – Datlas Tips

¿Qué tal? la semana pasada estuvimos en la Business Week de la Universidad de Monterrey. Les ofrecimos un taller de parte del equipo de analytics de Datlas en relación a temas de la Salud en México ( al final del blog viene el link a la presentación).

free_Suscriber.png

Ya hemos hablado de estos temas en el blog, pero quisimos dejar más consejos para aplicar el conocimiento de análisis a temas que podrían mejorar políticas en el país. Sobretodo ofrecerles sencillos métodos para explotar fuentes de datos públicos y e idear nuevas propuestas. En esta columna les contamos todo desde algunos TIPS y consejos: de EXCEL, bases de DATOS de salud y algunas metodologías que ofrecimos en el taller.

BSF_2017.png

Excel es una maravilla si sabemos usarla, sino puede ser un dolor de cabeza.

A grandes rasgos, MS Excel que viene en casi un 98% de las computadoras de hoy en día, es un software donde podemos leer información en tablas para su análisis de formatos .xls y .xlsx . Sin duda muchísima gente lo usa hoy para:

  • Manejar presupuestos o contabilidad familiar/profesional
  • Resolver problemas matemáticos
  • Graficar datos a traves del tiempo
  • Almacenar mucha información para explotar con tablas dinámicas (estadística básica de conteos, suma, entre otros)

Lo más importante es que conociendo el software de manera muy básica uno puede llegar a una “analítica avanzada” si tiene claro una pregunta y sabe cómo utilizar las fórmulas correctas. Para analytics de Salud, donde tenemos datos de tipo corte transversal (una foto en un momento del tiempo), usualmente tenemos mejor comprensión de los datos con las siguientes fórmulas:

  • Contar; Sumar; Restar
  • Buscarv (para cruces de información)
  • Si (condicionantes)
  • Cuartiles, máximos, mínimos, media, mediana, entre otras
  • Entenderle a los filtros de las tablas tradicionales de excel

Por otro lado, para series de tiempo (varias fotos a lo largo del tiempo), recomendamos otras fórmulas o métodos:

  • Contar.Si; Sumar.Si; restar.si
  • Buscarv en combinación con condicionantes de si
  • Generar una tabla dinámica y hacer conteos por mes, semana o hasta día si se cuenta con los datos

Ya dejando atrás la teoría de Excel y para arrancar con los analytics de salud en México tenemos que comenzar conociendo las bases de datos. Para el taller propusimos 3 bases que puedes encontrar en: (http://bit.do/BD_Datlas)

 

El pase de diapositivas requiere JavaScript.

Después de abrir y validar que el contenido de las bases de datos sea el que se describen en las imágenes pasadas no queda nada más que ponernos creativos y comenzar a analizar.

En nuestro caso nos pusimos a analizar la información del SINAC- Actas de nacimiento y algunas de las conclusiones de lo que se pudiera promover con estos datos son:

• Priorizar atención a madres en situaciones vulnerables
(Edad, Nivel de estudios, Oficio, Estado Civil)
• Detección oportunidad de patrones de enfermedades en recién nacidos
(Anomalías, Enfermedades al nacer, dimensiones del bebé)
• Proyectar uso de vacunas por tipo de clínica
(Vacunas aplicadas, Localidad de nacimiento, Edad promedio de madre)
• Analizar demanda de enfermeras / doctores por tipo de embarazo
(Consultas médicas previas al parto, tipo de parto, tipo de clínica)

 

Te queremos invitar a explorar más casos de uso. Adelante hemos facilitado unas bases de datos para que puedas explorar y aqui abajo te compartimos el taller completo de analytics que te ayudará a acotar de mejor manera un problema a resolver.

 

Mucha éxito en tus análisis, si te gustó dale compartir y ayúdanos a promover esta cultura para promover más propuestas basadas en datos.

 

Saludos y no olvides suscribirte a Datlas para un Demo en http://www.datlas.mx

free_Suscriber.png

Keep it weird

@Thedatlas