¿Por qué las empresas deben de invertir en la ciencia de datos? – COLUMNA DE OPINIÓN DATLAS

A lo largo de la historia las empresas han generado una gran base de datos proveniente de diversas áreas de su compañía como pueden ser sus ventas, sus niveles de producción, su logística de entregas, clientes, colaboradores, entre muchas otras áreas. Sin embargo, la ciencia de datos permitió que el análisis de esta información fuera una ventaja exponencial para las empresas, posibilitando la transformación de los datos en información cualitativa y cuantitativa.

Es importante resaltar que la base de datos de información a escalado a tal nivel que con ayuda de la información pública las compañías pueden hacer un análisis mucho más exhaustivo y potenciar su crecimiento con una toma de decisiones asertivas.  

La ciencia de datos o el «big data» es un termino que se ha escuchado mucho en los últimos años, pero… ¿Qué es? y ¿Por qué las empresas de invertir en esta herramienta?

La ciencia de datos es el campo o conjunto de aplicaciones de la inteligencia artificial que transforma los datos en información útil para la toma de decisiones.


La ciencia de datos es el campo o conjunto de aplicaciones de la inteligencia artificial que transforma los datos en información útil para la toma de decisiones.

La ciencia de datos combina una variedad de herramientas analíticas (estadísticas, análisis cuantitativo, análisis predictivo y otros métodos científicos) para extraer valor de los datos recopilados de internet, fuentes de datos de dispositivos, entre otros.

El principal motivo por el cual las empresas deben de invertir en la ciencia de datos es porque esta aumenta la efectividad en la toma de decisiones, en palabras de nuestro invitado Eduardo de la Garza de podcast «Café de Datos»: «Te podrá ayudar a hacer el doble en la mitad del tiempo».

Es por eso que DATLAS quiso contribuir con el apoyo de la analitica de los datos Nosotros como compañia de análitica con el objetivo de ayudar a las empresas a interpretar la base de datos que han generado y a partir de sus necesidades generar una o multiples alternativas para resolverlas.

A continuación te presentamos 2 casos en concreto en los que DATLAS a participado en la analítica de datos para mejorar la toma de desiciones en campos específicos de su organización:
(por motivos de connfidencialidad, se presentara un caso breve sin el nombre de los participantes/clientes)

CASO PRÁCTICO 1: Problematica, un cliente que cuenta con una linea de franquiceas desea abrir una sucursal más, sin embargo, no sabe cual es la mejor ubicación para colocar su local. Solución, el cliente contrata a Datlas para que lo apoye para elegir la mejor ubicación según los criteros de valuación más importantes para el cliente.

Para ello, Datlas solicita la base de infromación del cliente para poder análizarla y complementarla con infromación pública como población, sector economico, uso de suelo, entre otros aspectos inportantes a considerar para proceder a análizar las mejores ubicaciónes a trabes de un mapa de inteligencia que permita destacar los pros y contras de cada ubicación y el cliente pueda tomar la mejor desición. Es inmportante aclarar que esta infromación le será util al cliente por los proximos 5-10.

CASO PRÁCTICO 2: Problematica, una empresa dedicada al rubro de turismo requiere saber cual es la derrama económica que genera el turismo en un estado específico de la república de México. Solución, el cliente contrata a Datlas para que desarolle un dashboard que le permita observar y gestiónar las métricas o KPIs objetivos de las estrategias requeridas.

Estos son dos ejemplos muy prácticos en los que Datlas te puede apoyar en la toma de desiciones, sin embargo, la ciencia de datos puede darse en cualquier área de la empresa como marketing, publicidad, finanzas, ventas, logistica, coordinación interna, entre muchas otras.

Estos son algunos blogs de Datlas que te permitiran saber más de los casos presentados:

  1. ¿Cómo encontrar la mejor ubicación para mi negocio de…. – Investigación Datlas
  2. Analítica en Turismo: Datos de INEGI y Datatur para construir estrategias en el sector hotelero – INVESTIGACIÓN DATLAS

Si quieres seguir conociendo más de este tema, a continuación te compartimos algunos Blogs que te pueden interesar:

1. Towards Data Science, este es un blog dirigido por una comunidad de científicos de datos. Fomenta un ecosistema de conocimiento hacia la ciencia de datos e ideas, directrices; Los lectores pueden compartir sus opiniones sobre diversas iniciativas mediante el análisis de la evaluación y la información relacionada.

2. Data Science Central, esta plataforma cubre temas relacionados con el análisis de los datos, la tecnología, herramientas de apoyo, visualización de datos, código y entremuchos otros.

3. Data Science | Google News, este sitio incluye las últimas tendencias y noticias en una amplia gama de áreas, incluidas noticias generales y tendencias específicas en la industria de la ciencia de datos.

Hasta aqui la columna de hoy, recuerda seguirnos en nuestras redes @DatlasMX

– Equipo Datlas –

12 Preguntas de Analítica y Tecnología que puedes responder con Podcast – Ecosistemas Datlas

En un mundo con abundancia de información y con mucho interés en aprender ciencia de datos ¿Cómo priorizo? Bueno pues te hicimos la tarea. En este blog priorizamos y desarrollamos los blogs más relevantes para que termines este 2022 escuchando mucho de lo que tienes que aprender para estrategias de ciencia de datos y analítica.

Adicional, sabemos que muchas de las personas que nos siguen estarán interesad@s en temas de tecnología como innnovación y complementamos el listado con algunos de los mejores episodios de estos tópicos. No olvides suscribirte y evaluarnos en CAFE DE DATOS una vez que escuches cualquier episodio en la lista.

1) ¿Qué demonios son los analytics?

Click al episodio; Comencemos con lo básico, desde el equipo de DATLAS ponemos a tod@s en el mismo piso de entendimeinto

2) ¿Cómo estructurar equipos de Analytics?

Click al episodio ; Desde el equipo de DATLAS te contamos la experiencia y la investigación que realizamos para estructurar equipos de analítica avanzada

3) ¿Cómo iniciar y vender internamente en mi organización una estrategia de Analítica?

Click al episodio ; Tuvimos un episodio con DAVID PUENTE de ARCA CONTINENTAL quien nos habló de la venta interna de proyectos y estructura de soluciones para el equipo de ARCA

4) ¿Qué oportunidad de innovación tiene un corporativo al implementar analítica de datos?

Click al episodio; Estuvo con nosotros CARL WALLACE quien nos dió los contrastes de implementaciones de analytics en el mundo startups vs. mundo corportaivo

5) Analíticas a la Moneyball ¿Cómo aprovechar analítica en industrias de retail?

Click al episodio; Estuvo con nosotros Edwin Hernández Directivo de Farmacias del Ahorro quien con algunas analogías nos habló de casos de uso y aprovechamiento de datos en retail

6) ¿Cómo aprovechar datos públicos para investigaciones y exploraciones de análisis?

Click al episodio; Estuvo con nosotros el Dr. Santaella, ahora ex-presidente del INEGI quien nos compartió los avances del instituto que más datos públicos genera en México en materia de ciencia de datos y tecnología

7) ¿Cuáles son algunas tendencias importantes que líderes de equipo deben de tomar en cuenta en analytics?

Click al episodio; Recopilamos y sintetizamos desde el equipo directivo de Datlas las 5 tendencias de mayor impacto para el 2022 en analítica

8) ¿Qué casos de éxito existen de transformación digital impulsada por analítica en empresas?

Click al episodio; Tuvimos al Director de XPERTAL Rodrigo Rey quien con su experiencia en FEMSA y antres en NEORIS enriqueció nuestros puntos de vistas de digital

9) ¿Qué es la econometría espacial y cuáles son algunas aplicaciones con datos geo-referenciados?

Click al episodio; Nos visitó en el episodio el Dr. Miguel Flores especialista en econometría espacial de la UANL

10) ¿Cuál es el rol de un traductor de datos en el negocio y cómo funciona?

Click al episodio; Nos acompañó Néstor García de OXXO para hablarnos de los Data Champions

11) ¿Cómo impulsar la creativas y el interés social?

Click al episodio; LABNL participó con nosotros vía Idalia Santos para compartirnos su expertise de este tema

12) ¿Cuáles son los ejemplos más recientes de implementación de analítica en negocios transaccionales o de salud?

Click al episodio; Participó con nosotros Mail Laredo quien se introduce como responsable de parte del desarrollo para una de las Farmacias más grandes de México

Hasta aqui el episodio de hoy. Recuerda continuar aprendiendo activamente y si eres quien consume mejor contenido por lectura te invitamos a revisar nuestro último lanzamiento de DATA PLAYBOOK 2022 para aprender de las últimas experiencias del equipo ¿De qué otros temas te gustaría que habláramos en el podcast? Compártenos en @datlasmx.

Equipo Datlas

– Keep it weird – –

¿Qué es la Ciencia de Datos (Data Science)? Según Google – MANUALES DATLAS

Durante varios blogs Datlas y podcast de Café de Datos hemos hablado de casos de éxito/fracaso en ciencia de datos. La realidad es que el entendimiento durante el tiempo de este campo de la ciencia se ha ido diversificando. A menudo pensamos que forzosamente tiene que estar vinculado a determinada herramienta, qué tiene que ser desarrollado por ciertos perfiles y/o que sólo aplica si impacta de gran medida a la organización. Google Cloud en sus recursos de de aprendizaje comparten una guía de 6 pasos a seguir para la ejecución de proyectos de «Ciencia de Datos».

** También te puede interesar «Dimensionando la Industria de Inteligencia Artificial»

Como aviso previo, estos pasos están relacionados a procesos de análisis facilitados por un área de ciencia de datos. No tanto por un área de inteligencia de negocios. Para mayor claridad puedes conocer los distintos roles que hay en un equipo de ciencia de datos o algunas de las aristas para formar un buen equipo de datos.

I) Ingeniería de Datos

Es un momento clave en donde a la luz de un problema de negocios se extraen datos, se ingesta a un sistema de variables, se generan catálogos y a través de un procesamiento estos se vuelven información de valor. Con experiencia Datlas, agregamos una etapa de desarrollo de «Glosario de Datos» como parte de documentación y control de actualización de variables.

I.1 Ingestión de Datos y Descubrimiento

I.2 Preprocesamiento de datos

I.3 Almacenamiento de Datos

I.4 Glosario de Datos

II) Análisis de Datos

Desde análisis descriptivo hasta visualización de datos la parte de análisis integra distintos procesos estadísticos para generar hallazgos. Es altamente iterativo y caemos muchas veces en experimentación. Estas exploraciones apoyan a realizar las preguntas correcta sobre los datos que estamos evaluando. Resalta la sección, al final, de planificar la comunicación de los hallazgos.

II.1 Exploración de Datos

II.2 Pre-procesamiento

II.3 Insights de Datos

II.4 Comunicarlos

III) Desarrollo de Modelo

A través de los hallazgos de la etapa previa, se podrá seleccionar el mejor modelo de Machine Learning para detonar el aprovechamiento del histórico de datos así como la infraestructura usada para resolver problemas de análisis.

III.1 Simplificación de datos (Feature Engineering)

III.2 Entrenamiento de modelos

III.3 Evaluación de modelos

IV) Ingeniería de Machine Learning

Habilitar el servicio en línea para que otros usuarios puedan consumir los modelos. Asimismo monitorear que la estabilidad y los resultados del modelo hagan sentido durante su uso.

IV.1 Modelo de servicio

IV.2 Desarrollo de implementación de modelo

IV.3 Monitoreo de Modelo

V) Activación de descubrimientos

A través de entender los «journeys» de os usuarios de nuestros análisis y entender qué decisiones son ajustadas gracias a los análisis que desarrollamos seleccionaremos el mejor método de «delivery». Podemos hablar de dashboards, reportes u otro tipo de modelos vía API.

V.1 Seguimiento a influencia de decisiones

V.2 Identificar si el cliente final ha cambiado su comportamiento

V.3 Interconectar a otros servicios en la organización

VI) Orquestación y Mantenimiento

Mantenimiento con información actualizada del servicio. Usos replicables entre usuarios y experimentos.

VI.1 Escalamiento

VI.2 Carreteras únicas y APIs

** También te puede interesar «Metodologías para ciencia de datos»

Comentarios Datlas

Adicionalmente, a estos pasos que en su mayoría tienen base técnica. En seguimiento a los procesos de negocios y para que nuestros modelos de ciencia de datos tengan impacto en la organización para la que lo construímos es necesario diagnósticar y comunicar. En un inicio, entender bien el problema de negocio o la hipótesis que estamos validando. Así como, de manera iterativa, en cada paso del proceso identificar la audiencia a la que vale la pena comunicar. A veces sucede que estamos experimentando y queremos llegar a la dirección para influir su toma de decisiones. En realidad, hay que reconocer que a ciertos foros sólo les interesarán los resultados y a otros el método ¿Sabes cuál es cual en tu organización?

Suscríbete a Datlas Academy Gratuitamente.

Equipo Datlas

Keep it weird

Fuentes:

– Feature Engineering: https://www.kdnuggets.com/2018/12/feature-engineering-explained.html

– Data Science 6 steps with Google: https://youtu.be/EQvLUMjz-g4

Sistemas Automáticos Vs. Sistemas Autónomos, testing y mucho más de la Inteligencia Artificial- Columna de Investigación Datlas

Esta semana tuvimos la oportunidad de participar en «AI Factory:  Get serious about testing and deploying AI with apps» de IBM. En la charla se habló de la diferencia de sistemas autónomos y sistemas automáticos así como nuevas tendencias de los datos. En la columna de hoy compartiremos algunas notas sobre estos temas y reflexiones de los científicos de datos en general.

IBM, con IBM Watson, acuñó una dominancia y perfilamiento de la organización en el sector de la Inteligencia Artificial. La empresa tiene de los mejores expertas y expertos en el tema

Algunos de los motivadores para invertir en eso:

  • Inteligencia Artificial (IA) es un acelerador económico
  • El impacto financiero de la IA se hizo más claro (6.3% de crecimiento)
  • El enfoque en IA genera sus rendimientos
  • Los fundamentales de IA han ayudado a las organizaciones a ser más productivos
  • Finalmente el IA está reduciendo los costos operativos de los negocios

La siguiente tendencia: Sistemas de Inteligencia Artificial Aplicación infundida (AIIA)

La definición de AIIA, según IBM, es una combinación de sistemas que se basan en código tradicional e Inteligencia Artificial que aprende.

Durante la charla hicieron mucho hincapie en las pruebas que hay que recorrer en los sistemas y la falta de rigor actualmente en esto.

¿Por qué es muy importante hacer pruebas?

Si hablamos que la IA está involucrada en procesos de decisiones, es relevante hacer las pruebas debidas y poder explicar qué es lo que se está validando en un modelo de inteligencia.

En este sentido los motivos que nos comparte IBM son:

  • IA está involucrada en decisiones estratégicas y por eso hay que probarla
  • Muchas veces puede llegar a ser responsable de vidas humanas (En el caso de «auto-pilot» tipo TESLA))
  • Se podrá ir volviendo más riesgoso la decisión que plantea el modelo conforme más información llegue

¿Las pruebas aplican para sistemas Autónomos y Sistemas automáticos?

Gran parte de la charla se trato de explicar la diferencias entre dos tipos de sistemas. Sobre todo haciendo énfasis de que la IA está presentes en ambos. Estos son:

  • Sistemas automáticos: Significa que va a hacer exactamente las acciones para las que está programada sin elección. Por ejemplo algoritmos determinísticos
  • Sistemas autónomos: Quiere decir que es un sistema que puede hacer elecciones sin considerar influencias externas. Por ejemplo algoritmos predictivos que no son determinísticos

Como exploradores y apasionados en la ciencia de datos es importante estar al tanto de los avances en el campo de los sistemas autónomos. Sin duda el rigor del campo de la IA irá subiendo y cada vez más sistemas que tomen sus propias decisiones serán parte del futuro.

Hasta aqui la columna de hoy, participa y continua con nosotros la charla en nuestras redes a travez de @DatlasMX. También te invitamos a suscribirte a nuestro contenido de aprendizaje sobre ciencia de datos en www.datlasacademy.com

Equipo Datlas

– Keep it weird-

1 mes usando la mac mini apple (2020) para data science y edición de multimedia – datlas

Comenzó el nuevo año y la demanda de procesamiento para una startup de analítica como Datlas incrementó. Es usual que en las conversaciones del área de tecnologías y analítica escuchemos: Máquinas virtuales, bases de datos en la nube, arquitectura de información, data warehouse, data lake, data marts, cron jobs, entre otros .Así como nombres de sistemas y herramientas: Power Bi, Tableau, Azure, IBM Watson, R, Python, Matlab, entre otros.

En este blog te compartimos nuestra evaluación y decisión sobre adquirir una de las nuevas MAC MINI con procesador m1. Por primera vez dejamos atrás INTEL y nos atrevimos a intentarlo. Te contaremos nuestro proceso de evaluación así como nuestra recomendación final.

Antecedentes ¿Qué buscábamos en un equipo?

Principalmente potencia, una máquina que pudiera ser utilidad de 5 a 7 años y además que nos familiarizará con un nuevo sistema operativo (Estábamos muy «casados» con Windows y Linux, pero Apple está haciendo cosas muy interesantes que hay que voltear a ver para no quedarnos obsoletos).

Dentro de las opciones y los motivos, entre computadoras potentes de windows no podíamos justificar el precio-beneficio. En todos los «benchmarks» terminaba apareciendo la Mac Mini m1 en una muy buena posición. En muchos planos, era la ganadora y parece que finalmente APPLE ofrecía algo al mercado que teníamos que voltear a ver.

Un punto importante es que la compañía de la manzana hizo un gran trabajo en la eficiencia de uso energético. Nosotros pensábamos dejar este equipo encendido al menos 5 días de la semana para correr algunos «jobs» automatizados y su ahorro energético la hacía buen opción.

Así como un procesador rápido, que vaya a la vanguardia con el mercado y nos permitiera mejorar nuestro trabajo de contenido para academy, podcast y blog

¿Mac sobre Windows para edición? OK … pero para ¿Data Science?

Considerando estos antecedentes, alguna de las opciones de MAC M1 (Laptop, desktops, etc) parecía ser una opción a evaluar para la startup. Aunado a esto, nuestro podcast con casi 60 capítulos ha sido trabajado hasta el día de hoy para edición de audio dede una MACBOOK PRO 2015 con algunas alteraciones como aumento de memoria SSD. Aún así era díficil continuar escalando la producción con un equipo como este.

Para la parte de las ediciones multimedia, el equipo (MAC MINI M1) se justificaba sólo, pero ¿Para Data Science? Aún y cuando buscamos e investigamos en videos de youtube, testimonios, preguntamos en foros, había muy poca documentación sobre como funcionaría para Data Science. Solamente nos podíamos entender con las guías de qué puntuaje tendría el procesador con casos de uso de «single-core» y «multi-core». En Single core para procesos en batch parece que es bastante competitiva en contraste con su homologa que tiene el procesador de INTEL. Pero, en multi thread, hay ciertos escenarios específicos donde INTEL sigue siendo mejor.

¿Mac Mini M1 2021?

Es la computadora desktop de la clase MINI más nueva que ha sido lanzada con una variante de procesador: M1 sobre INTEL.

Las entradas de cables no son su fuerte, sin embargo encontramos thunderbolt, USB, conexiones a luz, cable ethernet y también entrada HDM1.

Importante decir que esta computadora, por la manera en que se desarrolló internamente, y parecida a modelos recientes de la mac, no puede ser «Updateada». Es decir, no se le puede ampliar el RAM o alterar el procesador. Por eso mismo seleccionar una versión que sea útil durante el tiempo es importante.

Selección de la mejor versión de Mac Mini M1 2020

La MAC MINI m1 se puede adquirir en su versión básica (8gb de RAM y 256 SSD de memoria de disco) desde $650 dllrs . Las versiones más sofisticadas llegan a valer el doble.

Particularmente, en nuestro caso calculando el costo-beneficio, nos decidimos por la versión de 16 de RAM. Esto porque después de ver bastantes «reviews» hacían énfasis en que el RAM era algo que nos podíamos quedar cortos con 8. Además , particularmente, para tareas de análisis estamos acostumbrados a trabajar con 16 de RAM desde hace 5 años entonces ¿Para qué ir para atrás en este aspecto?

Por otro lado, la opción de memoria SSD no parecía razonable subirla. Esto porque llegar a 1TB subía más de $200 dllrs el valor final de compra. Pero preferimos irnos por lo básico: 256 GB y comprar por fuera una memoria HDD marca LA CLIE de 5 TB por menos de $150 dllrs.

Beneficios

Una configuración como la mencionada, es ideal para disminuir tiempos de renderizado en edición multimedia al menos un 70%. Episodios en calidad 4K que tardaban medio día en la MACBOOK PRO antigua, ahora toman menos de media hora.

Por otro lado, en procesos de analítica de datos. A pesar de unos problemas por no correr los programas de manera «nativa», debo decir que los procesos se corren más rápido que mi equipo actual (Windows 10 Intel corte i7 8va generación con SSD).

Problemas

El m1 es potente con aplicaciones nativas, pero sí hay algunas diferencias cuando corremos programas que no pueden avanzar con la clase «Apple». En esta situación el sistema operativo nos sugiere utilizar «ROSETTA» que es un adaptador para poder abrir programas que no tengan una versión nativa de M1.

Si abrimos el monitor de actividades podemos ver en la columna «CLASE» bajo qué esquema corre cada uno de los programas. Si es en APPLE significa que correrá con M1 , de lo contrario será usando ROSETTA.

Recomendaciones finales

Si en tu equipo de trabajo están buscando actualizarse en hardware, la mac mini m1 es una buena opción. Sin ser una computadora con «specs» galácticos o cuánticos, verdaderamente es una buena opción precio-beneficio. Es un equipo multi-usos que además de aprovechar sus capacidades avanzadas de edición te permitirá correr sin problema mucho de tus códigos que hoy corres en tu equipo INTEL

Principales drivers de compra:

  • Precio – beneficio
  • Versatilidad de uso
  • Tamaño y convenencias

Contras de compra

  • No se podrá actualizar su hardware durante el tiempo
  • No todos los programas corren nativos, habrá que usar ROSETTA durante un tiempo
  • La memoria SSD integrada puede duplicar el precio del equipo

Hasta aqui nuestra columna de hoy ¿Qué opiniones tienes de la evaluación? ¿Haz considerado usar un procesador M1? O si ya lo usaste ¿Cuál es tu experiencia? Continua la conversación con nosotros en redes sociales etiquetando a @DATLASMX

Saludos

Equipo Datlas

– Keep it weird –

Utilities: abundancia de datos y gran oportunidad para analítica y big data – Investigación DATLAS

Hace alrededor de un mes tuvimos la oportunidad de tener como invitado en nuestro podcast Café de Datos al Global Head of AI & Analytics en Telefónica IoT & Big Data Tech el gran Antonio Pita Lozano con quien estuvimos platicando acerca de la ciencia de datos como una carrera profesional, como ensamblar equipos de ciencia de datos en las organizaciones e incluso nos comentó acerca del Máster en Ciencia de Datos del cual es director en KSchool. En esta columna vamos a tomar una de las aportaciones que más nos sorprendió de la charla con Antonio para profundizar un poco más.

Para iniciar, como es costumbre con nuestros invitados en el podcast, les pedimos que nos compartan ¿con quién se tomarían un café? si pudieran elegir a cualquier personaje de la historia. En este caso Antonio nos comentó un par de nombres famosos, pero terminó inclinándose por Alan Turing. Para quien no lo conozca Alan Turing fue un matemático nacido en Reino Unido que fue un protagonista del desarrollo del campo de la teoría computacional. Recientemente se hizo más famoso por su función de criptógrafo descifrando mensajes de los “nazis” con la máquina ENIGMA después de la segunda guerra mundial. De hecho en Datlas le hicimos un homenaje a este gran personaje por el Día de Muertos que celebramos en México, puedes ver el altar homenaje aquí.

Después de este pequeño ritual de bienvenida para calentar motores Antonio nos relató un poco de su carrera y desarrollo profesional. Durante este bloque comentamos acerca de la transformación digital que han experimentado, y aprovechado, algunos grandes sectores económicos como lo es la industria financiera. Asimismo le pedimos a Antonio que nos diera su perspectiva alrededor de sectores o industrias que tuvieran grandes cantidades de datos y al mismo tiempo una gran oportunidad de aprovecharlos o explotarlos de una mejor manera. Sorprendentemente para nosotros, Antonio nos hizo notar que uno de los sectores que ha tenido una inmersión importante en temas de analítica de datos, después del sector financiero, ha sido el sector de las Utilities y quisimos profundizar un poco en esta parte.

¿Qué son las Utilities?

Las utilities es la denominación en inglés de aquellas compañías que pertenecen al sector energético y de servicios colectivos que prestan servicios de los cuales no se puede prescindir como por ejemplo: electricidad, gas, agua, residuos, etc.

Se consideran empresas seguras puesto que los ingresos son estables, sin embargo, debido a la gran inversión que requieren, suelen tener grandes cantidades de deuda, provocando una gran sensibilidad ante los cambios en la tasa de interés. Un aumento de la tasa de interés, va acompañado del incremento de la deuda, lo que provoca que el funcionamiento de las Utilities sea mejor cuando las tasas de interés están decayendo o se mantienen bajas.

¿Cómo aprovechan el Big Data y la analítica de datos las Utilities?

Antes que nada hay que entender que estas empresas apalancan otra de las grandes tendencias de la transformación digital que es el Internet de las Cosas (IoT) y los sensores.

Growing Technology Acceptance Boosts Demand for IoT in Utilities

Esta nueva forma de obtener datos les permite generar casos de uso como:

Predicción, detección y prevención de cortes de energía

Un corte de energía puede hacer que todo un país se detenga, como el apagón del noreste de 2013 que afectó a más de 45 millones de personas en los Estados Unidos. Las condiciones climáticas desfavorables son una de las principales causas de tales cortes. Las Utilities están construyendo una infraestructura y sensores más inteligentes para mejorar la previsibilidad y prevenir estos escenarios de interrupciones.

Los sistemas modernos de cortes de energía emplean soluciones en tiempo real que operan en base a datos en vivo y algoritmos inteligentes para predecir y prevenir cualquier situación posible.

Estos sistemas son capaces de predecir el impacto de cualquier eventualidad cercana a la red, posibles cortes causados ​​debido a eventos de medidores inteligentes, cortes específicos de la región y más.

Gestión de carga inteligente

Para gestionar de forma eficiente la carga de energía, las Utilities necesitan equilibrar de forma estratégica e inteligente la demanda de energía con un suministro de energía óptimo en un período de tiempo determinado. Tener un sistema de gestión de carga inteligente les permite cubrir los requisitos de gestión de red de extremo a extremo, incluidas la demanda y las fuentes de energía con la ayuda de fuentes de energía distribuidas, sistemas de control avanzados y dispositivos de uso final.

Todos los componentes del sistema de gestión generan datos. Al aplicar análisis de Big Data, las empresas pueden tomar decisiones con precisión con respecto a la planificación y generación de energía, la carga de energía y la estimación del rendimiento.

▷ Mantenimiento Predictivo - Digitalización y optimización de las fábricas

Gestión preventiva de activos

Dado que es una industria intensiva en activos y depende en gran medida del rendimiento óptimo de sus equipos e infraestructura de red. La falla de estos activos puede causar serios problemas de distribución de energía y, en consecuencia, mermar la confianza del consumidor. Por lo tanto, prevenir este tipo de incidentes es una de las principales prioridades de la industria.

Para el mantenimiento preventivo de equipos, el Big Data y la analítica viene al rescate. Los activos están integrados con sensores inteligentes, rastreadores y soluciones de datos que transmiten información en tiempo real al centro. Los datos recopilados se pueden procesar y analizar para identificar posibles problemas con el mantenimiento del equipo, lo que permite un manejo proactivo de la situación.

Mayor eficiencia operativa

Aprovechar los datos en tiempo real de los activos relacionados con la tasa de actividad, el estado de las operaciones, el tiempo, el análisis de la oferta y la demanda, y más, ayudan a las empresas de Utilities a optimizar la eficiencia energética y el rendimiento de los activos. Las aplicaciones de Big Data y analítica les permiten mejorar la confiabilidad, la capacidad y la disponibilidad de sus activos de red mediante el monitoreo continuo del costo y el rendimiento.

Y… ¿de que tamaño es el mercado?

Finalmente, Antonio nos hizo reflexionar acerca de las aplicaciones de Big Data, analítica de datos, Internet de las Cosas y sensores que tiene este sector. Hemos visto ejemplos claros y aplicaciones con casos de negocios sustentados, pero como emprendedores, como proveedores de soluciones de analítica, la última disyuntiva que pudiéramos tener es ¿de qué tamaño es el pastel? y justo nos dimos cuenta que la inversión en analítica por parte de las Utilities ha venido creciendo desde el 2012 y el año pasado logró posicionarse en $3.8 billones de dólares, de los cuales Latinoamérica participa con alrededor de $0.5 billones de dólares.

Así que, al igual que nosotros esperamos que hayas aprendido como nosotros un poco más alrededor de una industria que a pesar de ser longeva tiene una gran oportunidad y ya esta adoptando nuevas tecnologías.

Si eres emprendedor, profesionista o simplemente te interesa adentrarte al mundo de la ciencia de datos te recomendamos escuchar el Episodio #44 de nuestro podcast Café de Datos con Antonio Pita y conocer más acerca del Máster en Ciencia de Datos de KSchool del cual Antonio es el director y tiene un modelo muy interesante de aprendizaje basado no solo en la teoría sino también en la práctica.

Hasta aquí la columna de hoy, no olvides compartirla con tus colegas y seguirnos en nuestras redes sociales como @DatlasMX

Bibliografía:

BigDataissuesandopportunitiesforelectricutilities.pdf

The role of big data analytics in Energy & Utilities (cigniti.com)

Utility | WikiFinanzas – Finanzas para Mortales (wiki-finanzas.com)

¿Cómo identificar A un impostor de datos? – datlas emprendedores

Ya conoces de nuestras otras columnas que hemos hablado que además de los científicos de datos hay muchos otros roles en el campo de la analítica avanzada de datos. Puedes leerlo en «Los 5 perfiles en una estrategias de datos». Quienes no redujeron presupuestos en pandemia han creado nuevos departamentos de analítica avanzada. Esto aplica para compañías de todo tipo de tamaño. Por lo mismo, la demanda de capital intelectual de ciencia de datos se ha incrementado y la oferta es insuficiente. Por esta razón, existen situaciones en las que personas con poca o insuficiente formación en el campo atienden proyectos de analítica. La falta de respaldo en el campo se empieza a traducir en altas rotaciones, pérdida de fe en retornos de inversión para proyectos de ciencia de datos y/o reducción de presupuestos. En esta columna compartiremos algunos consejos de cómo detectar a «impostores de datos» con algunas revisiones puntuales al momento de entrevistar personas.

1) Los charlatanes de datos se esconden en todo tipo de equipos y áreas. Se rodean de gente capaz, pero se camuflajean entre la estadística y los análisis de negocio

Es útil entender que analítica y estadística son dos tipos de campos de dominio distintos. En estadística se aprende a entender el valor más allá de los datos, sintetizando un entendimiento global de variables a partir de tendencia central, identificando problemas en una serie de tiempo, excepciones en variables categóricas y más que nada encontrando significancias. Un analista, por otro lado, está preparado para entender y dimensionar una base de datos con mayor conocimiento del campo de dominio del negocio. Generar a partir de relaciones conclusiones y mensajes de oportunidad para una empresa.

En la práctica, los roles de de ciencia de datos requiere la función híbrida. Un analista se quedaría corto si no conoce suficiente de estadística para validar pruebas de hipótesis. Y un conocedor de estadística requiere una visión global al momento de enfrentarse a un problema de datos. Cuidado de caer en la falacia de que estas funciones «duermen» por separado.

Te puede interesar leer «Por qué fracasan los proyectos de datos»

2) El arte de manejar la incertidumbre, los «outliers» (anomalías) y faltantes

Un buen analista es similar a un doctor al momento de iniciar un nuevo paciente. Lo primero es generar un diagnóstico, no importa cuántas personas hayan diagnosticado antes las bases de datos a trabajar, hay que realizarse una serie de preguntas sobre el problema de datos que se va a enfrentar. Alejarse de este diagnóstico es quedar fuera de un verdadero proyecto de ciencia de datos.

De hecho, puedes leer «Cómo construir un checklist para proyectos de analítica de datos». Los impostores de datos muchas veces se enfocan más en entregar los resultados al jefe y olvidan la parte artesanal de curar los datos para tener la estructura de datos óptima para resolver un problema en especifico.

3) Más seducidos por el p-value significancia estadística que la significancia de los resultados para la estrategia del negocio

La obsesión por la técnica estadística no necesariamente está asociada a un buen desempeño como científico de datos. Tener talento académico y seguir los principios de estadística en un ejercicio de análisis de datos es importante. Pero debe haber una obsesión con generar resultados objetivos para el negocio.

Una vez que prioricemos ese objetivo, los verdaderos científicos de datos no se detendrán con su entendimiento estadístico. Querrán conocer e identificar el ADN del negocio.

4) El arte de generar variables para llegar conclusiones que hagan sentido

Un analista serio no comenzará su análisis con las variables que le entregaste para trabajar. Buscará explorar y desarrollar nuevas variables. Por ejemplo, cuando trabajas con latitudes y longitudes y quieres trabajar algún modelo como una regresión. Los campos no deben ser ingresados como tal ya que los modelos lo pueden interpretar como variable numérica y en realidad ni representan una dimensión. Debemos de generar un punto de referencia y la distancia hacia el mismo, como el los kilómetros del punto al centro de la ciudad, una escuela cercana, un hospital o algo similar. Para que nuestra conclusión de regresión pueda ser interpretada como «por cada cambio en X variable, existe un cambio en Y». Por «cada kilómetro que más me alejo del centro de la ciudad, cae X nivel de ventas». Es común en las pruebas aplicadas para científicos de datos poco preparados este tipo de carencias salgan a relucir.

Si quisieras saber algunos consejos de cómo deberías reclutar a tu equipo de analítica no te olvides leer «Diseño de perfiles y áreas de analítica en organizaciones». o escuchar nuestro podcast «Café de Datos».

5) Un charlatan de datos llega a conclusiones demasiado rápidas… a conveniencia

Un experimento de datos no se puede declarar exitoso si sólo se pone a prueba con una serie de datos. Un buen «Testing» es aquel que se experimenta en distintas condiciones, con datos que estuvieran vigentes en temporalidades distintas y , si es posible, estresado bajo modelos contrastantes.

Un charlatán de datos usará más de su tiempo en convencerte que el primer resultado fue el correcto o que su método es el único en lugar de buscar formas de contradecir el ejercicio inicial iterando con otros datos el modelo en cuestión.

6) La culpa es del modelo que fue tonto, no mía

La última, tiene más que ver con una actitud, pero un impostor de datos hará responsable «al modelo». Hará referencia a que es de «caja negra» y que no es posible explicar el impacto de cada variable al resultado. Mucho cuidado con estos colaboradores de «falta de accountability», porque además de mostrar poca capacidad de ajustar un modelo a una nueva realidad, muestran limitantes para poder explicar lo que hicieron y eso puede ser un peligro para la organización.

Comentarios finales

Recuerda que, como lo establecimos antes, «No necesitas un doctorado para aprender de data science, pero tampoco se aprende en una clase de 2 horas». Los impostores de datos y análisis requieren precauciones y es importante continuar elevando el rigor de la materia. Te recomendamos buscar elevar los estándares en tu organización siguiendo estos consejos y leyendo alguna de las columnas que citamos

Equipo Datlas

– Keep it weird-

Fuentes y referencias originales

– Science of Fake. Fuente: https://www.lazerlab.net/publication/%E2%80%9C-science-fake-news%E2%80%9D

– How to spot a charlatan. Fuente: https://towardsdatascience.com/how-to-spot-a-data-charlatan-85785c991433

ciencia de datos a la mexicana, próximo lanzamiento de playbook en 2020 – datlas MANUALES

La ciencia datos en el 2020 no debería ser “ciencia de cohetes” (rocket science) o no se le debería de ver como una caja negra. Está comprobado que “Lo que no se mide no se puede mejorar” y ahora, actualizando esta frase, “Lo que no se mide, no se analiza matemáticamente y no se socializa no se puede mejorar”. Absolutamente de esto se trata la ciencia de datos aplicada para convertir esos datos en historias (insights) y esas historias en accionables.

Uno de nuestros motivadores con Datlas ha sido desarrollar contenido para incrementar el entusiasmo y la aplicación por la ciencia de datos. Este año lo hemos hecho logrando más de 65 mil hits en nuestro blog, más de 4,000 escuchas en nuestra primera temporada del podcast “Café de Datos”, patrocinando el hackathon estudiantil más grande de México y dando más de 30 conferencias y webinars a empresas y estudiantes del ecosistema de transformación digital.

compartir experiencias e incrementar en conjunto el uso de plataformas de big data, analítica e inteligencia artificial.

**También te puede interesar nuestros Data Playbook Volumen I y II desde nuestro marketplace. Da click aqui para obtenerlo GRATIS.

Ahora te presentamos nuestro Data Playbook Volumen III”, nuestra tercera edición del compilado de nuestros aprendizajes como startup en crecimiento. En este contenido encontrarás definiciones de conceptos, metodologías y, lo más importante, aplicaciones de ciencia de datos. Contamos con lujo de detalle desde la construcción y desarrollo de modelos de respuesta inmediata, estrategias para el sector turismo, plataformas de inteligencia para “Dark Kitchens” hasta estrategias de analítica para aseguradoras. Finalmente sensibilizamos y ampliamos la conversación de nuestro podcast sobre privacidad e inteligencia de ubicación (“Location Intelligence”).

Solicita aqui para ser parte del lanzamiento este 15 de septiembre

En concreto compartiremos muchos de los métodos y aplicaciones prácticas que hemos desarrollado en el último año para negocios y gobiernos. Este tipo de lecturas le servirá a personas que están interesadas en aprender más de ciencia de datos asi como quienes ya están aplicando casos en organizaciones. Lo importante es conocer qué alcances existen, cómo prepararse y cómo acompañarse de startups o empresas aliadas que ayuden a las organizaciones a llegar ahí más rápido.

Hasta aqui la columna de hoy, estamos muy entusiasmados por este lanzamiento que llevamos en el equipo más de un mes preparando. Las y los invitamos a suscribirse en el bloque superior para recibirlo GRATIS.

Equipo Datlas

-Keep it weird-

Ciencia de datos para todos : ¿Cómo ha cambiado la movilidad de los usuarios de Twitter en Monterrey por el covid-19?

“Twitter es lo qué está pasando en el mundo y sobre lo que las personas están hablando en este momento.”

Las redes sociales son relativamente nuevas y han cobrado importancia en nuestra vida cotidiana al grado que no nos sentimos cómodos si vamos a un restaurante y no publicamos en Instagram lo que ordenamos para que nuestros amigos se enteren donde estuvimos y que hacíamos ahí o por ejemplo cuando por la mañana nos levantamos a hacer ejercicio y es imposible no publicar nuestra foto en lo más alto de la montaña.

Es por eso que el análisis de las interacciones en las redes sociales ha cobrado la misma importancia, para muchos negocios, que las redes sociales en nuestras vidas. Por ejemplo, para saber de qué se está hablando de nuestra marca, si es algo positivo o negativo y cuantificarlo. Estos enfoques son muy bien conocidos en el área de análisis de textos.

Sin embargo, el día de hoy nuestro enfoque tomara otro rumbo. Responderemos a dos preguntas fundamentales: ¿Cómo ha sido el comportamiento de los usuarios en los últimos meses?  Y ¿Cómo ha cambiado por el covid-19?  

*También te puede interesar un estudio similar para Jalisco o CDMX

Desarrollo

Con una base de datos de alrededor 7200 check-in’s (el registro de una persona en cierto lugar), más de 15 variables (fecha y hora, lugar donde se hizo el registro, municipio de residencia, usuario, ubicación exacta, entre otras) y algo de trabajo se pueden generar diversos insigths de valor.

Pero antes de llegar a esos insigths de valor hay camino por recorrer. La primera pregunta en cuestión es: ¿Cómo conseguir este tipo de información en un sitio web tan protegida como lo es Twitter?

No hay forma de conseguir esta información si no es mediante la API (Application Programming Interface) de Twitter. La API cumple la función de una interfaz para que dos softwares interactúen y puedan intercambiar información. Para tu poder hacer un request desde tu computadora (Con programas como Python y R) y acceder a este tipo de información debes llenar una solicitud, una vez aprobada la solicitud Twitter te hará llegar las API keys, el identificador que te autentica como usuario de las API. Para más información clic aquí.

 

Una vez obtenido la información sigue la fase de trabajar los datos para posteriormente pasar a la fase de análisis. Nos referimos a la fase de homologar ciertas variables o categorizar observaciones en función de valores que toman algunas variables, en nuestro caso categorizamos los lugares a donde las personas han asistido los últimos meses. Otro ejemplo de esta fase es poner las fechas en un mismo formato (año/mes/día o día/mes/año) para no tener problemas al momento de visualizar los datos en una línea de tiempo.

Datlas_Promo_Facebook_Suscribe

 

Ahora si el plato fuerte, el análisis. Aquí empezamos viendo la estructura y distribución de cada una de nuestras variables, y modificar en caso de que algo este fuera de lugar, por ejemplo, las variables categóricas cambiarlas a factores si están como texto. Una gran parte del análisis es el momento de crear visualizaciones, esta es la parte creativa del analista porque ahora si que los límites para crear visualizaciones son muy extensos, claro, siempre con el cuidado de generar buenas visualizaciones no únicamente en el sentido de que se vean bonitas sino que también transmitan un mensaje claro y único. Otra gran parte del análisis es crear modelos estadísticos que expliquen a una variable (variable dependiente «y») en función de otras variables (variables independientes «x») y/o ayuden a predecir el comportamiento de la variable en el futuro.

Finalmente, llegamos a la etapa de conclusión y exposición de resultados, básicamente es ver el contraste entre la hipótesis que te hayas planteado o la pregunta que quieres responder y lo que los datos te dicen para después plasmarlo en una presentación o un texto.

Todas estas etapas aunque se escuchen muy «básicas» realmente las llevamos a cabo en nuestro análisis y es por eso que nos pareció importante no sólo exponer los resultados sino todo el desarrollo para que el lector que no este tan familiarizado en este ámbito pueda tener una mejor comprensión y no solo eso sino que se lleve un verdadero aprendizaje .

¿Qué encontramos?

Antes de empezar con las visualizaciones es importante mencionar que las primeras medidas preventivas en Nuevo León tomaron lugar el 17 de marzo del 2020, el día que cancelaron actividades escolares a nivel bachillerato y superior, y posteriormente el día 20 del mismo mes en los niveles básicos (primaria y secundaria).

La primera incógnita que nos gustaría responder es : ¿En qué magnitud o proporción ha disminuido el tráfico de check-ins en Twitter una vez iniciadas las medidas preventivas covid-19?

Esta gráfica ordena los días de la semana por mes, cada color es una etapa diferente: diciembre-2019 (azul) , antes de prevención covid (verde) y una vez iniciada la etapa de prevención covid (rojo).
Esta gráfica ordena los días de la semana y nos ayuda a visualizar la proporción de check-ins realizados en cada etapa.

 

 

Para poder crear estas visualizaciones tuvimos que categorizar nuestros datos en tres grupos (diciembre-2019, Antes de prevención covid y Después de prevención covid). En las dos gráficas se aprecia una caída significativa en los check-ins registrados una vez iniciadas las prevenciones covid. Se podría argumentar que esto se debe a la naturaleza de los meses abril, mayo y junio, sin embargo, llama mucho la atención que la primera mitad de marzo tenga mucha actividad y la segunda mitad se vea estancada. Hablando más puntualmente los chek-ins tuvieron una disminución del 75%.

Datlas_Promo_Podcast_Suscribe

 

Otra visualización que hicimos fue una especie de heatmap que nos permitiera ver por mes cuales fueron los municipios del área metropolitana con mayor actividad y en este sentido ver que municipios menos siguieron las recomendaciones de los expertos.

Heatmap de actividad por municipio y mes. No se estandarizo para numero de check-ins por habitante.

Ahora, pasaremos a contestar la pregunta ¿Cómo ha cambiado el comportamiento de los check-ins durante el covid? Para responder esta pregunta hicimos un cluster de 17 grupos y visualizamos la proporción de check-ins para cada grupo. Algunos de los grupos son: comida (restaurantes), entretenimiento (cines, boliches, parques, etc), Salud (hospitales, clínicas y gimnasios), Autoservicio (tiendas de autoservicio como H-E-B y Walmart), residencial (zonas residenciales), etc.

Proporción y orden de los grupos en las diferentes etapas de la contingencia. Comparativa de tipo de lugar donde la gente hace check-ins por etapa.

Podemos observar que en las primeras dos gráficas el orden y proporción de los grupos son muy parecidos y esto cambia considerablemente para la tercera. Dos grupos que han cobraron mucha importancia durante el tiempo de la pandemia son autoservicio y residencial, por otra parte, los grupos de entretenimiento, vida nocturna y aeropuerto pasaron de ser primeros a últimos. Considerar todos los ángulos a la hora de hacer un análisis es muy importante porque si no nos detuviéramos a ver a donde realmente la gente ha acudido y solo hubiéramos analizado las primeras tres gráficas probablemente nos quedaríamos con una mala impresión de los municipios de Monterrey y San Nicolás que han sido los municipios con mayor actividad y precisamente con esta gráfica podemos ver que mucha de esa actividad es desde sus casas.

Datlas_Promo_Youtube_Suscribe

Por último ¿qué podemos decir de estos resultados? Tenemos información suficiente para decir que la pandemia ha cambiado la manera en la que las personas hacen check-ins en magnitud y forma. En su mayoría la gente se está quedando en casa y está asistiendo primordialmente a lugares de primera necesidad como tiendas de autoservicio donde surten la despensa y restaurantes, no obstante, se sigue asistiendo a lugares que probablemente no se consideren de primera necesidad como ir al aeropuerto para ir a vacacionar y asistir a hoteles, donde, probablemente hoy sean los lugares con mayor riesgo de contagio y es por eso que invitamos a todos nuestros lectores a seguir las indicaciones de los expertos y no salir de casa a menos que sea necesario.

Esta columna fue desarrollada por Alejandro Rodalgo,  participante del programa de «intern» de Datlas en investigación. 

Saludos

Equipo Datlas

Diseño de perfiles y áreas de analítica para organizaciones – investigaciones datlas

Con el equipo Datlas al año tenemos la oportunidad e participar en algunos foros donde se repite mucho preguntas sobre qué perfiles y cómo preparase para generar una estrategia de datos. En realidad, tal y como lo pudiste leer en ¿Por qué fracasan los proyectos de ciencia de datos? las personas y la forma en que diseñamos el quehacer de sus funciones en una organización son principal factor de éxito para una estrategia de analítica de datos.

En esta columna resolveremos dudas y compartiremos mejores prácticas sobre procesos de diseño, entrevista y reclutamiento de profesionales de analítica de datos e inteligencia artificial en una organización. Todo esto siguiente la guía de puestos presentada en 5 perfiles para una estrategia de datos en tu organización .Que te recomendamos leer antes para que puedas tener un mejor contexto.

Datlas_Blog_Promo_SuscriberFree

ESTRUCTURA ORGANIZACIONAL

El pase de diapositivas requiere JavaScript.

Una estructura de reportes, de jerarquía o de organización para proyectos es muy variante ya que responde a los retos estratégicos de la organización. Específicamente para los datos no hay que olvidar que buscamos que en un mismo equipo se encuentren ingenieros, arquitectos, científicos y analistas al mismo nivel. Esto último debido a que la colaboración y la comunicación debe ser colaborativa. Uno de los métodos que con más frecuencia se usa en la industria son las células de trabajo. Estos son grupos pequeños, pero eficientes, de trabajo que cuentan con todos los recursos para resolver un problema de analítica avanzada.

DISEÑO DE PERFILES

El pase de diapositivas requiere JavaScript.

Las personas que trabajen en el área de analítica necesitan tener ciertas características:

  • Aprendizaje constante. La actualización de modelos de análisis y algoritmos es casi semanal. De la misma manera las nuevas paqueterías sobre machine learning en software como R o Python. Los perfiles tendrán que ser personas que puedan descifrar textos académicos y documentación en guías de programación sobre los modelos más recientes.
  • Curiosidad técnica. Frente a nuevos retos habrá que mostrar curiosidad y no miedo ante nuevas herramientas. Se buscan perfiles «políglotas» que puedan trabajar en distintos lenguajes de programación, estadística de todo tipo y comunicar sus resultados desde un «Power Point» hasta un tablero dashboard en «Power BI». No tenerle miedo a experimentar e investigar nuevas plataformas.
  • Didáctica para explicar hallazgos.  Quien es analista de datos puede ser un experto/a en matemáticas, pero mientras no sepa explicar lo que hace no podrá influir en las decisiones y orientaciones de la organización. Es importante que el arte de explicar las variables relevantes en un modelo esté presente.
  • Interlocutor con el área de negocios. «Data Translator» o similar, es una capacidad que permite llevar los retos de negocios a problemas estadísticos que puedan ser respondidos con las técnicas correctas de analítica avanzada.
  • Gestión de proyectos. Aunque probablemente una posición gerencial o de dirección será quien gestione proyectos. Es importante que el perfil se pueda alinear a las dinámicas de registro, seguimiento y coordinación de trabajo para desarrollar proyectos. Ser un profesional con noción de urgencia así como mostrar compromisos con fechas de entrega.

Datlas_Promo_Facebook_Suscribe

PROCESO DE RECLUTAMIENTO

El pase de diapositivas requiere JavaScript.

A los científicos de datos les gusta responder a retos y en el mercado laboral de ciencia de datos la entrada a un puesto suele venir acompañada de un buen reto de programación. Un buen postulante deberá poder resolver un reto en materia, ofrecer una visualización y poder comunicar de manera eficiente los resultados de un caso de negocio.

1) Definir estrategia de analítica avanzada y dimensionar las áreas funcionales que ejecutarán la estrategia

2) Recopilar retos actuales y retos futuros para diseñar puestos que respondan a estas necesidades

3) Generar dinámicas para atraer talento: hackathones, retos en línea, revisión de github o portafolio, acertijos o casos de negocio que puedan poner a prueba a los postulantes

4) Considerar entrevistas de «match cultural» así como habilidades de comunicación y liderazgo

5) Período de entrada y «química» con el equipo existente. Retroalimentar y readaptar el proceso a la experiencia de la empresa en particular.

Datlas_Promo_Youtube_Suscribe

LA ENTREVISTA

El pase de diapositivas requiere JavaScript.

Aquí es donde en realidad sucede la magia y se filtra a la mayor calidad de los candidatos. Es muy importante que alguien con conocimiento de industria y que entienda las necesidades de la empresa sea quién realice las entrevistas para obtener el puesto.

Primeramente una recomendación importante es enviar una prueba o reto de la que pueda enviar resultados preliminares por correo y explicar a fondo en la entrevista. En una ocasión, a manera personal, me tocó en NYC recibir desde el app de UBER algunas preguntas de código mientras hacía un viaje. Las contesté correctamente y me invitaban a enviar mi CV para su empresa. Ese tipo de dinámicas se ven «cool» , son modernas y además.

Durante la entrevista es relevante validar con casos o situaciones que se le pueden presentar en el trabajo y conocer muy bien cómo pudiera reaccionar esa persona a las situaciones. Estas simulaciones, sobre todo en problemas que involucran estadística, ayudarán a validar su nivel de conocimiento teórico. Finalmente el práctico es mayormente dominado durante el desempeño del rol

Finalmente asegurarse, como en cualquier puesto, que la persona cumpla con el perfil y que pueda generar proyectos internos para motivar a otras personas a usar las herramientas que sean desarrolladas por el área de analítica es muy importante.

Datlas_Promo_Podcast_Suscribe

CIERRE

Hasta aquí la columna de hoy. Pensamos que esta y otras guías podrán ser de utilidad a los reclutamientos de uno de los roles con más atención de los últimos 5 años. Probablemente los siguientes 5 años se especialicen aún  más. Esperamos que le sirva de orientación y que puedas compartir con más personas para que haya una mejor guía de qué observar para incrementar la calidad del área de analítica de datos.

Saludos

Equipo Datlas

– Keep it weird –