Archivo de la etiqueta: Analytics

Utilities: abundancia de datos y gran oportunidad para analítica y big data – Investigación DATLAS

Hace alrededor de un mes tuvimos la oportunidad de tener como invitado en nuestro podcast Café de Datos al Global Head of AI & Analytics en Telefónica IoT & Big Data Tech el gran Antonio Pita Lozano con quien estuvimos platicando acerca de la ciencia de datos como una carrera profesional, como ensamblar equipos de ciencia de datos en las organizaciones e incluso nos comentó acerca del Máster en Ciencia de Datos del cual es director en KSchool. En esta columna vamos a tomar una de las aportaciones que más nos sorprendió de la charla con Antonio para profundizar un poco más.

Para iniciar, como es costumbre con nuestros invitados en el podcast, les pedimos que nos compartan ¿con quién se tomarían un café? si pudieran elegir a cualquier personaje de la historia. En este caso Antonio nos comentó un par de nombres famosos, pero terminó inclinándose por Alan Turing. Para quien no lo conozca Alan Turing fue un matemático nacido en Reino Unido que fue un protagonista del desarrollo del campo de la teoría computacional. Recientemente se hizo más famoso por su función de criptógrafo descifrando mensajes de los “nazis” con la máquina ENIGMA después de la segunda guerra mundial. De hecho en Datlas le hicimos un homenaje a este gran personaje por el Día de Muertos que celebramos en México, puedes ver el altar homenaje aquí.

Después de este pequeño ritual de bienvenida para calentar motores Antonio nos relató un poco de su carrera y desarrollo profesional. Durante este bloque comentamos acerca de la transformación digital que han experimentado, y aprovechado, algunos grandes sectores económicos como lo es la industria financiera. Asimismo le pedimos a Antonio que nos diera su perspectiva alrededor de sectores o industrias que tuvieran grandes cantidades de datos y al mismo tiempo una gran oportunidad de aprovecharlos o explotarlos de una mejor manera. Sorprendentemente para nosotros, Antonio nos hizo notar que uno de los sectores que ha tenido una inmersión importante en temas de analítica de datos, después del sector financiero, ha sido el sector de las Utilities y quisimos profundizar un poco en esta parte.

¿Qué son las Utilities?

Las utilities es la denominación en inglés de aquellas compañías que pertenecen al sector energético y de servicios colectivos que prestan servicios de los cuales no se puede prescindir como por ejemplo: electricidad, gas, agua, residuos, etc.

Se consideran empresas seguras puesto que los ingresos son estables, sin embargo, debido a la gran inversión que requieren, suelen tener grandes cantidades de deuda, provocando una gran sensibilidad ante los cambios en la tasa de interés. Un aumento de la tasa de interés, va acompañado del incremento de la deuda, lo que provoca que el funcionamiento de las Utilities sea mejor cuando las tasas de interés están decayendo o se mantienen bajas.

¿Cómo aprovechan el Big Data y la analítica de datos las Utilities?

Antes que nada hay que entender que estas empresas apalancan otra de las grandes tendencias de la transformación digital que es el Internet de las Cosas (IoT) y los sensores.

Growing Technology Acceptance Boosts Demand for IoT in Utilities

Esta nueva forma de obtener datos les permite generar casos de uso como:

Predicción, detección y prevención de cortes de energía

Un corte de energía puede hacer que todo un país se detenga, como el apagón del noreste de 2013 que afectó a más de 45 millones de personas en los Estados Unidos. Las condiciones climáticas desfavorables son una de las principales causas de tales cortes. Las Utilities están construyendo una infraestructura y sensores más inteligentes para mejorar la previsibilidad y prevenir estos escenarios de interrupciones.

Los sistemas modernos de cortes de energía emplean soluciones en tiempo real que operan en base a datos en vivo y algoritmos inteligentes para predecir y prevenir cualquier situación posible.

Estos sistemas son capaces de predecir el impacto de cualquier eventualidad cercana a la red, posibles cortes causados ​​debido a eventos de medidores inteligentes, cortes específicos de la región y más.

Gestión de carga inteligente

Para gestionar de forma eficiente la carga de energía, las Utilities necesitan equilibrar de forma estratégica e inteligente la demanda de energía con un suministro de energía óptimo en un período de tiempo determinado. Tener un sistema de gestión de carga inteligente les permite cubrir los requisitos de gestión de red de extremo a extremo, incluidas la demanda y las fuentes de energía con la ayuda de fuentes de energía distribuidas, sistemas de control avanzados y dispositivos de uso final.

Todos los componentes del sistema de gestión generan datos. Al aplicar análisis de Big Data, las empresas pueden tomar decisiones con precisión con respecto a la planificación y generación de energía, la carga de energía y la estimación del rendimiento.

▷ Mantenimiento Predictivo - Digitalización y optimización de las fábricas

Gestión preventiva de activos

Dado que es una industria intensiva en activos y depende en gran medida del rendimiento óptimo de sus equipos e infraestructura de red. La falla de estos activos puede causar serios problemas de distribución de energía y, en consecuencia, mermar la confianza del consumidor. Por lo tanto, prevenir este tipo de incidentes es una de las principales prioridades de la industria.

Para el mantenimiento preventivo de equipos, el Big Data y la analítica viene al rescate. Los activos están integrados con sensores inteligentes, rastreadores y soluciones de datos que transmiten información en tiempo real al centro. Los datos recopilados se pueden procesar y analizar para identificar posibles problemas con el mantenimiento del equipo, lo que permite un manejo proactivo de la situación.

Mayor eficiencia operativa

Aprovechar los datos en tiempo real de los activos relacionados con la tasa de actividad, el estado de las operaciones, el tiempo, el análisis de la oferta y la demanda, y más, ayudan a las empresas de Utilities a optimizar la eficiencia energética y el rendimiento de los activos. Las aplicaciones de Big Data y analítica les permiten mejorar la confiabilidad, la capacidad y la disponibilidad de sus activos de red mediante el monitoreo continuo del costo y el rendimiento.

Y… ¿de que tamaño es el mercado?

Finalmente, Antonio nos hizo reflexionar acerca de las aplicaciones de Big Data, analítica de datos, Internet de las Cosas y sensores que tiene este sector. Hemos visto ejemplos claros y aplicaciones con casos de negocios sustentados, pero como emprendedores, como proveedores de soluciones de analítica, la última disyuntiva que pudiéramos tener es ¿de qué tamaño es el pastel? y justo nos dimos cuenta que la inversión en analítica por parte de las Utilities ha venido creciendo desde el 2012 y el año pasado logró posicionarse en $3.8 billones de dólares, de los cuales Latinoamérica participa con alrededor de $0.5 billones de dólares.

Así que, al igual que nosotros esperamos que hayas aprendido como nosotros un poco más alrededor de una industria que a pesar de ser longeva tiene una gran oportunidad y ya esta adoptando nuevas tecnologías.

Si eres emprendedor, profesionista o simplemente te interesa adentrarte al mundo de la ciencia de datos te recomendamos escuchar el Episodio #44 de nuestro podcast Café de Datos con Antonio Pita y conocer más acerca del Máster en Ciencia de Datos de KSchool del cual Antonio es el director y tiene un modelo muy interesante de aprendizaje basado no solo en la teoría sino también en la práctica.

Hasta aquí la columna de hoy, no olvides compartirla con tus colegas y seguirnos en nuestras redes sociales como @DatlasMX

Bibliografía:

BigDataissuesandopportunitiesforelectricutilities.pdf

The role of big data analytics in Energy & Utilities (cigniti.com)

Utility | WikiFinanzas – Finanzas para Mortales (wiki-finanzas.com)

arquitectura de proyectos de datos (Data warehouses, vs Data lake vs Data mart) – Datlas manuales

Cuando vemos una casa bonita, con buena arquitectura , jardinería bien cuidada e iluminación en su punto lo que menos nos preocupa es cómo está la casa en su plomería y en los cables que hacen que esa iluminación y jardín se vean de primera. Al final tenemos contacto con los interiores y la fachada de la casa ¿Por qué debería de importarme? Bueno si en lugar de una casa habláramos de una plataforma increíble de mapas o dashboard… seguramente tendríamos que entender cómo funciona para poder construir uno para nosotros igual de funcional.

En esta columna hablaremos de la arquitectura para proyectos de datos y cómo funciona la plomería que hace viajar los datos desde su fuente hasta los puntos de consumo por los usuarios.

¿El contexto para el “aprovechamiento de los datos” ?

Desde hace un par de años decidimos comenzar nuestros diálogos sobre data science en foros nacionales con un gráfico así. Nuestra urgencia era comunicar por qué les debería de importar aprovechar todos esos datos que las organizaciones generan.

Ahora, no es tan necesario hablar de esto, la transformación digital a vuelto a los datos los protagonistas del cambio. No hay organización respetable que quiera “dejar valor en la mesa” y no esté ocupando un porcentaje de su tiempo en capitalizar el valor de los datos.

Mencionamos esto como contexto de la columna, el aprovechamiento de los datos muchas veces es dialogado de la parte cultural… pero ¿Cómo perderle el miedo a tratar de entenderlo desde la perspectiva técnica? Esperemos esta columna te apoyo a eso

¿Cómo funciona la plomería detrás de un proyecto de aprovechamiento de datos?

Un proyecto de aprovechamiento de datos para medianas y grandes cantidades de datos se puede ilustrar de la siguiente manera.

  • Existen datos de negocio de distintas fuentes. Puede ser puntos de venta transaccionales, ventas, información adquirida vía terceros (por ejemplo de clima de IBM o negocios de Google Places), de redes sociales, entre otras
  • Estos datos tendrán entrada a nuestros sistemas de información mediante una copia que se dirige a un repositorio de datos denominado “Data Lake” o “Lagos de datos”. En este punto la información es de todo tipo y con estructuras diferenciadas
  • A partir de ahi es importante limpiar, estructurar e integrar las bases de datos de una manera en que puedan ser “consumibles” para nuestros proyectos de datos. Por ejemplo, si tenemos datos de clima y de negocio, podríamos generar una base de datos a nivel código postal o suburbio y cruzar estos 2 datos enlazados a una misma zona de la ciudad. Este proceso puede suceder via un ETL (Extract – Transform – Load ; Extraer – Transformar – Cargar) que son pasos programados para que los datos puedan ser casi listos para ser usados
  • Los datos procesados por el ETL serán ahora información. Esta información podrá ser almacenada en un repositorio llamado “Data Warehouse”. A diferencia del “Lago de datos”, en este “Warehouse” la información compartirá estructura y habrá una mayor homologación entre los sistemas numéricos en los que se registran las variables
  • Estos registros pueden pasar por pasos de “agregación” en donde se hacen sumatorias. Por ejemplo, en el “Warehouse” podríamos tener los registros de toda una semana de una tienda. Pero en la agregación, tendríamos la sumatoria de transacciones por día para poder realizar graficas de resultados diarios
  • Esa agregación la podemos llevar directo a plataformas como dashboards o si queremos manejar cierta discrecionalidad en la información podemos manejar “Data Marts”. Por ejemplo, si queremos que el área de Logística sólo vea información operativa y no financiera podremos generar un Data Mart para aislar los datos y habilitar la construcción de tableros sólo con los datos que les corresponde visualizar

Te podrá interesar nuestras otras columnas: Qué es un ingeniero de datos en el diseño de perfiles de equipos de datos o cómo construir iniciativas de datos

¿Cómo varía por tecnología?

Estas rutas pueden variar por cada tecnología. Pero es válido decir que la mayoría de estas etapas se podrían cumplir en cada tecnología.

A continuación te compartirnos una imagen muy interesante que encontramos sobre los “pipelines” y contrastes entre:

  • AWS (amazon web services). De Lambda y S3 hasta Quicksight
  • Microsoft. De AZURE a PowerBI
  • Google. De big query a Data studio
Elaborado por @scgupta

Cuéntanos en @DatlasMX ¿Qué arquitectura preferirías o prefieres para tus proyectos de aprovechamiento de datos?

Hasta aqui la columna de hoy, gracias por leerla y te recomendamos suscribirte a nuestro podcast para seguir aprendiendo de datos y analítica. Conoce más en https://linktr.ee/datlas

Equipo Datlas

– Keep it weird-

Otras fuentes

Introduciendo al Gobierno de Datos – investigación datlas

Un gobierno de datos consiste en una capacidad organizacional para gestionar el conocimiento que se tiene sobre los datos generados y la información en dominio de la empresa. Pero ¿Por qué es importante comenzar a considerar uno? ¿Qué tipo de riesgos nos ayudará a prevenir y atender? ¿Quién conforma un gobienrno de datos? Nos dimos a la tarea de investigar algunas de estas preguntas y compartir en esta columna de investigación nuestros hallazgos.

El gobierno de datos ayuda a responder preguntas como ¿Qué sabemos sobre nuestra información? ¿De dónde provienen los datos? ¿Están los datos alineados a nuestra política de empresa u organización?

Objetivo de un gobierno de Datos

Ejercicio de diseñar, controlar y monitorear todo lo relativo a los datos desde un enfoque holístico, en el que participen los implicados, desde el gobierno corporativo de la empresa y el departamento de TI hasta un consejo de gestión de datos que represente a las partes interesadas (

Te puede interesar: Facebook/ Cambdrige analytica sobre privacidad de datos

Importancia de un buen gobierno de datos

La mayoría de las organizaciones no piensan en un gobierno de datos hasta que sucede algún percance o se daña su reputación. Pero hay una buena oportunidad de venta interna si reconocemos que el gobierno de datos nos puede ayudar para lo siguiente:

  • Identificar a los datos como un activo de valor y mantener estándares de calidad
  • Lograr gobernabilidad y gestión del dato
  • Lograr eficiencias en las funciones de datos para la compañía
  • Cumplimiento de normativa y preservación de la privacidad
  • Asegurar la disponibilidad en tiempo y forma de un recurso de valor para la compañía: el dato

Te puede interesar: Un México sin datos

Riesgos a prevenir

Ningún sistema está libre de riesgos y los sistemas de datos suelen ser de los más atacados en organizaciones. De acuerdo a la UNAM, estos son los riesgos más frecuentes de los que hay que protegerse

Amenazas a la seguridad de los datos, daño o alteración, destrucción lógica, hackeo, pérdida de información, destrucción física y eliminación.

Por otro lado , la universidad de Wharton especifica una calidad de riesgos directamente asociados a la Inteligencia artificial.

Dentro de la categoría de riesgos relacionados a los datos está: Limitaciones para aprendizaje y calidad de los datos. En la categoría de ataques de Inteligencia artificial o Machine Learning está: Ataque contra la privacidad de los datos, alteración de los datos de entrenamiento, insumos con errores y extracción de modelo. En la categoría de pruebas y confianza: Resultados incorrectos, falta de transparencia y sesgos. Finalmente, en la categoría de cumplimiento, los riesgos es caer en un incumplimiento de políticas.

Te puede interesar: 3 reflexiones de “Great Hack” Nada es privado de NETFLIX

Ventajas de institucionalizar un gobierno de datos

  1. Apoyar las iniciativas de BI/Data Warehousing
  2. Apoyar una iniciativa MDM
  3. Facilitar la migración de datos heredados
  4. Cumplir con la normativa y requisitos legislativos
  5. Reducir el riesgo empresarial
  6. Mejorar la flexibilidad empresarial y la agilidad de negocio
  7. Apoyar actualizaciones de software operativo
  8. Reducir los costos
  9. Apoyar el manejo de fusiones y adquisiciones
  10. Generar un inventario de datos y algoritmos para uso de la organización
  11. Evitar la discriminación por el entrenamiento de sistemas inteligentes con datos sesgados

¿Cómo iniciar un gobierno de datos en mi organización?

Según IBM, hay 6 pasos para el gobierno de datos

1) Establecer Metas: Qué es lo que va a guiar la operación del consejo en el gobierno, cuáles son las metas que se alinean a los objetivos estratégicos de la organización, qué metas garantizan la sustentabilidad del gobierno en el largo plazo y cómo integrar a las personas adecuadas

2) Definir métricas: Con qué niveles de efectividad se medirá a todas las áreas que sean consumidores de los datos en el dominio de organización, cómo se medirá el nivel de madurez para instaurar auditores y procesos de datos así como poder contar con métricas claras para todos los procesos involucrados en los datos

3) Tomar decisiones: Habra situaciones específicas para los que las reglas del gobierno establecidas permitan la fluidez de procesos sin toma de decisiones. Pero en casos específicos se tendrá que convocar al consejo y establecer un orden en las políticas de decisión puede brindar mayor agilidad a la cultura de datos de una organización

4) Comunicar políticas: El gobierno de datos no puede ser un satélite de la organización, en el sentido de estar lejos de la misma. Es importante que entienda el negocio y sobre todo que diseñe métodos de comunicación efectiva para no interferir en los procesos de otros equipos

5) Medir resultados: Darle seguimiento al cumplimiento de metas y de la disciplina en la toma de decisiones que se haya instaurado desde el inicio. Importante abrir espacios de retroalimentación para la mejora continua

6) Auditar: Herramienta usada para comprobar todo

Te puede interesar: Aprendiendo ciencia de datos para líderes de equipo (KPIs)

Estructura organizacional

El consejo de gobierno de datos tendrá que tener miembros de todas las pares interesadas. Deberá estar el CDO (Chief Data Officer) en caso de existir, equipos de planeación, finanzas y TI principalmente. Líderes que tengan capacidad de influir en las prácticas de sus equipos y al mismo tiempo quienes valoren a los datos como activos para la empresa.

Por el lado operativo, puedes seguir la guía de “Perfiles para construir un equipo de analítica” en donde el analista o gerente de analítica podrá tener una voz en el consejo. Pero al mismo tiempo procurará ser el “manager del gobierno de datos” para minimizar las vulnerabilidades por riesgos de datos en sus equipos

Te puede interesar: Chief Data Officer: Ahora los datos tienen un asiento en el consejo o escuchando nuestro podcast con el CDAO de CHUBB

Hasta aqui el capítulo de hoy. Nos interesaría conocer si en tu organización ya están manejando un gobierno de datos o si están pensando en desarrollar uno ¿Qué están considerando? ¿Por qué le ven utilidad? ¿Creen que para algunas industrias debería ser obligatorio? Participa con nosotros mediante nuestras redes sociales @DatlasMX

Fuentes:

PowerData. Fuente: https://blog.powerdata.es/el-valor-de-la-gestion-de-datos/bid/406201/qu-es-el-gobierno-de-datos-y-por-qu-lo-necesito

Artificial Intelligence RISKS Wharton. Fuente: https://ai.wharton.upenn.edu/artificial-intelligence-risk-governance/

UNAM. Fuente: https://programas.cuaed.unam.mx/repositorio/moodle/pluginfile.php/854/mod_resource/content/4/contenido/index.html

Aprendiendo de Ciencia de datos para líderes de equipo – manuales datlas

El mes pasado terminamos el curso de “Data Science for Managers”. Este curso tiene un alcance específico para gerentes que están liderando proyectos de analítica y transformación digital en organizaciones. En esta columna compartiremos 5 de los aprendizajes así como un podcast que grabamos alrededor de algunos conceptos de analítica y ciencia de datos que aprendimos.

Sobre los niveles de madurez en analítica para organizaciones

Cuando comienzas a hablar de ciencia de datos en organizaciones es muy importante darse un tiempo para la auto-evaluación. Entender cuál es el nivel de madurez de tu empresa o equipo te ayudará a seleccionar las estrategias adecuadas para ese nivel. En este caso el equipo que nos impartió las clases, Galvanize, nos recomendó este modelo de 5 niveles para medir el nivel de madurez de datos. Estos los identificamos y los discutimos en el podcast que te recomendamos escuchar.

** Te puede interesar aprender del “SISTEMA ILUO para desarrollar matrices de habilidades en departamentos de datos”

Sobre los lenguajes de programación para ciencia de datos más usados en la industria

En la industria sigue existiendo una variedad cada vez más crecientes de lenguajes de programación con enfoque a paqueterías que habilitan la resolución de problemas de analítica de datos. En general, de software libre Python y R fueron los más mencionados. Por otro lado los que consideran uso de licencia, sería SAS, MATLAB o SPSS. La extracción de información con SQL también fue mencionada. Todos estos apuntes para posible agenda de desarrollo de científicos de datos.

Sobre el pensamiento sistémico en analítica con transformación digital

Lo que continuará pasando al futuro es una mayor integración de hardware especializado que genere y comparta datos. En un pensamiento de proyectos sistémicos no se trata de ciencia de datos o inteligencia artificial por su cuenta sino de un pensamiento sobre sistemas inteligentes.

Este tipo de pensamiento nos ayudará a pensar cuando se contrate un proveedor en una organización si la plataforma que ofrece ¿Se integra con sistemas IOT? ¿Estaría contemplado para complementar un sistema inteligente?

Sobre la priorización

Otro de los beneficios de este curso fue que se lleva con otros expertos de la industria que convoca el Monterrey Digital Hub. Cuando los facilitadores generaron la consulta de cómo se priorizan los datos en las compañías hoy en día estas fueron las respuestas.

La respuesta de 6 de cada 10 asistentes fue que la visión de los ejecutivos (directivos) es lo que dicta la prioridad. Otros miembros complementaron con alternativas de presupuesto, impacto a indicadores clave o asignación de recursos por parte de la organización. Conforme la industria y los proyectos de datos se califiquen con más rigor muy seguramente la prioridad se generará más orientado a KPIs u OKR .

Sobre cómo medir el valor de los proyectos

Otro de los puntos a capitalizar, de lo que esperamos se pueda incrementar la cultura en las organizaciones, es de cómo medir de manera continua el ROI (retorno sobre la inversión) de los proyectos de analítica.

En el curso nos explicaron algunos de los factores como considera talento, productos de datos y tecnología necesarios para calcular el ROI. Y de manera muy importante detectar a qué oportunidad de negocio estamos impactando: Nuevas oportunidades, optimizar o automatizar.

Hubo muchos aprendizajes más, pero quisimos destacar algunos aqui y otros más en nuestro episodio de podcast de analytics “Café de Datos” #Cafededatos.

Hasta aqui la columna de hoy si te gustó la columna te invitamos a recomendar así como SUSCRIBIRTE a nuestro PODCAST Café de datos

Saludos

Equipos Datlas

– Keep it weird-

Chief Data Officer: Ahora los datos tienen asiento en el consejo

Hace un par de semanas tuvimos la oportunidad de colaborar en un podcast muy interesante donde platicamos un poco la historia de Datlas, el tema del análisis de datos y algunas cosas más. Una de las partes más interesantes fue cuando de pronto el entrevistador dijo algo así como:

Hace unos años los diseñadores empezaron a tener tal relevancia que decían que los diseñadores merecían una silla en el consejo, ¿Qué opinas respecto a los científicos de datos o analistas de datos? ¿merecen su silla en el consejo?

Y fue ahí donde comenzamos a hablar de este famoso puesto llamado Director de Datos o Chief Data Officer (CDO). Para nuestra sorpresa, algunos miembros de la audiencia no estaban tan familiarizados con este rol, así que en la columna de hoy vamos a profundizar en las responsabilidades de un CDO y porque son relevantes para los negocios hoy en día.

Datlas_Blog_Promo_SuscriberFree

¿Qué es un Chief Data Officer (CDO)?

El CDO se define como aquel funcionario corporativo responsable del gobierno y la utilización de la información como un activo a lo largo de toda la empresa, a través del procesamiento, análisis, extracción de datos, comercio de información y otros medios. Los CDO generalmente reportan al director ejecutivo (CEO), aunque dependiendo del área de especialización, esto puede variar. El CDO es miembro del equipo de administración ejecutiva y encargado de supervisar el procesamiento y minería de datos en toda la empresa.

Un poco de historia…

El rol de gerente para el procesamiento de datos no se elevó al de la alta gerencia antes de la década de 1980. A medida que las organizaciones han reconocido la importancia de la tecnología de la información, así como la inteligencia empresarial, la integración de datos, la gestión de datos maestros y el procesamiento de datos para el funcionamiento fundamental de las actividades comerciales diarias, esta función se ha vuelto más visible y crucial. Este rol incluye definir prioridades estratégicas para la empresa en el área de sistemas de datos, identificar nuevas oportunidades comerciales relacionadas con los datos, optimizar la generación de ingresos a través de los datos y, en general, representar los datos como un activo comercial estratégico en la mesa ejecutiva.

8 Ways Chief Data Officers Can Help Healthcare Thrive

Con el aumento de las arquitecturas orientadas a servicios (SOA), la integración de sistemas a gran escala y los mecanismos de intercambio / almacenamiento de datos heterogéneos (bases de datos, XML, EDI, etc.), es necesario contar con un individuo de alto nivel, que posea una combinación de conocimientos comerciales, habilidades técnicas y habilidades interpersonales para guiar la estrategia de datos. Además de las oportunidades de ingresos, la estrategia de adquisición y las políticas de datos del cliente, el CDO se encarga de explicar el valor estratégico de los datos y su importante papel como activo comercial y generador de ingresos para ejecutivos, empleados y clientes. Esto contrasta con la visión anterior de los sistemas de datos como simples sistemas de TI de back-end o soporte.

Registros indican que los primeros nombramientos de CDO en corporativos se dieron en el año 2002.

El CDO en la actualidad

De acuerdo a datos de Forbes en 2012, solo el 12% de las Fortune 1000 tenían un CDO. Para 2018, el 67.9% de las firmas encuestadas reportaron tener un CDO.

El CDO también puede ser responsable del análisis de datos (data analytics) y la inteligencia empresarial (business intelligence), el proceso de extraer información valiosa de los datos. Algunas funciones de gestión de datos pueden recaer en TI.

Ronald van Loon en Twitter: "The evolution of the chief data officer role  [#INFOGRAPHICS] by @EdBurnsTT @BizAnalyticsTT | Read more at  https://t.co/tfiwb3apdr #MachineLearning #ML #DataScience #DeepLearning #DL  #BigData #Analytics #BI ...

Por sus siglas en ingles el Chief Data Officer (CDO) es muchas veces confundido con el Chief Digital Officer o Chief Digital Information Officer. La principal distinción radica en que el director de datos es la persona senior, con un enfoque comercial, que comprende la estrategia y la dirección del negocio, pero su enfoque está en cómo respaldar eso con datos.

Asimismo algunas organizaciones también utilizan roles como el Chief Information Officer (CIO) o el Chief Technology Officer (CTO) de forma indistinta con el de Chief Data Officer (CDO). Para hacer una clara diferenciación entre ambos nos gusta citar la analogía que hace Caroline Carruthers, directora de la firma de consultoria Carruthers and Jackson, ex directora de datos (CDO) de Network Rail y co-autora de “The Chief Data Officer’s Playbook and Data-Driven Business Transformation: How to Disrupt, Innovate and Stay Ahead of the Competition”. Ella utiliza la analogía de la cubeta y el agua para explicar la clara distinción entre un CDO y un CIO. Así lo explica:

El director de información (CIO) es responsable de la cubeta. Ellos son responsables de asegurarse de que la cubeta sea del tamaño correcto, que no tenga agujeros, que sea segura y que esté en el lugar correcto. El director de datos (CDO) es responsable del fluido que entra en el balde, sale del balde, que va al lugar correcto, que tiene la calidad adecuada y el fluido adecuado para empezar. Ni la cubeta ni el agua funcionan el uno sin el otro.

The Chief Data Officer | Deloitte

Finalmente, ¿Cómo se si necesito un CDO?

Sin duda el gobierno corporativo es una estructura que muchas veces se asocia a las organizaciones más grandes, empresas nacionales o internacionales. La realidad es que más allá del nombramiento o del puesto como tal, cualquier organización puede adoptar una figura que ostente el rol de CDO dentro de su compañía. Desde una startup hasta nuestros colegas PyMEs pueden adaptar este puesto, a su propia escala, para realmente tener una cultura centrada en los datos. Al final del día lo importante es que esta persona sea responsable de ver en los datos ese activo valioso para la empresa, sobre el cual se puede derivar un valor importante y muchas veces hasta una ventaja competitiva para el negocio.

Datlas_Promo_Podcast_Suscribe

Inteligencia Artificial y Big Data en los negocios, ¿Qué efectos tuvo el COVID-19 en estas tendencias? – DATLAS Investigación

A inicios de año se nos presentó un reto sin precedentes que afectó completamente la forma en la que hacemos negocios. En respuesta a este gran cambio muchas empresas hicieron un replanteamiento de estrategias y objetivos al final del primer semestre del año. Nosotros no fuimos la excepción, como proveedores nos tocó presenciar de primera mano como muchos negocios lidiaban en distintas maneras con este reto de la pandemia. Fue ahí, justo unos meses después del gran shock inicial que comenzamos a notar una revaloración que las empresas estaban haciendo respecto a sus datos, como un activo clave, y por ende acerca de tecnologías como la Inteligencia Artificial (I.A.) y el Big Data.

Datlas_Blog_Promo_SuscriberFree

Comprometidos con seguir aportando a nuestro ecosistema, y conscientes de lo que estábamos presenciando, organizamos un Programa de 6 Sesiones para este segundo semestre del año (una vez al mes) en donde exponemos con casos de negocios reales los beneficios que empresas de todos los tamaños han podido capitalizar el uso de datos y aprovechar estas tecnologías. Justo este viernes tendremos nuestra segunda sesión titulada “El impacto del Big Data y la Inteligencia Artificial en los negocios” y es por ello que, en esta columna, hablaremos de como estas tendencias han impactado el mundo de los negocios y que tanto la pandemia a “afectado” su adopción.

La relación del Big Data & la I.A.

Antes de profundizar es necesario dejar en claro la razón de hablar en conjunto acerca del Big Data y la Inteligencia Artificial. En un sentido general el Big Data se refiere a esta manipulación de grandes cantidades de datos o información en diversos formatos, mientras que la Inteligencia Artificial (I.A.) se refiere a programas computacionales que son capaces de emular actividades del cerebro humano como el aprendizaje con base a experiencia (eventos pasados). Siendo así, no podemos hablar de Inteligencia Artificial sin hablar de Big Data dado que para construir modelos o algoritmos de I.A. se necesitan datos, que precisamente son obtenidos y manipulados por el Big Data.

¿Qué impacto esperábamos hace algunos años?

Apenas hace un par de años (2018), según información de Deloitte, 9 de cada 10 ejecutivos afirmaban que los sistemas de I.A. transformarían sus modelos de negocio.

datlas_mx_blog_deloitte_encuesta

Además, se esperaba que la Inteligencia Artificial diera lugar a la aparición de nuevos perfiles profesionales que debían convivir con los ya existentes. Estos perfiles especializados abren un nuevo abanico de posibilidades innovadoras que afectan directamente a procesos y herramientas, que ven mejorado su rendimiento.

Impacto actual

Actualmente, lejos de verse mermado el acelerado crecimiento y adopción de soluciones de I.A., por ejemplo, se ha visto una expansión interesante a nivel mundial y también en Latinoamérica. En el caso de asistentes virtuales inteligentes (tipo Siri y Alexa) en Latinoamérica se manejan más de 850 millones de conversaciones en negocios B2B y B2C para atraer, generar, crecer y retener clientes. Y este es solo un tipo de aplicación y una de las múltiples formas de derivar beneficios.

Por otro lado, el Big Data se utiliza para promover productos, desarrollar mejores estrategias comerciales, llegar a los clientes, explorar nuevos mercados y audiencias objetivo, optimizar el flujo de trabajo, reducir los costos y obtener otras ventajas competitivas en el mercado.

Natural Language Processing: A Short Introduction To Get You Started |

Ahora bien, sabemos que no todos los negocios han sufrido esta pandemia de la misma forma. Existen sectores o industrias que han sido impactados de forma más crítica, mientras otros han podido lidiar con esto de una manera menos acelerada. De la misma forma el impacto que estas tendencias del Big Data y la I.A. han tenido en las distintas verticales de negocio ha sido variado, en términos de sus aplicaciones, pero igualmente relevante y trascendente. Por mencionar algunos ejemplos puntuales profundizaremos en industrias como: retail, marketing y publicidad, así como el transporte y logística.

Retail, Marketing y publicidad

La tarea más frecuente de las soluciones de Big Data está relacionada con la búsqueda de patrones de comportamiento que se puedan emplear para muchos propósitos. Comprender los hábitos y deseos de los clientes es la principal preocupación de cualquier negocio, y el análisis de Big Data es la única forma válida de lograr resultados precisos basados en un gran muestreo y cálculos extensos en lugar de intuiciones y experiencias personales.

Otra aplicación común de Big Data en las empresas de retail, marketing y publicidad es el análisis predictivo sobre la base de grandes conjuntos de datos. La mayor cantidad y volumen de datos permite obtener resultados más precisos, configurar más parámetros antes del análisis e incluso ampliar los temas y las posibilidades generales de pronóstico.

Qué es el Big Data Marketing y qué ventajas ofrece?

Transporte y logística

Las empresas de transporte también manejan grandes volúmenes de información sobre vehículos, pasajeros, equipaje y carga. La necesidad de administrar flujos de datos extensos con restricciones de tiempo estrictas impuestas por los horarios de transporte requiere soluciones de software de alto rendimiento diseñadas específicamente para Big Data.

El propósito práctico de tales soluciones radica en rastrear la entrega de carga, monitorear el uso y suministro de combustible, el estado técnico del estacionamiento de vehículos de la empresa, los controles de salud de los conductores y el horario de trabajo, así como muchos otros factores relevantes. De esta forma, las empresas pueden utilizar el software Big Data para priorizar la seguridad además de la optimización habitual del consumo de recursos y la mejora de la eficacia.

How does Big Data save logistics? - How does Big Data save logistics? -  Régens

¿Cómo pinta el futuro?

Los analistas empresariales predicen que los ingresos del mercado global de Big Data alcanzarán los 103 mil millones de dólares en 2027. No importa si tu empresa es grande o pequeña, siempre hay una forma de beneficiarse de las soluciones de Big Data. La ventaja más importante que ofrece esta tecnología es el conocimiento de las necesidades y los patrones de comportamiento de los clientes. Esta información, junto con los pronósticos de alta precisión permite a los empresarios diseñar estrategias comerciales efectivas en lugar de perder tiempo y dinero en el método de prueba y error. La capacidad de manejar grandes volúmenes de información utilizando soluciones de software automatizadas también simplifica enormemente la gestión empresarial, incluidos aspectos como mantenimiento, inventario, envío, carga de trabajo y otros.

Si quieres conocer un caso real aplicado de Big Data e Inteligencia Artificial y enterarte de como puedes tu mismo comenzar a aplicar estas tecnologías en tu negocio el próximo lunes, no te pierdas nuestra sesión este viernes. Inscríbete gratis aquí.

datlas_mx_6_sesiones_2S2020_bigdata_analytics_ia_sesion2_promo

Análisis de datos desde Google Analytics

Nuestra filosofía desde el día zero ha sido que con los datos y la tecnología adecuada las personas podrán resolver problemas cada vez más complejos. En más de una ocasión nos hemos enfrentado a un público que desconoce términos como análisis de datos o big data. Uno de los ejemplos más claros e intuitivos que solemos comentar en estos foros es precisamente el de Google Analytics, esta herramienta de Google que nos permite conocer las principales métricas de nuestro sitio web, desde el número de visitantes que recibimos hasta las páginas que más consultan los visitantes cuando acceden al mismo. Este aplicativo nos permite adentrarnos en el mundo del análisis de datos desde un panel de control simple de comprender para cualquier profesional. En esta columna vamos a repasar algunos de los conceptos que nosotros mismos y algunos de nuestros clientes hemos tenido que estudiar cuando nos adentramos al mundo de Google Analytics, así como un par de preguntas interesantes a plantear cuando estas analizando los datos.

free_Suscriber

Top 5 de conceptos básicos

Sin duda habrá un montón más, pero por lo menos para nosotros, de inicio, estos han sido los conceptos menos intuitivos y que más trabajo nos costo entender. Al mismo tiempo son conceptos que nos dan insights claves a la hora de los análisis y la derivación de accionables.

  1. Adquisición: las métricas de adquisición muestran de dónde proviene su tráfico, ya sea búsquedas de Google, enlaces a redes sociales u otros sitios web.
  2. Porcentaje de rebote: un rebote es una visita al sitio web de una sola página, por lo que la tasa de rebote de su sitio es el porcentaje de visitas a una sola página que tiene su sitio. En general, lo ideal es que este número sea lo más bajo posible.
  3. Objetivos de conversión: es la finalización de una actividad en su sitio que es importante para el éxito de su empresa, como un registro completo para el newsletter. OJO: esto debemos configurarlo desde inicio antes de que Google rastree cualquier proceso de conversión.
  4. Sesiones: una sesión es un único período de visualización activo continuo por un visitante. Si un usuario visita un sitio varias veces en un día, cada visita única cuenta como una sesión.
  5. Vistas de página únicas: la cantidad de páginas nuevas por sesión de visualización que los usuarios han visitado.

datlas_mx_blog_google_analytics_logo

Ahora bien, hasta aquí por lo menos sabemos de que se tratan el montón de datos que podemos ver en el panel de Google Analytics, pero lo realmente importante de los datos es la inteligencia que guardan detrás y lo que podemos accionar con ellos una vez que hayamos analizado a fondo sus “historias”. Para esto existen también algunos consejos y lineamientos que hemos aprendido en los últimos años y queremos compartir con ustedes.

En primer lugar y lo más importante es plantear las preguntas a resolver antes de entrar en analytics. Pero ¿cómo? ¿antes de entrar? ¿no estábamos ya dentro? Sin duda es algo contra intuitivo, pero importantísimo. El paso previo para poder entrarle a cualquier análisis es plantear las preguntas a resolver, es decir, tener claro lo que se va a investigar, por ejemplo: ¿por qué no estoy teniendo suficientes suscriptores a pesar de estar dirigiendo mucho tráfico a mi página? ¿dónde pudiera estar el cuello de botella?

datlas_mx_blog_google_analytics_panel

Una vez teniendo clara la pregunta podemos entrar a explorar los indicadores claves que nos ayuden a responder o validar las hipotesis. Por ejemplo, mencionamos el concepto de porcentaje de rebote o incluso los mismos objetivos de conversión que son métricas o indicadores por los que podemos empezar para descifrar esta incógnita. En este punto es importante mencionar el segundo de los consejos: personalizar alertas. Existe una opción dentro de Google Analytics que te permite establecer alertas dadas ciertas condiciones en los indicadores. Configurando alertas podrás establecer procesos o protocolos específicos. Uno de nuestros clientes, por ejemplo, tiene establecido que si el trafico de la pagina baja cierto nivel le llega una alerta al equipo de marketing que inmediatamente acciona una campaña de Adwords para contrarrestar el efecto.

El tercer consejo es analizar la velocidad del sitio. Hoy en día las nuevas generaciones estamos cada vez más acostumbrados a la inmediatez y no hay nada más dañino para un negocio en términos de posicionamiento que un sitio web que se tarde años (más de 3 segundos para millenials y posteriores) en cargar. En la sección de comportamiento (behavior) podrás encontrar los page timings y algunas sugerencias al respecto.

datlas_mx_blog_site_speed

El penúltimo tip que queremos compartirles tiene que ver con conocer a sus clientes. Dentro de Google Analytics se pueden visualizar las categorías de afinidad de los usuarios que visitan tu sitio web. Esto no solo sirve para temas del sitio web como ajustes de narrativa o visuales sino también para entender el perfil de los clientes y poder accionar otro tipo de estrategias de manera holística en el negocio como por ejemplo despliegues promocionales, activaciones, ajustes a presentaciones de ventas, actividades de prospectación y más.

Finalmente, una de las cosas más graciosas que hemos aprendido en este mundo de Google Analytics: hay que excluir el tráfico interno. Es bastante interesante ver como de pronto el mismo equipo es el responsable de una parte importante del tráfico en el sitio web, incluso muchas veces metiendo sesgo o ruido a los números y por ende, a los análisis. Este último consejo es muy importante, se pueden excluir direcciones IP especificas para que Google Analytics omita contabilizar sus efectos en los indicadores.

De esta forma llegamos al final de esta columna, si quieres aprender más acerca de Google Analytics contáctanos y podemos apoyarte. Si ya haz tenido experiencia en este mundo y tienes algunos conceptos que compartir con la comunidad o incluso consejos como los antes mencionados por favor compártelos en nuestras redes sociales

@DatlasMX

4 pasos para preparar tus bases de datos para análisis – MANUALES DATLAS

Hoy en día la transformación digital cuenta con distintos pilares dentro de los que destaca la analítica o análisis de datos. Apalancar todo el valor que esconden las grandes cantidades de información disponibles en la actualidad permite que los negocios y la sociedad, en general, se organice y genere valor de formas innovadoras. Para lograr un análisis de datos, la materia prima es clave: las bases de datos. Como cualquier materia prima las bases de datos guardan atributos y características que las hacen ser mejores o peores al momento de ser utilizadas como input para un análisis. En esta columna vamos a revisar 4 sencillos pasos con los que podrás asegurar que tus bases de datos estén preparadas y listas para realizar análisis de calidad que generen un verdadero valor diferencial para tu negocio. Estos 4 pasos son: limpieza, reestructura, homologación y clasificación.

#1 Limpieza de datos

El llamado data cleansing, por su traducción al idioma inglés, es el proceso de descubrir y corregir o, en casos extremos, eliminar registros de datos que han sido identificados como erróneos dentro de una tabla o base de datos. Este proceso de limpieza de datos permite identificar datos incompletos, incorrectos, inexactos, no pertinentes, etc. y luego sustituir, modificar o eliminar estos datos sucios.

Hay distintos métodos para limpieza de datos. Uno de ellos es el análisis gramatical que identifica errores de sintaxis, es decir, si el sistema lo tiene declarado como una variable numérica y el usuario registro una palabra, este tipo de análisis lo identifica. Existe la transformación, que básicamente ajusta los datos dentro de un formato esperado, en la mayoría de las ocasiones la transformación es para normalizar los datos y ajustarse a valores mínimos y máximos. Otra forma es el eliminar duplicados, que como su nombre lo dice, simplemente identifica registros repetidos y elimina uno de ellos. Finalmente, existen métodos estadísticos mediante los cuales la estadística descriptiva hace visualmente reconocibles las anomalías y posteriormente expertos se encargan de ajustar ese tipo de datos mediante la sustitución de los mismos por valores promedios o algún otro tipo de tratamiento, dependiendo de la naturaleza del dato.

Una vez detectados estos datos “sucios” es necesario identificar las causas para poder establecer flujos de trabajo ejecutables de forma automática para que corrijan o excluyan este tipo de datos. En temas técnicos es común el uso de bibliotecas como Pandas para Python o Dplyr para R.

datlas_mx_blog_data_cleansing

#2 Reestructura de bases de datos

Este segundo paso del proceso de preparación de bases de datos tiene que ver literalmente con tomar una base de datos de cierta estructura como, por ejemplo, 10 columnas por 3 filas y alterarla de tal forma que al final quede una base de datos completamente nueva de, por ejemplo, 6 columnas por 7 filas, pero con los mismos datos ya limpios que obtuvimos en el paso anterior. Para ilustrar este punto utilizaremos un ejemplo muy sencillo:

Supongamos que levantamos una encuesta sobre productos y marcas que podemos encontrar en el baño de cada entrevistado. Los resultados de la encuesta nos darían una base de datos de la siguiente forma:

EntrevedadsexoProd_1Prod_2Prod_3Marca1Marca2Marca3NSE
110FDesodo

 

rante

Pasta de dientesJabon líquidoAXECRESTNUBELUZA
225MPasta de dientesSham

 

poo

Jabon en gelCOLGATEELVIVEAMIGOB
323FCrema para peinarPasta de dientesJabon de barraSEDALCOLGATEESCUDOC

Si quisiéramos que los datos nos digan que artículos son los que las mujeres de 24 a 30 años tienen en su baño, necesitamos manipular los datos de forma que podamos obtener como respuesta a esta pregunta un cálculo de frecuencia.

En este segundo paso es donde tomamos en cuenta las hipótesis o los objetivos de análisis para generar la reestructura de la información. En este caso, por ejemplo, la base de datos ya reestructurada quedaría así:

EntrevistadoEdadSexoNum_ProdDescripcionMarca
110F1DesodoranteAXE
110F2Pasta de dientesCREST
110F3Jabón LíquidoNUBELUZ
225M1Pasta de dientesCOLGATE
225M2ShampooELVIVE
225M3Jabon en gelAMIGO
323F1Crema para peinarSEDAL

Con lo cual podríamos establecer, suponiendo que utilicemos Excel, un filtro en la columna de edad para seleccionar las edades superiores a 24 años e inferiores a 30, al mismo tiempo que filtramos en la columna de sexo la letra F (de femenino) y simplemente calculamos el total de filas que quedan desplegadas de la tabla. De esta manera respondemos la pregunta inicial.

#3 Homologación de bases de datos

En este punto ya comenzamos a jugar con distintas bases de datos, es decir, muchas veces las empresas tienen distintas áreas donde el modo con el que tratan los datos es distinto. Por lo tanto, al momento de tratar de unificar resultados o compararlos, puede que no se estén tomando parámetros similares y eso difícilmente podrá permitir que se realicen cruces de información de manera eficiente.

Al homologar bases de datos es necesario generar estructuras preestablecidas y un glosario de variables que defina claramente los formatos y las especificaciones necesarias para cada tipo de variable registrada. Un caso muy común por ejemplo es el formato de fechas entre dos bases de datos distintas, mientras uno maneja el formato día/mes/año otro tiene registros como mes/día/año con lo que a la hora de hacer un cruce de información las fechas nunca logran empatar y es imposible realizar un cruce de forma adecuada.

datlas_mx_blog_homologacion_bases_de_datos

#4 Clasificación de bases de datos

Finalmente, tenemos el paso de clasificación. En este punto literalmente el objetivo es darle una etiqueta o categoría a cada base de datos de acuerdo al contexto que estemos manejando, la utilidad de la misma base de datos o las necesidades que estas satisfagan al interior de la organización. De forma general existen dos tipos de clasificaciones para las bases de datos: según la variabilidad de los datos o según su contenido.

Dentro de la primera clasificación existen las bases de datos estáticas, que generalmente son bases de datos de consulta, con registros históricos que no van a cambiar. El típico ejemplo aquí son las ventas de hace 5 años para una compañía de artículos deportivos. Por otro lado, están las bases de datos dinámicas, donde la información cambia a través del tiempo por actividades como: actualización, borrado y edición de datos. El mejor ejemplo en este caso son las bases de datos de clientes (CRM) donde hay constantes actualizaciones de información o incluso eliminación de prospectos.

En la segunda clasificación tenemos las bases de datos bibliográficas, que guardan literalmente registros de autor, fecha de publicación, editorial, etc. En contraste existen las bases de datos de texto completo que almacenan el contenido completo de las citas bibliográficas anteriormente citadas, por ejemplo. También existen subclases como directorios, bibliotecas, etc.

datlas_mx_blog_clasificacion_bases_de_datos

De esta forma logramos tener una integridad entre los datos almacenados, la base de datos que los resguarda, las distintas bases de datos dentro de una organización y su capacidad de complementarse al momento de realizar un análisis. Así de fácil podemos cuidar la calidad de nuestros datos para asegurar que podamos aprovechar todo el poder y las ventajas del big data a la hora de realizar analítica.

Si te interesa conocer más acerca de estos procesos o necesitas ayuda con tus bases de datos, visita nuestro Marketplace o contáctanos en nuestras redes sociales

@DatlasMX

Diagnóstico de bases de datos: Aprovechando al máximo la información que genera tu negocio

A finales de mayo escribimos una columna en donde establecimos los 5 pasos para aprovechar los datos de tus puntos de venta. Dentro de este proceso el paso #1 eran precisamente los datos, mientras que los siguientes pasos se enfocaban en como transformar estos datos en información y de ahí derivar insights para establecer accionables. En esta ocasión vamos a profundizar en ese primer paso, para hablar de la forma en la que un buen diagnóstico de tus bases de datos, una radiografía, puede ayudarte a preparar los datos para realmente aprovechar y capitalizar al máximo durante los siguientes pasos del proceso de aprovechamiento.

free_Suscriber

Así que comencemos, cuando hablamos de bases de datos nos referimos a ese repositorio de registros que tiene el negocio con el récord de los distintos hechos y sucesos que acontecen durante su quehacer diario. ¿Más fácil? Imagínate una hoja de cálculo en Excel con columnas y filas llenas de datos como: nombre del cliente, producto que compro, precio, etc. Ahora bien, el hecho de capturar la información y tenerla digitalizada sin duda es un primer paso, pero muchos negocios en la actualidad creen que eso es suficiente, como si la transformación digital y las nuevas tecnologías como big data o inteligencia artificial se trataran solo de tener datos y de tenerlos digitales. La realidad es muy distinta, sin duda tener los datos es importante, pero su calidad y su estructura son cruciales para poder capitalizar todos los beneficios que esconden. Para dejarlo más claro, imagínate que llegas a un lugar y pides una silla para poder sentarte, la persona a la que se la solicitaste te responde que efectivamente existe una silla y te la trae, pero de pronto cuando te sientas la silla se vence y caes al suelo. ¿Dónde estuvo el detalle? Precisamente en la calidad y estructura de la silla, es decir, no hace falta simplemente tener lo necesario, sino asegurarnos que eso que tenemos puede soportar y capitalizar las exigencias a las que lo vamos a someter.

datlas_mx_blog_diagnostico_database

Así que ¿por dónde empezar? Lo primero es hacer una pausa, un corte y generar el listado completo de variables que maneja el negocio. En nuestro idioma, cuando trabajamos con un cliente, a esto le llamamos generar un glosario de variables. Esto le permite tanto al negocio como a nosotros entender la situación actual, la radiografía, el estatus. Ahora bien, este listado no es simplemente enumerar y nombrar cada dato o variable, sino realmente diseccionar cuestiones como: el tipo de variable, la periodicidad con la que se actualiza, la categoría a la que pertenece dentro de los procesos del negocio o de los atributos que analiza la compañía, el formato con el que se registra, entre otros. Un caso práctico lo vivimos a finales del año pasado trabajando con Andrés, dueño de una cadena de restaurantes con presencia en Monterrey y Playa del Carmen. Cuando Andrés llegó con nosotros con el reto de generar nuevas iniciativas de inteligencia para su negocio, lo primero que preguntamos fue precisamente “¿Qué datos tienen?” y después de un largo silencio concluimos que era necesario hacer el diagnostico.

Al construir el glosario de variables nos dimos cuenta de algunos detalles interesantes como, por ejemplo: registros con problemas ortográficos, formatos de fecha distintos entre cada sucursal (una registraba día/mes/año y otra lo registraba como año/mes/día), había productos que se registraban por peso mientras otros eran registrados por unidad o paquete, etc. Este primer gran paso nos permite hacer lo que un doctor, guardando sus proporciones, diagnosticar y entender que es lo que tenemos que hacer.

datlas_mx_blog_diagnostico_Model-variable-list-Predictor-variables-used-in-models-type-of-data-categorical-or

Una vez que entendimos los datos en su mayor granularidad y esencia, el siguiente gran paso del diagnostico es evaluar la estructura que guardan esos datos dentro de la infraestructura de la empresa. ¿En español? Tomamos el glosario de variables y nos metemos a las entrañas del negocio a ver literalmente la base de datos donde duerme cada uno de esos datos. La clave en este punto es entender si el acomodo, literal, de filas y columnas es el ideal para generar las manipulaciones y los tratamientos necesarios para generar inteligencia. Volviendo al caso de Andrés, como ejemplo, el dato de ventas se registraba en una base de datos que tenia a los clientes (un cliente por fila) y se iba llenando cada transacción (venta) por columna, es decir, si un cliente había comprado 5 veces tenias una base de datos con una fila (el nombre del cliente) y 5 columnas (una con cada fecha de compra). Claramente esta es una estructura difícil de manipular si te pones a pensar en generar analíticos descriptivos como la cantidad de veces que ha comprado dicho cliente o el total de clientes que han comprado 2 veces o más, por ejemplo. De esta forma, este segundo acercamiento nos permite diagnosticar la forma en la que el dato debe guardar una relación con la estructura de la base donde se esta registrando y guardando para poder capturar su potencial de análisis.

datlas_mx_blog_diagnostico_01-a-basic-flat-file-spreadsheet-database-100739687-large

Finalmente, el paso decisivo del diagnóstico es evaluar la relación que guardan las distintas bases de datos del negocio. Si te fijas, nos hemos ido desde lo más particular, que es el dato, pasando por lo más agregado que es la base de datos y hemos llegado a lo más general que es la relación de estas bases dentro de los procesos de negocio. Esta perspectiva esconde los últimos “síntomas” que necesitamos saber para poder dar un diagnóstico certero. En esta etapa lo que buscamos es entender la forma en la que las bases de datos se conectan entre ellas para contar la historia de cada dato enlistado en la parte del glosario. Lo importante es encontrar los datos conectores, es decir, aquellos datos claves que nos ayudan a interconectar una base con la otra. El ejemplo más claro, en el caso de Andrés, es la forma en la que el dato de cebollas dormía en una base de datos de recetas, donde cada receta tenía un identificador único (ID) que a su vez se conectaba a los datos de las ordenes que el mesero tomaba y enviaba a cocina para su ejecución y finalmente ese mismo identificador servía para descontar de la base de datos de inventarios los productos y la cantidad correspondiente. Se lee mucho más complicado de lo que es, pero el mensaje es muy sencillo y claro, entender la forma en la que se comunican las bases es clave para poder hacer un diagnóstico completo.

datlas_mx_blog_diagnostico_database2

De esta forma, siguiendo la analogía del doctor, podemos darnos cuenta fácilmente en que parte se encuentra el verdadero “dolor” e ir a tomar acciones puntuales sobre cada uno de ellos. En el caso de los datos, por ejemplo, las soluciones son claras: limpieza, clasificación o exploración de fuentes de generación de datos para capitalizar nueva información. En el tema de la base de datos individual donde duerme el dato las alternativas son: reestructura u homologación. Para la parte de la comunicación entre bases de datos lo que se puede hacer es: generar variables de identificación única, optimizar la interconexión entre bases de datos o replantear el diseño de consultas (querys). Con todo esto el negocio esta listo para poder capitalizar sus datos y generar inteligencia, que se traduce en mejor gestión de procesos, segmentación de clientes, mejoras a la oferta, ajustes de precio, control de inventarios y mucho más.

Así que ya lo sabes, si quieres aprovechar la generación de datos de tu negocio lo primero es realizar un diagnóstico. En Datlas estamos a tus ordenes para apoyarte, como a Andrés, en este proceso de descubrimiento para poder descifrar todos los beneficios que se esconden en tus bases de datos.

@DatlasMX

 

 

Diseño de perfiles y áreas de analítica para organizaciones – investigaciones datlas

Con el equipo Datlas al año tenemos la oportunidad e participar en algunos foros donde se repite mucho preguntas sobre qué perfiles y cómo preparase para generar una estrategia de datos. En realidad, tal y como lo pudiste leer en ¿Por qué fracasan los proyectos de ciencia de datos? las personas y la forma en que diseñamos el quehacer de sus funciones en una organización son principal factor de éxito para una estrategia de analítica de datos.

En esta columna resolveremos dudas y compartiremos mejores prácticas sobre procesos de diseño, entrevista y reclutamiento de profesionales de analítica de datos e inteligencia artificial en una organización. Todo esto siguiente la guía de puestos presentada en 5 perfiles para una estrategia de datos en tu organización .Que te recomendamos leer antes para que puedas tener un mejor contexto.

Datlas_Blog_Promo_SuscriberFree

ESTRUCTURA ORGANIZACIONAL

El pase de diapositivas requiere JavaScript.

Una estructura de reportes, de jerarquía o de organización para proyectos es muy variante ya que responde a los retos estratégicos de la organización. Específicamente para los datos no hay que olvidar que buscamos que en un mismo equipo se encuentren ingenieros, arquitectos, científicos y analistas al mismo nivel. Esto último debido a que la colaboración y la comunicación debe ser colaborativa. Uno de los métodos que con más frecuencia se usa en la industria son las células de trabajo. Estos son grupos pequeños, pero eficientes, de trabajo que cuentan con todos los recursos para resolver un problema de analítica avanzada.

DISEÑO DE PERFILES

El pase de diapositivas requiere JavaScript.

Las personas que trabajen en el área de analítica necesitan tener ciertas características:

  • Aprendizaje constante. La actualización de modelos de análisis y algoritmos es casi semanal. De la misma manera las nuevas paqueterías sobre machine learning en software como R o Python. Los perfiles tendrán que ser personas que puedan descifrar textos académicos y documentación en guías de programación sobre los modelos más recientes.
  • Curiosidad técnica. Frente a nuevos retos habrá que mostrar curiosidad y no miedo ante nuevas herramientas. Se buscan perfiles “políglotas” que puedan trabajar en distintos lenguajes de programación, estadística de todo tipo y comunicar sus resultados desde un “Power Point” hasta un tablero dashboard en “Power BI”. No tenerle miedo a experimentar e investigar nuevas plataformas.
  • Didáctica para explicar hallazgos.  Quien es analista de datos puede ser un experto/a en matemáticas, pero mientras no sepa explicar lo que hace no podrá influir en las decisiones y orientaciones de la organización. Es importante que el arte de explicar las variables relevantes en un modelo esté presente.
  • Interlocutor con el área de negocios. “Data Translator” o similar, es una capacidad que permite llevar los retos de negocios a problemas estadísticos que puedan ser respondidos con las técnicas correctas de analítica avanzada.
  • Gestión de proyectos. Aunque probablemente una posición gerencial o de dirección será quien gestione proyectos. Es importante que el perfil se pueda alinear a las dinámicas de registro, seguimiento y coordinación de trabajo para desarrollar proyectos. Ser un profesional con noción de urgencia así como mostrar compromisos con fechas de entrega.

Datlas_Promo_Facebook_Suscribe

PROCESO DE RECLUTAMIENTO

El pase de diapositivas requiere JavaScript.

A los científicos de datos les gusta responder a retos y en el mercado laboral de ciencia de datos la entrada a un puesto suele venir acompañada de un buen reto de programación. Un buen postulante deberá poder resolver un reto en materia, ofrecer una visualización y poder comunicar de manera eficiente los resultados de un caso de negocio.

1) Definir estrategia de analítica avanzada y dimensionar las áreas funcionales que ejecutarán la estrategia

2) Recopilar retos actuales y retos futuros para diseñar puestos que respondan a estas necesidades

3) Generar dinámicas para atraer talento: hackathones, retos en línea, revisión de github o portafolio, acertijos o casos de negocio que puedan poner a prueba a los postulantes

4) Considerar entrevistas de “match cultural” así como habilidades de comunicación y liderazgo

5) Período de entrada y “química” con el equipo existente. Retroalimentar y readaptar el proceso a la experiencia de la empresa en particular.

Datlas_Promo_Youtube_Suscribe

LA ENTREVISTA

El pase de diapositivas requiere JavaScript.

Aquí es donde en realidad sucede la magia y se filtra a la mayor calidad de los candidatos. Es muy importante que alguien con conocimiento de industria y que entienda las necesidades de la empresa sea quién realice las entrevistas para obtener el puesto.

Primeramente una recomendación importante es enviar una prueba o reto de la que pueda enviar resultados preliminares por correo y explicar a fondo en la entrevista. En una ocasión, a manera personal, me tocó en NYC recibir desde el app de UBER algunas preguntas de código mientras hacía un viaje. Las contesté correctamente y me invitaban a enviar mi CV para su empresa. Ese tipo de dinámicas se ven “cool” , son modernas y además.

Durante la entrevista es relevante validar con casos o situaciones que se le pueden presentar en el trabajo y conocer muy bien cómo pudiera reaccionar esa persona a las situaciones. Estas simulaciones, sobre todo en problemas que involucran estadística, ayudarán a validar su nivel de conocimiento teórico. Finalmente el práctico es mayormente dominado durante el desempeño del rol

Finalmente asegurarse, como en cualquier puesto, que la persona cumpla con el perfil y que pueda generar proyectos internos para motivar a otras personas a usar las herramientas que sean desarrolladas por el área de analítica es muy importante.

Datlas_Promo_Podcast_Suscribe

CIERRE

Hasta aquí la columna de hoy. Pensamos que esta y otras guías podrán ser de utilidad a los reclutamientos de uno de los roles con más atención de los últimos 5 años. Probablemente los siguientes 5 años se especialicen aún  más. Esperamos que le sirva de orientación y que puedas compartir con más personas para que haya una mejor guía de qué observar para incrementar la calidad del área de analítica de datos.

Saludos

Equipo Datlas

– Keep it weird –