¿Por qué las empresas deben de invertir en la ciencia de datos? – COLUMNA DE OPINIÓN DATLAS

A lo largo de la historia las empresas han generado una gran base de datos proveniente de diversas áreas de su compañía como pueden ser sus ventas, sus niveles de producción, su logística de entregas, clientes, colaboradores, entre muchas otras áreas. Sin embargo, la ciencia de datos permitió que el análisis de esta información fuera una ventaja exponencial para las empresas, posibilitando la transformación de los datos en información cualitativa y cuantitativa.

Es importante resaltar que la base de datos de información a escalado a tal nivel que con ayuda de la información pública las compañías pueden hacer un análisis mucho más exhaustivo y potenciar su crecimiento con una toma de decisiones asertivas.  

La ciencia de datos o el «big data» es un termino que se ha escuchado mucho en los últimos años, pero… ¿Qué es? y ¿Por qué las empresas de invertir en esta herramienta?

La ciencia de datos es el campo o conjunto de aplicaciones de la inteligencia artificial que transforma los datos en información útil para la toma de decisiones.


La ciencia de datos es el campo o conjunto de aplicaciones de la inteligencia artificial que transforma los datos en información útil para la toma de decisiones.

La ciencia de datos combina una variedad de herramientas analíticas (estadísticas, análisis cuantitativo, análisis predictivo y otros métodos científicos) para extraer valor de los datos recopilados de internet, fuentes de datos de dispositivos, entre otros.

El principal motivo por el cual las empresas deben de invertir en la ciencia de datos es porque esta aumenta la efectividad en la toma de decisiones, en palabras de nuestro invitado Eduardo de la Garza de podcast «Café de Datos»: «Te podrá ayudar a hacer el doble en la mitad del tiempo».

Es por eso que DATLAS quiso contribuir con el apoyo de la analitica de los datos Nosotros como compañia de análitica con el objetivo de ayudar a las empresas a interpretar la base de datos que han generado y a partir de sus necesidades generar una o multiples alternativas para resolverlas.

A continuación te presentamos 2 casos en concreto en los que DATLAS a participado en la analítica de datos para mejorar la toma de desiciones en campos específicos de su organización:
(por motivos de connfidencialidad, se presentara un caso breve sin el nombre de los participantes/clientes)

CASO PRÁCTICO 1: Problematica, un cliente que cuenta con una linea de franquiceas desea abrir una sucursal más, sin embargo, no sabe cual es la mejor ubicación para colocar su local. Solución, el cliente contrata a Datlas para que lo apoye para elegir la mejor ubicación según los criteros de valuación más importantes para el cliente.

Para ello, Datlas solicita la base de infromación del cliente para poder análizarla y complementarla con infromación pública como población, sector economico, uso de suelo, entre otros aspectos inportantes a considerar para proceder a análizar las mejores ubicaciónes a trabes de un mapa de inteligencia que permita destacar los pros y contras de cada ubicación y el cliente pueda tomar la mejor desición. Es inmportante aclarar que esta infromación le será util al cliente por los proximos 5-10.

CASO PRÁCTICO 2: Problematica, una empresa dedicada al rubro de turismo requiere saber cual es la derrama económica que genera el turismo en un estado específico de la república de México. Solución, el cliente contrata a Datlas para que desarolle un dashboard que le permita observar y gestiónar las métricas o KPIs objetivos de las estrategias requeridas.

Estos son dos ejemplos muy prácticos en los que Datlas te puede apoyar en la toma de desiciones, sin embargo, la ciencia de datos puede darse en cualquier área de la empresa como marketing, publicidad, finanzas, ventas, logistica, coordinación interna, entre muchas otras.

Estos son algunos blogs de Datlas que te permitiran saber más de los casos presentados:

  1. ¿Cómo encontrar la mejor ubicación para mi negocio de…. – Investigación Datlas
  2. Analítica en Turismo: Datos de INEGI y Datatur para construir estrategias en el sector hotelero – INVESTIGACIÓN DATLAS

Si quieres seguir conociendo más de este tema, a continuación te compartimos algunos Blogs que te pueden interesar:

1. Towards Data Science, este es un blog dirigido por una comunidad de científicos de datos. Fomenta un ecosistema de conocimiento hacia la ciencia de datos e ideas, directrices; Los lectores pueden compartir sus opiniones sobre diversas iniciativas mediante el análisis de la evaluación y la información relacionada.

2. Data Science Central, esta plataforma cubre temas relacionados con el análisis de los datos, la tecnología, herramientas de apoyo, visualización de datos, código y entremuchos otros.

3. Data Science | Google News, este sitio incluye las últimas tendencias y noticias en una amplia gama de áreas, incluidas noticias generales y tendencias específicas en la industria de la ciencia de datos.

Hasta aqui la columna de hoy, recuerda seguirnos en nuestras redes @DatlasMX

– Equipo Datlas –

12 Preguntas de Analítica y Tecnología que puedes responder con Podcast – Ecosistemas Datlas

En un mundo con abundancia de información y con mucho interés en aprender ciencia de datos ¿Cómo priorizo? Bueno pues te hicimos la tarea. En este blog priorizamos y desarrollamos los blogs más relevantes para que termines este 2022 escuchando mucho de lo que tienes que aprender para estrategias de ciencia de datos y analítica.

Adicional, sabemos que muchas de las personas que nos siguen estarán interesad@s en temas de tecnología como innnovación y complementamos el listado con algunos de los mejores episodios de estos tópicos. No olvides suscribirte y evaluarnos en CAFE DE DATOS una vez que escuches cualquier episodio en la lista.

1) ¿Qué demonios son los analytics?

Click al episodio; Comencemos con lo básico, desde el equipo de DATLAS ponemos a tod@s en el mismo piso de entendimeinto

2) ¿Cómo estructurar equipos de Analytics?

Click al episodio ; Desde el equipo de DATLAS te contamos la experiencia y la investigación que realizamos para estructurar equipos de analítica avanzada

3) ¿Cómo iniciar y vender internamente en mi organización una estrategia de Analítica?

Click al episodio ; Tuvimos un episodio con DAVID PUENTE de ARCA CONTINENTAL quien nos habló de la venta interna de proyectos y estructura de soluciones para el equipo de ARCA

4) ¿Qué oportunidad de innovación tiene un corporativo al implementar analítica de datos?

Click al episodio; Estuvo con nosotros CARL WALLACE quien nos dió los contrastes de implementaciones de analytics en el mundo startups vs. mundo corportaivo

5) Analíticas a la Moneyball ¿Cómo aprovechar analítica en industrias de retail?

Click al episodio; Estuvo con nosotros Edwin Hernández Directivo de Farmacias del Ahorro quien con algunas analogías nos habló de casos de uso y aprovechamiento de datos en retail

6) ¿Cómo aprovechar datos públicos para investigaciones y exploraciones de análisis?

Click al episodio; Estuvo con nosotros el Dr. Santaella, ahora ex-presidente del INEGI quien nos compartió los avances del instituto que más datos públicos genera en México en materia de ciencia de datos y tecnología

7) ¿Cuáles son algunas tendencias importantes que líderes de equipo deben de tomar en cuenta en analytics?

Click al episodio; Recopilamos y sintetizamos desde el equipo directivo de Datlas las 5 tendencias de mayor impacto para el 2022 en analítica

8) ¿Qué casos de éxito existen de transformación digital impulsada por analítica en empresas?

Click al episodio; Tuvimos al Director de XPERTAL Rodrigo Rey quien con su experiencia en FEMSA y antres en NEORIS enriqueció nuestros puntos de vistas de digital

9) ¿Qué es la econometría espacial y cuáles son algunas aplicaciones con datos geo-referenciados?

Click al episodio; Nos visitó en el episodio el Dr. Miguel Flores especialista en econometría espacial de la UANL

10) ¿Cuál es el rol de un traductor de datos en el negocio y cómo funciona?

Click al episodio; Nos acompañó Néstor García de OXXO para hablarnos de los Data Champions

11) ¿Cómo impulsar la creativas y el interés social?

Click al episodio; LABNL participó con nosotros vía Idalia Santos para compartirnos su expertise de este tema

12) ¿Cuáles son los ejemplos más recientes de implementación de analítica en negocios transaccionales o de salud?

Click al episodio; Participó con nosotros Mail Laredo quien se introduce como responsable de parte del desarrollo para una de las Farmacias más grandes de México

Hasta aqui el episodio de hoy. Recuerda continuar aprendiendo activamente y si eres quien consume mejor contenido por lectura te invitamos a revisar nuestro último lanzamiento de DATA PLAYBOOK 2022 para aprender de las últimas experiencias del equipo ¿De qué otros temas te gustaría que habláramos en el podcast? Compártenos en @datlasmx.

Equipo Datlas

– Keep it weird – –

Los 3 tipos de analítica de datos – COLUMNA DE OPINIÓN

La analítica de datos hoy en día se utiliza mundialmente con diversos usos, ya sea en la función pública o el sector privado. El INEGI y el Banco de México son dos ejemplos de instituciones que hacen uso del análisis de datos. Por otro lado, el sector privado tiene muchos ejemplos desde Meta, Google, Apple y Microsoft. Un ejemplo puntual de estas empresas y caso de uso, es de la empresa de la manzana, que en sus dispositivos cuenta con una herramienta para medir el rendimiento de la persona. Esta herramienta describe el uso que se le ha dado al dispositivo, este tipo de análisis es el descriptivo.

Tiempo de pantalla de Apple

Así como estos ejemplos, existen muchos más que nos ayudan a describir, predecir o, mejor aún, prescribir qué deberíamos hacer en el futuro para cuidar nuestras operaciones. En esta columna definiremos y ahondaremos en 3 tipos de analítica que te podrán servir para avanzar en tus proyectos de datos.

** También te puede interesar: A/B Testing para experimentar con datos y tecnología

Analítica Descriptiva

El análisis descriptivo (o de informes) se refiere a saber qué está sucediendo en la organización y comprender algunas tendencias subyacentes y las causas de tales ocurrencias. En primer lugar, esto implica la consolidación de las fuentes de datos y la disponibilidad de todos los datos relevantes en una forma que permita la elaboración de informes y análisis adecuados. A partir de esta infraestructura de datos, podemos desarrollar informes, consultas, alertas y tendencias apropiados utilizando diversas herramientas y técnicas de generación de informes.

Una tecnología significativa que se ha convertido en un actor clave en esta área es la visualización. Usando las últimas herramientas de visualización en el mercado, ahora podemos desarrollar conocimientos poderosos en las operaciones de nuestra organización.

Analítica Predictiva

El análisis predictivo tiene como objetivo determinar qué es probable que suceda en el futuro. Este análisis se basa en técnicas estadísticas, así como en otras técnicas desarrolladas más recientemente que caen dentro de la categoría general de minería de datos. El objetivo de estas técnicas es poder predecir si es probable que el cliente cambie a un competidor («abandono»), qué es probable que el cliente compre a continuación y cuánto, a qué promociones respondería un cliente, si esto el cliente es un riesgo digno de crédito, y así sucesivamente. Se utilizan varias técnicas para desarrollar aplicaciones analíticas predictivas, incluidos varios algoritmos de clasificación.

Empresas de venta en linea usan análisis predictivo

Un caso de uso de analítica predictiva aplicada es en Amazon, por ejemplo, cualquier búsqueda de productos en Amazon.com da como resultado que el minorista también sugiera otros productos similares en los que un cliente pueda estar interesado.

Analítica prescriptiva

El objetivo del análisis prescriptivo es reconocer lo que está sucediendo, así como el pronóstico probable y tomar decisiones para lograr el mejor rendimiento posible. Este grupo de técnicas ha sido históricamente estudiado bajo el paraguas de las OR o ciencias de la gestión y generalmente están encaminadas a optimizar el rendimiento de un sistema. El objetivo aquí es proporcionar una decisión o una recomendación para una acción específica. Estas recomendaciones pueden adoptar la forma de una decisión específica de sí o no para un problema, una cantidad específica (por ejemplo, el precio de un artículo específico o el pasaje aéreo a cobrar) o un conjunto completo de planes de producción.

Un caso aplicado para este tipo de análisis es una ferretería, que suministra barras de acero configuradas a medida para sus clientes. Estas barras se pueden cortar en formas o tamaños específicos y pueden tener requisitos únicos de material y acabado. La empresa adquiere materias primas de todo el país y las guarda en su almacén. Cuando un posible cliente llama a la empresa para solicitar una cotización de las barras especiales que cumplen con los requisitos específicos del material (composición, origen del metal, calidad, formas, tamaños, etc.), el vendedor generalmente tiene poco tiempo para envíe dicha cotización que incluya la fecha en que se puede entregar el producto y, por supuesto, los precios, etc. Debe tomar decisiones de disponibilidad para prometer, que determinan en tiempo real las fechas en las que puede prometer la entrega de los productos que los clientes solicitaron durante la etapa de cotización.

Anteriormente, un vendedor tenía que tomar tales decisiones analizando informes sobre el inventario disponible de materias primas. Es posible que parte de la materia prima disponible ya se haya comprometido con el pedido de otro cliente. Por lo tanto, es posible que el inventario en stock no sea realmente el inventario libre disponible.

** Te puede interesar: Algoritmos Supervisados

Una ferretería aunque suele ser pequeñas, venden gran cantidad de materiales.

Por otro lado, puede haber materia prima que se espera entregar en un futuro cercano que también podría usarse para satisfacer el pedido de este posible cliente. Finalmente, incluso podría haber una oportunidad de cobrar una prima por un nuevo pedido al reutilizar el inventario previamente comprometido para satisfacer este nuevo pedido mientras se retrasa un pedido ya comprometido. Por supuesto, tales decisiones deben basarse en los análisis de costo-beneficio de retrasar un pedido anterior. Por lo tanto, el sistema debería poder extraer datos en tiempo real sobre inventario, pedidos comprometidos, materia prima entrante, restricciones de producción, etc. Para respaldar estas decisiones, se desarrolló un DSS (Sistemas de soporte a decisiones) en tiempo real para encontrar una asignación óptima del inventario disponible y para respaldar análisis hipotéticos adicionales. El DSS utiliza un conjunto de modelos de programación de enteros mixtos que se resuelven mediante software comercial.

Hasta aqui la columna de hoy. Síguenos en nuestras redes para estar enterad@ de la nueva temporada de podcast y recomendarnos nuevas temáticas que te gustaría explorar para este blog.

Equipo Datlas

– Keep it weird –

Fuente de imagen de portada: https://gravitar.biz/bi/tipos-analitica/

¿Qué es y para qué sirve el análisis topológico de datos? – Columna de Investigación Datlas

La generación de información es algo que ha sobrepasado límites que hace no mucho tiempo eran impensables. Para 2020, la media de información almacenada mundial en internet ha sobrepasado los 35 zetabytes (1 zetabyte = 1 billón de terabytes), lo cual ha llevado tanto a la ciencia de datos como al Big Data a convertirse en herramientas clave para conseguir el éxito de organizaciones y empresas. Sin embargo, en ocasiones, es simplemente demasiada información con la cual lidiar, por lo que el proceso de análisis y de obtención de recomendaciones basadas en datos, se vuelve más lento y contraintuitivo.

Ante esta problemática, es de esperarse que nuevas técnicas y metodologías comiencen a ver la luz conforme la tecnología avanza y el poder computacional al que somos capaces de acceder aumenta también. Entre estas nuevas técnicas, hay una que se está volviendo cada vez más relevante por sus excelentes capacidades para lidiar con grandes nubes de datos y poder extraer información de utilidad de ellas; el Análisis Topológico de Datos (o TDA por sus siglas en inglés).

Para entenderla, primero tenemos que entender qué es la topología. La topología es una rama de las matemáticas relativamente joven (nació apenas en el siglo 17), y su objetivo es el estudio de las propiedades invariantes de las figuras en el espacio… Bien, lo anterior podría no tener mucho sentido a menos que se esté un tanto familiarizado con el argot matemático, por lo que ahora, para ponerlo en términos simples, usaremos el siguiente ejemplo:

Imagina por un momento una bola típica de plastilina en tus manos, todos estamos de acuerdo en que la plastilina es un material maleable, ¿verdad? Uno puede usar esa bola para hacer distintas figuras, por ejemplo, con suficiente dedicación, podemos moldear un cubo, una pirámide u otros poliedros. En matemáticas, al acto de moldear esas figuritas de plastilina, le llamamos transformación. Bueno, con esto en mente, podemos decir que una bola de plastilina es topológicamente equivalente a un cubo de la misma plastilina, puesto que podemos formar uno a partir del otro. Sin embargo, tenemos una sola regla: No se puede romper la plastilina ni se le pueden hacer hoyos. Entonces, las preguntas que se haría un topólogo sobre la plastilina son: ¿Qué es lo que hace que podamos formar un cubo a partir de una esfera? ¿o viceversa? ¿Qué aspectos de la figura siguen igual a pesar de aplicarle una transformación?

Para un topólogo, un circulo es lo mismo que una elipse, una esfera es lo mismo que un cubo, y se aplica un razonamiento similar para otras figuras. Incluso, existe un chiste un tanto popular entre matemáticos, que dice que un topólogo no puede distinguir entre una taza de café y una dona.

Ahora bien, volviendo al punto principal. ¿Qué tienen que ver las figuras de plastilina con el análisis de datos?

Si nosotros tomamos una figura y colocamos dos puntos cualesquiera sobre ella, esos puntos van a estar a cierta distancia uno del otro, ¿cierto? Por ejemplo, la distancia del trabajo a casa es un ejemplo de colocar dos puntos sobre una esfera (la tierra). Pero, ¿Qué pasa con esa distancia si la figura original se deforma siguiendo la única regla de la topología? Pues evidentemente, dependiendo de la transformación, esa distancia puede hacerse mas grande o más pequeña. Por ejemplo, si La Tierra fuera de plastilina, y la convirtiéramos en otra figura, entonces la distancia entre la casa y el trabajo evidentemente cambiaría, ¿verdad?

Bueno, el ejemplo anterior fue solamente utilizando dos puntos, la casa, y el trabajo. Pero ahora imagina una base de datos gigantesca, con millones de puntos, como las que empresas como Facebook o Google generan todos los días. ¿Esos puntos sobre qué figura están? La respuesta es muy simple, están sobre el plano cartesiano en algo que los matemáticos llamamos Rn (R a la n potencia)  . Es decir, en el espacio. Como recordaremos de la secundaría, el plano cartesiano es algo así para 2 y 3 dimensiones.

Entonces, aplicando lo que hemos aprendido, si yo tomara el plano cartesiano y lo deformo, ¿Qué les sucede a los puntos que están sobre él? Evidentemente la distancia entre ellos cambia y puntos que estarían lejos entre sí, ahora puede que estén más cerca, u otras cosas muy interesantes pueden pasar.

Además, recordemos que muchos métodos de clasificación utilizan la “distancia” como forma de afirmar si existe una similitud fuerte o no entre varias observaciones. Por lo tanto, si deformamos el plano de forma correcta, es posible que podamos encontrar patrones en los datos que de otra forma estarían ocultos para nosotros y para nuestros algoritmos. Entonces, estas nubes enormes de datos pueden ser subdivididas en clústeres más pequeños y cada uno de estos, ser unido con sus vecinos en relación con la distancia que exista entre ellos, formando así, lo que en topología conocemos como complejos simpliciales.

El TDA definitivamente es mucho más complicado matemáticamente hablando, sin embargo, es una herramienta muy poderosa que está siendo desarrollada para facilitar el trabajo con grandes cantidades de datos.

¿Quieres aprender acerca de esta y otras técnicas innovadoras de análisis de datos?

Equipo Datlas

– Keep it weird –

Referencias:

Carlsson, G.: Topology and Data., Bulletin of the American Mathematical Society no. 46 (2009) 255–308.

Eaton, C., Deroos, D., Deutsch, T., Lapis, G., Zikopoulos, P.: Understanding Big Data. Analytics for enterprise class Hadoop and Streaming Data, The McGraw Hill Companies, 2012

Kahle, M.: Random geometric complexes., Discrete and Computational Geometry 45 no. 3 (2011).

Café de Datos: Top de Podcast Episodios por Temporadas – Podcast y Libros Datlas

En Febrero 2020, por la pandemia COVID-19, en el equipo de Datlas estábamos preocupados por cómo íbamos a continuar a ser relevantes y poder sobrevivir como startup a esta difícil época. Tras algunas colaboraciones, participamos en algunos podcast de colegas emprendedores y comenzamos a identificar que había una oportunidad de hablar de analítica de datos y transformación digital en un podcast en español.

Fue así como nació «Café de Datos», una primera versión de un vehículo en formato voz que muy pronto se convertiría en algo más grande (Academy). En Diciembre de 2020 nos reconocieron como el Top15 la categoría de Tecnología. En Diciembre 2021 nos han reconocido episodios que llegaron al Top40 en México total categorías. En esta columna te compartiremos los episodios más escuchados por temporada.

Desarrollamos una métrica para poder hacer «comparables» los rankings. Usamos las «Reproducciones por día desde la publicación del episodio». Y en este sentido compartimos el Top3 de cada temporada.

Top 5: 1era Temporada

Analytics – ¿Qué demonios son los analytics y cuándo es el momento de iniciar?

Analytics – Big data en mi organización ¿Cómo la inicio?

Invitado: Aldo Valadez – ¿Cómo hacer analytics a lo grande (en Corporativos)? (ft. BANREGIO)

En conjunto, estos capítulos nos apoyaron a darnos a conocer y a empezar a generar una comunidad entre los y las profesionales que más sabían del tema de analítica en el Norte del País.

Top5: 2da Temporada

Invitado: Edwin Hernández de Farmacias del Ahorro – Analítica en farmacias y equipos de alto desempeño (Estilo Moneyball)

Café de Opinión – Nuestra reflexión de «Social Dilemma» documental de NETFLIX

BONUS – Cómo cerramos el 2020 y Tendencias en tecnologías 2021

Estos episodios nos ayudaron a implementar nuevos formatos de episodios, los de analytics y otros dedicados para emprendedores.

Top5: 3era Temporada

BONUS: Charla INCMTY 2021 – Analítica en el sector inmobiliario – Presentación de casos de Uso

BONUS: Invitado Dr. Miguel Flores – Analítica y econometría espacial – ¿Qué es y para qué sirven los datos geo-referenciados (mapas)?

Invitado: Fernando Franco, Puente de Silicon Valley y conductor del «Valle de los Tercos» – «La situación de Silicon Valley post-pandemia y las habilidades para profesionales que buscan un futuro digital sostenible»[Fin de Temporada 3]

La 3era temporada ya nos había colocado una bara muy alta. Teníamos que superar el Top15 el próximo año. En este sentido las cintillas comenzaron a aparecer, invitad@s internacionales y obtuvimos los primeros patrocinios.

Top5: 4ta Temporada (Vigente)

Invitado: Néstor García – Data Champion: Traduciendo necesidades de negocios en iniciativas de analítica para la organización del futuro

Analítica de datos en recursos humano (HR Analytics) – Invitado: Álvaro Martínez de PepsiCo

¿Cómo estudiar el mercado del Retail? – Invitado: Jorge Pale de Nielsen

Es la temporada que actualmente está transcurriendo. Próximamente cerrará con un par de capítulos más. Realmente disfrutamos más los diálogos, hemos notado que más escuchas se quedan hasta el final y hemos aprendido a sacar mayor valor de las y los invitad@s. Todo esto comienza a sumar y ser preparativos para Datlas Academy.

¿Cuál ha sido tu episodio favorito? Te invitamos a compartir @DatlasMX

Hasta aqui el blog de hoy. Y esta última nota es para agradecerles a l@s miembros de nuestra comunidad por un 2021 de seguimiento. Te deseamos lo mejor en estas festividades navideñas o en este receso si te lo llegas a tomar.

-Equipo Datlas-

«Keep it weird»

Utilities: abundancia de datos y gran oportunidad para analítica y big data – Investigación DATLAS

Hace alrededor de un mes tuvimos la oportunidad de tener como invitado en nuestro podcast Café de Datos al Global Head of AI & Analytics en Telefónica IoT & Big Data Tech el gran Antonio Pita Lozano con quien estuvimos platicando acerca de la ciencia de datos como una carrera profesional, como ensamblar equipos de ciencia de datos en las organizaciones e incluso nos comentó acerca del Máster en Ciencia de Datos del cual es director en KSchool. En esta columna vamos a tomar una de las aportaciones que más nos sorprendió de la charla con Antonio para profundizar un poco más.

Para iniciar, como es costumbre con nuestros invitados en el podcast, les pedimos que nos compartan ¿con quién se tomarían un café? si pudieran elegir a cualquier personaje de la historia. En este caso Antonio nos comentó un par de nombres famosos, pero terminó inclinándose por Alan Turing. Para quien no lo conozca Alan Turing fue un matemático nacido en Reino Unido que fue un protagonista del desarrollo del campo de la teoría computacional. Recientemente se hizo más famoso por su función de criptógrafo descifrando mensajes de los “nazis” con la máquina ENIGMA después de la segunda guerra mundial. De hecho en Datlas le hicimos un homenaje a este gran personaje por el Día de Muertos que celebramos en México, puedes ver el altar homenaje aquí.

Después de este pequeño ritual de bienvenida para calentar motores Antonio nos relató un poco de su carrera y desarrollo profesional. Durante este bloque comentamos acerca de la transformación digital que han experimentado, y aprovechado, algunos grandes sectores económicos como lo es la industria financiera. Asimismo le pedimos a Antonio que nos diera su perspectiva alrededor de sectores o industrias que tuvieran grandes cantidades de datos y al mismo tiempo una gran oportunidad de aprovecharlos o explotarlos de una mejor manera. Sorprendentemente para nosotros, Antonio nos hizo notar que uno de los sectores que ha tenido una inmersión importante en temas de analítica de datos, después del sector financiero, ha sido el sector de las Utilities y quisimos profundizar un poco en esta parte.

¿Qué son las Utilities?

Las utilities es la denominación en inglés de aquellas compañías que pertenecen al sector energético y de servicios colectivos que prestan servicios de los cuales no se puede prescindir como por ejemplo: electricidad, gas, agua, residuos, etc.

Se consideran empresas seguras puesto que los ingresos son estables, sin embargo, debido a la gran inversión que requieren, suelen tener grandes cantidades de deuda, provocando una gran sensibilidad ante los cambios en la tasa de interés. Un aumento de la tasa de interés, va acompañado del incremento de la deuda, lo que provoca que el funcionamiento de las Utilities sea mejor cuando las tasas de interés están decayendo o se mantienen bajas.

¿Cómo aprovechan el Big Data y la analítica de datos las Utilities?

Antes que nada hay que entender que estas empresas apalancan otra de las grandes tendencias de la transformación digital que es el Internet de las Cosas (IoT) y los sensores.

Growing Technology Acceptance Boosts Demand for IoT in Utilities

Esta nueva forma de obtener datos les permite generar casos de uso como:

Predicción, detección y prevención de cortes de energía

Un corte de energía puede hacer que todo un país se detenga, como el apagón del noreste de 2013 que afectó a más de 45 millones de personas en los Estados Unidos. Las condiciones climáticas desfavorables son una de las principales causas de tales cortes. Las Utilities están construyendo una infraestructura y sensores más inteligentes para mejorar la previsibilidad y prevenir estos escenarios de interrupciones.

Los sistemas modernos de cortes de energía emplean soluciones en tiempo real que operan en base a datos en vivo y algoritmos inteligentes para predecir y prevenir cualquier situación posible.

Estos sistemas son capaces de predecir el impacto de cualquier eventualidad cercana a la red, posibles cortes causados ​​debido a eventos de medidores inteligentes, cortes específicos de la región y más.

Gestión de carga inteligente

Para gestionar de forma eficiente la carga de energía, las Utilities necesitan equilibrar de forma estratégica e inteligente la demanda de energía con un suministro de energía óptimo en un período de tiempo determinado. Tener un sistema de gestión de carga inteligente les permite cubrir los requisitos de gestión de red de extremo a extremo, incluidas la demanda y las fuentes de energía con la ayuda de fuentes de energía distribuidas, sistemas de control avanzados y dispositivos de uso final.

Todos los componentes del sistema de gestión generan datos. Al aplicar análisis de Big Data, las empresas pueden tomar decisiones con precisión con respecto a la planificación y generación de energía, la carga de energía y la estimación del rendimiento.

▷ Mantenimiento Predictivo - Digitalización y optimización de las fábricas

Gestión preventiva de activos

Dado que es una industria intensiva en activos y depende en gran medida del rendimiento óptimo de sus equipos e infraestructura de red. La falla de estos activos puede causar serios problemas de distribución de energía y, en consecuencia, mermar la confianza del consumidor. Por lo tanto, prevenir este tipo de incidentes es una de las principales prioridades de la industria.

Para el mantenimiento preventivo de equipos, el Big Data y la analítica viene al rescate. Los activos están integrados con sensores inteligentes, rastreadores y soluciones de datos que transmiten información en tiempo real al centro. Los datos recopilados se pueden procesar y analizar para identificar posibles problemas con el mantenimiento del equipo, lo que permite un manejo proactivo de la situación.

Mayor eficiencia operativa

Aprovechar los datos en tiempo real de los activos relacionados con la tasa de actividad, el estado de las operaciones, el tiempo, el análisis de la oferta y la demanda, y más, ayudan a las empresas de Utilities a optimizar la eficiencia energética y el rendimiento de los activos. Las aplicaciones de Big Data y analítica les permiten mejorar la confiabilidad, la capacidad y la disponibilidad de sus activos de red mediante el monitoreo continuo del costo y el rendimiento.

Y… ¿de que tamaño es el mercado?

Finalmente, Antonio nos hizo reflexionar acerca de las aplicaciones de Big Data, analítica de datos, Internet de las Cosas y sensores que tiene este sector. Hemos visto ejemplos claros y aplicaciones con casos de negocios sustentados, pero como emprendedores, como proveedores de soluciones de analítica, la última disyuntiva que pudiéramos tener es ¿de qué tamaño es el pastel? y justo nos dimos cuenta que la inversión en analítica por parte de las Utilities ha venido creciendo desde el 2012 y el año pasado logró posicionarse en $3.8 billones de dólares, de los cuales Latinoamérica participa con alrededor de $0.5 billones de dólares.

Así que, al igual que nosotros esperamos que hayas aprendido como nosotros un poco más alrededor de una industria que a pesar de ser longeva tiene una gran oportunidad y ya esta adoptando nuevas tecnologías.

Si eres emprendedor, profesionista o simplemente te interesa adentrarte al mundo de la ciencia de datos te recomendamos escuchar el Episodio #44 de nuestro podcast Café de Datos con Antonio Pita y conocer más acerca del Máster en Ciencia de Datos de KSchool del cual Antonio es el director y tiene un modelo muy interesante de aprendizaje basado no solo en la teoría sino también en la práctica.

Hasta aquí la columna de hoy, no olvides compartirla con tus colegas y seguirnos en nuestras redes sociales como @DatlasMX

Bibliografía:

BigDataissuesandopportunitiesforelectricutilities.pdf

The role of big data analytics in Energy & Utilities (cigniti.com)

Utility | WikiFinanzas – Finanzas para Mortales (wiki-finanzas.com)

arquitectura de proyectos de datos (Data warehouses, vs Data lake vs Data mart) – Datlas manuales

Cuando vemos una casa bonita, con buena arquitectura , jardinería bien cuidada e iluminación en su punto lo que menos nos preocupa es cómo está la casa en su plomería y en los cables que hacen que esa iluminación y jardín se vean de primera. Al final tenemos contacto con los interiores y la fachada de la casa ¿Por qué debería de importarme? Bueno si en lugar de una casa habláramos de una plataforma increíble de mapas o dashboard… seguramente tendríamos que entender cómo funciona para poder construir uno para nosotros igual de funcional.

En esta columna hablaremos de la arquitectura para proyectos de datos y cómo funciona la plomería que hace viajar los datos desde su fuente hasta los puntos de consumo por los usuarios.

¿El contexto para el «aprovechamiento de los datos» ?

Desde hace un par de años decidimos comenzar nuestros diálogos sobre data science en foros nacionales con un gráfico así. Nuestra urgencia era comunicar por qué les debería de importar aprovechar todos esos datos que las organizaciones generan.

Ahora, no es tan necesario hablar de esto, la transformación digital a vuelto a los datos los protagonistas del cambio. No hay organización respetable que quiera «dejar valor en la mesa» y no esté ocupando un porcentaje de su tiempo en capitalizar el valor de los datos.

Mencionamos esto como contexto de la columna, el aprovechamiento de los datos muchas veces es dialogado de la parte cultural… pero ¿Cómo perderle el miedo a tratar de entenderlo desde la perspectiva técnica? Esperemos esta columna te apoyo a eso

¿Cómo funciona la plomería detrás de un proyecto de aprovechamiento de datos?

Un proyecto de aprovechamiento de datos para medianas y grandes cantidades de datos se puede ilustrar de la siguiente manera.

  • Existen datos de negocio de distintas fuentes. Puede ser puntos de venta transaccionales, ventas, información adquirida vía terceros (por ejemplo de clima de IBM o negocios de Google Places), de redes sociales, entre otras
  • Estos datos tendrán entrada a nuestros sistemas de información mediante una copia que se dirige a un repositorio de datos denominado «Data Lake» o «Lagos de datos». En este punto la información es de todo tipo y con estructuras diferenciadas
  • A partir de ahi es importante limpiar, estructurar e integrar las bases de datos de una manera en que puedan ser «consumibles» para nuestros proyectos de datos. Por ejemplo, si tenemos datos de clima y de negocio, podríamos generar una base de datos a nivel código postal o suburbio y cruzar estos 2 datos enlazados a una misma zona de la ciudad. Este proceso puede suceder via un ETL (Extract – Transform – Load ; Extraer – Transformar – Cargar) que son pasos programados para que los datos puedan ser casi listos para ser usados
  • Los datos procesados por el ETL serán ahora información. Esta información podrá ser almacenada en un repositorio llamado «Data Warehouse». A diferencia del «Lago de datos», en este «Warehouse» la información compartirá estructura y habrá una mayor homologación entre los sistemas numéricos en los que se registran las variables
  • Estos registros pueden pasar por pasos de «agregación» en donde se hacen sumatorias. Por ejemplo, en el «Warehouse» podríamos tener los registros de toda una semana de una tienda. Pero en la agregación, tendríamos la sumatoria de transacciones por día para poder realizar graficas de resultados diarios
  • Esa agregación la podemos llevar directo a plataformas como dashboards o si queremos manejar cierta discrecionalidad en la información podemos manejar «Data Marts». Por ejemplo, si queremos que el área de Logística sólo vea información operativa y no financiera podremos generar un Data Mart para aislar los datos y habilitar la construcción de tableros sólo con los datos que les corresponde visualizar

Te podrá interesar nuestras otras columnas: Qué es un ingeniero de datos en el diseño de perfiles de equipos de datos o cómo construir iniciativas de datos

¿Cómo varía por tecnología?

Estas rutas pueden variar por cada tecnología. Pero es válido decir que la mayoría de estas etapas se podrían cumplir en cada tecnología.

A continuación te compartirnos una imagen muy interesante que encontramos sobre los «pipelines» y contrastes entre:

  • AWS (amazon web services). De Lambda y S3 hasta Quicksight
  • Microsoft. De AZURE a PowerBI
  • Google. De big query a Data studio
Elaborado por @scgupta

Cuéntanos en @DatlasMX ¿Qué arquitectura preferirías o prefieres para tus proyectos de aprovechamiento de datos?

Liga: https://open.spotify.com/episode/3Y0AEOtTBqMrQHRKzkkWRl?si=60cd752c36bf4212

Hasta aqui la columna de hoy, gracias por leerla y te recomendamos suscribirte a nuestro podcast para seguir aprendiendo de datos y analítica. Conoce más en https://linktr.ee/datlas

Equipo Datlas

– Keep it weird-

Otras fuentes

Introduciendo al Gobierno de Datos – investigación datlas

Un gobierno de datos consiste en una capacidad organizacional para gestionar el conocimiento que se tiene sobre los datos generados y la información en dominio de la empresa. Pero ¿Por qué es importante comenzar a considerar uno? ¿Qué tipo de riesgos nos ayudará a prevenir y atender? ¿Quién conforma un gobienrno de datos? Nos dimos a la tarea de investigar algunas de estas preguntas y compartir en esta columna de investigación nuestros hallazgos.

El gobierno de datos ayuda a responder preguntas como ¿Qué sabemos sobre nuestra información? ¿De dónde provienen los datos? ¿Están los datos alineados a nuestra política de empresa u organización?

Objetivo de un gobierno de Datos

Ejercicio de diseñar, controlar y monitorear todo lo relativo a los datos desde un enfoque holístico, en el que participen los implicados, desde el gobierno corporativo de la empresa y el departamento de TI hasta un consejo de gestión de datos que represente a las partes interesadas (

Te puede interesar: Facebook/ Cambdrige analytica sobre privacidad de datos

Importancia de un buen gobierno de datos

La mayoría de las organizaciones no piensan en un gobierno de datos hasta que sucede algún percance o se daña su reputación. Pero hay una buena oportunidad de venta interna si reconocemos que el gobierno de datos nos puede ayudar para lo siguiente:

  • Identificar a los datos como un activo de valor y mantener estándares de calidad
  • Lograr gobernabilidad y gestión del dato
  • Lograr eficiencias en las funciones de datos para la compañía
  • Cumplimiento de normativa y preservación de la privacidad
  • Asegurar la disponibilidad en tiempo y forma de un recurso de valor para la compañía: el dato

Te puede interesar: Un México sin datos

Riesgos a prevenir

Ningún sistema está libre de riesgos y los sistemas de datos suelen ser de los más atacados en organizaciones. De acuerdo a la UNAM, estos son los riesgos más frecuentes de los que hay que protegerse

Amenazas a la seguridad de los datos, daño o alteración, destrucción lógica, hackeo, pérdida de información, destrucción física y eliminación.

Por otro lado , la universidad de Wharton especifica una calidad de riesgos directamente asociados a la Inteligencia artificial.

Dentro de la categoría de riesgos relacionados a los datos está: Limitaciones para aprendizaje y calidad de los datos. En la categoría de ataques de Inteligencia artificial o Machine Learning está: Ataque contra la privacidad de los datos, alteración de los datos de entrenamiento, insumos con errores y extracción de modelo. En la categoría de pruebas y confianza: Resultados incorrectos, falta de transparencia y sesgos. Finalmente, en la categoría de cumplimiento, los riesgos es caer en un incumplimiento de políticas.

Te puede interesar: 3 reflexiones de «Great Hack» Nada es privado de NETFLIX

Ventajas de institucionalizar un gobierno de datos

  1. Apoyar las iniciativas de BI/Data Warehousing
  2. Apoyar una iniciativa MDM
  3. Facilitar la migración de datos heredados
  4. Cumplir con la normativa y requisitos legislativos
  5. Reducir el riesgo empresarial
  6. Mejorar la flexibilidad empresarial y la agilidad de negocio
  7. Apoyar actualizaciones de software operativo
  8. Reducir los costos
  9. Apoyar el manejo de fusiones y adquisiciones
  10. Generar un inventario de datos y algoritmos para uso de la organización
  11. Evitar la discriminación por el entrenamiento de sistemas inteligentes con datos sesgados

¿Cómo iniciar un gobierno de datos en mi organización?

Según IBM, hay 6 pasos para el gobierno de datos

1) Establecer Metas: Qué es lo que va a guiar la operación del consejo en el gobierno, cuáles son las metas que se alinean a los objetivos estratégicos de la organización, qué metas garantizan la sustentabilidad del gobierno en el largo plazo y cómo integrar a las personas adecuadas

2) Definir métricas: Con qué niveles de efectividad se medirá a todas las áreas que sean consumidores de los datos en el dominio de organización, cómo se medirá el nivel de madurez para instaurar auditores y procesos de datos así como poder contar con métricas claras para todos los procesos involucrados en los datos

3) Tomar decisiones: Habra situaciones específicas para los que las reglas del gobierno establecidas permitan la fluidez de procesos sin toma de decisiones. Pero en casos específicos se tendrá que convocar al consejo y establecer un orden en las políticas de decisión puede brindar mayor agilidad a la cultura de datos de una organización

4) Comunicar políticas: El gobierno de datos no puede ser un satélite de la organización, en el sentido de estar lejos de la misma. Es importante que entienda el negocio y sobre todo que diseñe métodos de comunicación efectiva para no interferir en los procesos de otros equipos

5) Medir resultados: Darle seguimiento al cumplimiento de metas y de la disciplina en la toma de decisiones que se haya instaurado desde el inicio. Importante abrir espacios de retroalimentación para la mejora continua

6) Auditar: Herramienta usada para comprobar todo

Te puede interesar: Aprendiendo ciencia de datos para líderes de equipo (KPIs)

Estructura organizacional

El consejo de gobierno de datos tendrá que tener miembros de todas las pares interesadas. Deberá estar el CDO (Chief Data Officer) en caso de existir, equipos de planeación, finanzas y TI principalmente. Líderes que tengan capacidad de influir en las prácticas de sus equipos y al mismo tiempo quienes valoren a los datos como activos para la empresa.

Por el lado operativo, puedes seguir la guía de «Perfiles para construir un equipo de analítica» en donde el analista o gerente de analítica podrá tener una voz en el consejo. Pero al mismo tiempo procurará ser el «manager del gobierno de datos» para minimizar las vulnerabilidades por riesgos de datos en sus equipos

Te puede interesar: Chief Data Officer: Ahora los datos tienen un asiento en el consejo o escuchando nuestro podcast con el CDAO de CHUBB

Hasta aqui el capítulo de hoy. Nos interesaría conocer si en tu organización ya están manejando un gobierno de datos o si están pensando en desarrollar uno ¿Qué están considerando? ¿Por qué le ven utilidad? ¿Creen que para algunas industrias debería ser obligatorio? Participa con nosotros mediante nuestras redes sociales @DatlasMX

Fuentes:

PowerData. Fuente: https://blog.powerdata.es/el-valor-de-la-gestion-de-datos/bid/406201/qu-es-el-gobierno-de-datos-y-por-qu-lo-necesito

Artificial Intelligence RISKS Wharton. Fuente: https://ai.wharton.upenn.edu/artificial-intelligence-risk-governance/

UNAM. Fuente: https://programas.cuaed.unam.mx/repositorio/moodle/pluginfile.php/854/mod_resource/content/4/contenido/index.html

Aprendiendo de Ciencia de datos para líderes de equipo – manuales datlas

El mes pasado terminamos el curso de «Data Science for Managers». Este curso tiene un alcance específico para gerentes que están liderando proyectos de analítica y transformación digital en organizaciones. En esta columna compartiremos 5 de los aprendizajes así como un podcast que grabamos alrededor de algunos conceptos de analítica y ciencia de datos que aprendimos.

Sobre los niveles de madurez en analítica para organizaciones

Cuando comienzas a hablar de ciencia de datos en organizaciones es muy importante darse un tiempo para la auto-evaluación. Entender cuál es el nivel de madurez de tu empresa o equipo te ayudará a seleccionar las estrategias adecuadas para ese nivel. En este caso el equipo que nos impartió las clases, Galvanize, nos recomendó este modelo de 5 niveles para medir el nivel de madurez de datos. Estos los identificamos y los discutimos en el podcast que te recomendamos escuchar.

** Te puede interesar aprender del «SISTEMA ILUO para desarrollar matrices de habilidades en departamentos de datos»

Sobre los lenguajes de programación para ciencia de datos más usados en la industria

En la industria sigue existiendo una variedad cada vez más crecientes de lenguajes de programación con enfoque a paqueterías que habilitan la resolución de problemas de analítica de datos. En general, de software libre Python y R fueron los más mencionados. Por otro lado los que consideran uso de licencia, sería SAS, MATLAB o SPSS. La extracción de información con SQL también fue mencionada. Todos estos apuntes para posible agenda de desarrollo de científicos de datos.

Sobre el pensamiento sistémico en analítica con transformación digital

Lo que continuará pasando al futuro es una mayor integración de hardware especializado que genere y comparta datos. En un pensamiento de proyectos sistémicos no se trata de ciencia de datos o inteligencia artificial por su cuenta sino de un pensamiento sobre sistemas inteligentes.

Este tipo de pensamiento nos ayudará a pensar cuando se contrate un proveedor en una organización si la plataforma que ofrece ¿Se integra con sistemas IOT? ¿Estaría contemplado para complementar un sistema inteligente?

Sobre la priorización

Otro de los beneficios de este curso fue que se lleva con otros expertos de la industria que convoca el Monterrey Digital Hub. Cuando los facilitadores generaron la consulta de cómo se priorizan los datos en las compañías hoy en día estas fueron las respuestas.

La respuesta de 6 de cada 10 asistentes fue que la visión de los ejecutivos (directivos) es lo que dicta la prioridad. Otros miembros complementaron con alternativas de presupuesto, impacto a indicadores clave o asignación de recursos por parte de la organización. Conforme la industria y los proyectos de datos se califiquen con más rigor muy seguramente la prioridad se generará más orientado a KPIs u OKR .

Sobre cómo medir el valor de los proyectos

Otro de los puntos a capitalizar, de lo que esperamos se pueda incrementar la cultura en las organizaciones, es de cómo medir de manera continua el ROI (retorno sobre la inversión) de los proyectos de analítica.

En el curso nos explicaron algunos de los factores como considera talento, productos de datos y tecnología necesarios para calcular el ROI. Y de manera muy importante detectar a qué oportunidad de negocio estamos impactando: Nuevas oportunidades, optimizar o automatizar.

Hubo muchos aprendizajes más, pero quisimos destacar algunos aqui y otros más en nuestro episodio de podcast de analytics «Café de Datos» #Cafededatos.

Hasta aqui la columna de hoy si te gustó la columna te invitamos a recomendar así como SUSCRIBIRTE a nuestro PODCAST Café de datos

Saludos

Equipos Datlas

– Keep it weird-

Chief Data Officer: Ahora los datos tienen asiento en el consejo

Hace un par de semanas tuvimos la oportunidad de colaborar en un podcast muy interesante donde platicamos un poco la historia de Datlas, el tema del análisis de datos y algunas cosas más. Una de las partes más interesantes fue cuando de pronto el entrevistador dijo algo así como:

Hace unos años los diseñadores empezaron a tener tal relevancia que decían que los diseñadores merecían una silla en el consejo, ¿Qué opinas respecto a los científicos de datos o analistas de datos? ¿merecen su silla en el consejo?

Y fue ahí donde comenzamos a hablar de este famoso puesto llamado Director de Datos o Chief Data Officer (CDO). Para nuestra sorpresa, algunos miembros de la audiencia no estaban tan familiarizados con este rol, así que en la columna de hoy vamos a profundizar en las responsabilidades de un CDO y porque son relevantes para los negocios hoy en día.

Datlas_Blog_Promo_SuscriberFree

¿Qué es un Chief Data Officer (CDO)?

El CDO se define como aquel funcionario corporativo responsable del gobierno y la utilización de la información como un activo a lo largo de toda la empresa, a través del procesamiento, análisis, extracción de datos, comercio de información y otros medios. Los CDO generalmente reportan al director ejecutivo (CEO), aunque dependiendo del área de especialización, esto puede variar. El CDO es miembro del equipo de administración ejecutiva y encargado de supervisar el procesamiento y minería de datos en toda la empresa.

Un poco de historia…

El rol de gerente para el procesamiento de datos no se elevó al de la alta gerencia antes de la década de 1980. A medida que las organizaciones han reconocido la importancia de la tecnología de la información, así como la inteligencia empresarial, la integración de datos, la gestión de datos maestros y el procesamiento de datos para el funcionamiento fundamental de las actividades comerciales diarias, esta función se ha vuelto más visible y crucial. Este rol incluye definir prioridades estratégicas para la empresa en el área de sistemas de datos, identificar nuevas oportunidades comerciales relacionadas con los datos, optimizar la generación de ingresos a través de los datos y, en general, representar los datos como un activo comercial estratégico en la mesa ejecutiva.

8 Ways Chief Data Officers Can Help Healthcare Thrive

Con el aumento de las arquitecturas orientadas a servicios (SOA), la integración de sistemas a gran escala y los mecanismos de intercambio / almacenamiento de datos heterogéneos (bases de datos, XML, EDI, etc.), es necesario contar con un individuo de alto nivel, que posea una combinación de conocimientos comerciales, habilidades técnicas y habilidades interpersonales para guiar la estrategia de datos. Además de las oportunidades de ingresos, la estrategia de adquisición y las políticas de datos del cliente, el CDO se encarga de explicar el valor estratégico de los datos y su importante papel como activo comercial y generador de ingresos para ejecutivos, empleados y clientes. Esto contrasta con la visión anterior de los sistemas de datos como simples sistemas de TI de back-end o soporte.

Registros indican que los primeros nombramientos de CDO en corporativos se dieron en el año 2002.

El CDO en la actualidad

De acuerdo a datos de Forbes en 2012, solo el 12% de las Fortune 1000 tenían un CDO. Para 2018, el 67.9% de las firmas encuestadas reportaron tener un CDO.

El CDO también puede ser responsable del análisis de datos (data analytics) y la inteligencia empresarial (business intelligence), el proceso de extraer información valiosa de los datos. Algunas funciones de gestión de datos pueden recaer en TI.

Ronald van Loon en Twitter: "The evolution of the chief data officer role  [#INFOGRAPHICS] by @EdBurnsTT @BizAnalyticsTT | Read more at  https://t.co/tfiwb3apdr #MachineLearning #ML #DataScience #DeepLearning #DL  #BigData #Analytics #BI ...

Por sus siglas en ingles el Chief Data Officer (CDO) es muchas veces confundido con el Chief Digital Officer o Chief Digital Information Officer. La principal distinción radica en que el director de datos es la persona senior, con un enfoque comercial, que comprende la estrategia y la dirección del negocio, pero su enfoque está en cómo respaldar eso con datos.

Asimismo algunas organizaciones también utilizan roles como el Chief Information Officer (CIO) o el Chief Technology Officer (CTO) de forma indistinta con el de Chief Data Officer (CDO). Para hacer una clara diferenciación entre ambos nos gusta citar la analogía que hace Caroline Carruthers, directora de la firma de consultoria Carruthers and Jackson, ex directora de datos (CDO) de Network Rail y co-autora de “The Chief Data Officer’s Playbook and Data-Driven Business Transformation: How to Disrupt, Innovate and Stay Ahead of the Competition”. Ella utiliza la analogía de la cubeta y el agua para explicar la clara distinción entre un CDO y un CIO. Así lo explica:

El director de información (CIO) es responsable de la cubeta. Ellos son responsables de asegurarse de que la cubeta sea del tamaño correcto, que no tenga agujeros, que sea segura y que esté en el lugar correcto. El director de datos (CDO) es responsable del fluido que entra en el balde, sale del balde, que va al lugar correcto, que tiene la calidad adecuada y el fluido adecuado para empezar. Ni la cubeta ni el agua funcionan el uno sin el otro.«

The Chief Data Officer | Deloitte

Finalmente, ¿Cómo se si necesito un CDO?

Sin duda el gobierno corporativo es una estructura que muchas veces se asocia a las organizaciones más grandes, empresas nacionales o internacionales. La realidad es que más allá del nombramiento o del puesto como tal, cualquier organización puede adoptar una figura que ostente el rol de CDO dentro de su compañía. Desde una startup hasta nuestros colegas PyMEs pueden adaptar este puesto, a su propia escala, para realmente tener una cultura centrada en los datos. Al final del día lo importante es que esta persona sea responsable de ver en los datos ese activo valioso para la empresa, sobre el cual se puede derivar un valor importante y muchas veces hasta una ventaja competitiva para el negocio.

Datlas_Promo_Podcast_Suscribe