Archivo de la etiqueta: inteligencia artificial

V de Variedad en Big Data: datos estructurados y no estructurados

En más de una ocasión hemos tenido la oportunidad de presentarnos en foros donde hablamos de Big Data como esta nueva gran tendencia dentro del marco de la transformación digital. Al comenzar cada una de nuestras presentaciones, como es nuestra fiel costumbre, contextualizamos acerca de los conceptos que abordamos. Dentro de la explicación de lo que es el Big Data hacemos referencias a las famosas 5 Vs: Volumen, velocidad, variedad, veracidad y valor. Implícitamente, dentro de la característica de variedad hablamos del origen de los datos, las fuentes de donde provienen y del tipo de estructura que tienen. En esta columna vamos precisamente a profundizar en los datos y las bases de datos estructuradas y no estructuradas, lo que son y como es que nosotros las apalancamos dentro de los reportes automatizados Laura para capitalizar un mejor entendimiento, análisis y descubrimiento de oportunidades con alto impacto para el negocio.

free_Suscriber

Como punto de partida hay que entender a que nos referimos con datos estructurados y no estructurados. En primer lugar, los datos estructurados se refieren a la información que se suele encontrar en la mayoría de las bases de datos relacionales (Relational Database Management System o RDBMS por sus siglas en inglés), es decir, en un formato estructurado usando filas y columnas. Suelen ser archivos de texto que se almacenan en formato tabla u hojas de cálculo con títulos para cada categoría que permite identificarlos. Son datos que tienen perfectamente definido la longitud, el formato y el tamaño y que pueden ser ordenados y procesados fácilmente por todas las herramientas de minería de datos. De igual manera, los datos pueden generarse de forma humana o mecánica siempre que los datos se creen dentro de una estructura RDBMS. Para ejemplificarlo de forma más simple, imagina cuando tomaban lista en el salón de clase y el profesor tenía una tabla con nombres, apellidos, la fecha de la clase y un montón de palomitas. Así se “ven” los datos estructurados.

El pase de diapositivas requiere JavaScript.

Por otro lado, existe una clasificación diametralmente opuesta a esta: los datos no estructurados. Aunque si bien entendemos que técnicamente existe también el término de datos semiestructurados en esta ocasión utilizaremos los opuestos para ejemplificar el punto de la variedad dentro del big data y los beneficios de fusionar los distintos tipos de datos a la hora de generar los análisis. Así que, volviendo al tema, los datos no estructurados, que son la otra cara de la moneda son aquellos datos, generalmente binarios, que no poseen una estructura identificable. Es un conglomerado masivo y desorganizado de varios objetos que no tienen valor hasta que se identifican y almacenan de manera organizada. No tienen un formato especifico, pueden ser textuales o no textuales. En su modo más simple, son documentos en PDF, archivos de Word, videos, audios, las fotos satelitales de las hectáreas de siembre que tiene una empresa agrícola, entre otros ejemplos. De la misma forma que los datos estructurados, este otro tipo de datos puede ser generado tanto por humanos como por maquinas.

datlas_mx_blog_datos_no_estructurados
Ejemplo de datos no estructurados (textual)

Ahora bien, ¿Qué relevancia tiene esta variedad de los datos? ¿Qué relación guarda con esto del Big Data? Pues precisamente estadísticas mostradas por empresas como Kyocera estiman que alrededor del 80% de la información relevante para un negocio se origina en forma no estructurada, principalmente en formato texto. Esto quiere decir que, al tener la posibilidad de integrar datos no estructurados al análisis, automáticamente el volumen de información (otra de las V del Big Data) disponible para análisis aumenta a más del doble. Imagínate que llegara un nuevo vendedor y pudiera leer todos los corres de prospección escritos en los últimos 5 años de historia de la compañía. Toda la riqueza detrás de ese tipo de ejercicio hoy es posible gracias al Big data, pero tomar ventaja de los datos no estructurados es una tarea retadora, ya que existe la necesidad de organizar los archivos, categorizar el contenido y entonces obtener información que pueda estructurarse de tal forma que sea capaz de fusionarse con los datos ya estructurados. Aunque sin duda hoy existen en el mercado herramientas de software para el procesamiento, gestión o almacenamiento de este tipo de datos, sigue siendo importante el papel de los analistas de negocio o los mismos dueños para establecer una priorización de esfuerzos con base al beneficio potencial que pudiera obtenerse de ese esfuerzo por capitalizar los datos no estructurados.

datlas_mx_blog_datos_no_estructurados_a_estructurados

Finalmente, desde nuestra experiencia hemos logrado consultar bases de datos estructuradas y no estructuradas para realizar los reportes automatizados de Laura y entregar un verdadero valor agregado al cliente comparado al de los estudios tradicionales que generaba un equipo de analistas sin este tipo de herramientas. Tomemos como ejemplo las redes sociales, un tweet. Hoy es muy común que la gente se exprese libre y abiertamente en twitter acerca de lo que le gusta, le disgusta o incluso donde esta. En nuestro caso, uno de los elementos integrados dentro de Laura es el análisis de tráfico peatonal por categoría de negocios, es decir, que tanta gente está tweeteando acerca de una cierta marca de restaurante o producto. Para poder apalancar estos datos de forma inteligente se hace un proceso de análisis de texto que extraer el nombre del establecimiento, lo coteja con un diccionario de negocios, lo clasifica dentro de la categoría a la que pertenece ese negocio y finalmente lo agrega, de forma estructurada, en una base de datos que pasa a ser consultada como un mapa de calor dentro de nuestras plataformas de Mapas de Inteligencia y a su vez como una imagen de la ubicación analizada y el entorno al hablar de los reportes Laura. Esto nos ha permitido apoyar a negocios a tomar mejores decisiones de ubicación, ponderando no solamente los típicos indicadores estructurados y “fijos” sino también la información no estructurada y, en este caso, dinámica para ofrecer una perspectiva realmente nueva y más holística de las condiciones a las que se enfrenta el negocio al momento de tomar una decisión.

datlas_mx_casos_uso_consultoria_derrama_economica_luztopia_2019

Como este caso hemos aprovechado otro tipo de datos no estructurados para apoyar a empresas de distintas formas, en tu caso ¿generas información no estructurada? ¿te interesa aprovechar el poder que esconde esa información? ¿o simplemente te gustaría experimentar con la información no estructurada que existe allá afuera y que hoy podemos poner a tu disposición? Contáctanos y cuéntanos

@DatlasMX

 

Análisis de mercado con Inteligencia Artificial

Esta mañana tuvimos la oportunidad de realizar un Webinar Gratuito acerca de como estamos usando inteligencia artificial para realizar análisis de mercado de una forma ágil y sencilla aprovechando la gran cantidad de información disponible. Presentamos a Laura, nuestra asistente virtual. Si no tuviste oportunidad de asistir ¡no te preocupes! en esta columna te vamos a contar un poco de lo que estuvimos viendo. Si te interesa aprovechar nuestros Webinars gratis no olvides suscribirte en nuestra página web.

free_Suscriber

En primer lugar, comenzamos por definir el concepto de inteligencia artificial (I.A.). Sin duda no es un termino ajeno hoy en día, sino al contrario, se ha puesto tan de moda que muchas personas lo han escuchado, pero pocos saben con exactitud que es a lo que se refiere. La definición de Bill Bulko es una de nuestras favoritas: “La inteligencia artificial es el arte de hacer que las computadoras se comporten como aquellas que vemos en las películas”. Sin duda no es una definición académica, pero se acerca mucho a la realidad, sobre todo en años recientes donde hemos visto numerosas películas que tratan este tema. La realidad es que una definición más científica define la inteligencia artificial como un “programa de computación diseñado para realizar determinadas operaciones que se consideran propias de la inteligencia humana, como el autoaprendizaje”

datlas_mx_webinar_laura_IA

Ahora bien, la inteligencia artificial no es algo que haya nacido ayer, como dicen. Este tipo de programas computacionales tuvo sus inicios en los años 50´s con el famoso Alan Turing y su test para identificar si una computadora es capaz de “pensar como un ser humano”. Lo que también es verdad es que en la época de Alan Turing el término inteligencia artificial no existía siquiera, fue hasta 1956 que John McCarthy acuña el término y se comienza a utilizar. A lo largo de estos más de 60 años esta tecnología ha evolucionado desde los primeros chatbot, robots, hasta IBM Deep Blue que logró vencer al campeón de ajedrez. Esto nos lleva a otro punto importante, dentro de la inteligencia artificial existen distintos tipos o subgrupos dentro de los que destacan precisamente la robótica, los sistemas expertos, el procesamiento de lenguaje natural, visión computacional y machine learning. En este caso nosotros nos enfocamos en este último subgrupo mencionado: machine learning, que en su definición simple se entiende como “el estudio de los algoritmos computacionales que mejoran a través de la experiencia”

datlas_mx_webinar_laura_machine_learning

Después de esa rápida introducción al tema de inteligencia artificial es momento de platicar un poco del proceso que se lleva a cabo para poder generar este algoritmo que nos ayuda finalmente a realizar los análisis de mercado de forma automática. Para ello nosotros hemos personalizado y adaptado la técnica académica de CRISP-DM a la metodología Datlas y la hemos bautizado como Laboratorio de Datos. Este proceso consta de 6 actividades claves:

  • Extracción
  • Integración
  • Clasificación
  • Visualización
  • Entrenamiento
  • Reporteo

datlas_mx_webinar_laura_crisp_dm

Durante la primera fase del proceso lo que hacemos es todo el trabajo de minería de datos, es decir, nos conectamos a las diversas fuentes de información abierta, públicas, privadas y, de ser necesario, integramos también datos internos del cliente.

Pasando a la segunda etapa de integración, lo que sucede es que aquellas diversas fuentes de información y datos que ya tenemos se organizan y se “traducen” para lograr homologarlos bajo un mismo “idioma” que en nuestro caso es el componente geográfico o la georreferencia como le llaman técnicamente.

Enseguida viene la parte de clasificación, que muchas veces es uno de los pasos más subvaluados pero es de los más importantes porque es en esta parte en donde pasamos de los simples datos y de la información a la preparación de la interfaz de usuario, al diseño centrado en el consumidor final. La clasificación nos sirve para poder entregar datos a nivel agregado o a nivel granular dependiendo de su relevancia, por ejemplo: si tenemos datos de los check-ins en redes sociales, en esta fase es donde decidimos mostrarlos a través de mapas de calor clasificados por tipo de actividad, en vez de mostrarlos quizá como una masa de puntos individuales dentro de una geografía.

Una vez clasificado todo, pasamos a la parte del cifrado visual en donde elegimos las distintas maneras de presentar la información y se termina de gestar todo ese diseño que se planeo en la parte de clasificación.

Finalmente llegamos al penúltimo paso que es el de entrenar el algoritmo. En este punto es importante entender que cuando hablamos de inteligencia artificial hay distintos tipos de entrenamiento que se pueden ejercer sobre un algoritmo de este estilo. En general se clasifican de dos formas: entrenamiento supervisado y entrenamiento no supervisado.

datlas_mx_webinar_laura_entrenamiento_IA

Cuando hablamos de entrenamiento supervisado estamos básicamente hablando de tomar el set de datos que tenemos, extraer una muestra del 80%, por ejemplo, indicarle a la máquina cual es la variable de respuesta o lo que quiero calcular, estimar o predecir y pedirle que ajuste un modelo con esas variables. A partir de esto se usa el 20% restante de los datos para probar su asertividad del modelo y se realizan ajustes iterando esta práctica. Por otro lado, el aprendizaje no supervisado es aquel que permite a la maquina “deducir” o aprender a partir de un set de datos sin decirle exactamente que variable de respuesta esperamos o que tipo de ejercicio se quiere realizar. Para ponerlo en perspectiva, en 2016 Microsoft utilizó un entrenamiento no supervisado para generar su chatbot Tray y lo puso a aprender por si solo en base a las conversaciones e información de redes sociales. Este tipo de experimento resulto un tanto controversial ya que Tray se volvió racista y extremista debido a la exposición que tuvo a gran cumulo de datos e información de esta índole. En nuestro caso claramente, por el contexto de negocios utilizamos un aprendizaje supervisado.

free_Suscriber

Finalmente terminamos la sesión platicando acerca de un caso aplicado que tuvimos con un cliente en Nuevo León que nos planteó el reto de analizar una ubicación en el centro de Monterrey para descifrar cual podría ser el tipo de negocio ideal que pudiera posicionar en esa ubicación que pudiera estar generando un cierto monto de ganancias mensuales. Sorprendentemente cuando Laura realizó el análisis de entorno descubrió que dentro de la dinámica de la zona había un hospital que básicamente fungía como el generador de tráfico más fuerte y que había hecho que la zona tomara una vocación distinta en los últimos años. A partir de este hallazgo Laura fue a realizar un análisis de entorno de los principales hospitales públicos y privados de Nuevo León para derivar un top 10 de negocios que habitualmente se sitúan alrededor de un hospital y contrastarlo contra el entorno que estaba analizando para identificar aquellos tipos de negocios que tuvieran oportunidad de posicionarse en la ubicación definida por el cliente.

De esta forma logramos entregar al cliente 3 opciones de negocio con un cierto nivel de potencial económico que cumplía las restricciones citadas originalmente y ayudarlo a tomar la mejor decisión a través del uso de tecnología y apalancados en la gran cantidad de datos e información disponible actualmente. Si quieres conocer un poco más acerca de esta experiencia te invitamos a ver el video de testimonio de nuestro cliente

datlas_mx_webinar_laura_testimonio_barras_cardan

Finalmente te invitamos a mantenerte en contacto para recibir noticias de los siguientes Webinars y muchas sorpresas más que tendremos para ti. Hasta la próxima.

@DatlasMX

Inteligencia artificial y big data para combatir el coronavirus (COVID-19)

El día de ayer la Organización Mundial de la Salud (OMS) declaró como pandemia el coronavirus o COVID-19, por su nombre oficial. ¿Qué significa esto? Una enfermedad entra en la categoría de pandemia cuando cumple cualquiera de las siguientes condiciones: se extiende a muchos países o ataca a casi todos los individuos de una localidad o región. En este caso, la propagación que ha tenido este virus desde el continente asiático hasta Europa y América le ha conferido la categoría de pandemia. Ahora bien, los coronavirus son una extensa familia de virus que pueden causar enfermedades tanto en animales como en humanos. En los humanos, se sabe que varios coronavirus causan infecciones respiratorias que pueden ir desde el resfriado común hasta enfermedades más graves como el síndrome respiratorio de Oriente Medio (MERS) y el síndrome respiratorio agudo severo (SRAS). La COVID-19 es la enfermedad infecciosa causada por el coronavirus que se ha descubierto más recientemente. Tanto el nuevo virus como la enfermedad eran desconocidos antes de que estallara el brote en Wuhan (China) en diciembre de 2019. Si bien esta no es una nota médica te invitamos a consultar los síntomas, las maneras de prevenir y protegerte de este virus en el sitio oficial de la Organización Mundial de la Salud (WHO, por sus siglas en inglés).

free_Suscriber

Sin duda la industria de la salud no ha sido exenta de vivir y beneficiarse de la reciente transformación digital y la innovación tecnológica. Para este caso puntual del coronavirus queremos destacar el papel que han tenido el big data y la inteligencia artificial en la lucha, prevención y reacción ante esta pandemia. En cuanto se confirmó el brote en Wuhan el gobierno chino comenzó a desplegar una estrategia de prevención y control basado en los sistemas de inteligencia y la tecnología que tanto han distinguido al país en las últimas décadas, así como apalancado en su sistema de gobierno que, para muchos expertos, en este caso fue bastante útil y eficaz para la capacidad de reacción que tuvo el país.

datlas_china_coronavirus_covid-19_2020

Por si no lo sabías, el gobierno de China ha instalado un sistema masivo de vigilancia para sus ciudadanos que va desde cámaras hasta una intervención directa en smartphones, rastreo de operaciones financieras y ubicación en tiempo real. Fue así como el gigante asiático comenzó a luchar contra el COVID-19. Lo primero en llegar fueron las cámaras térmicas. Como salido de una película de guerra o de invasión alienígena, empezaron a utilizar las cámaras para detectar la temperatura térmica de las personas, ya que uno de los principales síntomas del COVID-19 es el alza en la temperatura. Mediante inteligencia artificial, aún vigilan la temperatura corporal de los ciudadanos.

datlas_china_coronavirus_covid-19_camaras_termicas

El siguiente gran paso fue desarrollar aplicaciones para los smartphones que, utilizando un esquema de semáforo clasifican a los ciudadanos hasta condicionarles qué hacer y con quién relacionarse. En esta iniciativa destacaba la cooperación del gigante del comercio online Alibaba, que contribuyó a desarrollarla. La aplicación era capaz de identificar a las personas según tres colores: el verde, para quien puede moverse con libertad; el amarillo, para quien había estado en una zona con peligro de infección (razón por la que debía permanecer siete días en cuarentena); y el rojo para quien hubiera estado en contacto con zonas de alta afectación del COVID-19 (lo que obliga a permanecer catorce días en cuarentena).

Pero esta innovación, sin embargo, no fue la última. Porque si el semáforo móvil clasificaba a los ciudadanos de cara a su control peatonal en la calle, hubo una aplicación posterior que profundizó aún más. Y es que el gobierno y la Corporación de Tecnología Electrónica de China, respaldados por datos de las autoridades de salud y transporte –según publicó la agencia estatal Xinhua–, desarrolló una segunda app para permitir rastrear a las personas y alertar sobre si han tenido un “contacto cercano con alguien infectado”. Una aplicación que explotaba el big data en manos del gobierno, y que es accesible apenas con escanear un código QR en las populares plataformas chinas WeChat o Alipay. El único requisito es enviar el nombre, el número de teléfono y el número de identificación y, tras cruzar los diferentes datos a los que tiene acceso, ya puede advertir si se camina por un lugar con peligro de ser infectado, o si se ha viajado cerca de personas infectadas, también si se trata de miembros de la familia o de pasajeros y tripulación de un mismo tren o avión. Es más, incluso permite buscar números de identificación diferentes, y saber si son un riesgo de salud.

free_Suscriber

Sin duda alguna, estas últimas medidas pueden ser controversiales ya que son obligatorias en algunas ciudades chinas mientras que en otras están disponibles a voluntad. Lo que no se puede negar es que estas medidas han sido eficaces en el corto plazo, pero presentan un riesgo muy delicado. “La extrapolación de estas apps de control sanitario al incipiente sistema de crédito social puede provocar, además, que algunos colectivos sean marginados y aislados socialmente. Y ello se añade a un sistema masivo de vigilancia que, en base a lo detectado por cámaras, permite o no acceder a determinados medios de transporte, o tener prioridad en los servicios”, explica Antoni Gutiérrez-Rubí, experto en tecnología y política. Lo que se añade a la conocida opacidad informativa del gobierno de China sobre su alcance.

Finalmente, debemos estar atentos al desarrollo de esta pandemia, tomar en cuenta las medidas precautorias y seguir atentos a la forma en la que podemos adoptar algunas de estas tecnologías en favor no solo de la detección de posible infección sino en la cura definitiva de la misma.

Compártenos tu opinión y mantente atento a noticias como estas en nuestras redes sociales

@DatlasMX

El santo grial de analytics: “Location Intelligence”, y su controversia con la privacidad – Datlas research

(Este blog es una adaptación del trabajo de investigación del #NYTIMES referido en: https://www.nytimes.com/interactive/2019/12/19/opinion/location-tracking-cell-phone.html)

En los últimos 2 años el escándalo de privacidad de“Cambridge Analytica”y Facebook ha levantado polvo sobre lo invasivo que puede llegar a ser la tecnología en nuestras vidas. Nos dimos cuenta que la red social más importante del mundo podía saber tanto de nosotros (como perfil, amigos, familiares, hobbies, donde estábamos, con quién nos tomábamos fotos, etc.) al grado de poder usar esta información para influenciar nuestros gustos y preferencias. Tal y como lo expusimos en el blog sobre el documental de Netflix “The Great Hack”.

Mientras como usuarios nos preocupábamos por hacer conciencia y comprender esta nueva realidad que vino acompañada de servicios digitales  “gratuitos” (por que tu verdadera moneda de intercambio es tu información), existe otra cara de la historia. Nos referimos a las empresas que estaban aprovechando la poca o nula regulación sobre privacidad de datos para generar formulas de marketing nunca antes vistas. En esta columna hablaremos de un caso que publicó recientemente NYTIMES sobre “Inteligencia de Ubicación” o “Location Intelligence” para Nueva York tratando de explicar los beneficios de estas aplicaciones de analítica, haciendo énfasis en que no podemos dejar atrás el enfoque la privacidad de los datos de las personas.

Si quieres comprender cómo la ubicación le sirve al plan de marketing de un negocio también puedes leer: El secreto de tu negocio: Ubicación, ubicación y ubicación

¿Cómo funciona?

La “inteligencia de ubicación” es una técnica que aprovecha la generación de datos geo-referenciados, es decir datos que vienen acompañados de atributos como coordenadas o referencias geográficas para visualizar en mapas, que permite generar análisis dinámicos de muy alta resolución. Compañías como UBER y DIDI utilizan este tipo de datos para ubicar a sus transportes y usuarios dentro de su app. Pero por otro lado hay otras aplicaciones que venden datos de nuestras ubicaciones sin que necesariamente estemos enterados de cómo o cuándo obtienen estos datos.

Una aplicación, por ejemplo, genera datos nos debería de pedir permisos de ubicación cuando usas el app. En algunos casos, como Waze o UBER, no abre el app si no accedemos a dar este permiso y encender nuestro localizador GPS.

Datlas_comofunciona_

Mientras este abierta la aplicación o puede estar cerrada, pero con servicios de segundo plano, el APP estará registrando nuestros movimientos y ubicaciones en bases de datos que luego serán procesadas y comercializadas. El deber ser es que toda esta información se “anonimice” , es decir se borren identificaciones de personas que puedan ponerlos en riesgo. Sin embargo hay casos de estudio que han sacado a relucir que debido a este tipo de apps podemos ubicar a casi cualquier persona. Aqui un ejemplo de cómo “trackear” al presidente Donald Trump que realizó el NYTIMES

¿Cómo se aprovecha esta información?

El pase de diapositivas requiere JavaScript.

En las imágenes anteriores se comparte un ejemplo para NYC.  De compañías telefónicas y aplicaciones se integraron las ubicaciones durante una semana de los usuarios de un teléfono inteligente en NYC. Aunque de manera integrada no nos dicen mucho, es relevante saber que podemos aislar un punto en específico e identificar su recorrido.

En el caso de la nota particularmente se analizaron datos para Nueva York, sin embargo datos similares están disponibles para México ¿Dónde? … no está tan sencillo. Pero compartimos los logros de @sasha_trub que compartió estos mapas en Twitter con el fin de contrastar los usuarios de IPHONE contra los de ANDROID. Sin embargo cada punto es un usuario de celular que ha sido georeferenciado y podría ser localizado con más profundidad.

El pase de diapositivas requiere JavaScript.

Quién comercializa esta información

Al menos en el continente Americano las empresas con más presencia en el comercio de datos geo-referenciados de usuarios son estas 20:Datlas_logos_compañías

El gobierno de Estados Unidos ya está intentando “limitar” la venta al extranjero de este tipo de información, sobre todo la que utiliza aplicaciones de Inteligencia Artificial. Esto por temas de “seguridad nacional”.

Por otro lado hay mucho generador independiente de aplicativos en facebook, google maps, instagram y otras redes sociales que mediante la habilitación de filtros o juegos obtienen datos de usuarios y se las venden a alguna de estas empresas.

Todos conectados, todos arriesgados

Datlas_smarthead

Para cerrar la columna, te recomendamos tomarte quince minutos para conocer el caso específico del NY TIME (puedes ver la liga al inicio de la columna) y también ser consciente de que la próxima ves que enciendas tu GPS alguien seguramente está registrando estos datos para lanzar alguna campaña de marketing o comercializarlos

¿Qué deberíamos hacer con esta situación? ¿Cómo garantizar que se anónimo y que haya una práctica correcta? Comenta y comparte.

Equipo Datlas

-Keep it weird-

¿Cómo aprender Ciencia de datos? 6 lecciones prácticas tras años de intentos – Datlas TIPS –

Durante los últimos años hemos encontrado una explosión de fuentes de aprendizaje en lo relacionado a temas de ciencia de datos. Estos van desde técnicas de autoestudio, ser sombra de científicos, lecturas especializadas, cursos presenciales, cursos en línea, etc.

De todos estos medios compartiremos en esta columna 6 reflexiones importantes que te serán de utilidad si piensas aprender o estás aprendiendo técnicas de ciencia de datos.

Datlas_barra_suscribir

También puedes leer.

Datlas_Learned_youngone

1) El objetivo de aprender lo tiene el estudiante. Dejamos claro que el maestro no tiene obligación de que aprendas, más bien el estudiante es quien tiene como meta aprender

  • Establecer metas claras en una línea de tiempo: Ser principiante en al menos un lenguaje de programación en menos de 6 meses
  • Cualquier maestro que encuentres (amigos, maestros formales, libros, cursos en línea, etc.) Puede que sea una figura con alto “expertise”, pero es tu trabajo sacarle el mayor provecho

Datlas_datascience_everywhere

2) Se les aconseja a los estudiantes rodearse de todo lo que huela, se vea y se sienta como “Data Science”

  • Entrar a comunidades locales de Datos. Desde grupos de Facebook, los eventos , conferencias más enfocados al tema que tengas cerca, colegas de aprendizaje y finalmente cambia tu lectura a libros de estos temas
  • También busca aportar a la comunidad de regreso lo más pronto posible

Datlas_dominios

3) Apalanca tu aprendizaje iniciando con un campo de dominio donde tengas experiencia laboral

  • Usa tu experiencia laboral, específicamente los datos a los que has estado expuest@ con más frecuencia para que sea un menor reto descifrar la información que vas a analizar
  • También es recomendable mapear 2 ó 3 sectores nuevos de los que quieres aprender y enfocar tus estudios a esas áreas específicas de datos

Datlas_failfast_learnfaster

4) Vas a cometer errores, así que haz que sean rápidos. Recuerda que se aprende más de tus propios errores y no los de los demás

  • Ponte aprueba buscando bases de datos por tu cuenta y generando análisis sin ningún tipo de guía más que tú propia ideación. Sólo ten en cuenta la utilidad de los casos de estudio que estés revisando
  • Ponte en los zapatos del usuario final o de un cliente que quisiera usar esos datos como ventaja para su negocio. Haz el recorrido completo de un analista de datos para transformar datos en accionables

Datlas_nerdreading

5) Aprende a leer documentación técnica y a encontrar información

  • Ciencia de datos tiene como fundamentos la estadística y programación, sin embargo estos son solo los primeros pasos ya que durante el camino habrá que leer mucho para aprender de librerías y métodos que necesitemos aplicar a nuestros análisis
  • Consulta cuáles son las paqueterías o librerías más utilizadas en el lenguaje de programación que estás aprendiendo. Personalmente recomiendo seguir en twitter a otros científicos de datos que publiquen algunos de sus análisis

Datlas_motivation

6) Sé paciente, positivo y busca fuentes de motivación, las necesitarás

  • Ten paciencia, no te frustres. Un buen aprendizaje toma tiempo, a veces avanzamos demasiado rápido y porque tenemos que refrescar la estadística nos frenamos un poco. O bien nos entretenemos mucho en descubrir cómo funciona un nuevo algoritmo cuando con una regresión básica hubieramos solucionado el reto. Hay que ir midiendo qué métodos de aprendizaje nos funcionan mejor
  • También recomiendo seguir en linkedin a personalidades que ya sean científicos de datos de grandes empresas que constantemente publican consejos y guías de aprendizaje para mantenerse más motivado

Datlas_barra_suscribir

Hasta aqui la columna de hoy, recuerda que en este blog contamos con distintos casos de investigación que pueden animarte a investigar. También concluimos con un vínculo a nuestras publicaciones que hemos hecho en conferencias de datos. Esperemos que haya muchos entusiastas de los datos, coméntanos en nuestra redes en Facebook , Twitter e Instagram.

 

 

 

Keep it weird

Equipo Datlas

¿Qué distingue a la inteligencia humana de la inteligencia artificial?

La historia registra conflictos entre grupos de seres humanos que se creían distintos a otros seres humanos. La Alemania nazi, por ejemplo, generó la ideología de la raza aria argumentando superioridad por cuestiones genéticas frente a otros grupos como los judíos. El juicio de sus consecuencias no serán tema que nos competen para esta entrada, pero sin duda hablaremos de historia. Lo que nos ayudará a introducir el verdadero tema de fondo es el análisis de la pregunta obligada que existe detrás de estos conflictos, es decir, ¿existió realmente una diferencia entre estos grupos de seres humanos? De ser así, ¿cuál era esa diferencia? Y partiendo de estas preguntas, nos gustaría dar un salto al presente y, al mismo tiempo, al futuro, para luego volver a la historia. Hoy en día en nuestra sociedad coexiste un nuevo “grupo” parecido, cada día más, a los seres humanos, que hemos podido diferenciar claramente desde su nacimiento en los años 50´s, pero que hoy en día evoluciona de una manera tan rápida y se vuelve cada vez más similar a nosotros, que nos ha obligado a plantearnos la siguiente pregunta: ¿qué nos distingue, como seres humanos, frente a la inteligencia artificial (I.A.)?

datlas_2019_IA_vs_humano

Y para tener un punto de partido común explicaremos brevemente como es que nosotros entendemos y explicamos lo que es la inteligencia artificial. Quizá algún experto se pudo dar cuenta que nos referíamos a la I.A. (con la pista de los años 50´s), pero efectivamente la inteligencia artificial es una técnica y un concepto que nace hace más de medio siglo, pero que sin duda hoy en día ha tomado una relevancia abismalmente mayor a lo que tenía en aquel entonces. La inteligencia artificial, simplificando la explicación, es un programa computacional que emula la inteligencia (la actividad cerebral) humana, es decir, tiene la capacidad de aprender, de deducir, etc. Regresando a la historia, en la época de su nacimiento, tenia una clara desventaja ante los seres humanos, pero entonces se volvió lo suficientemente buena como para vencer al mejor jugador de ajedrez del mundo (Kasparov), luego logró deducir preguntas a partir de una serie de respuestas y se corono como campeón indiscutible en jeopardy y, recientemente, comprendió y comenzó a crear jugadas completamente nuevas que la hicieron dominar el complejo juego de Go y vencer al mejor jugador humano. De tal forma que laa inteligencia artificial ha venido tomando una posición cada vez más “dominante” frente a la inteligencia humana. Más allá de juegos de mesa, estrategia y movimientos calculados, la inteligencia artificial se introdujo a los negocios y la sociedad, ayudando a mejorar exponencialmente una serie de procesos, productos y servicios que hoy consumimos muy comúnmente en el transcurso de un día. Las recomendaciones de Netflix y Spotify, las interacciones son Siri o Alexa, las alertas que te envía tu banco acerca de posibles fraudes o actividad inusual en tu cuenta, son todas habilitadas por inteligencia artificial. Ahora bien, la mayoría de estos procesos parten de funciones lógico-matemáticas, de pensamiento analítico y procesos asociados al hemisferio izquierdo del cerebro. Y es aquí, donde habíamos encontrado la respuesta más clara, hasta el momento, para definir el diferenciador entre la inteligencia artificial y la inteligencia humana: el hemisferio derecho del cerebro, es decir, la creatividad, el arte, la música, la intuición.

datlas_2019_cerebro_humano_lados.png

Sin embargo, al igual que el tiempo, la evolución de la I.A. no ha parado y justo en febrero del 2016 se presentó una I.A. capaz de escribir poesía, una tarea propia del hemisferio derecho del cerebro. Les recomendamos ver el video si les interesa, pero en resumen la I.A. simplemente aprendió de miles y millones de poemas de distintos autores, estructuras y corrientes históricas, con lo que fue capaz de generar una especie de “Frankenstein” con un tema de la corriente romántica, con el estilo de un autor latinoamericano y con rima consonante de estructura A, B, A, B.  Hasta aquí ya era todo un asombro hasta temeroso para quienes nos dedicamos al área artística. De pronto, dos años después (2018) se presenta una I.A. capaz de componer música. Igualmente les recomendamos ver el video si les interesa, pero lo particular de esta hazaña es que sin duda utilizó una lógica similar que la I.A. poeta para aprender acerca de sonidos, instrumentos, estructuras, etc. Pero en esta ocasión, la I.A. puede componer una canción personalizada de ¡tu vida!, es decir, basado en tu personalidad y ciertos rasgos que debe interpretar, puede generar una pieza completamente inédita y única para ti. E incluso, se habla de que pudiera generar una canción completa, en tiempo real, durante un juego en vivo sin repetir nunca ningún acorde o set de notas (perdón si use un término mal, no soy experto en música).

Datlas_barra_suscribir

Finalmente, parados a fines del año 2019, con muchos más avances nuevos y revolucionarios sobre inteligencia artificial que se revelan todos los días, creemos que es crucial tomarnos el tiempo de replantear la pregunta ¿qué nos distingue, como seres humanos, frente a la inteligencia artificial (I.A.)? porque de ahí debe nacer un juicio genuino frente a las posturas radicalmente opuestas que se manejan en los medios de comunicación acerca de la forma en la que los seres humanos y las máquinas inteligentes coexistimos. ¿Será realmente fatídico y las maquinas nos dominaran? ¿O seremos verdaderos aliados que en conjunto podamos revertir algunos de los daños que hemos creído irreversibles y convertirnos en una sociedad con un nivel de vida superior e inimaginable?

¿Tú que opinas? Cuéntanos en nuestras redes sociales

@DatlasMX

Por qué no necesitas un Data Scientist (es Clickbait) en tu organización Parte 1 – Datlas News

Data scientist la carrera “más sexy” del 2018. Los científicos de datos son los mejores pagados.  Los datos son el petróleo del futuro. Habrá un déficit de 400k especialistas de big data para 2020. Si no estás avanzando con un equipo que desarrolle Inteligencia Artificial vas a quebrar.

¿Les suena conocido? No he dejado de escuchar en cada conferencia de empresarios que nos toca asistir aseveraciones de tal calibre. Justamente queremos hacer la reflexión sobre este tema en esta columna. Y que no cunda el pánico, no es una discusión de 1-0 o blanco y negro. Pero sí hace falta balancear el diálogo de si tu empresa necesita un especialista en datos o no. Iniciamos.

Ver en Medium.com

Datlas_barra_suscribir

El pase de diapositivas requiere JavaScript.

Una organización, con o sin fines de lucro, va creciendo de manera orgánica conforme las necesidades van rebasando a los puestos. Al principio un par de personas gestionan el negocio, pero conforme va creciendo la operación es necesario buscar ampliar el capital humano. Después viene el tema de no tener personal ocioso y optimizar equipos y personas. Ya al final viene los puestos de innovación, que muchos lo ven como pirotecnia. Sin ofender a nadie, me refiero a que hay áreas que no impulsan directamente a la operación ya que su valor agregado va más dirigido a la báscula de ventajas competitivas.

En resumen, concédenos generalizar el proceso de la siguiente manera:

1.Nace la organización > 2.Crece en una sola gestión > 3.Se multiplica en distintas áreas >> 4.  Se optimiza constantemente >> 5. Innova en apuestas a ser disruptiv@

¿Dónde entran los Data Scientist (DS) ? ¿A qué horas me transformo con datos?

La mayoría de las organizaciones hacen estas inversiones en el paso 5) ¿Cuál es el reto? Cuando la cultura de innovación en la empresa no está 100% socializada y la ciencia de datos es un área que con muchos celos demanda atención, gobernanza y autoridad para sacarle valor a un activo de la compañía,(los datos) y reflejar la voluntad de entender que “Los datos no pertenecen  a ningún área o dirección, son de la compañía“.

¿Estoy listo para transformar mi organización con DS?

La primera evaluación es hacia tu organización ya que para implementar esta innovación tiene que lograrse esta cultura de innovación al mismo tiempo del timing tecnológico correcto. Es decir

  1. Si no estás listo para abandonar los excel-es que llevas operando y mejorando toda la vida. No contrates un DS
  2. Si te da miedo transferir procesos y responsabilidades a “cajas negras” que no vas a entender. No contrates un DS
  3. Si eres de los líderes que les gusta decir cómo resolver el problema, en lugar de ceder el problema y la resolución del mismo a tu equipo. No contrates un DS
  4. No entiendes los beneficios de la ciencia de datos o el potencial de tu información. No contrates un DS, terminarás concluyendo que “no sirve” sólo porque no supiste sacarle valor
  5. Y por último, si quieres un DS para que se la pase extrayendo datos y datos, mejorando tableros y visualizaciones. No contrates DS, ambos se frustarán por sólo estar dando la mitad de todo el potencial

(Tomado de inspiración B) citado al final del blog). El trade-off es claro, hay que evaluar.

Mucha crítica ….¿Y qué consejos son mejores prácticas para lograr transformar?

Como cualquier caso en una organización, tienes que tener algunas historias de éxito para convencer a los tomadores de decisiones que vale la pena hacer la apuesta. La mayoría de los casos comienzan contratando consultorías y empresas externas para aprender cómo funciona este mundo.

  1. Vete a lo seguro. Analiza a tus clientes, toma decisiones comerciales como cambios de precios, planes promocionales, marketing y mide resultados KPIs.
  2. Evalúa distintas consultorías que sobre todo tengan capacidad y voluntad de “enseñarle” a tu organización cómo funciona.
  3. Invita a distintos roles a que te acompañen en el proceso.
  4. Genera la historia, “socializala” (Que todos se enteren) y  mapea nuevas posibilidades para datos
  5. Finalmente evalúa repetir el proceso hasta que la organización pueda ceder recursos para interiorizar las capacidades. Aún así la mayoría de las organizaciones que orquestan un área de datos interna contratan y subcontratan. Así es , hasta el mismo Google, IBM, Microsoft o startups como UBER, AIRBNB, CABIFY , entre otras distribuyen el trabajo ya que retener a científicos de datos en una organización es complicado por la demanda actual que existe. Además exigen un alto grado de especialización que puede capitalizar una consultoría porque el análisis de datos es su negocio principal que no pueden descuidar.

No olvides leer nuestro blog de “Los 5 perfiles para una estrategia de datos en tu empresa”

Para el cierre ¿En qué áreas donde agrega valor un científico de datos?

Cerramos con un par de infografías que mapean las áreas de mayor valor agregado para un científico de datos. Recomendamos leer y generar un plan para implementar los “quick-hits” de mayor impacto.

El pase de diapositivas requiere JavaScript.

Hasta aqui la parte uno de la columna de Datlas más enfocados en la cultura de innovación y datos antes de arrancar sin un plan. En la siguiente parte comentaremos de algunas herramientas que pueden ayudar a iniciar experimentaciones de big data sin tener que hacer la “gran inversión”.

Gracias por leer, estamos abiertos a opiniones y buscamos difundir este tema en organizaciones que están batallando mucho para iniciar a experimentar con datos. Siempre contarán con empresas y startups como Datlas para acompañarlos en su desarrollo.

Inspirado gracias a la lectura de:

Ver en Medium.com

Asi detectas unas cheves con tensorflow – Datlas research

“Alexa, pasame una Heineken”. Una instrucción sencilla para una persona, una tarea compleja para una computadora. Esta tarea puede dividirse en subtareas, siendo una de ellas la detección de objetos. Esta es una tecnología relacionada con la visión artificial que busca identificar los objetos semánticos en una imagen. En esta columna compartiremos el proceso que pasamos al realizar un sistema de identificación de cervezas.

En nuestro proyecto de identificación de cervezas contamos con aproximadamente 2500 fotos de cervezas, pudiendo ser un refrigerador lleno o una sola cerveza en la foto. En estas fotos, tuvimos que seleccionar las zonas en las que había una cerveza y asignarle un nombre (el nombre de la cerveza y si era lata, botella o caguama) para poder clasificarlos. Esto se llevó a cabo con LabelImg, cuyo output era un XML con las posiciones y el nombre.

Posterior a esto, seleccionamos el modelo a implementar. Decidimos utlizar Tensorflow con el modelo desarrollado por Nick Bourdakos, Custom-Object-Detection. El primer paso para hacer funcionar este modelo fue generar el TFRecord, el archivo con el que se entrena el modelo. Para esto, los XML no nos servían, ya que requiere un archivo CSV. Usamos la librería de Python Pandas para hacer esta conversión. Luego definimos el label map para que cada nombre tuviera un número que lo identificara. Todo esto lo pasamos por el script para generar los TFRecords, y nuestros datos estaban listos para entrenar el modelo.

Datlas_barra_suscribir

Comenzamos a entrenar el modelo, y nos dimos cuenta que era muy lento, ya que lo estabamos entrenando con nuestras laptops. Para optimizar esto cambiamos a entrenar en Google Colab. Aquí puedes entrenar tu modelo utilizando tarjetas gráficas, aprovechando su capacidad de procesamiento al máximo. Pero encontramos un problema, los archivos eran muy pesados para estar descargandolos cada vez. La solución: subir los archivos a Google Drive, e instalar una biblioteca en Colab para poder traer los archivos de Drive.

Aquí comenzamos la etapa de pruebas con el modelo. Esperábamos un happy path, pero no fue el caso, Encontramos problemas como que la letra era muy pequeña y no se podía leer, o que detectaba un rollo de papel como una cerveza. Este último se debía a que redujimos la confianza para tomar una predicción al 30%. Ambos fueron obstáculos superados.

Para finalizar, se desarrolló el cliente con el cual el usuario podría emplear esto. Se creó una REST API en Django, una aplicación en React Native, y se hicieron llamadas para que la foto tomada por el celular regresara con la respuesta. En este punto sólo se llevó a cabo un cambio, el poner números en las clasificaciones para que no se amontonaran, y presentar el nombre y el porcentaje de confianza de la predicción.

Aqui cierra el blog de hoy. La presencia de esta tecnología puede crear un cambio en el cómo funcionan las cosas. Futuras implementaciones de este tipo de acciones en tiendas serán de utilidad para hacer conteos, inventarios, identificar repisas vacías y/o recibir notificaciones cuando se acabe un producto. Si te gustó la columna te pedimos la compartas y nos dejes tus comentarios

Saludos

(Esta columna fue desarrollada por Jose Luis alias “Ali,” participante en nuestro programa de interns de verano)

Equipo Datlas

-Keep it weird-

 

IMC 2019: El nacimiento de la comunidad más grande de tecnología en México

Como emprendedores y, a la vez, amantes de la tecnología nos mantenemos atentos a los mejores eventos acerca de estos temas alrededor del mundo y, sobre todo, en nuestro natal México. Para nuestra sorpresa, hace un par de meses comenzamos a escuchar de un evento y una organización que desconocíamos: Inteligencia México Conference 2019 (IMC 2019) y enseguida nos dimos a la tarea de investigar al respecto y, por supuesto, de asistir. Para nuestra sorpresa, ha sido uno de los mejores eventos de los que hemos tenido oportunidad de presenciar en territorio nacional y en esta columna vamos a contarte por que.

Iniciemos con un poco de contexto, ¿Qué es Inteligencia México?, ¿Cómo nace? Y para explicarlo no hay nada mejor que las palabras de uno de sus fundadores, Alexandre Surman (izquierda en la foto)

datlas_imc2019_alexander_surman

a quien nuestro equipo tuvo la oportunidad de entrevistar. Ante esta primera preguntar Alexander comentó:

“… básicamente en agosto del año pasado (2018) nos sentamos con expertos de la industria del IoT (internet of things = internet de las cosas), del big data y la inteligencia artificial, y nos dimos cuenta que había mucha conversación alrededor de estos temas, pero que eran pocas las empresas que realmente estaban implementando este tipo de tecnologías, si bien habían comenzado los esfuerzos de adopción en 2015-2016 aún estaban en pañales. Fue ahí donde descubrimos la oportunidad y el interés de ayudar a México a posicionarse como un país que adopta estas nuevas tecnologías. El reto era que cada proveedor de estas tecnologías hacía su propio evento y su propio esfuerzo de evangelización, pero su alcance era muy local. Por lo tanto, continuar en ese camino nos habría tomado quizá más tiempo en poder tener el alcance deseado. Es ahí, cuando decidimos crear esta comunidad, Inteligencia México (IMx), para unir todos estos esfuerzos de evangelización porque entendemos que la unión hace la fuerza…”

Ahora bien, Inteligencia México es la comunidad, el organizador, pero ¿qué es IMC 2019? Alexander nos explica:

“…una vez creada la comunidad, antes de desplegar un montón de actividades que tenemos planeadas dijimos la mejor forma de iniciar es con un congreso, para que se materialice el concepto de IMx.  Por ello se realiza Inteligencia México Conference 2019, el primer congreso que a partir de ahora se volverá anual…”

datlas_imc2019_pano_santds.JPG

IMC 2019 se llevó a cabo el pasado 19 y 20 de junio de 2019 con sede en el centro Citibanamex de la Ciudad de México. Este primer congreso, de IMx, logró juntar, bajo el mismo techo, a los principales y más grandes proveedores de soluciones de IoT, big data e I.A., así como a grandes conferencistas y expositores de talla internacional, compartiendo escenario con nuestros grandes ejemplares mexicanos.

Una de las claves para la gran experiencia que vivimos como asistentes fue la app del evento, desarrollada por Bizzabo. Dentro de la aplicación no solo tenías tu acceso y la agenda del evento, sino que podías generar tu agenda personalizada con las ponencias de tu interés y recibir notificaciones push de recordatorio. Asimismo, otra de las maravillas de la app era la oportunidad de entrar a un foro comunitario que te daba la libertad de comunicarte (obviamente dentro de la app) con más de 967 asistentes dentro de los que destacaban presidentes, CEOs y directivos de empresas nacionales e internacionales. En nuestro caso tuvimos la oportunidad de platicar con el presidente de una empresa de analítica de datos con oficinas en Estados Unidos, pero con un equipo completo de científicos de datos en la India (de hecho, el nos buscó a nosotros jeje).

Ahora bien, las ventajas no eran solo para asistentes, de hecho otra de las grandes sorpresas para nosotros fue ver que cada empresa de las que estaba exhibiendo sus soluciones (en los stands) tenía un scanner con el que registraba el código QR que llevabas en tu gafete de acceso (claramente te pedían permiso antes de hacerlo) para obtener tus datos de contacto y enviarte información si es que mostrabas interés en alguna de sus soluciones o incluso para generar alianzas o conversaciones posteriores. Esto es una gran ventaja para justificar la inversión al momento de decidir asistir como exhibidor a un foro como este.

Por otro lado, regresando al tema de la experiencia como asistentes, nos sorprendió ver que cada uno de los 4 escenarios alternativos (con excepción del escenario principal) tenía una dinámica de inmersión que implicaba ponerte unos audífonos para escuchar la conferencia, en lugar de utilizar las típicas bocinas o altavoces para inundar de sonido todo el recinto. Esto daba una sensación mucho más comprometida con la ponencia que estabas escuchando.

datlas_imc2019_audifonos

Y como no todo en la vida es trabajo, no todo en estos eventos son conferencias. Un detalle más que hizo de la experiencia algo especial fue el hecho de que el acceso que teníamos incluía la comida. Pero más allá de que la comida estuvo buena, el hecho de hacerse cargo de ese rubro ayudo no solo a optimizar los tiempos de organización y despliegue del evento, sino que nos dio una oportunidad más, en un contexto quizá más informal, de convivir no solo con otros asistentes sino con los mismos conferencistas. Y permítanme insistir en este último punto, en la mayoría de los eventos a los que asistimos los conferencistas llegan, dan su platica y se van. Este es el primer foro en donde nos percatamos que no solo se quedan unos minutos o unas horas después de su ponencia, sino hasta el final del evento. Nosotros tuvimos la oportunidad de platicar con Rahul Vijay (Head of Global Connectivity de Uber) quien dio la conferencia de apertura durante la comida del segundo día. Este es otro detalle que distingue y hace sobre salir la experiencia en este evento.

datlas_imc2019_uber

A pesar de haber sido uno de los mejores eventos a los que hemos ido, también observamos algunas áreas de oportunidad que resaltamos con la esperanza de que ayuden a mejorar:

  • El foro comunitario de la app te presenta los perfiles de la gente para contactarlos personalmente vía inbox, pero no te deja enviar un mensaje a la comunidad entera (entendemos que evita el tema de spam), quizá sería buena opción
  • Los audífonos son gran detalle, pero hay que cuidar dos cosas: la calidad del audio (porque fue significativamente menor a la de las bocinas o altavoces convencionales) y el tema de higiene, porque son tantas conferencias, tantos asistentes y un horario tan estricto que andar compartiendo audífonos puede ser algo incomodo.
  • Mayor involucramiento con startups/scaleups. Entendemos que el foro comprometía un cierto nivel de experiencia, expertise y profesionalismo que no toda startup mexicana tiene. Pero existen grandes historias de éxito, fuera de las apadrinadas por grandes fondos, que encontrarían grandes ventajas y serían de gran inspiración para este ecosistema que intenta despertar consciencia de los esfuerzos mexicanos por la adopción de estas tecnologías.

El pase de diapositivas requiere JavaScript.

Finalmente, no podíamos dejarlos sin el resto de la entrevista a Alexandre, donde nos cuenta un poco más acerca de lo que viene para Inteligencia México:

P: Alexandre, uno de los grandes patrocinadores y partners de este evento es Sigfox, una empresa francesa, ustedes mismos (los fundadores) son franceses, cuéntanos ¿cómo termina siendo México su ecosistema?

R: “…Christian, Phillippe (mi hermano) y yo somos franceses, pero tenemos más de 17 años en México de hecho, nuestros hijos son mexicanos, nacieron aquí entonces somos franceses, pero con una piel mexicana. Nosotros llegamos aquí muy jóvenes con oportunidades de emprender y hacer negocios, la idea era venir un par de años, pero 17 años después henos aquí, porque nos gusta México, nos gusta el país, nos recibió con los brazos abiertos y es por ello que queremos aportar valor a México…”

 P: Alexandre, entendemos que este es el kick-off para IMx, ¿qué sigue hacía adelante?

R: “… a partir del lunes (24 de junio 2019) comenzamos a planear la conferencia del próximo año (IMC 2020) porque han nacido muchas iniciativas, se están queriendo sumar muchos actores y eso es bueno, entonces vamos a preparar la siguiente edición desde ya. Pero de aquí a 2020 no nos vamos a desconectar del gremio, de la comunidad, tenemos pensado crear toda una gama de actividades como, por ejemplo: misiones dentro de las principales ciudades del país; crear webinars; forjar alianzas con universidades extranjeras como: MIT, Standford, Harvard, otras de China e Israel para que nos puedan compartir conocimiento y que podamos aprovecharlo en México y compartirles nosotros también; tenemos pensado crear una bolsa de trabajo muy especializada para el talento requerido y tan escaso y difícil de encontrar como lo son los data scientists, por ejemplo; queremos crear capacitaciones y certificaciones también; crear comités por verticales, para que el próximo año estemos en IMC 2020 hablando de la vertical de salud, por ejemplo, y haya contenido más encausado hacia esa vertical… vamos a lanzar una plataforma independiente para que la comunidad se cree ahí, se vayan registrando, tengan acceso a la biblioteca digital, a los diferentes programas y actividades que vamos a tener…”

P: Finalmente, Alexandre, como emprendedores de tecnología, emprendedores regios, nos interesa seguir en contacto, seguir colaborando, apoyando, entonces ¿cómo podrían los demás emprendedores como nosotros, ser parte de IMx?

 R: “…mira, la visión que tenemos es ser la comunidad de las comunidades. Con la energía y recursos que tenemos queremos sumar a todas las comunidades y proyectos, que son muchos, pero manteniendo la calidad. Por ello habrá que priorizar y realizar esfuerzos que realmente traigan eficiencias para México… de momento pueden inscribirse en la página de Facebook, en linked in, pueden agregarme incluso a mi o a Christian o Philippe para que estén al tanto y pronto integrarse a nuestra plataforma Inteligencia México… porque juntos hacemos crecer México”

Sin más, los invitamos a nuestras redes sociales para que nos cuenten si tuvieron oportunidad de asistir, si se quedaron con las ganas y/o si piensan asistir al IMC 2020 porque nosotros definitivamente ¡estaremos ahí!

@DatlasMX

 

-Keep it weird-

Facebook abre Datos para México (De los legales) – Datlas Research

Recientemente en algunos medios,principalmente científicos y prensa especializada de tecnología, se habló de que los datos que facebook hizo públicos. Esta vez siendo un tema que va más allá de un “hack” o el caso “Cambridge”. Más bien, una empresa que en pro del desarrollo de tecnología más humanitaria estaba generando iniciativas para mejorar la información con la que como humanidad tomamos decisiones.

datlas_barra_suscribir

El pase de diapositivas requiere JavaScript.

Esta es la visión del centro de Data for Good de Facebook, la famosa red social con más de 2 mil millones de usuarios activos. De acuerdo al referente de este centro, Molly Jackman (FB Public Policy)  “Al analizar imágenes satelitales existentes y usando Inteligencia artificial los equipos de Facebook lograron crear los mapas de densidad poblacional más granulares a la fecha”-

Liga de video: https://www.facebook.com/watch/?v=1143199219065401

¡Muéstrame los mapas!

Sin más preámbulo ¿Qué podemos encontrar para México y en dónde?

La fuente que recomendamos es la siguiente: https://data.humdata.org/dataset/mexico-high-resolution-population-density-maps-demographic-estimates

En el contenido encontrarás archivos en CSV que pueden ser leídos con excel, R o python (los últimos 2 open-source) y también geoTiff que inicialmente sugerimos explorar con QGIS (También open-source o GRATUITO). La verdad el geoTIFF es el bueno para visualizar. Pero, esto depende del gusto del analista de datos.

datlas_barra_suscribir

Iniciamos  buscando las imágenes de alta resolución y entrando al menú con una oferta de más de 14 archivos para México.  Para fines de este ejemplo usaremos los datos de “mujeres en etapa reproductiva” (la razón por la que Facebook decidió hacer este tipo de cortes con inteligencia artificial es porque busca detectar poblaciones donde los datos puedan generar impactos claves, para mayor explicación ver el vídeo)

El pase de diapositivas requiere JavaScript.

Excelente, ahora decidimos usar el geoTIFF de estos archivos y con un par de filtros en la paleta de colores de los puntos mapeados tendremos resultados como los siguientes:

Este tipo de información podría servirle a un gobierno, organizaciones sociales y operativos de rescate a mapear poblaciones elementales para iniciativas de salud. Por ejemplo hay casos documentados para algunos paises de África donde, a falta de censo oportunos, este tipo de información ha logrado segmentar las iniciativas de desarrollo económico en zonas de mayor impacto. Por otro lado con un ángulo más comercial, como el que tenemos por vocación en Datlas, empresas de higiénicos y medicamentos enfocados a este “clúster” de población pueden ser mejor ubicados con el aprovechamiento de estos datos.

Otro ejemplo es el de la base de datos de niños menores de 5 años.  Donde con datos de facebook podemos mapear a las poblaciones más vulnerables del del país. Aunque a simple vista se ven como puntos sin sentido en un mapa, si en un sistema GIS das zoom, cada punto está muy bien detallado a qué manzana o AGEB pertenece.

Datlas_Mexico_DatosFB10

Esto en caso de una catástrofe natural nos ayudaría a leer dónde está un grupo vulnerable qué atender con prioridad. Y bueno además del ojo social, desde un ángulo de observatorio comercial, una empresa de pañales podría capitalizar estos datos para generar estrategias de expansión o elasticidad de precios.

A opinión personal, nos gustaría ver en el futuro mapas de migrantes o distintas nacionalidades que residen en el país. Esto podría sensibilizar y ser propulsor de nuevas políticas públicas enfocadas en el contexto de fragilidad que actualmente hay en el mundo por estos temas de migración.

datlas_barra_suscribir

En Datlas continuamos incrementando nuestro acervo de base de datos para aprovechar en nuestros sistemas de información.  Contamos con más de 10,000 bases de datos analizadas para entregar los mejores datos en nuestra plataforma web www.datlas.mx

Déjanos tu opinión de cómo piensas que estos datos podrían ser bien aprovechados y qué cuidado debemos tener al tratar con esta información. Si te gusto la columna te pedimos compartirla en tus redes sociales.

Saludos

-Keep it weird-

Equipo Datlas