Archivo de la etiqueta: laura

Análisis de mercado con Inteligencia Artificial

Esta mañana tuvimos la oportunidad de realizar un Webinar Gratuito acerca de como estamos usando inteligencia artificial para realizar análisis de mercado de una forma ágil y sencilla aprovechando la gran cantidad de información disponible. Presentamos a Laura, nuestra asistente virtual. Si no tuviste oportunidad de asistir ¡no te preocupes! en esta columna te vamos a contar un poco de lo que estuvimos viendo. Si te interesa aprovechar nuestros Webinars gratis no olvides suscribirte en nuestra página web.

free_Suscriber

En primer lugar, comenzamos por definir el concepto de inteligencia artificial (I.A.). Sin duda no es un termino ajeno hoy en día, sino al contrario, se ha puesto tan de moda que muchas personas lo han escuchado, pero pocos saben con exactitud que es a lo que se refiere. La definición de Bill Bulko es una de nuestras favoritas: “La inteligencia artificial es el arte de hacer que las computadoras se comporten como aquellas que vemos en las películas”. Sin duda no es una definición académica, pero se acerca mucho a la realidad, sobre todo en años recientes donde hemos visto numerosas películas que tratan este tema. La realidad es que una definición más científica define la inteligencia artificial como un “programa de computación diseñado para realizar determinadas operaciones que se consideran propias de la inteligencia humana, como el autoaprendizaje”

datlas_mx_webinar_laura_IA

Ahora bien, la inteligencia artificial no es algo que haya nacido ayer, como dicen. Este tipo de programas computacionales tuvo sus inicios en los años 50´s con el famoso Alan Turing y su test para identificar si una computadora es capaz de “pensar como un ser humano”. Lo que también es verdad es que en la época de Alan Turing el término inteligencia artificial no existía siquiera, fue hasta 1956 que John McCarthy acuña el término y se comienza a utilizar. A lo largo de estos más de 60 años esta tecnología ha evolucionado desde los primeros chatbot, robots, hasta IBM Deep Blue que logró vencer al campeón de ajedrez. Esto nos lleva a otro punto importante, dentro de la inteligencia artificial existen distintos tipos o subgrupos dentro de los que destacan precisamente la robótica, los sistemas expertos, el procesamiento de lenguaje natural, visión computacional y machine learning. En este caso nosotros nos enfocamos en este último subgrupo mencionado: machine learning, que en su definición simple se entiende como “el estudio de los algoritmos computacionales que mejoran a través de la experiencia”

datlas_mx_webinar_laura_machine_learning

Después de esa rápida introducción al tema de inteligencia artificial es momento de platicar un poco del proceso que se lleva a cabo para poder generar este algoritmo que nos ayuda finalmente a realizar los análisis de mercado de forma automática. Para ello nosotros hemos personalizado y adaptado la técnica académica de CRISP-DM a la metodología Datlas y la hemos bautizado como Laboratorio de Datos. Este proceso consta de 6 actividades claves:

  • Extracción
  • Integración
  • Clasificación
  • Visualización
  • Entrenamiento
  • Reporteo

datlas_mx_webinar_laura_crisp_dm

Durante la primera fase del proceso lo que hacemos es todo el trabajo de minería de datos, es decir, nos conectamos a las diversas fuentes de información abierta, públicas, privadas y, de ser necesario, integramos también datos internos del cliente.

Pasando a la segunda etapa de integración, lo que sucede es que aquellas diversas fuentes de información y datos que ya tenemos se organizan y se “traducen” para lograr homologarlos bajo un mismo “idioma” que en nuestro caso es el componente geográfico o la georreferencia como le llaman técnicamente.

Enseguida viene la parte de clasificación, que muchas veces es uno de los pasos más subvaluados pero es de los más importantes porque es en esta parte en donde pasamos de los simples datos y de la información a la preparación de la interfaz de usuario, al diseño centrado en el consumidor final. La clasificación nos sirve para poder entregar datos a nivel agregado o a nivel granular dependiendo de su relevancia, por ejemplo: si tenemos datos de los check-ins en redes sociales, en esta fase es donde decidimos mostrarlos a través de mapas de calor clasificados por tipo de actividad, en vez de mostrarlos quizá como una masa de puntos individuales dentro de una geografía.

Una vez clasificado todo, pasamos a la parte del cifrado visual en donde elegimos las distintas maneras de presentar la información y se termina de gestar todo ese diseño que se planeo en la parte de clasificación.

Finalmente llegamos al penúltimo paso que es el de entrenar el algoritmo. En este punto es importante entender que cuando hablamos de inteligencia artificial hay distintos tipos de entrenamiento que se pueden ejercer sobre un algoritmo de este estilo. En general se clasifican de dos formas: entrenamiento supervisado y entrenamiento no supervisado.

datlas_mx_webinar_laura_entrenamiento_IA

Cuando hablamos de entrenamiento supervisado estamos básicamente hablando de tomar el set de datos que tenemos, extraer una muestra del 80%, por ejemplo, indicarle a la máquina cual es la variable de respuesta o lo que quiero calcular, estimar o predecir y pedirle que ajuste un modelo con esas variables. A partir de esto se usa el 20% restante de los datos para probar su asertividad del modelo y se realizan ajustes iterando esta práctica. Por otro lado, el aprendizaje no supervisado es aquel que permite a la maquina “deducir” o aprender a partir de un set de datos sin decirle exactamente que variable de respuesta esperamos o que tipo de ejercicio se quiere realizar. Para ponerlo en perspectiva, en 2016 Microsoft utilizó un entrenamiento no supervisado para generar su chatbot Tray y lo puso a aprender por si solo en base a las conversaciones e información de redes sociales. Este tipo de experimento resulto un tanto controversial ya que Tray se volvió racista y extremista debido a la exposición que tuvo a gran cumulo de datos e información de esta índole. En nuestro caso claramente, por el contexto de negocios utilizamos un aprendizaje supervisado.

free_Suscriber

Finalmente terminamos la sesión platicando acerca de un caso aplicado que tuvimos con un cliente en Nuevo León que nos planteó el reto de analizar una ubicación en el centro de Monterrey para descifrar cual podría ser el tipo de negocio ideal que pudiera posicionar en esa ubicación que pudiera estar generando un cierto monto de ganancias mensuales. Sorprendentemente cuando Laura realizó el análisis de entorno descubrió que dentro de la dinámica de la zona había un hospital que básicamente fungía como el generador de tráfico más fuerte y que había hecho que la zona tomara una vocación distinta en los últimos años. A partir de este hallazgo Laura fue a realizar un análisis de entorno de los principales hospitales públicos y privados de Nuevo León para derivar un top 10 de negocios que habitualmente se sitúan alrededor de un hospital y contrastarlo contra el entorno que estaba analizando para identificar aquellos tipos de negocios que tuvieran oportunidad de posicionarse en la ubicación definida por el cliente.

De esta forma logramos entregar al cliente 3 opciones de negocio con un cierto nivel de potencial económico que cumplía las restricciones citadas originalmente y ayudarlo a tomar la mejor decisión a través del uso de tecnología y apalancados en la gran cantidad de datos e información disponible actualmente. Si quieres conocer un poco más acerca de esta experiencia te invitamos a ver el video de testimonio de nuestro cliente

datlas_mx_webinar_laura_testimonio_barras_cardan

Finalmente te invitamos a mantenerte en contacto para recibir noticias de los siguientes Webinars y muchas sorpresas más que tendremos para ti. Hasta la próxima.

@DatlasMX