Archivo de la etiqueta: inteligencia artificial

Dimensionando la industria de “Analítica de datos e Inteligencia Artificial” 2021 – Investigación Datlas

Nuevamente es el año 2021 y el ecosistema de la industria de productos-servicios de analítica de datos e inteligencia artificial se expande. Hace 2 años promovimos la publicación de matttruck.com quien dimensiona período a período el tamaño de la industria y sus distintos nichos.

En esta columna compartiremos la actualización al 2021.

** Revisa la edición del 2020: https://blogdatlas.wordpress.com/2020/02/04/dimensionando-industria-analitica-datlas/

Industria de analítica e inteligencia artificial 2021

Según el reporte podemos encontrar 7 industrias y varías sub-industrias para la industria de “datos” (Analítica, big data e inteligencia artificial).  Ahora haremos un pequeño enfoque a cada una.

1) Infraestructura

Este nicho contempla todo lo que tiene que ver con: Almacenaje, almacenaje distribuido, lago de datos, similares de almacenaje de bases de datos, herramientas para ETL, integraciones de datos, gobernanza de información, monitoreo de indicadores, entre otros.

2) Analítica y Machine Learning(ML)

Esto contempla todas las plataformas de inteligenica de negocios, visualización de datos, plataformas de analistas de datos, anlítica aumentada, catálogos, analytics de logs, búsqueda de información, entre otros.

3) Machine Learning e Inteligencia Artificial

Este grupo tiene como subgrupos los sistemas de documentación tipo “Notebook”, plataformas de ciencia de datos, plataformas de ciencia de datos, etiquetado y generación de información, construcción de modelos, visión computacional, procesamiento de lenguaje computacional, sistemas conversacionales, hardware, entre otros.

4) Aplicaciones con enfoque a empresa e industria

Aplicaciones para empresa como marketing b2c, marketing b2b, ventas, experiencia del cliente, capital humano, legal, finanzas, automatización, seguridad. Otro tipo de aplicaciones como de educación, ciencias, inmobiliarias, finanzas, seguros, transportación, agricultura, entre otros.

5) Open source – Fuentes abiertas

Todo lo relacionado a fuentes abiertas (Y la mayoría gratuitas y con comunidades activas abonando). Como por ejemplo: Frameworks de trabajo, formatos, consultas tipo “query”, bases de datos, orquestación, deep learning, colaboración, seguridad, entre otros.

6) Fuentes de Datos y APIs

Fuentes de datos como mercados de información, datos económicos, del aire, del espacio de mares, inteligencia geográfica, entre otros.

7) Más recursos de datos

Finalmente los recursos de datos que integran otros servicios de datos, escuelas e incubadoras y de investigación.

De la misma fuente, generaron un índice de compañías que más han levantado capital.

En ese sentido, varias de las compañías del ecosistema han mostrado fondeos impresionante ayudando a complementar el mensaje de lo vigorizante que es este tipo de industrias y el crecimiento que ha tenido.

¿Habías pensado que la industria de analítica de datos e inteligencia artificial era tan grande? ¿Sería interesante ver este tipo de dimensionamientos para Latinoamérica o Iberoamérica? Continúa la conversación en @DatlasMX.

Aprende más consultando nuestro DataPlaybook en línea y revisando DatlasAcademy (www.datlasacademy.com)

Fuente original para realizar esta columna: https://mattturck.com/

Equipo Datlas

– Keep it weird –

Sistemas Automáticos Vs. Sistemas Autónomos, testing y mucho más de la Inteligencia Artificial- Columna de Investigación Datlas

Esta semana tuvimos la oportunidad de participar en “AI Factory:  Get serious about testing and deploying AI with apps” de IBM. En la charla se habló de la diferencia de sistemas autónomos y sistemas automáticos así como nuevas tendencias de los datos. En la columna de hoy compartiremos algunas notas sobre estos temas y reflexiones de los científicos de datos en general.

IBM, con IBM Watson, acuñó una dominancia y perfilamiento de la organización en el sector de la Inteligencia Artificial. La empresa tiene de los mejores expertas y expertos en el tema

Algunos de los motivadores para invertir en eso:

  • Inteligencia Artificial (IA) es un acelerador económico
  • El impacto financiero de la IA se hizo más claro (6.3% de crecimiento)
  • El enfoque en IA genera sus rendimientos
  • Los fundamentales de IA han ayudado a las organizaciones a ser más productivos
  • Finalmente el IA está reduciendo los costos operativos de los negocios

La siguiente tendencia: Sistemas de Inteligencia Artificial Aplicación infundida (AIIA)

La definición de AIIA, según IBM, es una combinación de sistemas que se basan en código tradicional e Inteligencia Artificial que aprende.

Durante la charla hicieron mucho hincapie en las pruebas que hay que recorrer en los sistemas y la falta de rigor actualmente en esto.

¿Por qué es muy importante hacer pruebas?

Si hablamos que la IA está involucrada en procesos de decisiones, es relevante hacer las pruebas debidas y poder explicar qué es lo que se está validando en un modelo de inteligencia.

En este sentido los motivos que nos comparte IBM son:

  • IA está involucrada en decisiones estratégicas y por eso hay que probarla
  • Muchas veces puede llegar a ser responsable de vidas humanas (En el caso de “auto-pilot” tipo TESLA))
  • Se podrá ir volviendo más riesgoso la decisión que plantea el modelo conforme más información llegue

¿Las pruebas aplican para sistemas Autónomos y Sistemas automáticos?

Gran parte de la charla se trato de explicar la diferencias entre dos tipos de sistemas. Sobre todo haciendo énfasis de que la IA está presentes en ambos. Estos son:

  • Sistemas automáticos: Significa que va a hacer exactamente las acciones para las que está programada sin elección. Por ejemplo algoritmos determinísticos
  • Sistemas autónomos: Quiere decir que es un sistema que puede hacer elecciones sin considerar influencias externas. Por ejemplo algoritmos predictivos que no son determinísticos

Como exploradores y apasionados en la ciencia de datos es importante estar al tanto de los avances en el campo de los sistemas autónomos. Sin duda el rigor del campo de la IA irá subiendo y cada vez más sistemas que tomen sus propias decisiones serán parte del futuro.

Hasta aqui la columna de hoy, participa y continua con nosotros la charla en nuestras redes a travez de @DatlasMX. También te invitamos a suscribirte a nuestro contenido de aprendizaje sobre ciencia de datos en www.datlasacademy.com

Equipo Datlas

– Keep it weird-

¿refrigeradores conectados a internet? industria 4.0: iot -investigación datlas

Anteriormente hemos platicado de ciudades inteligentes en donde tocamos brevemente el tema de sensores e internet de las cosas. En esta ocasión queremos contarte un poco acerca de que trata este gran elemento dentro de la transformación digital y la industria 4.0.

Antes de iniciar hay que tener claro que el término “industria 4.0” se utiliza para referirse a la llamada “cuarta revolución industrial”. El término se originó en Alemania en el 2011, y hace referencia a un modelo de manufactura avanzado que incluye tecnologías integradas una con otra de manera física o digital.

Existen varios tipos de tecnologías que pueden ser integradas a estos modelos, como por ejemplo: inteligencia artificial (IA), robots, cloud computing y efectivamente, el Internet de las Cosas (IoT por sus siglas en inglés).

Universidad y 4ª revolución industrial | Aprenentatge Servei

¿Qué es el Internet de las Cosas?

A grandes rasgos, el internet de las cosas encasilla todo lo que está conectado a internet, permitiendo que los objetos se “comuniquen” entre ellos. De manera más específica, el IoT es una herramienta tecnológica que permite integrar sistemas de procesamiento, almacenamiento y comunicación entre diversos procesos conectados entre si.

¿Dónde está presente el Internet de las Cosas?

El objetivo principal del IoT, es automatizar procesos. Por ello, está presente en muchos objetos cotidianos; desde los celulares que usamos, relojes inteligentes, aparatos electrónicos (TVs, consolas), un amplio abanico de electrodomésticos (como refrigeradores) y hasta cámaras.

También está presente dentro de las grandes industrias, por ejemplo en las industrias manufactureras, se encuentra en forma de sensores que mandan alertas si algo está pasando; en los grandes campos de cultivo donde gracias a algunos sensores, se puede conocer a detalle la calidad de la tierra.

Internet de las Cosas: Definición, funcionamiento, 6 beneficios y ejemplos

En el giro de transporte y logística, gracias al IoT, se pueden administrar las flotas de automóviles, barcos y aviones, tomando en cuenta factores como el cambio climático, disponibilidad de la vía, tránsito, entre otros. Además, el IoT se puede usar para mejorar la seguridad de los trabajadores. Por ejemplo, empleados en entornos peligrosos como minas, campos de petróleo y plantas químicas, necesitan tener conocimiento de los posibles eventos peligrosos que podrían suceder. Al estar inmersos en la tecnología IoT, pueden recibir alertas o notificaciones que les permitan tomar las acciones pertinentes.

Los retos actuales del IoT

Ahora bien, conociendo un poco del IoT, sus aplicaciones y beneficios, es importante conocer los retos a los que se enfrenta esta tecnología en el mundo moderno.

En primera, ¿cómo migrar a un ecosistema IoT? Se puede decir que tratar de migrar a la industria 4.0 es complicado. No solamente se limita a grandes inversiones económicas, implementación de tecnologías, equipamiento o softwares. Se trata de realmente lograr un cambio de visión y perspectivas dentro de la compañía, algo que no es para nada sencillo.

Volviendo al tema financiero, los costos de inversión para un ecosistema IoT pueden variar mucho, dependiendo del tamaño de la compañía y los alcances que se buscan, pero podemos asegurar que no es para nada barato. Aunado a esto, se estima que a las compañías, ver el retorno de inversión (ROI) les puede tomar entre 7 y 12 años.

La seguridad y privacidad digital también es un reto que afronta la transformación IoT. Las compañías pueden ser víctimas de amenazas, ataques por parte de hackers y hasta filtración información sensible. Se requiere que se desarrolle confianza en los ecosistemas IoT, sin embargo, las frecuentes amenazas a la seguridad y privacidad, lo hacen un camino difícil de recorrer.

Hasta aquí la columna de hoy. ¿Qué opinas del IoT? ¿En el futuro realmente puede ser más accesible y realizable? ¿Conoces algunos casos de IoT aplicados en la industria? Compártenos tu opinión a través de nuestras redes sociales @DatlasMX

Equipo Datlas

-Keep it weird-

5 Tendencias DE datos para gerentes de analytics – datlas investigación

La transformación digital en el 2021 continua siendo impulsada por distintos pilares como cultura, tecnología, sistemas de trabajo y análitica de datos. En esta última es importante seguir actualizándonos y el día de hoy dirigimos esta columna a la gerencia de analytics en las organizaciones. Hablaremos de 5 tendencias para analítica y datos en el 2021. Esta columna está inspirada en nuestra meta-investigación y la columna citada en fuentes de @Prukalpa

Te puede interesar también las tendencias del 2021 que investigamos al principio del año. Revísalas aqui.

5 Tendencias de Datos

1) Se mezclan los Data Warehouse y Data Lakes

Recuerda que hablamos sobre arquitectura de proyectos de datos en este blog y te contábamos las diferencias entre data Warehouse vs Data Lakes.

Las líneas que dividen estos conceptos se borran en algunos sistemas y algunas plataformas de analítica se están conectando de manera directa al lago de datos con tecnologías como SnowFlake.

2) Las herramientas de BI tools se hacen “mainstreams”

PowerBI, Qliks y/o Tableau son el nuevo estándar. De hecho plataformas como Tableau acaban de actualizar sus tarifas a puntos de precios bastante asequibles para PYMES ($35 dólares mensuales).

Sin embargo, recuerda tomar en cuenta la arquitectura de datos recomendada en este tipo de proyectos.

3) Los cursos y centros de excelencia de datos se vuelven el nuevo normal

Las capacitaciones de analistas en ciencia de datos se incrementan a alta velocidad. La intención es que más equipos dentro de las organizaciones se sumen a la transformación digital apalancados en plataformas de analítica.

Muchas organizaciones establecieron presupuestos en la contratación de capacitadores, cursos en línea, alianzas con universidades y programas hechos a la medida para aprender las introducciones a la analítica.

Si te interesa conocer un ejemplo de currícula no olvides revisar “Aprendiendo de Ciencia de Datos para Líderes de Equipo”

4) Emergen nuevos roles de datos

Te suena ¿Data Engineer o Data Arquitect? Sin duda alguna son de los principales roles que hemos planteado en estrategias de datos pero muchos analistas “odian” tener dependencias en sus ejercicios de ciencia de datas a la capacidad de obtener información de los ya muy demandados y ocupados “ingenieros o arquitectos de datos”.

En ese sentido se ha buscado empoderar mayormente a los analistas usando plataformas low-code. También abriendoles accesos a los “data-marts” para poder generar reportes con información básica y recurente.

Lo peor que puede suceder en una estrategia de datos es tener más “cadeneros o cuellos de botella” que solucionadores en los procesos planteados.

5) Las alertas inteligentes en negocios se vuelven “pulsos comerciales”

Hemos notado incrementos en solicitudes y RFQ de compañías que quieren estar más enterados de su contexto. Iniciativas como procesamientos de NLP de redes sociales, seguimiento a notas de ubicaciones estratégicas, “feeds” o síntesis de información de industria, entre otras son alguna evidencia del crecimiento de la “inteligencia” que se construye en los negocios.

Sin embargo, tanta información no es de mucha utilidad si esta no genera “alertas o notificaciones” oportunas para reaccionar. Imagínate que en determinado momento te cambian la tarifa del gas y tienes que esperar a la reunión trimestral de consejo para aceptar los cambios. Pero por otro lado, si usando datos y alertas en tiempo real monitoreamos los incrementos en precios de gas en distintos mercados podemos prepararnos con coberturas para el inminente crecimiento en tarifas.

Hasta aqui la columna de hoy ¿Qué opinas de las tendencias? ¿Cuál crees que es importante monitorear? y ¿Qué medios sigues para alertarte de los cambios en la industria? Sigamos la conversación en redes a través de @DatlasMX

Equipo Datlas

– Keep it weird –

Fuentes

Imagenes de unsplash y pinterest (https://ar.pinterest.com/pin/579345939554969637/)

https://towardsdatascience.com/the-top-5-data-trends-for-cdos-to-watch-out-for-in-2021-e230817bcb16

ANÁLISIS NLP de discursos presidenciales en eua: biden vs trump – datlas investigación

La semana pasada el protagonismo para la audiencia en Estados Unidos de América y la mayoría de países del mundo fue el cambio en el liderazgo presidencial del país. Después de unas controversiales votaciones, Joe Biden del partido Democrático ganó y paso a ser el nuevo presidente de los Estado Unidos por un período de 4 años.

Dejando atrás la controversia electoral, en esta columna nos enfocamos a desarrollar un análisis de NLP (Natural Language procesing o procesamiento de lenguaje natural) de los discursos presidenciales. Por un lado el de salida desarrollado por Donald Trump y por otro lado el de entrada, ejecutado por Joe Biden.

Te pudiera interesar los análisis que hemos hecho para los discursos de AMLO, el presidente de México, en el 2018 y 2019.

¿Qué es el procesamiento de Lenguaje natural o NLP?

Es un campo de la inteligencia artificial que estudia las interacciones entre computadoras y el lenguaje humano. Son utilizados en el estudio de discursos escritos o hablados. En este caso, por ejemplo, de un discurso presidencial.

El discurso de salida de Donald TRUMP

El discurso de salida de la presidencia de Trump estuvo cargado de agradecimientos y mensajes que algunos consideran de “venganza” o dejando claro que “regresará” de alguna u otra manera al escenario político de Estados Unidos. Si quieres leer el discurso completo te recomendamos ver la siguiente liga.

Como primer paso, pre-procesamos el discurso y lo dividimos en distintos enunciados más pequeños para que pueda ser procesado correctamente. Usando la librería ” library(SentimentAnalysis) ” en R contamos la cantidad de palabras por cada uno de los enunciados.

Posteriormente, y tomando en cuenta un diccionario de palabras que asocia cada término con un puntaje que representa 3 niveles de connotación en cada palabra: negativa, neutral o positiva, se analiza el nivel de cada uno de los enunciados.

Es posible obtener el nivel generalizado de cada uno de los enunciados su nivel. En ese sentido encontramos que para el discurso de trump 20 de los 23 enunciados desarrollados fueron con una mayor carga positiva

Respecto a las palabras, podemos realizar un conteo de las más usadas y así construir una “nube de palabras” que nos ayudará a entender un poco más el tipo de lingüística preferido por el presidente en este discurso

En concreto, este discurso tiene una carga de agradecimiento como es de entender de alguien que deja su cargo. Muy enfocado a las personas y elaborando comentarios sobre los temas problemáticos con los que se despide su gobierno. Muy al estilo Trump, algunas palabras denotan extremos, pero generarán empatía con su seguidores y partido.

El discurso de entrada de JOE BIDEN

Corriendo un proceso similar, tan sencillo como replicar el código, pre-procesamos el discurso de BIDEN que puedes encontrarlo aqui.

Respecto a la carga de mensajes, 45 de los 53 mensajes tuvieron una carga positiva. En proporción, menos que los de TRUMP, y mayormente porque algunas emociones que provocaría BIDEN en su discurso serían para provocar preocupación de la situación “caótica” en la que le “entregan” al gobierno.

Cuando revisamos las palabras más frecuentes del discurso encontramos terminología clásica en discursos presidenciales. Tales como “América”, “Nación”, “Democracia”, “Presidente” y “personas”. Con estas palabras invoca mensajes a una audiencia específica, al pueblo de los Estados Unidos.

Aqui una imagen generada con esta información

¿Para qué nos puede servir el análisis de NLP?

  • Analizar tickets de clientes
  • Clasificar prioridad de dudas o mensajes
  • Entender el contexto y campos de texto en variables
  • Generar predicciones
  • Entre otros…

Los mejores usos a este tipo de métodos se les da en aplicativos usando datos de redes sociales. Como es el caso de Twitter. Por ejemplo, aqui se analizan los datos de los últimos 250 tweets al corte de @JoeBiden

Hasta aqui la columna de hoy, cuéntanos en nuestras redes sociales @DatlasMX qué otro tipo de aplicaciones existen para NLP. Comparte y suscríbete a nuestras cuentas.

Equipo Datlas

– Keep it weird-

análisis de la presencia de cámaras cctv en el mundo (monterrey, cdmx y guadalajara vs. el top10 global)

¿La reducción justifica la invasión a nuestra privacidad como ciudadanos? Es una pregunta que cae un poco en lo filosófico, pero también en lo técnico cuando analizamos los efectos de la intervención de la tecnología en la vida de las personas. En esta ocasión hacemos un breve análisis de la publicación original de “VisualCapitalist” con datos de “SurfShark” sobre las cámaras en el mundo.

Qué es una Cámara CCTV

Un CCTV o circuito cerrado de televisión es una instalación de equipos conectados que generan un circuito de imágenes que solo puede ser visto por un grupo determinado de personas, estas se personalizan para adaptarse a las necesidades de cada cliente bien sean orientadas a la seguridad, vigilancia o mejora de servicio. (Tomado de IMSEL)

Desde 1942, en Alemania, donde se tienen registros de la instalación de las primeras cámaras de videovigilancia al día de hoy se identifican cerca de un billón de este tipo de equipos en el mundo.

Los sistemas de CCTV se han convertido en un apoyo fundamental en la prevención y control de pérdida y riesgos, al igual que la supervisión para mejora de la efectividad de las empresas y otro tipo de organizaciones

Algunos gobiernos de países, como China, han integrado aplicaciones de Inteligencia Artificial a sistemas de CCTV para identificar de manera más rápida a delincuentes, vehículos que mercen multas o gente que se ha reportado como perdida. Puedes ver este video para conocer mejor el sistema de “tracking”.

TOP 10 Global en instalaciones de CCTV

Similar a China, otros países como la India e Inglaterra han invertido en desarrollar poderosos sistemas de videovigilancia para su ciudad.

Los motivos, por un lado, resulta más “barato” instalar cámaras que contratar la cantidad de oficiales necesarios para completar la cobertura de grandes ciudades como Londres. Por otro lado es más eficientes, las cámaras y los sistemas de IA integrados no tienen dependencias de agotamiento. No se distraen y cumplen con el objetivo para el que fueron programado… reportar delincuencia o registrar gente que está pasando.

Por otro lado, los CCTV son sistemas fijos. Es decir, una vez instaladas a lo mucho pueden cambiar de ángulo, pero el ángulo de enfoque es limitado.

Un ejemplo más práctico puede se visto aqui (Cámara web online abierta y en vivo del Zócalo en CDMX Mexico City):

También te puede interesar “Estudiando cifras de Homicidios publicadas por el INEGI para México”

CCTV en México (país)

CCTV en Monterrey, Nuevo León

Se registran alrededor de 4,000 cámaras CCTV para el 2020. Por kilómetro cuadrado encontramos 4.18. Bastante menos en relación a lo que una ciudad como Beijing podría tener, 278 cámaras. Finalmente el índice de crimen estandarizado para Monterrey es de 49.29 y en Beijing sería de 34.27. Con esta tabla se podría decir que a mayor número de cámaras por kilómetro cuadrado menor sería el índice de crimen. Pero esta relación no podría ser concluyente hasta hacer un análisis longitudinal.

CCTV en Guadalajara, Jalisco

En relación a Monterey, la ciudad de Guadalajara tiene 6 veces más cámaras de videovigilancia. Por kilómetro cuadrado incrementa de 4 a 170 cámaras por kilómetro cuadrado. Aún así, el índice de criminalidad es mayor en Guadalajara que en Monterrey según SurfShark.

CCTV en CDMX

Finalmente, en México país, la CDMX es la región con más cámaras llegando a la cifra de 87,000. Por kilómetro cuadrado tiene 59 cámaras (Menos que Guadalajara, pero más que Monterrey). Aún con estas cifras el índice de crimen es mayor.

Si te interesa conocer más de la relación de vigilancia , análisis de datos y crimen te recomendamos escuchar nuestro podcast “Café de Datos” capítulo ¿Cómo analizar datos de delitos para proteger tu negocio?

Cierre

En México, como en otros países de LATAM, más cámaras en sistema CCTV con centros de monitoreos como los famosos “C4” ó “C5” podrían tener impactos positivos en la seguridad de una delegación, suburbio o municipio. En el futuro, los sistemas de inteligencia artificial que se apoyan en CCTV se irán sofisticando al grado de poder identificar personas de manera ágil mediante cámaras y otro tipo de aplicativos presentados en esta columna.

Sin embargo, si no cuidamos o nos aseguramos que se haga un correcto uso de estas tecnologías podemos caer en un “sobre-control” de los sistemas de videovigilancia sobre la población. La invasión a la privacidad es una situación que se contrapone a la seguridad cuando lo interpretamos desde estas aplicaciones del CCTV

Fuentes

– Fuente: https://embed.neomam.com/surveillance-cities/interactive.html

– Ciudades más videovigiladas. Fuente: https://www.visualcapitalist.com/mapped-the-top-surveillance-cities-worldwide/

– Qué es una CCTV. Fuente: https://www.imsel.com/que-es-cctv-y-cual-es-su-funcion/

Highlights 2020 en negocios y LA BRÚJULA DE tendencias para el 2021 – datlas investigación

**Esta columna de blog también tiene un episodio de podcast “Café de Datos” complementario. Escúchalo de voz del equipo Datlas aqui**

Cerramos un año histórico, sin embargo el “libre mercado” empujado por la cultura capitalista ha movido sus piezas en el mundo. De la misma manera la brújula de tendencias apunta para industrias transformacionales que continuarán impulsando la digitalización y automatización en industrias. En esta última columna del año te compartimos esta agenda para que lo tomes en cuenta para tu 2021

Algunos eventos de impacto durante el 2020 para el ambiente de negocios

1) Adquisiciones de negocios

¿Creías que la más grande fue la compra de SLACK? en realidad encabezan NVIDIA Y AMD con cifras inimaginables

2) Cambios en la composición de activos e las empresas

Mientras hace 40 años los activos que potencializaban el valor de una empresa eran tangibles como inmuebles, efectivo, inventario y tierra en la última década el 90% de los activos de las compañías del índice S&P 500 (Bolsa de valores de Estados Unidos) son intagibles. Tales como patentes, valor de marca, datos de clientes o software propietario

3) Cada vez más profesiones y trabajos en riesgo por pandemia o transformación digital

De las de más bajo ingreso y más frecuentes son enfermeros, intendentes y terapeutas.

4) Cambios de gobierno

Biden y el partido demócrata regresando al poder. Podemos ponerle fin a algunas de las “becas” que el actual liderazgo a concedido a las empresas en términos fiscales. Probablemente se abrirán nuevas oportunidades a empresas extranjeras en el mercado Norteamericano

5) Cambios de contexto

Muchas de las predicciones que no se concretaron al 2020 seguirán vigentes para el 2021. Efectos como frenos económicos, protecciones al consumidor y volatilidad complican las operaciones de negocios para el 2021

También te puede interesar 10 tendencias de negocios para el 2020

Tendencias para el 2021

1) Inteligencia Artificial con $390.9 Bn para el 2025

2) Computación distribuida (Edge) con $15.7 Bn para el 2025

3) Internet de las cosas $1,102.6 Bn para el 2026

4) Salud Digital con $385.8 Bn para el 2025

5) Realidad extendida con $209 Bn para el 2022

6) Robótica con $390 Bn para el 2025

7) Ciberseguridad con $270 Bn para el 2026

8) Vehículos autónomos con $556.6 Bn para el 2026

9) Nano-tecnología con $2.23 Bn para el 2025

10) Gemelos digitales $73.2 Bn para el 2050

Para revisar otras 10 tendencias te recomendamos revisar la publicacion de UNFOLD LABS 21/21

Futuro para Ciencia de Datos en 2021

El valor esperado de BIG DATA es de $224.9 Bn para el 2025. Por otro lado la tecnología geo-espacial (mapas, cartografía , analítica geoespacial y sus agregados) sumarán un valor de $502.6 Bn para el 2024.

– Natural Language Processing (NLP) según Sam Cannon de Facebook

Algunas de las compañías más importantes son: https://huggingface.co/

– Cómputo en la Nube

Más capacidades para procesamiento en la nube

– Desarrollo de mapas más sofisticados

Seguir a iniciativas como la de UBER: kepler.gl

– Analítica en e-ecommerce y salud

Analítica con más protragonismo en nuevos sectores

– Implementación en Apache airflow 2.0

Revisar los detalles en https://airflow.apache.org/

– Computación GPU para Ciencia de datos y ML

Más importancia en las dependencias de procesamiento en GPU que en RAM. Mayor selectividad a la hora de tener desarrollos de ciencia de datos

Cierre

Hasta aqui la columna de hoy ¿Percibes alguna otra nueva tendencia? ¿Qué autores sigues para tener lectura del futuro? ¿ Cómo recibirás y qué proyectos estás desarrollando? para el 2021? Cuéntanos en redes sociales @DatlasMX .

– Equipo Datlas –

Fuentes

– Visual Capitalist. https://www.visualcapitalist.com/visualizing-biggest-tech-mergers-and-acquisitions-of-2020/

– Futuro de Ciencia de Datos. Fuentes: https://medium.com/better-programming/the-future-of-data-science-data-engineering-and-tech-7f0a503745fd

Altar de muertos a alan turing – INVESTIGACIÓN DATLAS

EL 2 de noviembre en México se celebra el “día de muertos” y es una celebración donde se le rinde homenaje a los muertos. Tienes sus orígenes en poblaciones indígenas. Se conmemora a los difuntos a través de distintos símbolos y uno de los más representativos es el “altar de muertos”.

Esta semana, desde el equipo Datlas, publicamos nuestro altar digital para Alan Turing y aprovechamos la publicación para hablar un poco de su vida.

Turing es un matemático nacido en Reino Unido que fue un protagonista del desarrollo del campo de la teoría computacional. Recientemente se hizo más famoso por su función de criptografo descifrando mensajes de los “nazis” con la máquina ENIGMA después de la segunda guerra mundial.

Alan Turing es considerado el padre de la inteligencia artificial. En 1936 publicó el artículo “Sobre números computables, con una aplicación al Entscheidungsproblem” (traducible como “problema de decisión”), que resultó ser el origen de la informática teórica. En él definía qué era computable y qué no lo era. Lo computable era todo aquello que podía resolverse con un algoritmo (conjunto de instrucciones finito que, mediante pasos sucesivos, lleva a la solución de un problema). El resto eran tareas no computables..

Sus desarrollos como la máquina de Turing y el test de Turing daban nociones de que una máquina podría seguir pasos lógicos para identificar su un problema se podría resolver con “lógica” computacional

Turing se planteó el reto de construir una máquina que tuviera las mismas capacidades que el cerebro humano. Intervino en el diseño de la ACE (siglas en inglés de Automatic Computer Engine), un ordenador digital electrónico concebido para resolver más de un propósito y capaz de almacenar un programa en su memoria.

4 contribuciones importantes

– Máquina de Turing

– Concepto de hipercomputación

– Pilot Model ACE

– Test de Turing

Por esta razón te dejamos este pequeño video del altar de muertos digital para Alan Turing.

Hasta aqui la columna de hoy, esperemos te haya gustado. Cuéntanos cómo celebras el día de muertos y a quién le harías un altar de muertos en redes sociales @DatlasMX

Fuentes:

Inteligencia Artificial y Big Data en los negocios, ¿Qué efectos tuvo el COVID-19 en estas tendencias? – DATLAS Investigación

A inicios de año se nos presentó un reto sin precedentes que afectó completamente la forma en la que hacemos negocios. En respuesta a este gran cambio muchas empresas hicieron un replanteamiento de estrategias y objetivos al final del primer semestre del año. Nosotros no fuimos la excepción, como proveedores nos tocó presenciar de primera mano como muchos negocios lidiaban en distintas maneras con este reto de la pandemia. Fue ahí, justo unos meses después del gran shock inicial que comenzamos a notar una revaloración que las empresas estaban haciendo respecto a sus datos, como un activo clave, y por ende acerca de tecnologías como la Inteligencia Artificial (I.A.) y el Big Data.

Datlas_Blog_Promo_SuscriberFree

Comprometidos con seguir aportando a nuestro ecosistema, y conscientes de lo que estábamos presenciando, organizamos un Programa de 6 Sesiones para este segundo semestre del año (una vez al mes) en donde exponemos con casos de negocios reales los beneficios que empresas de todos los tamaños han podido capitalizar el uso de datos y aprovechar estas tecnologías. Justo este viernes tendremos nuestra segunda sesión titulada “El impacto del Big Data y la Inteligencia Artificial en los negocios” y es por ello que, en esta columna, hablaremos de como estas tendencias han impactado el mundo de los negocios y que tanto la pandemia a “afectado” su adopción.

La relación del Big Data & la I.A.

Antes de profundizar es necesario dejar en claro la razón de hablar en conjunto acerca del Big Data y la Inteligencia Artificial. En un sentido general el Big Data se refiere a esta manipulación de grandes cantidades de datos o información en diversos formatos, mientras que la Inteligencia Artificial (I.A.) se refiere a programas computacionales que son capaces de emular actividades del cerebro humano como el aprendizaje con base a experiencia (eventos pasados). Siendo así, no podemos hablar de Inteligencia Artificial sin hablar de Big Data dado que para construir modelos o algoritmos de I.A. se necesitan datos, que precisamente son obtenidos y manipulados por el Big Data.

¿Qué impacto esperábamos hace algunos años?

Apenas hace un par de años (2018), según información de Deloitte, 9 de cada 10 ejecutivos afirmaban que los sistemas de I.A. transformarían sus modelos de negocio.

datlas_mx_blog_deloitte_encuesta

Además, se esperaba que la Inteligencia Artificial diera lugar a la aparición de nuevos perfiles profesionales que debían convivir con los ya existentes. Estos perfiles especializados abren un nuevo abanico de posibilidades innovadoras que afectan directamente a procesos y herramientas, que ven mejorado su rendimiento.

Impacto actual

Actualmente, lejos de verse mermado el acelerado crecimiento y adopción de soluciones de I.A., por ejemplo, se ha visto una expansión interesante a nivel mundial y también en Latinoamérica. En el caso de asistentes virtuales inteligentes (tipo Siri y Alexa) en Latinoamérica se manejan más de 850 millones de conversaciones en negocios B2B y B2C para atraer, generar, crecer y retener clientes. Y este es solo un tipo de aplicación y una de las múltiples formas de derivar beneficios.

Por otro lado, el Big Data se utiliza para promover productos, desarrollar mejores estrategias comerciales, llegar a los clientes, explorar nuevos mercados y audiencias objetivo, optimizar el flujo de trabajo, reducir los costos y obtener otras ventajas competitivas en el mercado.

Natural Language Processing: A Short Introduction To Get You Started |

Ahora bien, sabemos que no todos los negocios han sufrido esta pandemia de la misma forma. Existen sectores o industrias que han sido impactados de forma más crítica, mientras otros han podido lidiar con esto de una manera menos acelerada. De la misma forma el impacto que estas tendencias del Big Data y la I.A. han tenido en las distintas verticales de negocio ha sido variado, en términos de sus aplicaciones, pero igualmente relevante y trascendente. Por mencionar algunos ejemplos puntuales profundizaremos en industrias como: retail, marketing y publicidad, así como el transporte y logística.

Retail, Marketing y publicidad

La tarea más frecuente de las soluciones de Big Data está relacionada con la búsqueda de patrones de comportamiento que se puedan emplear para muchos propósitos. Comprender los hábitos y deseos de los clientes es la principal preocupación de cualquier negocio, y el análisis de Big Data es la única forma válida de lograr resultados precisos basados en un gran muestreo y cálculos extensos en lugar de intuiciones y experiencias personales.

Otra aplicación común de Big Data en las empresas de retail, marketing y publicidad es el análisis predictivo sobre la base de grandes conjuntos de datos. La mayor cantidad y volumen de datos permite obtener resultados más precisos, configurar más parámetros antes del análisis e incluso ampliar los temas y las posibilidades generales de pronóstico.

Qué es el Big Data Marketing y qué ventajas ofrece?

Transporte y logística

Las empresas de transporte también manejan grandes volúmenes de información sobre vehículos, pasajeros, equipaje y carga. La necesidad de administrar flujos de datos extensos con restricciones de tiempo estrictas impuestas por los horarios de transporte requiere soluciones de software de alto rendimiento diseñadas específicamente para Big Data.

El propósito práctico de tales soluciones radica en rastrear la entrega de carga, monitorear el uso y suministro de combustible, el estado técnico del estacionamiento de vehículos de la empresa, los controles de salud de los conductores y el horario de trabajo, así como muchos otros factores relevantes. De esta forma, las empresas pueden utilizar el software Big Data para priorizar la seguridad además de la optimización habitual del consumo de recursos y la mejora de la eficacia.

How does Big Data save logistics? - How does Big Data save logistics? -  Régens

¿Cómo pinta el futuro?

Los analistas empresariales predicen que los ingresos del mercado global de Big Data alcanzarán los 103 mil millones de dólares en 2027. No importa si tu empresa es grande o pequeña, siempre hay una forma de beneficiarse de las soluciones de Big Data. La ventaja más importante que ofrece esta tecnología es el conocimiento de las necesidades y los patrones de comportamiento de los clientes. Esta información, junto con los pronósticos de alta precisión permite a los empresarios diseñar estrategias comerciales efectivas en lugar de perder tiempo y dinero en el método de prueba y error. La capacidad de manejar grandes volúmenes de información utilizando soluciones de software automatizadas también simplifica enormemente la gestión empresarial, incluidos aspectos como mantenimiento, inventario, envío, carga de trabajo y otros.

Si quieres conocer un caso real aplicado de Big Data e Inteligencia Artificial y enterarte de como puedes tu mismo comenzar a aplicar estas tecnologías en tu negocio el próximo lunes, no te pierdas nuestra sesión este viernes. Inscríbete gratis aquí.

datlas_mx_6_sesiones_2S2020_bigdata_analytics_ia_sesion2_promo

V de Variedad en Big Data: datos estructurados y no estructurados

En más de una ocasión hemos tenido la oportunidad de presentarnos en foros donde hablamos de Big Data como esta nueva gran tendencia dentro del marco de la transformación digital. Al comenzar cada una de nuestras presentaciones, como es nuestra fiel costumbre, contextualizamos acerca de los conceptos que abordamos. Dentro de la explicación de lo que es el Big Data hacemos referencias a las famosas 5 Vs: Volumen, velocidad, variedad, veracidad y valor. Implícitamente, dentro de la característica de variedad hablamos del origen de los datos, las fuentes de donde provienen y del tipo de estructura que tienen. En esta columna vamos precisamente a profundizar en los datos y las bases de datos estructuradas y no estructuradas, lo que son y como es que nosotros las apalancamos dentro de los reportes automatizados Laura para capitalizar un mejor entendimiento, análisis y descubrimiento de oportunidades con alto impacto para el negocio.

free_Suscriber

Como punto de partida hay que entender a que nos referimos con datos estructurados y no estructurados. En primer lugar, los datos estructurados se refieren a la información que se suele encontrar en la mayoría de las bases de datos relacionales (Relational Database Management System o RDBMS por sus siglas en inglés), es decir, en un formato estructurado usando filas y columnas. Suelen ser archivos de texto que se almacenan en formato tabla u hojas de cálculo con títulos para cada categoría que permite identificarlos. Son datos que tienen perfectamente definido la longitud, el formato y el tamaño y que pueden ser ordenados y procesados fácilmente por todas las herramientas de minería de datos. De igual manera, los datos pueden generarse de forma humana o mecánica siempre que los datos se creen dentro de una estructura RDBMS. Para ejemplificarlo de forma más simple, imagina cuando tomaban lista en el salón de clase y el profesor tenía una tabla con nombres, apellidos, la fecha de la clase y un montón de palomitas. Así se “ven” los datos estructurados.

El pase de diapositivas requiere JavaScript.

Por otro lado, existe una clasificación diametralmente opuesta a esta: los datos no estructurados. Aunque si bien entendemos que técnicamente existe también el término de datos semiestructurados en esta ocasión utilizaremos los opuestos para ejemplificar el punto de la variedad dentro del big data y los beneficios de fusionar los distintos tipos de datos a la hora de generar los análisis. Así que, volviendo al tema, los datos no estructurados, que son la otra cara de la moneda son aquellos datos, generalmente binarios, que no poseen una estructura identificable. Es un conglomerado masivo y desorganizado de varios objetos que no tienen valor hasta que se identifican y almacenan de manera organizada. No tienen un formato especifico, pueden ser textuales o no textuales. En su modo más simple, son documentos en PDF, archivos de Word, videos, audios, las fotos satelitales de las hectáreas de siembre que tiene una empresa agrícola, entre otros ejemplos. De la misma forma que los datos estructurados, este otro tipo de datos puede ser generado tanto por humanos como por maquinas.

datlas_mx_blog_datos_no_estructurados
Ejemplo de datos no estructurados (textual)

Ahora bien, ¿Qué relevancia tiene esta variedad de los datos? ¿Qué relación guarda con esto del Big Data? Pues precisamente estadísticas mostradas por empresas como Kyocera estiman que alrededor del 80% de la información relevante para un negocio se origina en forma no estructurada, principalmente en formato texto. Esto quiere decir que, al tener la posibilidad de integrar datos no estructurados al análisis, automáticamente el volumen de información (otra de las V del Big Data) disponible para análisis aumenta a más del doble. Imagínate que llegara un nuevo vendedor y pudiera leer todos los corres de prospección escritos en los últimos 5 años de historia de la compañía. Toda la riqueza detrás de ese tipo de ejercicio hoy es posible gracias al Big data, pero tomar ventaja de los datos no estructurados es una tarea retadora, ya que existe la necesidad de organizar los archivos, categorizar el contenido y entonces obtener información que pueda estructurarse de tal forma que sea capaz de fusionarse con los datos ya estructurados. Aunque sin duda hoy existen en el mercado herramientas de software para el procesamiento, gestión o almacenamiento de este tipo de datos, sigue siendo importante el papel de los analistas de negocio o los mismos dueños para establecer una priorización de esfuerzos con base al beneficio potencial que pudiera obtenerse de ese esfuerzo por capitalizar los datos no estructurados.

datlas_mx_blog_datos_no_estructurados_a_estructurados

Finalmente, desde nuestra experiencia hemos logrado consultar bases de datos estructuradas y no estructuradas para realizar los reportes automatizados de Laura y entregar un verdadero valor agregado al cliente comparado al de los estudios tradicionales que generaba un equipo de analistas sin este tipo de herramientas. Tomemos como ejemplo las redes sociales, un tweet. Hoy es muy común que la gente se exprese libre y abiertamente en twitter acerca de lo que le gusta, le disgusta o incluso donde esta. En nuestro caso, uno de los elementos integrados dentro de Laura es el análisis de tráfico peatonal por categoría de negocios, es decir, que tanta gente está tweeteando acerca de una cierta marca de restaurante o producto. Para poder apalancar estos datos de forma inteligente se hace un proceso de análisis de texto que extraer el nombre del establecimiento, lo coteja con un diccionario de negocios, lo clasifica dentro de la categoría a la que pertenece ese negocio y finalmente lo agrega, de forma estructurada, en una base de datos que pasa a ser consultada como un mapa de calor dentro de nuestras plataformas de Mapas de Inteligencia y a su vez como una imagen de la ubicación analizada y el entorno al hablar de los reportes Laura. Esto nos ha permitido apoyar a negocios a tomar mejores decisiones de ubicación, ponderando no solamente los típicos indicadores estructurados y “fijos” sino también la información no estructurada y, en este caso, dinámica para ofrecer una perspectiva realmente nueva y más holística de las condiciones a las que se enfrenta el negocio al momento de tomar una decisión.

datlas_mx_casos_uso_consultoria_derrama_economica_luztopia_2019

Como este caso hemos aprovechado otro tipo de datos no estructurados para apoyar a empresas de distintas formas, en tu caso ¿generas información no estructurada? ¿te interesa aprovechar el poder que esconde esa información? ¿o simplemente te gustaría experimentar con la información no estructurada que existe allá afuera y que hoy podemos poner a tu disposición? Contáctanos y cuéntanos

@DatlasMX