Archivo de la etiqueta: datos

¿PODRÍAS SER más propenso a chocar que otra persona SÓLO POR TU MODELO DE AUTO? La respuesta puede ser “sí” – DATLAS INVESTIGACIONES

El análisis de datos ha ido adquiriendo mucha importancia últimamente, sabemos que es una ciencia que se encarga de analizar un respectivo conjunto o conjuntos de datos para obtener conclusiones de los mismos y así tomar decisiones o simplemente obtener nuevos conocimientos. En esta columna presentamos un ejercicio complementario de análisis de datos. Esto sobre una base de datos de choques y siniestros para Nuevo León. Te presentamos nuestros hallazgos.

** También te podría interesar nuestras otras columnas sobre choques y siniestros

Big Data y Data Science: los profesionales especializados en ciencias de  datos tienen el futuro asegurado

En esta ocasión se usará una base de datos que recopila los choques de la zona metropolitana de Monterrey, Nuevo León desde el año 2016 hasta la mitad del 2018. Gracias al análisis podremos observar los diferentes fenómenos que se presentan.

La base de datos contiene los registros ya mencionados, cada registro contiene diferentes columnas, podemos dividir estas columnas en tres secciones que definen cada aspecto del choque:

1) La primera sería el lugar del suceso,

2) La segunda sería la descripción del mismo y

3) La tercera es la fecha/hora cuando ocurrió.

Ahora bien, con estos datos vamos a contestar algunas preguntas.

¿En qué códigos postales de la ciudad de Monterrey, Nuevo León y Zona metropolitana (ZMM) se generan más choques?

Para fines prácticos, se tomaron de la tabla los diez códigos postales donde hubo más choques, esto considerando su respectiva frecuencia de ocurrencias con respecto al total. Los resultados se mostrarán a continuación.

Top 10 códigos postales con más choques:

  1. 64000
  2. 64620
  3. 64590
  4. 64330
  5. 64619
  6. 64200
  7. 64988
  8. 64460
  9. 64710
  10. 64700

Para un mejor entendimiento se relacionó cada código postal con el nombre de la colonia. Estas son las colonias donde hay más percances del área metropolitana.

Top 10 colonias con más choques:

  1. Col. Centro
  2. Col. Vista Hermosa
  3. Col. Agrícola
  4. Col. Gral. Naranjo
  5. Col. Residencial Cumbres
  6. Col. Croc
  7. Col. El Milagro
  8. Col. Mitras Centro
  9. Col. Nuevas Colonias
  10. Col. Nuevo Repueblo
Mapa Monterrey, N.L. Colonias con más choques.

Si andas por estas colonias te recomiendo que vayas con mucha precaución detrás del volante.

¿A qué hora ocurren más choques en Monterrey (ZMM) ?

Pienso que esta es una de las preguntas más importantes a considerar ya que si vives en Monterrey sabrás de la cantidad de tráfico que se genera a las horas pico, veremos si existe una relación entre los choques y las horas de más tráfico.

Formato 24hrs.

Las horas que destacan son: 14:00, 13:00, 16:00, 18:00, 15:00. Podemos notar que los choques están relacionados con el tráfico, y el tráfico a su vez se genera principalmente debido a las “horas de trabajo”, claramente podemos observar la “hora de entrada”, la de “hora de comida” y la “hora de salida” que son los tiempos en donde hay más personas manejando.

¿Qué días de la semana suceden más choques en Monterrey(ZMM) ?

Formato 24hrs. Empezando por día domingo y terminando el sábado.

Empezando por el domingo en este caso, se puede notar cómo es que los choques varían dependiendo del día, siendo el “viernes” cuando ocurren más siniestros y el “domingo” el día que menos. Otro fenómeno curioso que podemos observar es que durante los sábados en la noche la cifra de choques aumenta considerablemente en comparación a los demás días, es entendible, la gente se va de fiesta, toma alcohol u otras sustancias, acto siguiente escoge manejar y lamentablemente choca. 

¿Algún color de auto es más propenso a chocar?

La respuesta corta es “sí”, existen autos que son más propensos a chocar que otros por su color, esto quizá se deba a que durante el día o la noche son más difíciles de observar para los conductores, otro factor puede ser que la mayoría de los autos que circulan son de ciertos colores “populares” y por ende tienen esas estadísticas.

Puede parecer broma, pero tomando en cuenta todo esto, en dado caso de que te encuentres manejando un carro gris o blanco un viernes por la tarde en el centro de Monterrey, estadísticamente tienes una gran probabilidad de chocar.

– Equipo Datlas –

¿Qué se puede decir de todo esto?

“Nuevo León, la entidad con mayor registro de choques en el país” – El financiero

“Falta cultura vial…y abundan choques” –El Norte

Estos solo son dos ejemplos de los miles que se pueden encontrar en cuanto a notas periodísticas donde mencionan nada más que la verdad. Nuevo León es en efecto la entidad del país con el mayor número de choques, esto se puede comprobar observando las bases de datos del INEGI o simplemente visualizando las gráficas que ya tienen disponibles en su página. No hace falta ser muy meticuloso con los datos para darnos cuenta de esto, solo basta con salir a manejar en horas pico para que uno se dé cuenta de lo pésima que es esta situación, no es de sorprenderse que seamos la zona metropolitana con mayor número de choques.

Finalmente, si multiplicamos las probabilidades de cada dato podemos llegar a una conclusión un poco chistosa pero cierta, si tú decides salir a manejar un automóvil de color blanco, un viernes por la tarde en el centro de la ciudad de Monterrey, estadísticamente tienes mayor probabilidad de chocar que cualquier otro conductor.

Ándate con cuidado si tienes un auto blanco y te gusta salir los viernes.

Lectores recuerden suscribirse en www.datlasacademy.com para obtener cursos gratuitos sobre métodos y conceptos de transformación digital. Para las y los primeros suscriptores habrá un curso de “Storytelling de Datos” de obsequio. No se lo pierdan.

Equipo Datlas –

No te sientes al frente si vas en un carro blanco por gonzalitos (Caso de ANÁLISIS DE CHOQUES PARA NUEVO LEÓN, MÉXICO) – DATLAS INVESTIGACIONES

Aún con varios blogs escritos al respecto, los datos de los siniestros reportados de inicios del 2016 a mediados del 2018 en Mty NL, aún tienen mucho que decirnos. Y aunque pareciera un título alarmante, la realidad es que no lo es, ¿o sí? Como diría cualquier científico social: Depende. Quédate en este blog para descubrir la respuesta.

** Te puede interesar “Categorizando zonas con más choques en Nuevo León”

Si cualquier persona con suficiente equipo de cómputo para utilizar Microsoft Excel filtrara y contara las observaciones de la antes mencionada base de datos, se daría cuenta de los siguientes resultados:

  1. El color de los vehículos más chocado en ese periodo es el color blanco.

Seguido del gris, rojo, plata, y negro. Al quitar duplicados, sumar colores prácticamtente iguales, y ordenando de mayor a menor por cantidad de observaciones, obtenemos el TOP 10 se se ve en la imagen.

2. La parte del auto donde sucedió el choque más frecuente fue el frente

Seguido de la parte trasera, el cofre, el costado derecho delantero, y el costado izquierdo delantero. El procedimiento fue prácticamente el mismo que en el caso del color del vehículo, y gracias a ello tenemos el TOP 10 en esta segunda imagen.

3. Los choques de auto se concentran en su mayoría en la avenida Gonzalitos.

Por último, si proyectaramos un mapa 3D de las latitudes y longitudes, las cordenadas de los diferentes siniestros filtrados por tipo de vehículo, podríamos llegar a la conclusión de que en el mapa de autos, estos se concentran más en la avenida de Gonzalitos, mientras que en el camión se concentran por Ruiz Cortinez, y en los camiones ligeros por Madero.

Ahora bien, ¿debería de alarmarme por el título de este blog? Nuestra respuesta sería: no lo suficiente, y la manera más fácil de explicarlo es con el color del vehículo.

El hecho de que el color con más choques reportados sea el blanco, no quiere decir que dicho color sea el más propenso a chocar, porque no sabemos si es el color más comprado. Si por ejemplo casi toda la ciudad compró autos blancos y solo chocó 1 tercio, mientras que los autos rojos solo compraron 10 personas y todos chocaron porque es el color más propenso a chocar, el número de reportes entonces no nos ayuda mucho.

Algo similar sucede con la avenida Gonzalitos. Si solo nos basamos en los datos de los siniestros reportados, no podríamos comparar esta avenida con otras, al no estar seguros de cuantos automóviles la transitan, y por ende, no podemos asumir que es la avenida más peligrosa o propensa a sufrir un accidente. No es coincidencia que la hora con más choques es la 1:47pm, la cual cabe en lo que conocemos coloquialmente como la hora pico.

Como de costumbre, la intención de este blog no es asustar al usuario, si no compartir resultados interesantes de un análisis básico de datos, y generar conciencia de como un evento tan normal como un choque en esta ciudad, puede arrojarnos información interesante a compartir.

Hasta aquí la columna de hoy, no duden en visitar los otros escritos de esta base de datos o de la basta variedad de temas de analítica que hemos realizado. Pueden encontrarnos en nuestras redes sociales como @DATLASMX.

Adjuntamos el video echo por un aplicante para una de nuestras últimas convocatorias de ingreso a la startup, donde tenía que explicar esta y otras conclusiones interesantes de la base de datos en 6 minutos como máximo.

Equipo Datlas

-Keep it weird-

Fake News (Radiografía en México) – Columnas de opinión Datlas

En otros blogs hemos comentado de distintas controversias sobre análisis de datos. Hablamos de algoritmos de censura en redes sociales como twitter, casos que atentan con la privacidad como el de cambridge analytica y dimos nuestra opinión sobre las FAKE NEWS en eventos como Talent Land.

En esta ocasión motivados por el evento del próximo 22 de Junio en LABNL complementamos la opinión de las FAKE NEWS difundiendo una investigación de la UNAM y narrando cómo funcionan las granjas de bots según investigaciones de las BBC.

El homo sapiens digital

Es importante seguir amplificando la conversación de FAKE NEWS debido a la creciente cantidad de dispositivos conectados a la red y la información de insumo para las notas periodísticas en el mundo

  • 7.6 Bn de Habitantes
  • 50 Bn de dispositivos conectados
  • 7 dispositivos por persona
  • 5,020 gigabytes por persona
  • +80,000 ciberataques al día

Hoy en día se escriben más bases de datos que nunca antes en la historia. Nuestra actividad en redes sociales, transacciones electrónicas y las interacciones en el mundo tecnológico deja una huella digital que alimenta sistemas de información robustos. Estas bases de datos, antes estaban sólo al acceso de profesionales calificados o instituciones certificadas. Sin embargo, con el avance en el área de “analítica de datos” y el internet, más personas  pueden acceder a estos datos e interpretarlos a su criterio para después hacerlos de dominio publicó en redes como Facebook, Whatsapp, Instagram y Twitter.

En las noticias falsas (Fake news), debemos de navegar en nustras redes cuestionando los roles de los consumidores y generadores de información en la conversación social que habilitan las redes sociales.

Durante el COVID-19 fuimos testigos de la desalineación entre la alta velocidad de difusión de noticias falsas habilitadas por redes como Facebook y Whatsapp y la validación de las mismas. Tanto así que esto impulso el movimiento de masas con repercusiones como el agotamiento de ciertos bienes de consumo en tiendas de autoservicio (Cerveza, papel higiénico, entre otros).Adicional, estudios como el de  “Radiografía sobre la difusión de fake news en México” de la UANL en el 2020 indican que el 90% de los usuarios de Whatsapp en México había obtenido una nota falsa. En este sentido resulta oportuno ampliar el diálogo sobre ética de datos y “fake news”.

Importancia de hablar de FAKE NEWS

La velocidad a la que fluye la información en INTERNET gracias a las redes sociales eleva la necesidad de hablar de redes sociales. Según estudios el 90% de los mexicanos recibió una FAKE NEW durante la pandemia COVID-19

Fake News y las granjas de bots en México

La limitante de que en México podemos obtener tarjetas SIMS sin la necesidad de registrar nuestra identidad abre la puerta para que muchas cuentas falsas en redes sociales como twitter y facebook se den de alta (Esto porque dependen de un número telefónico).

Estudio de Radiografía en redes sociales México

En un estudio de la UNAM realizado a más e 1600 internautas de los 32 Estados del país se generaron distintos hallazgos sobre FAKE NEWS.

  • 88% recibió una noticia falsa
  • 90% recibió una nota falsa sobre COVID-19

DeepFake

Ahora, gracias a la tecnología DEEP FAKE, no podremos confiar en lo que veamos y escuchamos en internet. Hay que validar. Aquí este ejemplo que la empresa mexicana SORIANA hace sobre CANTINFLAS (Un actor legendario en México de la época de oro)

Cierre (5 pasos para evitar la propagación de FAKE NEWS)

1.No creer al 100% lo que circula en las redes sociales

2.Darse unos minutos para corroborar antes de compartir

3.Guardar la calma y no dejarse llevar por los impulsos ni hacer comentarios deliberados si no tenemos la seguridad

4.Mantenernos informados a través de autoridades de salud, nacionales e internacionales

5.Seguir las normas de sanidad establecidas para evitar el contagio

Hasta aqui la columna de hoy. Si te quieres sumar a la conversación de FAKE NEWS no dudes en contactarnos via redes sociales en @DATLASMX

Equipo DATLAS

– Keep it weird –

Fuentes:

Cisco IBSG, EMC Digital Universe with Research & Analysis by IDC y PURPLE Resources. Via: https://purplesec.us/resources/cyber-security-statistics/

https://www.dgcs.unam.mx/boletin/bdboletin/2020_318.html

¿refrigeradores conectados a internet? industria 4.0: iot -investigación datlas

Anteriormente hemos platicado de ciudades inteligentes en donde tocamos brevemente el tema de sensores e internet de las cosas. En esta ocasión queremos contarte un poco acerca de que trata este gran elemento dentro de la transformación digital y la industria 4.0.

Antes de iniciar hay que tener claro que el término “industria 4.0” se utiliza para referirse a la llamada “cuarta revolución industrial”. El término se originó en Alemania en el 2011, y hace referencia a un modelo de manufactura avanzado que incluye tecnologías integradas una con otra de manera física o digital.

Existen varios tipos de tecnologías que pueden ser integradas a estos modelos, como por ejemplo: inteligencia artificial (IA), robots, cloud computing y efectivamente, el Internet de las Cosas (IoT por sus siglas en inglés).

Universidad y 4ª revolución industrial | Aprenentatge Servei

¿Qué es el Internet de las Cosas?

A grandes rasgos, el internet de las cosas encasilla todo lo que está conectado a internet, permitiendo que los objetos se “comuniquen” entre ellos. De manera más específica, el IoT es una herramienta tecnológica que permite integrar sistemas de procesamiento, almacenamiento y comunicación entre diversos procesos conectados entre si.

¿Dónde está presente el Internet de las Cosas?

El objetivo principal del IoT, es automatizar procesos. Por ello, está presente en muchos objetos cotidianos; desde los celulares que usamos, relojes inteligentes, aparatos electrónicos (TVs, consolas), un amplio abanico de electrodomésticos (como refrigeradores) y hasta cámaras.

También está presente dentro de las grandes industrias, por ejemplo en las industrias manufactureras, se encuentra en forma de sensores que mandan alertas si algo está pasando; en los grandes campos de cultivo donde gracias a algunos sensores, se puede conocer a detalle la calidad de la tierra.

Internet de las Cosas: Definición, funcionamiento, 6 beneficios y ejemplos

En el giro de transporte y logística, gracias al IoT, se pueden administrar las flotas de automóviles, barcos y aviones, tomando en cuenta factores como el cambio climático, disponibilidad de la vía, tránsito, entre otros. Además, el IoT se puede usar para mejorar la seguridad de los trabajadores. Por ejemplo, empleados en entornos peligrosos como minas, campos de petróleo y plantas químicas, necesitan tener conocimiento de los posibles eventos peligrosos que podrían suceder. Al estar inmersos en la tecnología IoT, pueden recibir alertas o notificaciones que les permitan tomar las acciones pertinentes.

Los retos actuales del IoT

Ahora bien, conociendo un poco del IoT, sus aplicaciones y beneficios, es importante conocer los retos a los que se enfrenta esta tecnología en el mundo moderno.

En primera, ¿cómo migrar a un ecosistema IoT? Se puede decir que tratar de migrar a la industria 4.0 es complicado. No solamente se limita a grandes inversiones económicas, implementación de tecnologías, equipamiento o softwares. Se trata de realmente lograr un cambio de visión y perspectivas dentro de la compañía, algo que no es para nada sencillo.

Volviendo al tema financiero, los costos de inversión para un ecosistema IoT pueden variar mucho, dependiendo del tamaño de la compañía y los alcances que se buscan, pero podemos asegurar que no es para nada barato. Aunado a esto, se estima que a las compañías, ver el retorno de inversión (ROI) les puede tomar entre 7 y 12 años.

La seguridad y privacidad digital también es un reto que afronta la transformación IoT. Las compañías pueden ser víctimas de amenazas, ataques por parte de hackers y hasta filtración información sensible. Se requiere que se desarrolle confianza en los ecosistemas IoT, sin embargo, las frecuentes amenazas a la seguridad y privacidad, lo hacen un camino difícil de recorrer.

Hasta aquí la columna de hoy. ¿Qué opinas del IoT? ¿En el futuro realmente puede ser más accesible y realizable? ¿Conoces algunos casos de IoT aplicados en la industria? Compártenos tu opinión a través de nuestras redes sociales @DatlasMX

Equipo Datlas

-Keep it weird-

Utilities: abundancia de datos y gran oportunidad para analítica y big data – Investigación DATLAS

Hace alrededor de un mes tuvimos la oportunidad de tener como invitado en nuestro podcast Café de Datos al Global Head of AI & Analytics en Telefónica IoT & Big Data Tech el gran Antonio Pita Lozano con quien estuvimos platicando acerca de la ciencia de datos como una carrera profesional, como ensamblar equipos de ciencia de datos en las organizaciones e incluso nos comentó acerca del Máster en Ciencia de Datos del cual es director en KSchool. En esta columna vamos a tomar una de las aportaciones que más nos sorprendió de la charla con Antonio para profundizar un poco más.

Para iniciar, como es costumbre con nuestros invitados en el podcast, les pedimos que nos compartan ¿con quién se tomarían un café? si pudieran elegir a cualquier personaje de la historia. En este caso Antonio nos comentó un par de nombres famosos, pero terminó inclinándose por Alan Turing. Para quien no lo conozca Alan Turing fue un matemático nacido en Reino Unido que fue un protagonista del desarrollo del campo de la teoría computacional. Recientemente se hizo más famoso por su función de criptógrafo descifrando mensajes de los “nazis” con la máquina ENIGMA después de la segunda guerra mundial. De hecho en Datlas le hicimos un homenaje a este gran personaje por el Día de Muertos que celebramos en México, puedes ver el altar homenaje aquí.

Después de este pequeño ritual de bienvenida para calentar motores Antonio nos relató un poco de su carrera y desarrollo profesional. Durante este bloque comentamos acerca de la transformación digital que han experimentado, y aprovechado, algunos grandes sectores económicos como lo es la industria financiera. Asimismo le pedimos a Antonio que nos diera su perspectiva alrededor de sectores o industrias que tuvieran grandes cantidades de datos y al mismo tiempo una gran oportunidad de aprovecharlos o explotarlos de una mejor manera. Sorprendentemente para nosotros, Antonio nos hizo notar que uno de los sectores que ha tenido una inmersión importante en temas de analítica de datos, después del sector financiero, ha sido el sector de las Utilities y quisimos profundizar un poco en esta parte.

¿Qué son las Utilities?

Las utilities es la denominación en inglés de aquellas compañías que pertenecen al sector energético y de servicios colectivos que prestan servicios de los cuales no se puede prescindir como por ejemplo: electricidad, gas, agua, residuos, etc.

Se consideran empresas seguras puesto que los ingresos son estables, sin embargo, debido a la gran inversión que requieren, suelen tener grandes cantidades de deuda, provocando una gran sensibilidad ante los cambios en la tasa de interés. Un aumento de la tasa de interés, va acompañado del incremento de la deuda, lo que provoca que el funcionamiento de las Utilities sea mejor cuando las tasas de interés están decayendo o se mantienen bajas.

¿Cómo aprovechan el Big Data y la analítica de datos las Utilities?

Antes que nada hay que entender que estas empresas apalancan otra de las grandes tendencias de la transformación digital que es el Internet de las Cosas (IoT) y los sensores.

Growing Technology Acceptance Boosts Demand for IoT in Utilities

Esta nueva forma de obtener datos les permite generar casos de uso como:

Predicción, detección y prevención de cortes de energía

Un corte de energía puede hacer que todo un país se detenga, como el apagón del noreste de 2013 que afectó a más de 45 millones de personas en los Estados Unidos. Las condiciones climáticas desfavorables son una de las principales causas de tales cortes. Las Utilities están construyendo una infraestructura y sensores más inteligentes para mejorar la previsibilidad y prevenir estos escenarios de interrupciones.

Los sistemas modernos de cortes de energía emplean soluciones en tiempo real que operan en base a datos en vivo y algoritmos inteligentes para predecir y prevenir cualquier situación posible.

Estos sistemas son capaces de predecir el impacto de cualquier eventualidad cercana a la red, posibles cortes causados ​​debido a eventos de medidores inteligentes, cortes específicos de la región y más.

Gestión de carga inteligente

Para gestionar de forma eficiente la carga de energía, las Utilities necesitan equilibrar de forma estratégica e inteligente la demanda de energía con un suministro de energía óptimo en un período de tiempo determinado. Tener un sistema de gestión de carga inteligente les permite cubrir los requisitos de gestión de red de extremo a extremo, incluidas la demanda y las fuentes de energía con la ayuda de fuentes de energía distribuidas, sistemas de control avanzados y dispositivos de uso final.

Todos los componentes del sistema de gestión generan datos. Al aplicar análisis de Big Data, las empresas pueden tomar decisiones con precisión con respecto a la planificación y generación de energía, la carga de energía y la estimación del rendimiento.

▷ Mantenimiento Predictivo - Digitalización y optimización de las fábricas

Gestión preventiva de activos

Dado que es una industria intensiva en activos y depende en gran medida del rendimiento óptimo de sus equipos e infraestructura de red. La falla de estos activos puede causar serios problemas de distribución de energía y, en consecuencia, mermar la confianza del consumidor. Por lo tanto, prevenir este tipo de incidentes es una de las principales prioridades de la industria.

Para el mantenimiento preventivo de equipos, el Big Data y la analítica viene al rescate. Los activos están integrados con sensores inteligentes, rastreadores y soluciones de datos que transmiten información en tiempo real al centro. Los datos recopilados se pueden procesar y analizar para identificar posibles problemas con el mantenimiento del equipo, lo que permite un manejo proactivo de la situación.

Mayor eficiencia operativa

Aprovechar los datos en tiempo real de los activos relacionados con la tasa de actividad, el estado de las operaciones, el tiempo, el análisis de la oferta y la demanda, y más, ayudan a las empresas de Utilities a optimizar la eficiencia energética y el rendimiento de los activos. Las aplicaciones de Big Data y analítica les permiten mejorar la confiabilidad, la capacidad y la disponibilidad de sus activos de red mediante el monitoreo continuo del costo y el rendimiento.

Y… ¿de que tamaño es el mercado?

Finalmente, Antonio nos hizo reflexionar acerca de las aplicaciones de Big Data, analítica de datos, Internet de las Cosas y sensores que tiene este sector. Hemos visto ejemplos claros y aplicaciones con casos de negocios sustentados, pero como emprendedores, como proveedores de soluciones de analítica, la última disyuntiva que pudiéramos tener es ¿de qué tamaño es el pastel? y justo nos dimos cuenta que la inversión en analítica por parte de las Utilities ha venido creciendo desde el 2012 y el año pasado logró posicionarse en $3.8 billones de dólares, de los cuales Latinoamérica participa con alrededor de $0.5 billones de dólares.

Así que, al igual que nosotros esperamos que hayas aprendido como nosotros un poco más alrededor de una industria que a pesar de ser longeva tiene una gran oportunidad y ya esta adoptando nuevas tecnologías.

Si eres emprendedor, profesionista o simplemente te interesa adentrarte al mundo de la ciencia de datos te recomendamos escuchar el Episodio #44 de nuestro podcast Café de Datos con Antonio Pita y conocer más acerca del Máster en Ciencia de Datos de KSchool del cual Antonio es el director y tiene un modelo muy interesante de aprendizaje basado no solo en la teoría sino también en la práctica.

Hasta aquí la columna de hoy, no olvides compartirla con tus colegas y seguirnos en nuestras redes sociales como @DatlasMX

Bibliografía:

BigDataissuesandopportunitiesforelectricutilities.pdf

The role of big data analytics in Energy & Utilities (cigniti.com)

Utility | WikiFinanzas – Finanzas para Mortales (wiki-finanzas.com)

ANÁLISIS NLP de discursos presidenciales en eua: biden vs trump – datlas investigación

La semana pasada el protagonismo para la audiencia en Estados Unidos de América y la mayoría de países del mundo fue el cambio en el liderazgo presidencial del país. Después de unas controversiales votaciones, Joe Biden del partido Democrático ganó y paso a ser el nuevo presidente de los Estado Unidos por un período de 4 años.

Dejando atrás la controversia electoral, en esta columna nos enfocamos a desarrollar un análisis de NLP (Natural Language procesing o procesamiento de lenguaje natural) de los discursos presidenciales. Por un lado el de salida desarrollado por Donald Trump y por otro lado el de entrada, ejecutado por Joe Biden.

Te pudiera interesar los análisis que hemos hecho para los discursos de AMLO, el presidente de México, en el 2018 y 2019.

¿Qué es el procesamiento de Lenguaje natural o NLP?

Es un campo de la inteligencia artificial que estudia las interacciones entre computadoras y el lenguaje humano. Son utilizados en el estudio de discursos escritos o hablados. En este caso, por ejemplo, de un discurso presidencial.

El discurso de salida de Donald TRUMP

El discurso de salida de la presidencia de Trump estuvo cargado de agradecimientos y mensajes que algunos consideran de “venganza” o dejando claro que “regresará” de alguna u otra manera al escenario político de Estados Unidos. Si quieres leer el discurso completo te recomendamos ver la siguiente liga.

Como primer paso, pre-procesamos el discurso y lo dividimos en distintos enunciados más pequeños para que pueda ser procesado correctamente. Usando la librería ” library(SentimentAnalysis) ” en R contamos la cantidad de palabras por cada uno de los enunciados.

Posteriormente, y tomando en cuenta un diccionario de palabras que asocia cada término con un puntaje que representa 3 niveles de connotación en cada palabra: negativa, neutral o positiva, se analiza el nivel de cada uno de los enunciados.

Es posible obtener el nivel generalizado de cada uno de los enunciados su nivel. En ese sentido encontramos que para el discurso de trump 20 de los 23 enunciados desarrollados fueron con una mayor carga positiva

Respecto a las palabras, podemos realizar un conteo de las más usadas y así construir una “nube de palabras” que nos ayudará a entender un poco más el tipo de lingüística preferido por el presidente en este discurso

En concreto, este discurso tiene una carga de agradecimiento como es de entender de alguien que deja su cargo. Muy enfocado a las personas y elaborando comentarios sobre los temas problemáticos con los que se despide su gobierno. Muy al estilo Trump, algunas palabras denotan extremos, pero generarán empatía con su seguidores y partido.

El discurso de entrada de JOE BIDEN

Corriendo un proceso similar, tan sencillo como replicar el código, pre-procesamos el discurso de BIDEN que puedes encontrarlo aqui.

Respecto a la carga de mensajes, 45 de los 53 mensajes tuvieron una carga positiva. En proporción, menos que los de TRUMP, y mayormente porque algunas emociones que provocaría BIDEN en su discurso serían para provocar preocupación de la situación “caótica” en la que le “entregan” al gobierno.

Cuando revisamos las palabras más frecuentes del discurso encontramos terminología clásica en discursos presidenciales. Tales como “América”, “Nación”, “Democracia”, “Presidente” y “personas”. Con estas palabras invoca mensajes a una audiencia específica, al pueblo de los Estados Unidos.

Aqui una imagen generada con esta información

¿Para qué nos puede servir el análisis de NLP?

  • Analizar tickets de clientes
  • Clasificar prioridad de dudas o mensajes
  • Entender el contexto y campos de texto en variables
  • Generar predicciones
  • Entre otros…

Los mejores usos a este tipo de métodos se les da en aplicativos usando datos de redes sociales. Como es el caso de Twitter. Por ejemplo, aqui se analizan los datos de los últimos 250 tweets al corte de @JoeBiden

Hasta aqui la columna de hoy, cuéntanos en nuestras redes sociales @DatlasMX qué otro tipo de aplicaciones existen para NLP. Comparte y suscríbete a nuestras cuentas.

Equipo Datlas

– Keep it weird-

Chief Data Officer: Ahora los datos tienen asiento en el consejo

Hace un par de semanas tuvimos la oportunidad de colaborar en un podcast muy interesante donde platicamos un poco la historia de Datlas, el tema del análisis de datos y algunas cosas más. Una de las partes más interesantes fue cuando de pronto el entrevistador dijo algo así como:

Hace unos años los diseñadores empezaron a tener tal relevancia que decían que los diseñadores merecían una silla en el consejo, ¿Qué opinas respecto a los científicos de datos o analistas de datos? ¿merecen su silla en el consejo?

Y fue ahí donde comenzamos a hablar de este famoso puesto llamado Director de Datos o Chief Data Officer (CDO). Para nuestra sorpresa, algunos miembros de la audiencia no estaban tan familiarizados con este rol, así que en la columna de hoy vamos a profundizar en las responsabilidades de un CDO y porque son relevantes para los negocios hoy en día.

Datlas_Blog_Promo_SuscriberFree

¿Qué es un Chief Data Officer (CDO)?

El CDO se define como aquel funcionario corporativo responsable del gobierno y la utilización de la información como un activo a lo largo de toda la empresa, a través del procesamiento, análisis, extracción de datos, comercio de información y otros medios. Los CDO generalmente reportan al director ejecutivo (CEO), aunque dependiendo del área de especialización, esto puede variar. El CDO es miembro del equipo de administración ejecutiva y encargado de supervisar el procesamiento y minería de datos en toda la empresa.

Un poco de historia…

El rol de gerente para el procesamiento de datos no se elevó al de la alta gerencia antes de la década de 1980. A medida que las organizaciones han reconocido la importancia de la tecnología de la información, así como la inteligencia empresarial, la integración de datos, la gestión de datos maestros y el procesamiento de datos para el funcionamiento fundamental de las actividades comerciales diarias, esta función se ha vuelto más visible y crucial. Este rol incluye definir prioridades estratégicas para la empresa en el área de sistemas de datos, identificar nuevas oportunidades comerciales relacionadas con los datos, optimizar la generación de ingresos a través de los datos y, en general, representar los datos como un activo comercial estratégico en la mesa ejecutiva.

8 Ways Chief Data Officers Can Help Healthcare Thrive

Con el aumento de las arquitecturas orientadas a servicios (SOA), la integración de sistemas a gran escala y los mecanismos de intercambio / almacenamiento de datos heterogéneos (bases de datos, XML, EDI, etc.), es necesario contar con un individuo de alto nivel, que posea una combinación de conocimientos comerciales, habilidades técnicas y habilidades interpersonales para guiar la estrategia de datos. Además de las oportunidades de ingresos, la estrategia de adquisición y las políticas de datos del cliente, el CDO se encarga de explicar el valor estratégico de los datos y su importante papel como activo comercial y generador de ingresos para ejecutivos, empleados y clientes. Esto contrasta con la visión anterior de los sistemas de datos como simples sistemas de TI de back-end o soporte.

Registros indican que los primeros nombramientos de CDO en corporativos se dieron en el año 2002.

El CDO en la actualidad

De acuerdo a datos de Forbes en 2012, solo el 12% de las Fortune 1000 tenían un CDO. Para 2018, el 67.9% de las firmas encuestadas reportaron tener un CDO.

El CDO también puede ser responsable del análisis de datos (data analytics) y la inteligencia empresarial (business intelligence), el proceso de extraer información valiosa de los datos. Algunas funciones de gestión de datos pueden recaer en TI.

Ronald van Loon en Twitter: "The evolution of the chief data officer role  [#INFOGRAPHICS] by @EdBurnsTT @BizAnalyticsTT | Read more at  https://t.co/tfiwb3apdr #MachineLearning #ML #DataScience #DeepLearning #DL  #BigData #Analytics #BI ...

Por sus siglas en ingles el Chief Data Officer (CDO) es muchas veces confundido con el Chief Digital Officer o Chief Digital Information Officer. La principal distinción radica en que el director de datos es la persona senior, con un enfoque comercial, que comprende la estrategia y la dirección del negocio, pero su enfoque está en cómo respaldar eso con datos.

Asimismo algunas organizaciones también utilizan roles como el Chief Information Officer (CIO) o el Chief Technology Officer (CTO) de forma indistinta con el de Chief Data Officer (CDO). Para hacer una clara diferenciación entre ambos nos gusta citar la analogía que hace Caroline Carruthers, directora de la firma de consultoria Carruthers and Jackson, ex directora de datos (CDO) de Network Rail y co-autora de “The Chief Data Officer’s Playbook and Data-Driven Business Transformation: How to Disrupt, Innovate and Stay Ahead of the Competition”. Ella utiliza la analogía de la cubeta y el agua para explicar la clara distinción entre un CDO y un CIO. Así lo explica:

El director de información (CIO) es responsable de la cubeta. Ellos son responsables de asegurarse de que la cubeta sea del tamaño correcto, que no tenga agujeros, que sea segura y que esté en el lugar correcto. El director de datos (CDO) es responsable del fluido que entra en el balde, sale del balde, que va al lugar correcto, que tiene la calidad adecuada y el fluido adecuado para empezar. Ni la cubeta ni el agua funcionan el uno sin el otro.

The Chief Data Officer | Deloitte

Finalmente, ¿Cómo se si necesito un CDO?

Sin duda el gobierno corporativo es una estructura que muchas veces se asocia a las organizaciones más grandes, empresas nacionales o internacionales. La realidad es que más allá del nombramiento o del puesto como tal, cualquier organización puede adoptar una figura que ostente el rol de CDO dentro de su compañía. Desde una startup hasta nuestros colegas PyMEs pueden adaptar este puesto, a su propia escala, para realmente tener una cultura centrada en los datos. Al final del día lo importante es que esta persona sea responsable de ver en los datos ese activo valioso para la empresa, sobre el cual se puede derivar un valor importante y muchas veces hasta una ventaja competitiva para el negocio.

Datlas_Promo_Podcast_Suscribe

Inteligencia Artificial y Big Data en los negocios, ¿Qué efectos tuvo el COVID-19 en estas tendencias? – DATLAS Investigación

A inicios de año se nos presentó un reto sin precedentes que afectó completamente la forma en la que hacemos negocios. En respuesta a este gran cambio muchas empresas hicieron un replanteamiento de estrategias y objetivos al final del primer semestre del año. Nosotros no fuimos la excepción, como proveedores nos tocó presenciar de primera mano como muchos negocios lidiaban en distintas maneras con este reto de la pandemia. Fue ahí, justo unos meses después del gran shock inicial que comenzamos a notar una revaloración que las empresas estaban haciendo respecto a sus datos, como un activo clave, y por ende acerca de tecnologías como la Inteligencia Artificial (I.A.) y el Big Data.

Datlas_Blog_Promo_SuscriberFree

Comprometidos con seguir aportando a nuestro ecosistema, y conscientes de lo que estábamos presenciando, organizamos un Programa de 6 Sesiones para este segundo semestre del año (una vez al mes) en donde exponemos con casos de negocios reales los beneficios que empresas de todos los tamaños han podido capitalizar el uso de datos y aprovechar estas tecnologías. Justo este viernes tendremos nuestra segunda sesión titulada “El impacto del Big Data y la Inteligencia Artificial en los negocios” y es por ello que, en esta columna, hablaremos de como estas tendencias han impactado el mundo de los negocios y que tanto la pandemia a “afectado” su adopción.

La relación del Big Data & la I.A.

Antes de profundizar es necesario dejar en claro la razón de hablar en conjunto acerca del Big Data y la Inteligencia Artificial. En un sentido general el Big Data se refiere a esta manipulación de grandes cantidades de datos o información en diversos formatos, mientras que la Inteligencia Artificial (I.A.) se refiere a programas computacionales que son capaces de emular actividades del cerebro humano como el aprendizaje con base a experiencia (eventos pasados). Siendo así, no podemos hablar de Inteligencia Artificial sin hablar de Big Data dado que para construir modelos o algoritmos de I.A. se necesitan datos, que precisamente son obtenidos y manipulados por el Big Data.

¿Qué impacto esperábamos hace algunos años?

Apenas hace un par de años (2018), según información de Deloitte, 9 de cada 10 ejecutivos afirmaban que los sistemas de I.A. transformarían sus modelos de negocio.

datlas_mx_blog_deloitte_encuesta

Además, se esperaba que la Inteligencia Artificial diera lugar a la aparición de nuevos perfiles profesionales que debían convivir con los ya existentes. Estos perfiles especializados abren un nuevo abanico de posibilidades innovadoras que afectan directamente a procesos y herramientas, que ven mejorado su rendimiento.

Impacto actual

Actualmente, lejos de verse mermado el acelerado crecimiento y adopción de soluciones de I.A., por ejemplo, se ha visto una expansión interesante a nivel mundial y también en Latinoamérica. En el caso de asistentes virtuales inteligentes (tipo Siri y Alexa) en Latinoamérica se manejan más de 850 millones de conversaciones en negocios B2B y B2C para atraer, generar, crecer y retener clientes. Y este es solo un tipo de aplicación y una de las múltiples formas de derivar beneficios.

Por otro lado, el Big Data se utiliza para promover productos, desarrollar mejores estrategias comerciales, llegar a los clientes, explorar nuevos mercados y audiencias objetivo, optimizar el flujo de trabajo, reducir los costos y obtener otras ventajas competitivas en el mercado.

Natural Language Processing: A Short Introduction To Get You Started |

Ahora bien, sabemos que no todos los negocios han sufrido esta pandemia de la misma forma. Existen sectores o industrias que han sido impactados de forma más crítica, mientras otros han podido lidiar con esto de una manera menos acelerada. De la misma forma el impacto que estas tendencias del Big Data y la I.A. han tenido en las distintas verticales de negocio ha sido variado, en términos de sus aplicaciones, pero igualmente relevante y trascendente. Por mencionar algunos ejemplos puntuales profundizaremos en industrias como: retail, marketing y publicidad, así como el transporte y logística.

Retail, Marketing y publicidad

La tarea más frecuente de las soluciones de Big Data está relacionada con la búsqueda de patrones de comportamiento que se puedan emplear para muchos propósitos. Comprender los hábitos y deseos de los clientes es la principal preocupación de cualquier negocio, y el análisis de Big Data es la única forma válida de lograr resultados precisos basados en un gran muestreo y cálculos extensos en lugar de intuiciones y experiencias personales.

Otra aplicación común de Big Data en las empresas de retail, marketing y publicidad es el análisis predictivo sobre la base de grandes conjuntos de datos. La mayor cantidad y volumen de datos permite obtener resultados más precisos, configurar más parámetros antes del análisis e incluso ampliar los temas y las posibilidades generales de pronóstico.

Qué es el Big Data Marketing y qué ventajas ofrece?

Transporte y logística

Las empresas de transporte también manejan grandes volúmenes de información sobre vehículos, pasajeros, equipaje y carga. La necesidad de administrar flujos de datos extensos con restricciones de tiempo estrictas impuestas por los horarios de transporte requiere soluciones de software de alto rendimiento diseñadas específicamente para Big Data.

El propósito práctico de tales soluciones radica en rastrear la entrega de carga, monitorear el uso y suministro de combustible, el estado técnico del estacionamiento de vehículos de la empresa, los controles de salud de los conductores y el horario de trabajo, así como muchos otros factores relevantes. De esta forma, las empresas pueden utilizar el software Big Data para priorizar la seguridad además de la optimización habitual del consumo de recursos y la mejora de la eficacia.

How does Big Data save logistics? - How does Big Data save logistics? -  Régens

¿Cómo pinta el futuro?

Los analistas empresariales predicen que los ingresos del mercado global de Big Data alcanzarán los 103 mil millones de dólares en 2027. No importa si tu empresa es grande o pequeña, siempre hay una forma de beneficiarse de las soluciones de Big Data. La ventaja más importante que ofrece esta tecnología es el conocimiento de las necesidades y los patrones de comportamiento de los clientes. Esta información, junto con los pronósticos de alta precisión permite a los empresarios diseñar estrategias comerciales efectivas en lugar de perder tiempo y dinero en el método de prueba y error. La capacidad de manejar grandes volúmenes de información utilizando soluciones de software automatizadas también simplifica enormemente la gestión empresarial, incluidos aspectos como mantenimiento, inventario, envío, carga de trabajo y otros.

Si quieres conocer un caso real aplicado de Big Data e Inteligencia Artificial y enterarte de como puedes tu mismo comenzar a aplicar estas tecnologías en tu negocio el próximo lunes, no te pierdas nuestra sesión este viernes. Inscríbete gratis aquí.

datlas_mx_6_sesiones_2S2020_bigdata_analytics_ia_sesion2_promo

Smart Cities o Ciudades Inteligentes ¿Será prudente no hablar de COVID-19?

En medio de una pandemia que arrasa al mundo entero de pronto me encuentro en una mesa de dialogo junto a dos colegas emprendedores y un reportero de cierto periódico de alta circulación en México. ¿El tema? Tecnología. Comenzamos a platicar acerca de la forma en la que la tecnología ha apoyado y puede seguir aportando valor para elevar el nivel de vida de la humanidad en general. De forma más particular fuimos profundizando en cada uno de nuestros emprendimientos: por un lado, telemedicina, por otro reclutamiento de talento en programación y, finalmente, nosotros en la parte de analítica, big data e inteligencia artificial. El periodista nos comienza a hacer un par de preguntas a cada uno, me tocó ser el último. No era de asombrarse que se asociaran los temas con la crisis sanitaria actual, pero lo que si me sorprendió fue que al llegar a mí la pregunta estuvo lejos del tema COVID, de hecho, la interrogante fue: “Ustedes que están en esta parte de los datos, el big data, la inteligencia artificial ¿cómo ven el tema de las ciudades inteligentes? ¿qué nos falta en México para poder consolidar una ciudad inteligente?” Confieso que en un inicio hasta me puse a pensar si es que era prudente no hablar de COVID, pero me gustó tanto la duda que he de dedicar esta columna a hablar de ciudades inteligentes, si, aún en esto tiempos donde el tema central pareciera ser otro.

Datlas_Blog_Promo_SuscriberFree

¿Qué es una ciudad inteligente?

Antes de comenzar nos gusta plantear la base de conocimientos necesarios sobre el tema. Iniciemos por definir el concepto de ciudades inteligentes (Smart Cities en inglés). De acuerdo con el Banco Interamericano de Desarrollo (BID) una ciudad inteligente es aquella que coloca a las personas en el centro del desarrollo, incorpora tecnologías de la información y comunicación en la gestión urbana y usa estos elementos como herramientas para estimular la formación de un gobierno eficiente.

A nosotros nos gusta también la perspectiva que define a una ciudad inteligente como un núcleo urbano que disponen de tecnología para desarrollar el bienestar de sus ciudadanos con el máximo respeto al medio que los rodea, alcanzando un punto de equilibrio llamado sustentabilidad. La implementación de tecnologías de última generación supone una mejora sustancial en la calidad de vida de los ciudadanos. Deben enfocarse en garantizar movilidad, seguridad, habitabilidad y bienestar a todos ellos.

datlas_mx_blog_smart_cities_deloitte

datlas_mx_blog_smart_cities_deloitte_2

¿Por qué una ciudad inteligente?

Ahora bien, la relevancia de esta nueva forma de organización urbana trasciende a un tema de moda o una tendencia pasajera. Lo hemos estado escuchando en el argot de negocios en temas de productos y servicios, diseñar centrados en el usuario es la diferencia para dotar de una experiencia más que de una solución al cliente final y generar ese valor. En el tema de ciudades no es distinto, al poner a las personas en el centro del desarrollo se generan nuevas ideas de concepción espacial y de organización que nos ayudan a innovar en muchas formas, entre ellas, las interacciones que se tienen con los servicios públicos y hasta la manera en la que nosotros mismos realizamos algunas actividades.

Si hablamos de un ejemplo en particular podría ser la congestión vehicular. Esta es una de las principales preocupaciones en las grandes ciudades de México, debido al impacto social y económico que generan. En términos económicos, el costo de horas productivas perdidas a causa de la congestión vial es de $94,000,000 millones de pesos al año, así lo dio a conocer el Instituto Mexicano para la Competitividad (IMCO) el pasado mes de marzo del presente año.

datlas_mx_blog_smart_cities_congestion_vehicular_mexico

Víctimas de embotellamientos, los habitantes de México pierden alrededor de 432 horas al año en traslados para poder realizar sus actividades, lo equivalente a entre 11 y 18 días perdidos al año. Ante esta problemática, diversas ciudades están buscando migrar a este esquema de ciudad inteligente.

¿Cómo convertirse de ciudad en ciudad inteligente?

Ciudades con sensores distribuidos en diversos puntos de su territorio, dedicados a recolectar información en tiempo real que mejore la movilidad de sus habitantes. Ciudades con sistemas de alumbrado público, que adapten su nivel de iluminación a las condiciones del entorno, o con cámaras de seguridad vinculadas a un software de análisis, capaces de identificar situaciones de anormalidad y hacer reconocimiento de imágenes. Los ejemplos descritos previamente son una muestra de las diversas formas en las que pueden funcionar las ciudades inteligentes.

datlas_mx_blog_smart_cities_mexico_panorama

Si bien no existe una metodología desarrollada sobre como convertirse en ciudad inteligente, Deloitte ha tenido a bien darnos algunas directrices para lograrlo:

  1. Definir los objetivos estratégicos. ¿Qué queremos decir con esto? Que se tienen que analizar las razones por las que se quiere migrar a un modelo de ciudad inteligente.
  2. Una vez que se hayan definido los objetivos, debe elaborarse un diagnóstico robusto, el cual permita a las ciudades identificar ya sean sus problemas –como cuestiones de movilidad o servicios– o bien su vocación –por ejemplo, turística–, aspectos que pueden ser solucionados o impulsados a través de la tecnología.
  3. El siguiente paso es aterrizar ese diagnóstico en una cartera de proyectos, es decir, definir la manera o las acciones concretas que se van a poner en marcha para lograr los objetivos planteados.
  4. Posteriormente, tiene que diseñarse un caso de negocio en el que se establezcan los mecanismos de financiamiento para los proyectos, se analice su rentabilidad y los recursos que se necesitarán para su implementación.
  5. Finalmente pasar de la planeación al despliegue físico y operativo.

¿Qué nos falta en México?

Para empezar, hay que reconocer que en México tenemos 5 ciudades que están encaminadas a convertirse en ciudades inteligentes dentro de algunos años. Algunas han estado trabajando por más de 6 años y han logrado avances significativos. Estas ciudades son: Maderas, Querétaro, Smart Puebla, Ciudad Creativa y Tequila.

datlas_mx_blog_smart_cities_wallpaper

Ahora bien, en mi opinión, que aparte coincidimos en la mesa de dialogo junto a los colegas y el reportero, lo que nos sigue haciendo falta para poder avanzar más ágilmente en estos temas de convertir ciudades en ciudades inteligentes es la cuestión de la colaboración. Cuando estas hablando de intervenir con sensores las calles, poner cámaras, monitorear los servicios públicos, etc. Se requiere una colaboración, por no mencionar una sincronía técnica, de tamaños descomunales que solo he visto en México en tiempos de desastres naturales como la recuperación después del último temblor en CDMX, por ejemplo. Esto nos llama no solo a plantear la colaboración como un mecanismo necesario para ejecutar proyectos de este estilo sino a realmente concientizarnos de que los nuevos modelos de negocios son colaborativos desde origen y debemos premiar las alianzas y las sinergias desde la concepción de nuestras empresas hasta la manera en la que gestionamos las ciudades.

Terminamos la platica entre risas esperando no ser imprudentes al haber estado hablando de temas ajenos a la pandemia, pero sin duda fue una reflexión bastante enriquecedora. Y tú, ¿Qué opinas al respecto? Cuéntanos en nuestras redes sociales

@DatlasMX

 

Análisis de datos desde Google Analytics

Nuestra filosofía desde el día zero ha sido que con los datos y la tecnología adecuada las personas podrán resolver problemas cada vez más complejos. En más de una ocasión nos hemos enfrentado a un público que desconoce términos como análisis de datos o big data. Uno de los ejemplos más claros e intuitivos que solemos comentar en estos foros es precisamente el de Google Analytics, esta herramienta de Google que nos permite conocer las principales métricas de nuestro sitio web, desde el número de visitantes que recibimos hasta las páginas que más consultan los visitantes cuando acceden al mismo. Este aplicativo nos permite adentrarnos en el mundo del análisis de datos desde un panel de control simple de comprender para cualquier profesional. En esta columna vamos a repasar algunos de los conceptos que nosotros mismos y algunos de nuestros clientes hemos tenido que estudiar cuando nos adentramos al mundo de Google Analytics, así como un par de preguntas interesantes a plantear cuando estas analizando los datos.

free_Suscriber

Top 5 de conceptos básicos

Sin duda habrá un montón más, pero por lo menos para nosotros, de inicio, estos han sido los conceptos menos intuitivos y que más trabajo nos costo entender. Al mismo tiempo son conceptos que nos dan insights claves a la hora de los análisis y la derivación de accionables.

  1. Adquisición: las métricas de adquisición muestran de dónde proviene su tráfico, ya sea búsquedas de Google, enlaces a redes sociales u otros sitios web.
  2. Porcentaje de rebote: un rebote es una visita al sitio web de una sola página, por lo que la tasa de rebote de su sitio es el porcentaje de visitas a una sola página que tiene su sitio. En general, lo ideal es que este número sea lo más bajo posible.
  3. Objetivos de conversión: es la finalización de una actividad en su sitio que es importante para el éxito de su empresa, como un registro completo para el newsletter. OJO: esto debemos configurarlo desde inicio antes de que Google rastree cualquier proceso de conversión.
  4. Sesiones: una sesión es un único período de visualización activo continuo por un visitante. Si un usuario visita un sitio varias veces en un día, cada visita única cuenta como una sesión.
  5. Vistas de página únicas: la cantidad de páginas nuevas por sesión de visualización que los usuarios han visitado.

datlas_mx_blog_google_analytics_logo

Ahora bien, hasta aquí por lo menos sabemos de que se tratan el montón de datos que podemos ver en el panel de Google Analytics, pero lo realmente importante de los datos es la inteligencia que guardan detrás y lo que podemos accionar con ellos una vez que hayamos analizado a fondo sus “historias”. Para esto existen también algunos consejos y lineamientos que hemos aprendido en los últimos años y queremos compartir con ustedes.

En primer lugar y lo más importante es plantear las preguntas a resolver antes de entrar en analytics. Pero ¿cómo? ¿antes de entrar? ¿no estábamos ya dentro? Sin duda es algo contra intuitivo, pero importantísimo. El paso previo para poder entrarle a cualquier análisis es plantear las preguntas a resolver, es decir, tener claro lo que se va a investigar, por ejemplo: ¿por qué no estoy teniendo suficientes suscriptores a pesar de estar dirigiendo mucho tráfico a mi página? ¿dónde pudiera estar el cuello de botella?

datlas_mx_blog_google_analytics_panel

Una vez teniendo clara la pregunta podemos entrar a explorar los indicadores claves que nos ayuden a responder o validar las hipotesis. Por ejemplo, mencionamos el concepto de porcentaje de rebote o incluso los mismos objetivos de conversión que son métricas o indicadores por los que podemos empezar para descifrar esta incógnita. En este punto es importante mencionar el segundo de los consejos: personalizar alertas. Existe una opción dentro de Google Analytics que te permite establecer alertas dadas ciertas condiciones en los indicadores. Configurando alertas podrás establecer procesos o protocolos específicos. Uno de nuestros clientes, por ejemplo, tiene establecido que si el trafico de la pagina baja cierto nivel le llega una alerta al equipo de marketing que inmediatamente acciona una campaña de Adwords para contrarrestar el efecto.

El tercer consejo es analizar la velocidad del sitio. Hoy en día las nuevas generaciones estamos cada vez más acostumbrados a la inmediatez y no hay nada más dañino para un negocio en términos de posicionamiento que un sitio web que se tarde años (más de 3 segundos para millenials y posteriores) en cargar. En la sección de comportamiento (behavior) podrás encontrar los page timings y algunas sugerencias al respecto.

datlas_mx_blog_site_speed

El penúltimo tip que queremos compartirles tiene que ver con conocer a sus clientes. Dentro de Google Analytics se pueden visualizar las categorías de afinidad de los usuarios que visitan tu sitio web. Esto no solo sirve para temas del sitio web como ajustes de narrativa o visuales sino también para entender el perfil de los clientes y poder accionar otro tipo de estrategias de manera holística en el negocio como por ejemplo despliegues promocionales, activaciones, ajustes a presentaciones de ventas, actividades de prospectación y más.

Finalmente, una de las cosas más graciosas que hemos aprendido en este mundo de Google Analytics: hay que excluir el tráfico interno. Es bastante interesante ver como de pronto el mismo equipo es el responsable de una parte importante del tráfico en el sitio web, incluso muchas veces metiendo sesgo o ruido a los números y por ende, a los análisis. Este último consejo es muy importante, se pueden excluir direcciones IP especificas para que Google Analytics omita contabilizar sus efectos en los indicadores.

De esta forma llegamos al final de esta columna, si quieres aprender más acerca de Google Analytics contáctanos y podemos apoyarte. Si ya haz tenido experiencia en este mundo y tienes algunos conceptos que compartir con la comunidad o incluso consejos como los antes mencionados por favor compártelos en nuestras redes sociales

@DatlasMX