¿QUÉ REGLAS FUNDAMENTALES DEBERÍAN DE CUMPLIR LOS NUEVOS humanoides DE TESLA ANTES DE SALIR A PRODUCCIÓN? – cOLUMNA DE OPINIÓN DATLAS

La semana pasada el equipo de Tesla a la voz de «Elon Musk» anunció el nuevo «TeslaBot» en su «Tesla AI DAY» (Día de Inteligencia Artificial). Un humanoide (robot con inteligencia artificial que mimetiza a un ser humano». Esta propuesta es un gran salto en tecnología, un punto de inflexión de los que se hablará en la historia si el proyecto se logra desarrollar con la expectativa que lo han presentado.

En esta columna compartiremos un poco sobre este informe y opinaremos sobre qué reglas intrínsecas en su programación deberá de tener este tipo de «bots» antes de salir al mercado.

Ejercicio en la Semana sobre consulta de esta pregunta en redes sociales

¿Qué tipo tecnologías convergen en esta propuesta tecnológica y porqué lo hace un «salto histórico» ?

Tomamos como referente al famoso exponente «Lex Fridman» que resumió las distintas intervenciones de tecnologías en esta propuesta

  • Redes neuronales para «planear»
  • Piloto automático (Que ya se utiliza hoy en el auto para el programa de «autopilot» que ya opera en Estados como California, entre otros
  • DOJO (No sólo APPLE promociona chips como su M1, también Tesla tiene sus desarrollos in-house que habilitarán este tipo de tecnologías)
  • Datos y Anotaciones (Etiquetas manuales y automáticas de gran escala para detectar personas y todo tipo de objetos rodeando el mundo)
  • Simulación
  • Tesla bot (Robot con tecnologías para percibir y planear)

** Si quieres conocer a detalle estas tecnologías te recomendamos ver su video en Youtube así como el lanzamiento anunciado de Tesla

¿Cuál es su propósito?

«Ser amableS» , comenta Elon Musk en su lanzamiento. Pero en realidad ante una visión de que el trabajo físico podrá ser electivo para muchos empleos en el futuro… este tipo de humanoides puede ser utilizado inicialmente para trabajos pesados.

Sin embargo, existe una posibilidad que este tipo de desarrollos puedan ser acompañantes de humanos para el futuro.

Y si en unos años el mundo va a estar lleno de robots ¿Cuáles son las reglas que deberían de estar en cualquier robot?

Si te gusta el cine o la ficción que tiene que ver con inteligencia artificial habrás escuchado de las 3 leyes de la robótica de ASIMOV

1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.

2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera ley.

3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda leyes.

Si bien estos antecedentes nos proponen un marco de pensamiento para el futuro de la robótica de acompañantes humanos es momento de comenzar a dialogar sobre la realidad de esta situación.

En el ejercicio de levantamiento en redes sociales se recibieron todo tipo de ideas, pero podemos generar 3 grandes grupos de ideaS:

  • Humanoides para defensa propia. Desde un contexto latinoamericano poder salir a la calle con un robot que pueda ser tu defensa personal puede pensarse interesante. En ese sentido generar reglas de protección en su programación podría ser relevante
  • Una regla de robótica universal que los equipos y programas no puedan atacar humanos. Esta fue la preocupación más repetida porque al pensar que estas máquinas pudieran tener más fuerza que muchos humanos es recomendable establecer precauciones
  • Un botón de apagado identificable. Sobre todo en situaciones sociales poder hacer evidente un botón de apagado inmediato para este tipo de equipos podría dar tranquilidad

Por otro lado, desde un punto de vista personal y muy prematuro a la expectativa de ir viendo el desarrollo del proyecto, pudiera ser importante reglas alrededor del «accountability» de las acciones de un humanoide. Es decir, parecido como con una mascota hoy en día, si uno de estos equipos ocasiona un accidente, riesgo o incidente la responsabilidad tendrá que recaer en un humano. En ese sentido por cada humanoide habrá un humano responsable de monitorear sus acciones.

Finalmente tendrá que existir ciertas limitantes de privacidad alrededor todos los datos que estará levantando este humanoide. Por un lado ya sucede con nuestros celulares, autos Tesla y otros sensores. Pero podemos hacerlo mejor preparando reglas más adecuadas para humanoides que estarán navegando en nuestra cotidianidad. Estrictos parámetros de levantamientos de información deberán de existir y de identificación de personas. Al final, estas máquinas estarán grabando 24/7 y procesando imágenes. Pero no por eso tendrán qu e»identificar» a todo quien graba si estas personas no les dan su autorización.

TeslaBot podría representar uno de los proyectos más disruptivos de la época. Y si alguna compañía tiene todas las capacidades y recursos para estos desarrollos es TESLA. En ese sentido esta propuesta podría darle una mayor sostenibilidad e incentivos de ser una de las empresas más protagonistas de los siguientes 10 años

Hasta aqui la columna de hoy ¿Qué otra regla crees que deberíamos de pensar para este tipo de humanoides? Participa en la conversación en nuestras redes @DatlasMX

Equipo Datlas

¿cómo detectar fake news manualmente? – investigación datlas

Hemos hablado antes de «Fake News» en este blog y con motivo a una serie de noticias falsas que se dispersaron en «Whatsapp» este fin de semana que pretendían dar un mensaje del «Secretario de Economía de Nuevo León» quisimos compartir y reforzar este tema.

En este episodio haremos hincapie de algunas técnicas para detectar «fake news» y repasar los puntos más importantes en este ejercicio. (Usaremos como fuente esta columna: https://www.visualcapitalist.com/how-to-spot-fake-news/)

¿Qué tipo de contenido falso existe?

  • Parodia o engañosa
  • Conexión Falsa entre el encabezado y el contenido
  • Contenido confuso
  • Contexto falso en tiempo o lugar
  • Contenido con fuentes anónimas o no identificables
  • Contenido manipulado
  • Contenido 100% fabricado

***Te puede interesar «Radiografía de Fake News en México». Liga: https://blogdatlas.wordpress.com/2021/06/20/fake-news-radiografia-en-mexico-columnas-de-opinion-datlas/

¿Cómo se puede detectar ?

  • La fuente – Cuál es la historia, quién la investiga y/o comparte
  • El URL (liga de website) – Es conocido el sitio web o tiene algún respaldo. Si, por ejemplo habla sobre una nota mexicana sería más confiable que termine en «.com.mx»
  • El texto – La ortografía y puntuación tendrá que ir de acuerdo a la seriedad de la nota
  • La información – Revisa las citas de otros autores y valida la información en otras fuentes
  • El autor – Si lo buscas encontrarías otra nota de la misma o el mismo autor
  • Fuentes de respaldo – Revisa la información vinculada en links que te lleven a otros sitios
  • La fecha – La publicación es oportuna, actual o es una re-publicación de otro momento en el tiempo
  • El sesgo – Considera si tus creencias afectan el proceso de validación de la nota
  • Experta – Tiene alguna referencia estilo académica y está hecha de manera correcta

*** Te puede interesar «Fake News en tiempos de COVID-19». Liga: https://blogdatlas.wordpress.com/2020/04/20/fake-news-en-covid-19-la-2da-pandemia-conferencia-talend-land-tv-2020/

También te dejamos el video de la charla completa que se impartió en «LAB NL de CONARTE» en Nuevo León, México.

Hasta aqui la columna de hoy. Te invitamos a continuar aprendiendo con nuestro contenido y a no perder la oportunidad de suscribirte a Datlas Academy. Esta nueva iniciativa que lanzamos para incrementar el aprendizaje de analítica y transformación digital en la comunidad de LATAM.

Equipo Datlas

-Keep it weird-

DESARROLLO DE DASHBOARD DE INTELIGENCIA PARA EL MONITOREO TURÍSTICO – MANUALES DATLAS

Dentro de nuestro portafolio Datlas nos encontramos con una propuesta de valor en dónde desarrollamos tableros de inteligencia llamados dashboards en dónde reunimos información para monitorear cualquier tipo de sector, industria o negocios a partir de datos públicos o privados, datos que de cierta manera nos dan un potencial para la toma de decisiones o creación de iniciativas. (TURISMO)

En este te blog te mostraremos uno de los dashboard que estamos desarrollando para la industria Turística en el estado de Nuevo León en alianza con el Clúster de Turismo de Monterrey y Observatorio Turístico NL. Continua leyendo si quieres aprender sobre qué es un dashboard, cómo funciona esta alianza de industria y actualmente cómo se ve la navegación de nuestra plataforma.

Datlas_Blog_Promo_SuscriberFree

Estructura de un Dashboard

Un dashboard es un sistema de información con tableros, filtros y visualizaciones (gráficos o tablas) que permite monitorear datos, tendencias y predicciones de una manera ordenada. Es por ello que te enlistamos las características y conceptos preponderantes:

  • Tableros: Son elementos esenciales de un dashboard en donde concentramos información de un solo tipo o categoría.
  • Filtros: Son botones que permiten visualizar la información de manera segmentada. Ejemplo: años, meses, municipios y a nivel estado.
  • KPI´s: “Key Performance Indicators” o indicadores clave de desempeño, utilizados para medir el rendimiento de las actividades y aplicaciones de nuestro proyecto.

Antecedentes

¿Qué es el Clúster de Turismo de Monterrey?

Es la concentración de empresas interconectadas que cooperan para el desarrollo de la innovación, la competitividad y la inteligencia de mercado. Son fenómenos, no políticos, existentes por la naturaleza económica de un país, como resultado de un proceso de mercado.

Bajo el régimen de triple hélice: Gobierno, Academia e Industria convergen para realizar actividades de innovación que contribuyan al desarrollo económico y la competitividad global de las empresas de Nuevo León.

Image

Como objetivo estratégico y acuerdo de colaboración con el Clúster de Turismo de Monterrey se estableció un plan para generar un tablero de información (“Dashboard”) para monitorear la industria de Turismo en el Estado.

Datlas_Promo_Facebook_Suscribe

Introducción a «DASHA» MTY Travel Intelligence Dashboard

Te presentamos a DASHA (Así le nombramos a esta nueva plataforma en co-creación) …

El MTY Travel Intelligence Dashboard reúne datos públicos y privados de la industria Turística al momento de manera actualizable para monitorear cada una de las áreas que en su mayoría a base de investigación han sido fundamentales para este proyecto, consta de la siguientes secciones:

  • Economía
  • Ocupación Hotelera
  • Llegadas y Transportes
  • Negocios y Parajes Turísticos
  • Socioeconómicos
  • Eventos y Convenciones
  • Noticias y Reportes
  • Tecnología en Turismo
  • Otros
  • Resumen Nuevo León
  • Repositorio Clúster Turismo de Monterrey
Animated GIF

A continuación de mostraremos cada uno de los pasos para ingresar, navegar y consultar a «DASHA» MTY Travel Intelligence Dashboard:

Ingresando a «DASHA» MTY Travel Intelligence Dashboard

Por medio de este video te mostraremos los pasos a seguir para registrarte por medio de nuestra página web www.datlas.mx, iniciar sesión como usuario y tener acceso al MTY Travel Intelligence Dashboard.

Primera navegación en «DASHA» MTY Travel Intelligence Dashboard

Por medio de este video te mostraremos las 11 diferentes secciones que nos ofrece el MTY Travel Intelligence Dashboard, así como algunos botones de interés para desplazarte por el Dashboard o ponerte al contacto con nosotros.
Datlas_Promo_Podcast_Suscribe

Futuro del Proyecto

La escalabilidad de nuestro proyecto trasciende en la innovación de nuestro potencial en el análisis de datos de una manera ágil, esto para ser utilizado por una mayor cantidad de usuarios.

Las mejores implementaciones del business intelligence por medio de DASHA generan tableros que nos hagan más eficientes a la hora de tomar decisiones para las organizaciones que componen las industria del Turismo en la región.

Detectando cada uno de los perfiles e intereses de las personas, para monitorear comportamientos críticos o situaciones que necesiten inmediatez con datos duros, al momento y de manera automatizada.

Back To The Future Film GIF

Si te interesa generar un Dashboard para monitorear tu industria y/o organización revisa nuestra sección especial en la website de Datlas o bien contáctanos a ventas@datlas.mx

– Equipo Datlas –

Keep it weird

SISTEMA ILUO para matriz de habilidades de departamentos de datos en organizaciónes – investigación datlas

Generar proyectos y áreas de datos exitosos está directamente relacionado al capital humano. Es decir, para poder avanzar con proyectos de analítica que abonen a la transformación digital de nuestras organizaciones es necesario mapear y desarrollar talento. Pero ¿Cómo lograrlo de manera ágil y sencilla? En esta columna hablaremos del sistema ILUO que nos permitirá monitorear las habilidades dentro de nuestro equipo de datos.

** Te podrá interesar ¿Cómo detectar un impostor de datos?

Como ejemplo, estas habilidades para un departamento de datos en una organización de mediano tamaño

El objetivo del sistema ILUO es desarrollar y administrar habilidades dentro del equipo a nivel departamento (No a nivel individual).

Dentro de una matriz se coloca los miembros del equipo del lado izquierdo, las habilidades en la parte superior y dentro de la matriz se categoriza con respecto al dominio de cada habilidad por miembro del equipo.

Las siglas ILUO tienen un significado gráfico y representan el avance que se va teniendo en el desarrollo de los empleados de la organización. La cantidad de líneas que forman cada letra indica el nivel de madurez de cada empleado. Los cuatro niveles de habilidad ILUO indican:

Nivel I: Aquellas personas que se encuentran en capacitación para conocer y cumplir con su tarea, sin intervenir en los procesos.

Nivel L: Aquellas personas que ya intervienen en los procesos, pero no están calificadas para operar sin supervisión.

Nivel U: Aquellas personas que ya están acreditadas para cumplir con su tarea bajo los estándares y el tiempo requerido.

Nivel O: Aquellas personas que ya han acreditado todos los niveles de habilidad y recibieron una certificación para poder formar a otras personas.

**Te podrá interesar «Los 5 perfiles para un equipo de Datos»

¿Qué pasos hay que seguir para desarrollar una matriz de habilidades en un equipo de Datos?

  1. Identifica y enlista las habilidades de tu departamento de datos
  2. Enlista el «staff» en los renglones de la matriz
  3. Identifica del 1 al 5 el mayor nivel en que cada miembro del equipo se desarrolla en esa habilidad
  4. Una vez que tenemos calificadas estas habilidades, hay que presentárselo al líder de equipo y desarrollar un plan de acción (Capacitación, nivelación, apoyos, entre otros.)
  5. Finalmente comprometer fechas y dar monitoreo constante

** Te podrá interesar «¿Por qué pueden fracasar los proyectos de datos?»

¿Cuáles son las ventajas de implementar el sistema ILUO?

·Incrementar la calidad de sus productos y/o servicios

·Reducción de desperdicios

·Mejorar la satisfacción de sus clientes internos y externos

·Lograr la continuidad operativa

·Se elimina o reducen ausentismo y rotaciones

·Aumenta la motivación de los empleados

·Desarrolla el sentido de pertenencia hacia la organización

** Te puede interesar nuestra columna sobre «Diseño de perfiles para áreas de analítica»

Hasta aqui la columna de hoy, te invitamos a continuar aprendiendo en nuestro podcast y a suscribirte a nuestra nueva iniciativa en Datlas Academy donde obsequiaremos algunos cursos para mantenernos a la vanguardia en temas de transformación digital.

Fuentes

https://www.leanconstructionmexico.com.mx/post/sistema-iluo-qu%C3%A9-es-y-como-implementarlo-ejemplo-de-matriz-iluo

¿PODRÍAS SER más propenso a chocar que otra persona SÓLO POR TU MODELO DE AUTO? La respuesta puede ser «sí» – DATLAS INVESTIGACIONES

El análisis de datos ha ido adquiriendo mucha importancia últimamente, sabemos que es una ciencia que se encarga de analizar un respectivo conjunto o conjuntos de datos para obtener conclusiones de los mismos y así tomar decisiones o simplemente obtener nuevos conocimientos. En esta columna presentamos un ejercicio complementario de análisis de datos. Esto sobre una base de datos de choques y siniestros para Nuevo León. Te presentamos nuestros hallazgos.

** También te podría interesar nuestras otras columnas sobre choques y siniestros

Big Data y Data Science: los profesionales especializados en ciencias de  datos tienen el futuro asegurado

En esta ocasión se usará una base de datos que recopila los choques de la zona metropolitana de Monterrey, Nuevo León desde el año 2016 hasta la mitad del 2018. Gracias al análisis podremos observar los diferentes fenómenos que se presentan.

La base de datos contiene los registros ya mencionados, cada registro contiene diferentes columnas, podemos dividir estas columnas en tres secciones que definen cada aspecto del choque:

1) La primera sería el lugar del suceso,

2) La segunda sería la descripción del mismo y

3) La tercera es la fecha/hora cuando ocurrió.

Ahora bien, con estos datos vamos a contestar algunas preguntas.

¿En qué códigos postales de la ciudad de Monterrey, Nuevo León y Zona metropolitana (ZMM) se generan más choques?

Para fines prácticos, se tomaron de la tabla los diez códigos postales donde hubo más choques, esto considerando su respectiva frecuencia de ocurrencias con respecto al total. Los resultados se mostrarán a continuación.

Top 10 códigos postales con más choques:

  1. 64000
  2. 64620
  3. 64590
  4. 64330
  5. 64619
  6. 64200
  7. 64988
  8. 64460
  9. 64710
  10. 64700

Para un mejor entendimiento se relacionó cada código postal con el nombre de la colonia. Estas son las colonias donde hay más percances del área metropolitana.

Top 10 colonias con más choques:

  1. Col. Centro
  2. Col. Vista Hermosa
  3. Col. Agrícola
  4. Col. Gral. Naranjo
  5. Col. Residencial Cumbres
  6. Col. Croc
  7. Col. El Milagro
  8. Col. Mitras Centro
  9. Col. Nuevas Colonias
  10. Col. Nuevo Repueblo
Mapa Monterrey, N.L. Colonias con más choques.

Si andas por estas colonias te recomiendo que vayas con mucha precaución detrás del volante.

¿A qué hora ocurren más choques en Monterrey (ZMM) ?

Pienso que esta es una de las preguntas más importantes a considerar ya que si vives en Monterrey sabrás de la cantidad de tráfico que se genera a las horas pico, veremos si existe una relación entre los choques y las horas de más tráfico.

Formato 24hrs.

Las horas que destacan son: 14:00, 13:00, 16:00, 18:00, 15:00. Podemos notar que los choques están relacionados con el tráfico, y el tráfico a su vez se genera principalmente debido a las «horas de trabajo», claramente podemos observar la “hora de entrada”, la de “hora de comida” y la “hora de salida” que son los tiempos en donde hay más personas manejando.

¿Qué días de la semana suceden más choques en Monterrey(ZMM) ?

Formato 24hrs. Empezando por día domingo y terminando el sábado.

Empezando por el domingo en este caso, se puede notar cómo es que los choques varían dependiendo del día, siendo el “viernes” cuando ocurren más siniestros y el “domingo” el día que menos. Otro fenómeno curioso que podemos observar es que durante los sábados en la noche la cifra de choques aumenta considerablemente en comparación a los demás días, es entendible, la gente se va de fiesta, toma alcohol u otras sustancias, acto siguiente escoge manejar y lamentablemente choca. 

¿Algún color de auto es más propenso a chocar?

La respuesta corta es “sí”, existen autos que son más propensos a chocar que otros por su color, esto quizá se deba a que durante el día o la noche son más difíciles de observar para los conductores, otro factor puede ser que la mayoría de los autos que circulan son de ciertos colores «populares» y por ende tienen esas estadísticas.

Puede parecer broma, pero tomando en cuenta todo esto, en dado caso de que te encuentres manejando un carro gris o blanco un viernes por la tarde en el centro de Monterrey, estadísticamente tienes una gran probabilidad de chocar.

– Equipo Datlas –

¿Qué se puede decir de todo esto?

“Nuevo León, la entidad con mayor registro de choques en el país” – El financiero

“Falta cultura vial…y abundan choques” –El Norte

Estos solo son dos ejemplos de los miles que se pueden encontrar en cuanto a notas periodísticas donde mencionan nada más que la verdad. Nuevo León es en efecto la entidad del país con el mayor número de choques, esto se puede comprobar observando las bases de datos del INEGI o simplemente visualizando las gráficas que ya tienen disponibles en su página. No hace falta ser muy meticuloso con los datos para darnos cuenta de esto, solo basta con salir a manejar en horas pico para que uno se dé cuenta de lo pésima que es esta situación, no es de sorprenderse que seamos la zona metropolitana con mayor número de choques.

Finalmente, si multiplicamos las probabilidades de cada dato podemos llegar a una conclusión un poco chistosa pero cierta, si tú decides salir a manejar un automóvil de color blanco, un viernes por la tarde en el centro de la ciudad de Monterrey, estadísticamente tienes mayor probabilidad de chocar que cualquier otro conductor.

Ándate con cuidado si tienes un auto blanco y te gusta salir los viernes.

Lectores recuerden suscribirse en www.datlasacademy.com para obtener cursos gratuitos sobre métodos y conceptos de transformación digital. Para las y los primeros suscriptores habrá un curso de «Storytelling de Datos» de obsequio. No se lo pierdan.

Equipo Datlas –

No te sientes al frente si vas en un carro blanco por gonzalitos (Caso de ANÁLISIS DE CHOQUES PARA NUEVO LEÓN, MÉXICO) – DATLAS INVESTIGACIONES

Aún con varios blogs escritos al respecto, los datos de los siniestros reportados de inicios del 2016 a mediados del 2018 en Mty NL, aún tienen mucho que decirnos. Y aunque pareciera un título alarmante, la realidad es que no lo es, ¿o sí? Como diría cualquier científico social: Depende. Quédate en este blog para descubrir la respuesta.

** Te puede interesar «Categorizando zonas con más choques en Nuevo León»

Si cualquier persona con suficiente equipo de cómputo para utilizar Microsoft Excel filtrara y contara las observaciones de la antes mencionada base de datos, se daría cuenta de los siguientes resultados:

  1. El color de los vehículos más chocado en ese periodo es el color blanco.

Seguido del gris, rojo, plata, y negro. Al quitar duplicados, sumar colores prácticamtente iguales, y ordenando de mayor a menor por cantidad de observaciones, obtenemos el TOP 10 se se ve en la imagen.

2. La parte del auto donde sucedió el choque más frecuente fue el frente

Seguido de la parte trasera, el cofre, el costado derecho delantero, y el costado izquierdo delantero. El procedimiento fue prácticamente el mismo que en el caso del color del vehículo, y gracias a ello tenemos el TOP 10 en esta segunda imagen.

3. Los choques de auto se concentran en su mayoría en la avenida Gonzalitos.

Por último, si proyectaramos un mapa 3D de las latitudes y longitudes, las cordenadas de los diferentes siniestros filtrados por tipo de vehículo, podríamos llegar a la conclusión de que en el mapa de autos, estos se concentran más en la avenida de Gonzalitos, mientras que en el camión se concentran por Ruiz Cortinez, y en los camiones ligeros por Madero.

Ahora bien, ¿debería de alarmarme por el título de este blog? Nuestra respuesta sería: no lo suficiente, y la manera más fácil de explicarlo es con el color del vehículo.

El hecho de que el color con más choques reportados sea el blanco, no quiere decir que dicho color sea el más propenso a chocar, porque no sabemos si es el color más comprado. Si por ejemplo casi toda la ciudad compró autos blancos y solo chocó 1 tercio, mientras que los autos rojos solo compraron 10 personas y todos chocaron porque es el color más propenso a chocar, el número de reportes entonces no nos ayuda mucho.

Algo similar sucede con la avenida Gonzalitos. Si solo nos basamos en los datos de los siniestros reportados, no podríamos comparar esta avenida con otras, al no estar seguros de cuantos automóviles la transitan, y por ende, no podemos asumir que es la avenida más peligrosa o propensa a sufrir un accidente. No es coincidencia que la hora con más choques es la 1:47pm, la cual cabe en lo que conocemos coloquialmente como la hora pico.

Como de costumbre, la intención de este blog no es asustar al usuario, si no compartir resultados interesantes de un análisis básico de datos, y generar conciencia de como un evento tan normal como un choque en esta ciudad, puede arrojarnos información interesante a compartir.

Hasta aquí la columna de hoy, no duden en visitar los otros escritos de esta base de datos o de la basta variedad de temas de analítica que hemos realizado. Pueden encontrarnos en nuestras redes sociales como @DATLASMX.

Adjuntamos el video echo por un aplicante para una de nuestras últimas convocatorias de ingreso a la startup, donde tenía que explicar esta y otras conclusiones interesantes de la base de datos en 6 minutos como máximo.

Equipo Datlas

-Keep it weird-

1 mes usando la mac mini apple (2020) para data science y edición de multimedia – datlas

Comenzó el nuevo año y la demanda de procesamiento para una startup de analítica como Datlas incrementó. Es usual que en las conversaciones del área de tecnologías y analítica escuchemos: Máquinas virtuales, bases de datos en la nube, arquitectura de información, data warehouse, data lake, data marts, cron jobs, entre otros .Así como nombres de sistemas y herramientas: Power Bi, Tableau, Azure, IBM Watson, R, Python, Matlab, entre otros.

En este blog te compartimos nuestra evaluación y decisión sobre adquirir una de las nuevas MAC MINI con procesador m1. Por primera vez dejamos atrás INTEL y nos atrevimos a intentarlo. Te contaremos nuestro proceso de evaluación así como nuestra recomendación final.

Antecedentes ¿Qué buscábamos en un equipo?

Principalmente potencia, una máquina que pudiera ser utilidad de 5 a 7 años y además que nos familiarizará con un nuevo sistema operativo (Estábamos muy «casados» con Windows y Linux, pero Apple está haciendo cosas muy interesantes que hay que voltear a ver para no quedarnos obsoletos).

Dentro de las opciones y los motivos, entre computadoras potentes de windows no podíamos justificar el precio-beneficio. En todos los «benchmarks» terminaba apareciendo la Mac Mini m1 en una muy buena posición. En muchos planos, era la ganadora y parece que finalmente APPLE ofrecía algo al mercado que teníamos que voltear a ver.

Un punto importante es que la compañía de la manzana hizo un gran trabajo en la eficiencia de uso energético. Nosotros pensábamos dejar este equipo encendido al menos 5 días de la semana para correr algunos «jobs» automatizados y su ahorro energético la hacía buen opción.

Así como un procesador rápido, que vaya a la vanguardia con el mercado y nos permitiera mejorar nuestro trabajo de contenido para academy, podcast y blog

¿Mac sobre Windows para edición? OK … pero para ¿Data Science?

Considerando estos antecedentes, alguna de las opciones de MAC M1 (Laptop, desktops, etc) parecía ser una opción a evaluar para la startup. Aunado a esto, nuestro podcast con casi 60 capítulos ha sido trabajado hasta el día de hoy para edición de audio dede una MACBOOK PRO 2015 con algunas alteraciones como aumento de memoria SSD. Aún así era díficil continuar escalando la producción con un equipo como este.

Para la parte de las ediciones multimedia, el equipo (MAC MINI M1) se justificaba sólo, pero ¿Para Data Science? Aún y cuando buscamos e investigamos en videos de youtube, testimonios, preguntamos en foros, había muy poca documentación sobre como funcionaría para Data Science. Solamente nos podíamos entender con las guías de qué puntuaje tendría el procesador con casos de uso de «single-core» y «multi-core». En Single core para procesos en batch parece que es bastante competitiva en contraste con su homologa que tiene el procesador de INTEL. Pero, en multi thread, hay ciertos escenarios específicos donde INTEL sigue siendo mejor.

¿Mac Mini M1 2021?

Es la computadora desktop de la clase MINI más nueva que ha sido lanzada con una variante de procesador: M1 sobre INTEL.

Las entradas de cables no son su fuerte, sin embargo encontramos thunderbolt, USB, conexiones a luz, cable ethernet y también entrada HDM1.

Importante decir que esta computadora, por la manera en que se desarrolló internamente, y parecida a modelos recientes de la mac, no puede ser «Updateada». Es decir, no se le puede ampliar el RAM o alterar el procesador. Por eso mismo seleccionar una versión que sea útil durante el tiempo es importante.

Selección de la mejor versión de Mac Mini M1 2020

La MAC MINI m1 se puede adquirir en su versión básica (8gb de RAM y 256 SSD de memoria de disco) desde $650 dllrs . Las versiones más sofisticadas llegan a valer el doble.

Particularmente, en nuestro caso calculando el costo-beneficio, nos decidimos por la versión de 16 de RAM. Esto porque después de ver bastantes «reviews» hacían énfasis en que el RAM era algo que nos podíamos quedar cortos con 8. Además , particularmente, para tareas de análisis estamos acostumbrados a trabajar con 16 de RAM desde hace 5 años entonces ¿Para qué ir para atrás en este aspecto?

Por otro lado, la opción de memoria SSD no parecía razonable subirla. Esto porque llegar a 1TB subía más de $200 dllrs el valor final de compra. Pero preferimos irnos por lo básico: 256 GB y comprar por fuera una memoria HDD marca LA CLIE de 5 TB por menos de $150 dllrs.

Beneficios

Una configuración como la mencionada, es ideal para disminuir tiempos de renderizado en edición multimedia al menos un 70%. Episodios en calidad 4K que tardaban medio día en la MACBOOK PRO antigua, ahora toman menos de media hora.

Por otro lado, en procesos de analítica de datos. A pesar de unos problemas por no correr los programas de manera «nativa», debo decir que los procesos se corren más rápido que mi equipo actual (Windows 10 Intel corte i7 8va generación con SSD).

Problemas

El m1 es potente con aplicaciones nativas, pero sí hay algunas diferencias cuando corremos programas que no pueden avanzar con la clase «Apple». En esta situación el sistema operativo nos sugiere utilizar «ROSETTA» que es un adaptador para poder abrir programas que no tengan una versión nativa de M1.

Si abrimos el monitor de actividades podemos ver en la columna «CLASE» bajo qué esquema corre cada uno de los programas. Si es en APPLE significa que correrá con M1 , de lo contrario será usando ROSETTA.

Recomendaciones finales

Si en tu equipo de trabajo están buscando actualizarse en hardware, la mac mini m1 es una buena opción. Sin ser una computadora con «specs» galácticos o cuánticos, verdaderamente es una buena opción precio-beneficio. Es un equipo multi-usos que además de aprovechar sus capacidades avanzadas de edición te permitirá correr sin problema mucho de tus códigos que hoy corres en tu equipo INTEL

Principales drivers de compra:

  • Precio – beneficio
  • Versatilidad de uso
  • Tamaño y convenencias

Contras de compra

  • No se podrá actualizar su hardware durante el tiempo
  • No todos los programas corren nativos, habrá que usar ROSETTA durante un tiempo
  • La memoria SSD integrada puede duplicar el precio del equipo

Hasta aqui nuestra columna de hoy ¿Qué opiniones tienes de la evaluación? ¿Haz considerado usar un procesador M1? O si ya lo usaste ¿Cuál es tu experiencia? Continua la conversación con nosotros en redes sociales etiquetando a @DATLASMX

Saludos

Equipo Datlas

– Keep it weird –

¿refrigeradores conectados a internet? industria 4.0: iot -investigación datlas

Anteriormente hemos platicado de ciudades inteligentes en donde tocamos brevemente el tema de sensores e internet de las cosas. En esta ocasión queremos contarte un poco acerca de que trata este gran elemento dentro de la transformación digital y la industria 4.0.

Antes de iniciar hay que tener claro que el término “industria 4.0” se utiliza para referirse a la llamada “cuarta revolución industrial”. El término se originó en Alemania en el 2011, y hace referencia a un modelo de manufactura avanzado que incluye tecnologías integradas una con otra de manera física o digital.

Existen varios tipos de tecnologías que pueden ser integradas a estos modelos, como por ejemplo: inteligencia artificial (IA), robots, cloud computing y efectivamente, el Internet de las Cosas (IoT por sus siglas en inglés).

Universidad y 4ª revolución industrial | Aprenentatge Servei

¿Qué es el Internet de las Cosas?

A grandes rasgos, el internet de las cosas encasilla todo lo que está conectado a internet, permitiendo que los objetos se “comuniquen” entre ellos. De manera más específica, el IoT es una herramienta tecnológica que permite integrar sistemas de procesamiento, almacenamiento y comunicación entre diversos procesos conectados entre si.

¿Dónde está presente el Internet de las Cosas?

El objetivo principal del IoT, es automatizar procesos. Por ello, está presente en muchos objetos cotidianos; desde los celulares que usamos, relojes inteligentes, aparatos electrónicos (TVs, consolas), un amplio abanico de electrodomésticos (como refrigeradores) y hasta cámaras.

También está presente dentro de las grandes industrias, por ejemplo en las industrias manufactureras, se encuentra en forma de sensores que mandan alertas si algo está pasando; en los grandes campos de cultivo donde gracias a algunos sensores, se puede conocer a detalle la calidad de la tierra.

Internet de las Cosas: Definición, funcionamiento, 6 beneficios y ejemplos

En el giro de transporte y logística, gracias al IoT, se pueden administrar las flotas de automóviles, barcos y aviones, tomando en cuenta factores como el cambio climático, disponibilidad de la vía, tránsito, entre otros. Además, el IoT se puede usar para mejorar la seguridad de los trabajadores. Por ejemplo, empleados en entornos peligrosos como minas, campos de petróleo y plantas químicas, necesitan tener conocimiento de los posibles eventos peligrosos que podrían suceder. Al estar inmersos en la tecnología IoT, pueden recibir alertas o notificaciones que les permitan tomar las acciones pertinentes.

Los retos actuales del IoT

Ahora bien, conociendo un poco del IoT, sus aplicaciones y beneficios, es importante conocer los retos a los que se enfrenta esta tecnología en el mundo moderno.

En primera, ¿cómo migrar a un ecosistema IoT? Se puede decir que tratar de migrar a la industria 4.0 es complicado. No solamente se limita a grandes inversiones económicas, implementación de tecnologías, equipamiento o softwares. Se trata de realmente lograr un cambio de visión y perspectivas dentro de la compañía, algo que no es para nada sencillo.

Volviendo al tema financiero, los costos de inversión para un ecosistema IoT pueden variar mucho, dependiendo del tamaño de la compañía y los alcances que se buscan, pero podemos asegurar que no es para nada barato. Aunado a esto, se estima que a las compañías, ver el retorno de inversión (ROI) les puede tomar entre 7 y 12 años.

La seguridad y privacidad digital también es un reto que afronta la transformación IoT. Las compañías pueden ser víctimas de amenazas, ataques por parte de hackers y hasta filtración información sensible. Se requiere que se desarrolle confianza en los ecosistemas IoT, sin embargo, las frecuentes amenazas a la seguridad y privacidad, lo hacen un camino difícil de recorrer.

Hasta aquí la columna de hoy. ¿Qué opinas del IoT? ¿En el futuro realmente puede ser más accesible y realizable? ¿Conoces algunos casos de IoT aplicados en la industria? Compártenos tu opinión a través de nuestras redes sociales @DatlasMX

Equipo Datlas

-Keep it weird-

Utilities: abundancia de datos y gran oportunidad para analítica y big data – Investigación DATLAS

Hace alrededor de un mes tuvimos la oportunidad de tener como invitado en nuestro podcast Café de Datos al Global Head of AI & Analytics en Telefónica IoT & Big Data Tech el gran Antonio Pita Lozano con quien estuvimos platicando acerca de la ciencia de datos como una carrera profesional, como ensamblar equipos de ciencia de datos en las organizaciones e incluso nos comentó acerca del Máster en Ciencia de Datos del cual es director en KSchool. En esta columna vamos a tomar una de las aportaciones que más nos sorprendió de la charla con Antonio para profundizar un poco más.

Para iniciar, como es costumbre con nuestros invitados en el podcast, les pedimos que nos compartan ¿con quién se tomarían un café? si pudieran elegir a cualquier personaje de la historia. En este caso Antonio nos comentó un par de nombres famosos, pero terminó inclinándose por Alan Turing. Para quien no lo conozca Alan Turing fue un matemático nacido en Reino Unido que fue un protagonista del desarrollo del campo de la teoría computacional. Recientemente se hizo más famoso por su función de criptógrafo descifrando mensajes de los “nazis” con la máquina ENIGMA después de la segunda guerra mundial. De hecho en Datlas le hicimos un homenaje a este gran personaje por el Día de Muertos que celebramos en México, puedes ver el altar homenaje aquí.

Después de este pequeño ritual de bienvenida para calentar motores Antonio nos relató un poco de su carrera y desarrollo profesional. Durante este bloque comentamos acerca de la transformación digital que han experimentado, y aprovechado, algunos grandes sectores económicos como lo es la industria financiera. Asimismo le pedimos a Antonio que nos diera su perspectiva alrededor de sectores o industrias que tuvieran grandes cantidades de datos y al mismo tiempo una gran oportunidad de aprovecharlos o explotarlos de una mejor manera. Sorprendentemente para nosotros, Antonio nos hizo notar que uno de los sectores que ha tenido una inmersión importante en temas de analítica de datos, después del sector financiero, ha sido el sector de las Utilities y quisimos profundizar un poco en esta parte.

¿Qué son las Utilities?

Las utilities es la denominación en inglés de aquellas compañías que pertenecen al sector energético y de servicios colectivos que prestan servicios de los cuales no se puede prescindir como por ejemplo: electricidad, gas, agua, residuos, etc.

Se consideran empresas seguras puesto que los ingresos son estables, sin embargo, debido a la gran inversión que requieren, suelen tener grandes cantidades de deuda, provocando una gran sensibilidad ante los cambios en la tasa de interés. Un aumento de la tasa de interés, va acompañado del incremento de la deuda, lo que provoca que el funcionamiento de las Utilities sea mejor cuando las tasas de interés están decayendo o se mantienen bajas.

¿Cómo aprovechan el Big Data y la analítica de datos las Utilities?

Antes que nada hay que entender que estas empresas apalancan otra de las grandes tendencias de la transformación digital que es el Internet de las Cosas (IoT) y los sensores.

Growing Technology Acceptance Boosts Demand for IoT in Utilities

Esta nueva forma de obtener datos les permite generar casos de uso como:

Predicción, detección y prevención de cortes de energía

Un corte de energía puede hacer que todo un país se detenga, como el apagón del noreste de 2013 que afectó a más de 45 millones de personas en los Estados Unidos. Las condiciones climáticas desfavorables son una de las principales causas de tales cortes. Las Utilities están construyendo una infraestructura y sensores más inteligentes para mejorar la previsibilidad y prevenir estos escenarios de interrupciones.

Los sistemas modernos de cortes de energía emplean soluciones en tiempo real que operan en base a datos en vivo y algoritmos inteligentes para predecir y prevenir cualquier situación posible.

Estos sistemas son capaces de predecir el impacto de cualquier eventualidad cercana a la red, posibles cortes causados ​​debido a eventos de medidores inteligentes, cortes específicos de la región y más.

Gestión de carga inteligente

Para gestionar de forma eficiente la carga de energía, las Utilities necesitan equilibrar de forma estratégica e inteligente la demanda de energía con un suministro de energía óptimo en un período de tiempo determinado. Tener un sistema de gestión de carga inteligente les permite cubrir los requisitos de gestión de red de extremo a extremo, incluidas la demanda y las fuentes de energía con la ayuda de fuentes de energía distribuidas, sistemas de control avanzados y dispositivos de uso final.

Todos los componentes del sistema de gestión generan datos. Al aplicar análisis de Big Data, las empresas pueden tomar decisiones con precisión con respecto a la planificación y generación de energía, la carga de energía y la estimación del rendimiento.

▷ Mantenimiento Predictivo - Digitalización y optimización de las fábricas

Gestión preventiva de activos

Dado que es una industria intensiva en activos y depende en gran medida del rendimiento óptimo de sus equipos e infraestructura de red. La falla de estos activos puede causar serios problemas de distribución de energía y, en consecuencia, mermar la confianza del consumidor. Por lo tanto, prevenir este tipo de incidentes es una de las principales prioridades de la industria.

Para el mantenimiento preventivo de equipos, el Big Data y la analítica viene al rescate. Los activos están integrados con sensores inteligentes, rastreadores y soluciones de datos que transmiten información en tiempo real al centro. Los datos recopilados se pueden procesar y analizar para identificar posibles problemas con el mantenimiento del equipo, lo que permite un manejo proactivo de la situación.

Mayor eficiencia operativa

Aprovechar los datos en tiempo real de los activos relacionados con la tasa de actividad, el estado de las operaciones, el tiempo, el análisis de la oferta y la demanda, y más, ayudan a las empresas de Utilities a optimizar la eficiencia energética y el rendimiento de los activos. Las aplicaciones de Big Data y analítica les permiten mejorar la confiabilidad, la capacidad y la disponibilidad de sus activos de red mediante el monitoreo continuo del costo y el rendimiento.

Y… ¿de que tamaño es el mercado?

Finalmente, Antonio nos hizo reflexionar acerca de las aplicaciones de Big Data, analítica de datos, Internet de las Cosas y sensores que tiene este sector. Hemos visto ejemplos claros y aplicaciones con casos de negocios sustentados, pero como emprendedores, como proveedores de soluciones de analítica, la última disyuntiva que pudiéramos tener es ¿de qué tamaño es el pastel? y justo nos dimos cuenta que la inversión en analítica por parte de las Utilities ha venido creciendo desde el 2012 y el año pasado logró posicionarse en $3.8 billones de dólares, de los cuales Latinoamérica participa con alrededor de $0.5 billones de dólares.

Así que, al igual que nosotros esperamos que hayas aprendido como nosotros un poco más alrededor de una industria que a pesar de ser longeva tiene una gran oportunidad y ya esta adoptando nuevas tecnologías.

Si eres emprendedor, profesionista o simplemente te interesa adentrarte al mundo de la ciencia de datos te recomendamos escuchar el Episodio #44 de nuestro podcast Café de Datos con Antonio Pita y conocer más acerca del Máster en Ciencia de Datos de KSchool del cual Antonio es el director y tiene un modelo muy interesante de aprendizaje basado no solo en la teoría sino también en la práctica.

Hasta aquí la columna de hoy, no olvides compartirla con tus colegas y seguirnos en nuestras redes sociales como @DatlasMX

Bibliografía:

BigDataissuesandopportunitiesforelectricutilities.pdf

The role of big data analytics in Energy & Utilities (cigniti.com)

Utility | WikiFinanzas – Finanzas para Mortales (wiki-finanzas.com)

5 Tendencias DE datos para gerentes de analytics – datlas investigación

La transformación digital en el 2021 continua siendo impulsada por distintos pilares como cultura, tecnología, sistemas de trabajo y análitica de datos. En esta última es importante seguir actualizándonos y el día de hoy dirigimos esta columna a la gerencia de analytics en las organizaciones. Hablaremos de 5 tendencias para analítica y datos en el 2021. Esta columna está inspirada en nuestra meta-investigación y la columna citada en fuentes de @Prukalpa

Te puede interesar también las tendencias del 2021 que investigamos al principio del año. Revísalas aqui.

5 Tendencias de Datos

1) Se mezclan los Data Warehouse y Data Lakes

Recuerda que hablamos sobre arquitectura de proyectos de datos en este blog y te contábamos las diferencias entre data Warehouse vs Data Lakes.

Las líneas que dividen estos conceptos se borran en algunos sistemas y algunas plataformas de analítica se están conectando de manera directa al lago de datos con tecnologías como SnowFlake.

2) Las herramientas de BI tools se hacen «mainstreams»

PowerBI, Qliks y/o Tableau son el nuevo estándar. De hecho plataformas como Tableau acaban de actualizar sus tarifas a puntos de precios bastante asequibles para PYMES ($35 dólares mensuales).

Sin embargo, recuerda tomar en cuenta la arquitectura de datos recomendada en este tipo de proyectos.

3) Los cursos y centros de excelencia de datos se vuelven el nuevo normal

Las capacitaciones de analistas en ciencia de datos se incrementan a alta velocidad. La intención es que más equipos dentro de las organizaciones se sumen a la transformación digital apalancados en plataformas de analítica.

Muchas organizaciones establecieron presupuestos en la contratación de capacitadores, cursos en línea, alianzas con universidades y programas hechos a la medida para aprender las introducciones a la analítica.

Si te interesa conocer un ejemplo de currícula no olvides revisar «Aprendiendo de Ciencia de Datos para Líderes de Equipo»

4) Emergen nuevos roles de datos

Te suena ¿Data Engineer o Data Arquitect? Sin duda alguna son de los principales roles que hemos planteado en estrategias de datos pero muchos analistas «odian» tener dependencias en sus ejercicios de ciencia de datas a la capacidad de obtener información de los ya muy demandados y ocupados «ingenieros o arquitectos de datos».

En ese sentido se ha buscado empoderar mayormente a los analistas usando plataformas low-code. También abriendoles accesos a los «data-marts» para poder generar reportes con información básica y recurente.

Lo peor que puede suceder en una estrategia de datos es tener más «cadeneros o cuellos de botella» que solucionadores en los procesos planteados.

5) Las alertas inteligentes en negocios se vuelven «pulsos comerciales»

Hemos notado incrementos en solicitudes y RFQ de compañías que quieren estar más enterados de su contexto. Iniciativas como procesamientos de NLP de redes sociales, seguimiento a notas de ubicaciones estratégicas, «feeds» o síntesis de información de industria, entre otras son alguna evidencia del crecimiento de la «inteligencia» que se construye en los negocios.

Sin embargo, tanta información no es de mucha utilidad si esta no genera «alertas o notificaciones» oportunas para reaccionar. Imagínate que en determinado momento te cambian la tarifa del gas y tienes que esperar a la reunión trimestral de consejo para aceptar los cambios. Pero por otro lado, si usando datos y alertas en tiempo real monitoreamos los incrementos en precios de gas en distintos mercados podemos prepararnos con coberturas para el inminente crecimiento en tarifas.

Hasta aqui la columna de hoy ¿Qué opinas de las tendencias? ¿Cuál crees que es importante monitorear? y ¿Qué medios sigues para alertarte de los cambios en la industria? Sigamos la conversación en redes a través de @DatlasMX

Equipo Datlas

– Keep it weird –

Fuentes

Imagenes de unsplash y pinterest (https://ar.pinterest.com/pin/579345939554969637/)

https://towardsdatascience.com/the-top-5-data-trends-for-cdos-to-watch-out-for-in-2021-e230817bcb16