Café de Datos: Top de Podcast Episodios por Temporadas – Podcast y Libros Datlas

En Febrero 2020, por la pandemia COVID-19, en el equipo de Datlas estábamos preocupados por cómo íbamos a continuar a ser relevantes y poder sobrevivir como startup a esta difícil época. Tras algunas colaboraciones, participamos en algunos podcast de colegas emprendedores y comenzamos a identificar que había una oportunidad de hablar de analítica de datos y transformación digital en un podcast en español.

Fue así como nació «Café de Datos», una primera versión de un vehículo en formato voz que muy pronto se convertiría en algo más grande (Academy). En Diciembre de 2020 nos reconocieron como el Top15 la categoría de Tecnología. En Diciembre 2021 nos han reconocido episodios que llegaron al Top40 en México total categorías. En esta columna te compartiremos los episodios más escuchados por temporada.

Desarrollamos una métrica para poder hacer «comparables» los rankings. Usamos las «Reproducciones por día desde la publicación del episodio». Y en este sentido compartimos el Top3 de cada temporada.

Top 5: 1era Temporada

Analytics – ¿Qué demonios son los analytics y cuándo es el momento de iniciar?

Analytics – Big data en mi organización ¿Cómo la inicio?

Invitado: Aldo Valadez – ¿Cómo hacer analytics a lo grande (en Corporativos)? (ft. BANREGIO)

En conjunto, estos capítulos nos apoyaron a darnos a conocer y a empezar a generar una comunidad entre los y las profesionales que más sabían del tema de analítica en el Norte del País.

Top5: 2da Temporada

Invitado: Edwin Hernández de Farmacias del Ahorro – Analítica en farmacias y equipos de alto desempeño (Estilo Moneyball)

Café de Opinión – Nuestra reflexión de «Social Dilemma» documental de NETFLIX

BONUS – Cómo cerramos el 2020 y Tendencias en tecnologías 2021

Estos episodios nos ayudaron a implementar nuevos formatos de episodios, los de analytics y otros dedicados para emprendedores.

Top5: 3era Temporada

BONUS: Charla INCMTY 2021 – Analítica en el sector inmobiliario – Presentación de casos de Uso

BONUS: Invitado Dr. Miguel Flores – Analítica y econometría espacial – ¿Qué es y para qué sirven los datos geo-referenciados (mapas)?

Invitado: Fernando Franco, Puente de Silicon Valley y conductor del «Valle de los Tercos» – «La situación de Silicon Valley post-pandemia y las habilidades para profesionales que buscan un futuro digital sostenible»[Fin de Temporada 3]

La 3era temporada ya nos había colocado una bara muy alta. Teníamos que superar el Top15 el próximo año. En este sentido las cintillas comenzaron a aparecer, invitad@s internacionales y obtuvimos los primeros patrocinios.

Top5: 4ta Temporada (Vigente)

Invitado: Néstor García – Data Champion: Traduciendo necesidades de negocios en iniciativas de analítica para la organización del futuro

Analítica de datos en recursos humano (HR Analytics) – Invitado: Álvaro Martínez de PepsiCo

¿Cómo estudiar el mercado del Retail? – Invitado: Jorge Pale de Nielsen

Es la temporada que actualmente está transcurriendo. Próximamente cerrará con un par de capítulos más. Realmente disfrutamos más los diálogos, hemos notado que más escuchas se quedan hasta el final y hemos aprendido a sacar mayor valor de las y los invitad@s. Todo esto comienza a sumar y ser preparativos para Datlas Academy.

¿Cuál ha sido tu episodio favorito? Te invitamos a compartir @DatlasMX

Hasta aqui el blog de hoy. Y esta última nota es para agradecerles a l@s miembros de nuestra comunidad por un 2021 de seguimiento. Te deseamos lo mejor en estas festividades navideñas o en este receso si te lo llegas a tomar.

-Equipo Datlas-

«Keep it weird»

fiNALMENTE SABEMOS CÓMO FUNCIONA EL ALGORITMO DE INSTAGRAM – INVESTIGACIÓN DATLAS

Una de las columnas que más atención ha recibido en este blog es el de «Social Dilemma» . Este documental de «Netflix» socializó el uso de los algoritmos en páginas como: Facebook, Instagram, Twitter, entre otros.

**Te podria interesar aprender sobre algoritmos en nuestra columna: «Algoritmos supervisados y no supervisados»

En esta columna particularmente compartiremos algunos apuntes de uno de los líderes de Instagram: Adam Mosseri. Recientemente publicó una columna donde da más luz de cómo funciona el ALGORITMO DE INSTAGRAM que prioriza el feed y que seguramente impulsa a muchos «influencers» a crecer sus audiencias.

Anatomía de los sistemas de publicaciones en Instagram

  • Feed – Es lo que cualquier perfil tiene entrando en su app. Se compone de todas las publicaciones de las cuentas que seguimos
  • Stories – Publicaciones temporales desde cualquier perfil
  • Explore – Una sección de la aplicación donde puedes consumir contenido sugerido de acuerdo a tus preferencias. Estas preferencias son registradas y priorizadas por algoritmos
  • Reels – Son pequeñas cápsulas de video que permiten a usuarios ser encontrados por nuevas audiencias a la exploración de esta sección en el app. Suele ser más sencillo tener más views en este tipo de contenido que en otras secciones del app.

¿Quiénes dominan en instagram?

Es importante entender las redes sociales. En instagram hay un top10 que se ha mantenido a lo largo del tiempo que va desde los 319 millones de usuarios hasta los 517. Este tipo de perfiles tienen agencias de representación y contenido que les asesoran sobre cómo aprovechar el algoritmo de instagram para generar una mayor masa de seguidores.

  1. Cristiano Ronaldo
  2. Justin Bieber
  3. Ariana Grande
  4. Selena Gomez
  5. Taylor Swift
  6. Dwayne Johnson
  7. Katy Perry
  8. Kylie Jenner
  9. Rihanna
  10. Kim Kardashian

Revisar lista completa en: https://www.visualcapitalist.com/worlds-top-50-influencers-across-social-media-platforms/

¿Cómo funciona el algoritmo?

Hay que precisar que en realidad no hay un sólo algoritmo, existen varios dependiendo la sección del app de instagram que estemos utilizando. Según Adam, en su columna sobre cómo funciona el algoritmo, menciona que en el 2010 el feed era «cronológico» , pero con el incremento de usuarios identificaron la necesidad de mostrar contenido más «relevante» a cada una de las cuentas.

A) Feed e Historias

Todo comienza buscando que debería de aparecer primero en el feed de cada quien ¿Tus amigos cercanos? ¿Contenido de tus deportes afines? ¿Las ciudades que visitan tus colegas? En esta sección la prioridad es ver contenido de las personas que sigues.

Después de esto los sistemas de instagram traducen este «follow» en señales que le permiten al algoritmo priorizar. Algunas de las más importantes son: Información sobre el post (Duración, relevancia, equipo con el que publicó el contenido , entre otros), Información sobre la persona que publicó el post (En este sentido el sistema detecta qué tan interesante podría ser para ti el contenido), Tu actividad en likes (En algoritmo se entrena dinámicamente identificando qué tipo de contenido suele gustarte y consumes durante más tiempo) y TU HISTORIA INTERACTUANDO CON ALGUIEN (Interpreta qué tan interesado estás en una persona por ejemplo leyendo si comentas o no en sus posts así como si tienes algún mensaje directo)

B) Explore

Distinto a Historias y Feed en Explore es donde quieres descubrir nuevo contenido. Instagram monitorea las señales que categorizan el contenido con el que interactuas con mayor frecuencia. En ese sentido, por ejemplo, si eres una persona que le gustan las fotografías de «montañas» , el sistema priorizará cuantas imágenes y contenidos de «hiking» exista en tu comunidad de alcance en «explore» para mostrártela.

Las señales más importantes que buscan son: Información del post, Tu historia de interacción con la cuenta que publicó, Tu actividad ( Cómo has interactuado con otro contenido de Explore en el pasado) e Información acerca de la persona que publicó

C) Reels

Muy parecido a Explore, en Reels visualizas principalmente contenido de cuentas que no sigues. Reels está basado principalmente en entretenimiento, aprendizaje y diversión ¿Te suena familiar?

Las señales a las que se ponen atención son: Tu actividad, Tu historia interactuando con la persona que publica, Información acerca del Reel (La canción de fondo, sonidos de fondo, video definido en tamaños de pixeles y resolución así como la popularidad del mismo) e Información de la persona que publica.

D) Otros: ¿Cómo puedes «alterar» el algoritmo?

Sistemáticamente hay algunas reglas de excepción que evitarán que te satures del contenido de una persona o cancelara a una cuenta si publica con demasiada frecuencia. Puedes leer las normas comunitarias de Instagram para saber más detalles de estas reglas (Por ejemplo si hablas de COVID-19 y otros temas controversiales será dificil ser popular)

Por otro lado como usuarios estamos empoderados a modificar el algoritmo con 3 prácticas: Selecciona una lista de tus amigos más cercanos (Close Friends) en la red para ver de forma más frecuentemente su contenido, Cancela o silencia cuentas que no te interesan y cuando en secciones como Reels y Explora veas contenido que no te interese señálalo como tal para que el algoritmo penalice ese contenido a la hora de priorizar.

Cierre

¿Entonces ya somos los magos del Instagram? Lo cierto es que es más fácil entenderlo que ejecutarlo. Pero conociendo un poco las entrañas del cómo funciona podemos saber que no es «una caja negra».

Cuéntanos cuáles son los mejores trucos para intagram y continuemos la conversación en nuestras redes @DatlasMX

Equipo Datlas

– Keep it weird –

Fuentes:

Liga 1: https://9to5mac.com/2021/06/08/instagram-algorithm-works/?fbclid=IwAR0Wzp4cAao_-vIO2mPsRjJdqUUwofeG5h0mnfWCEjbdDrCHU7FFQaEe8TE

Liga 2: https://about.instagram.com/blog/announcements/shedding-more-light-on-how-instagram-works

UNA REFLEXIÓN BALANCEADA DEL DOCUMENTAL DE NETFLIX: CODED BIAS ¿ INTELIGENCIA ARTIFICIAL RACISTA? – COLUMNA DE OPINION DATLAS

Desde el equipo de Datlas y los autores de las columnas de este blog nos encanta la generación de contenido y difusión sobre temas de analítica, inteligencia artificial y transformación digital. Hemos hecho columnas de documentales como el dilema de las redes sociales: «3 REFLEXIONES SOBRE “SOCIAL DILEMMA” y publicado opiniones sobre nada es privado: «3 reflexiones de Great Hack». En esta ocasión hablaremos del documental recientemente lanzado llamado «CODED BIAS» que hace referencia a situaciones donde la inteligencia artificial ha mostrado ser racista.

***SPOILER ALERT*** : Si aún no has visto el documental, tal vez quieras detenerte un poco y regresar a esta lectura para no arruinarte o sesgar tus pensamientos.

Los antecedentes ¿De qué trata?

Un estudiante del MIT identifica un problema evidente en la tecnología de la detección facial. Este desarrollo, desde su nacimiento y entrenamiento (Te recomendamos leer «Algoritmos supervisados y no supervisados» para mejorar tu comprensión de este tema), no está preparado para ser usado con la misma eficiencia por personas de color. Este es el preámbulo de toda una controversia de poderes y autocrítica a los desarrollos de inteligencia artificial de la actualidad y la problemática de la toma de decisiones habilitadas por computadora con modelos de «cajas negras» (Esto quiere decir, en pocas palabras, que son modelos donde no podemos identificar con claridad el efecto de cada variable tomada en el resultado o la justificación exacta de un resultado matemático. Solamente un % de ajuste que nos hace sentir matemáticamente certeros de que es el mejor modelo).

¿En cuál problema se centra el documental?

En un problema social. La temática de racismo y discriminación no es nueva en el contexto de la inteligencia artificial. Muchas de las empresas e investigadores que son pioneros en generar sistemas de identificación utilizan condiciones de «entrenamiento de sistemas» con un sesgo demográfico y socioeconómico.

Al no haber la diversidad suficiente en un equipo de desarrollo de algoritmos las predicciones de, por ejemplo, una cámara de seguridad que alerta cuando una persona «parece terrorista en una aeropuerto» , pueden estar vinculadas a una carga cultural y/o sistemática incorrecta.

Ejemplo citado en la película de cómo la policía local de una región del Reino Unido que utilizan cámaras y algoritmos de «profiling» para detener y entrevistar ciudadanos que, a criterio de su sistema, parecen sospechosos han fallado el 91% de las veces

¿Cuál es el problema de continuar con aplicaciones de inteligencia artificial como «facial recognition» o la «identificación facial» sin reconocer y cuidar los sesgos inherentes?

Si el futuro del mundo está alrededor de la inteligencia artificial (IA) y esta es un reflejo de la sociedad entonces tendremos sistemas sesgados.

Ejemplo de asertividad para identificar personas considerando distintas tecnologías: Azure, IBM y FACE (Empresa China)

Esta es una conversación que no es nueva. Constantemente se hacen estas «auditorias» a empresas de tecnología. Bastantes líderes den el sector tecnológico han empoderado un mensaje claro de que no debemos de dejar que la IA gobierne las decisiones humanas sin entender verdaderamente cómo funciona

Recordemos el caso de Steve Wozniak, uno de los fundadores de Apple, que tan pronto la empresa de tecnología lanzó su tarjeta de crédito obtuvo un crédito 10 veces del tamaño del de su esposa. Siendo que comparten cuentas bancarias, antecedentes crediticios y propiedades.

«La aparición estelar: Cathy O’neil»

En el documental «Coded Bias» hay un personaje que hace su aparición y honra decirlo. A opinión personal, el documental debió tratarse de ella. Nos referimos a Cathy Oneal, la autora de «Weapon of Math Destruction»

Cathy es una especialista en el tema de algoritmos, matemática de formación y con mucha experiencia en el diagnóstico de modelos de inteligencia artificial. Comenzó su carrera en la academia y después paso al mundo financiero donde algunas «formas» y consecuencia sde todos los modelos que se trabajaban le empezaron a «sonar raro»

Ha identificado y denunciado algoritmos que han tenido interpretaciones incorrectas en sectores bancarios hasta el mismo sistema legal norte-americano.

Aunque su intervención en la película es pequeña, si has leído alguno de sus libros podrás entender el valor que le aporta al movimiento impulsado por la película.

La reflexión final (opinión del autor de la columna, no a nombre de Datlas)

Mientras por un lado resulta «taquillero» hablar negativamente de la inteligencia artificial, sus impactos en el mundo y los problemas sociales que esta podría causar es justo decir que la conversación debe continuarse ampliando. Muy probablemente veamos nuevas series y documentales hablando del tema.

La temática de este documental no es nueva. Sin embargo había espacios para ser más técnicos y revisar los impactos de un mal uso de la IA en la sociedad. En ese sentido, en el casting debió de haber tenido más protagonismo una especialista en la materia como Cathy Oneil, con espacio para poder aprender mucho más de ella.

Por otro lado, si bien la IA ha generado potenciales problemas también hay muchos escenarios de impacto positivo. Un buen uso de IA y desarrollos con conciencia social auditados por un consejo especializado para reducir sesgos en los modelos pudiera dar brillantes resultados. Creo que esa parte de la historia faltó contarse en este documental que termina siendo algo dramático.

Documentales como estos tienen la oportunidad de hacer resonar propuestas de intervención escalables y transparentes para resolver las problemáticas que presentan. Faltó profundizar en más propuestas en este documental. Sin embargo podemos alegar que la directora Shalini Kantayya nos dejó esa tarea. Ahora tocará a la sociedad investigar más recursos para poder cuestionarnos la aplicación del IA.

Y ¿Cuáles son tus opiniones? Compártenos en @DatlasMX qué fue lo que te gustó y no te gustó del documental ¿Cuál fue tu mayor aprendizaje?

– Equipo Datlas –

Keep it weird