Archivo de la etiqueta: social dilemma

fiNALMENTE SABEMOS CÓMO FUNCIONA EL ALGORITMO DE INSTAGRAM – INVESTIGACIÓN DATLAS

Una de las columnas que más atención ha recibido en este blog es el de “Social Dilemma” . Este documental de “Netflix” socializó el uso de los algoritmos en páginas como: Facebook, Instagram, Twitter, entre otros.

**Te podria interesar aprender sobre algoritmos en nuestra columna: “Algoritmos supervisados y no supervisados”

En esta columna particularmente compartiremos algunos apuntes de uno de los líderes de Instagram: Adam Mosseri. Recientemente publicó una columna donde da más luz de cómo funciona el ALGORITMO DE INSTAGRAM que prioriza el feed y que seguramente impulsa a muchos “influencers” a crecer sus audiencias.

Anatomía de los sistemas de publicaciones en Instagram

  • Feed – Es lo que cualquier perfil tiene entrando en su app. Se compone de todas las publicaciones de las cuentas que seguimos
  • Stories – Publicaciones temporales desde cualquier perfil
  • Explore – Una sección de la aplicación donde puedes consumir contenido sugerido de acuerdo a tus preferencias. Estas preferencias son registradas y priorizadas por algoritmos
  • Reels – Son pequeñas cápsulas de video que permiten a usuarios ser encontrados por nuevas audiencias a la exploración de esta sección en el app. Suele ser más sencillo tener más views en este tipo de contenido que en otras secciones del app.

¿Quiénes dominan en instagram?

Es importante entender las redes sociales. En instagram hay un top10 que se ha mantenido a lo largo del tiempo que va desde los 319 millones de usuarios hasta los 517. Este tipo de perfiles tienen agencias de representación y contenido que les asesoran sobre cómo aprovechar el algoritmo de instagram para generar una mayor masa de seguidores.

  1. Cristiano Ronaldo
  2. Justin Bieber
  3. Ariana Grande
  4. Selena Gomez
  5. Taylor Swift
  6. Dwayne Johnson
  7. Katy Perry
  8. Kylie Jenner
  9. Rihanna
  10. Kim Kardashian

Revisar lista completa en: https://www.visualcapitalist.com/worlds-top-50-influencers-across-social-media-platforms/

¿Cómo funciona el algoritmo?

Hay que precisar que en realidad no hay un sólo algoritmo, existen varios dependiendo la sección del app de instagram que estemos utilizando. Según Adam, en su columna sobre cómo funciona el algoritmo, menciona que en el 2010 el feed era “cronológico” , pero con el incremento de usuarios identificaron la necesidad de mostrar contenido más “relevante” a cada una de las cuentas.

A) Feed e Historias

Todo comienza buscando que debería de aparecer primero en el feed de cada quien ¿Tus amigos cercanos? ¿Contenido de tus deportes afines? ¿Las ciudades que visitan tus colegas? En esta sección la prioridad es ver contenido de las personas que sigues.

Después de esto los sistemas de instagram traducen este “follow” en señales que le permiten al algoritmo priorizar. Algunas de las más importantes son: Información sobre el post (Duración, relevancia, equipo con el que publicó el contenido , entre otros), Información sobre la persona que publicó el post (En este sentido el sistema detecta qué tan interesante podría ser para ti el contenido), Tu actividad en likes (En algoritmo se entrena dinámicamente identificando qué tipo de contenido suele gustarte y consumes durante más tiempo) y TU HISTORIA INTERACTUANDO CON ALGUIEN (Interpreta qué tan interesado estás en una persona por ejemplo leyendo si comentas o no en sus posts así como si tienes algún mensaje directo)

B) Explore

Distinto a Historias y Feed en Explore es donde quieres descubrir nuevo contenido. Instagram monitorea las señales que categorizan el contenido con el que interactuas con mayor frecuencia. En ese sentido, por ejemplo, si eres una persona que le gustan las fotografías de “montañas” , el sistema priorizará cuantas imágenes y contenidos de “hiking” exista en tu comunidad de alcance en “explore” para mostrártela.

Las señales más importantes que buscan son: Información del post, Tu historia de interacción con la cuenta que publicó, Tu actividad ( Cómo has interactuado con otro contenido de Explore en el pasado) e Información acerca de la persona que publicó

C) Reels

Muy parecido a Explore, en Reels visualizas principalmente contenido de cuentas que no sigues. Reels está basado principalmente en entretenimiento, aprendizaje y diversión ¿Te suena familiar?

Las señales a las que se ponen atención son: Tu actividad, Tu historia interactuando con la persona que publica, Información acerca del Reel (La canción de fondo, sonidos de fondo, video definido en tamaños de pixeles y resolución así como la popularidad del mismo) e Información de la persona que publica.

D) Otros: ¿Cómo puedes “alterar” el algoritmo?

Sistemáticamente hay algunas reglas de excepción que evitarán que te satures del contenido de una persona o cancelara a una cuenta si publica con demasiada frecuencia. Puedes leer las normas comunitarias de Instagram para saber más detalles de estas reglas (Por ejemplo si hablas de COVID-19 y otros temas controversiales será dificil ser popular)

Por otro lado como usuarios estamos empoderados a modificar el algoritmo con 3 prácticas: Selecciona una lista de tus amigos más cercanos (Close Friends) en la red para ver de forma más frecuentemente su contenido, Cancela o silencia cuentas que no te interesan y cuando en secciones como Reels y Explora veas contenido que no te interese señálalo como tal para que el algoritmo penalice ese contenido a la hora de priorizar.

Cierre

¿Entonces ya somos los magos del Instagram? Lo cierto es que es más fácil entenderlo que ejecutarlo. Pero conociendo un poco las entrañas del cómo funciona podemos saber que no es “una caja negra”.

Cuéntanos cuáles son los mejores trucos para intagram y continuemos la conversación en nuestras redes @DatlasMX

Equipo Datlas

– Keep it weird –

Fuentes:

Liga 1: https://9to5mac.com/2021/06/08/instagram-algorithm-works/?fbclid=IwAR0Wzp4cAao_-vIO2mPsRjJdqUUwofeG5h0mnfWCEjbdDrCHU7FFQaEe8TE

Liga 2: https://about.instagram.com/blog/announcements/shedding-more-light-on-how-instagram-works

UNA REFLEXIÓN BALANCEADA DEL DOCUMENTAL DE NETFLIX: CODED BIAS ¿ INTELIGENCIA ARTIFICIAL RACISTA? – COLUMNA DE OPINION DATLAS

Desde el equipo de Datlas y los autores de las columnas de este blog nos encanta la generación de contenido y difusión sobre temas de analítica, inteligencia artificial y transformación digital. Hemos hecho columnas de documentales como el dilema de las redes sociales: “3 REFLEXIONES SOBRE “SOCIAL DILEMMA” y publicado opiniones sobre nada es privado: “3 reflexiones de Great Hack”. En esta ocasión hablaremos del documental recientemente lanzado llamado “CODED BIAS” que hace referencia a situaciones donde la inteligencia artificial ha mostrado ser racista.

***SPOILER ALERT*** : Si aún no has visto el documental, tal vez quieras detenerte un poco y regresar a esta lectura para no arruinarte o sesgar tus pensamientos.

Los antecedentes ¿De qué trata?

Un estudiante del MIT identifica un problema evidente en la tecnología de la detección facial. Este desarrollo, desde su nacimiento y entrenamiento (Te recomendamos leer “Algoritmos supervisados y no supervisados” para mejorar tu comprensión de este tema), no está preparado para ser usado con la misma eficiencia por personas de color. Este es el preámbulo de toda una controversia de poderes y autocrítica a los desarrollos de inteligencia artificial de la actualidad y la problemática de la toma de decisiones habilitadas por computadora con modelos de “cajas negras” (Esto quiere decir, en pocas palabras, que son modelos donde no podemos identificar con claridad el efecto de cada variable tomada en el resultado o la justificación exacta de un resultado matemático. Solamente un % de ajuste que nos hace sentir matemáticamente certeros de que es el mejor modelo).

¿En cuál problema se centra el documental?

En un problema social. La temática de racismo y discriminación no es nueva en el contexto de la inteligencia artificial. Muchas de las empresas e investigadores que son pioneros en generar sistemas de identificación utilizan condiciones de “entrenamiento de sistemas” con un sesgo demográfico y socioeconómico.

Al no haber la diversidad suficiente en un equipo de desarrollo de algoritmos las predicciones de, por ejemplo, una cámara de seguridad que alerta cuando una persona “parece terrorista en una aeropuerto” , pueden estar vinculadas a una carga cultural y/o sistemática incorrecta.

Ejemplo citado en la película de cómo la policía local de una región del Reino Unido que utilizan cámaras y algoritmos de “profiling” para detener y entrevistar ciudadanos que, a criterio de su sistema, parecen sospechosos han fallado el 91% de las veces

¿Cuál es el problema de continuar con aplicaciones de inteligencia artificial como “facial recognition” o la “identificación facial” sin reconocer y cuidar los sesgos inherentes?

Si el futuro del mundo está alrededor de la inteligencia artificial (IA) y esta es un reflejo de la sociedad entonces tendremos sistemas sesgados.

Ejemplo de asertividad para identificar personas considerando distintas tecnologías: Azure, IBM y FACE (Empresa China)

Esta es una conversación que no es nueva. Constantemente se hacen estas “auditorias” a empresas de tecnología. Bastantes líderes den el sector tecnológico han empoderado un mensaje claro de que no debemos de dejar que la IA gobierne las decisiones humanas sin entender verdaderamente cómo funciona

Recordemos el caso de Steve Wozniak, uno de los fundadores de Apple, que tan pronto la empresa de tecnología lanzó su tarjeta de crédito obtuvo un crédito 10 veces del tamaño del de su esposa. Siendo que comparten cuentas bancarias, antecedentes crediticios y propiedades.

“La aparición estelar: Cathy O’neil”

En el documental “Coded Bias” hay un personaje que hace su aparición y honra decirlo. A opinión personal, el documental debió tratarse de ella. Nos referimos a Cathy Oneal, la autora de “Weapon of Math Destruction”

Cathy es una especialista en el tema de algoritmos, matemática de formación y con mucha experiencia en el diagnóstico de modelos de inteligencia artificial. Comenzó su carrera en la academia y después paso al mundo financiero donde algunas “formas” y consecuencia sde todos los modelos que se trabajaban le empezaron a “sonar raro”

Ha identificado y denunciado algoritmos que han tenido interpretaciones incorrectas en sectores bancarios hasta el mismo sistema legal norte-americano.

Aunque su intervención en la película es pequeña, si has leído alguno de sus libros podrás entender el valor que le aporta al movimiento impulsado por la película.

La reflexión final (opinión del autor de la columna, no a nombre de Datlas)

Mientras por un lado resulta “taquillero” hablar negativamente de la inteligencia artificial, sus impactos en el mundo y los problemas sociales que esta podría causar es justo decir que la conversación debe continuarse ampliando. Muy probablemente veamos nuevas series y documentales hablando del tema.

La temática de este documental no es nueva. Sin embargo había espacios para ser más técnicos y revisar los impactos de un mal uso de la IA en la sociedad. En ese sentido, en el casting debió de haber tenido más protagonismo una especialista en la materia como Cathy Oneil, con espacio para poder aprender mucho más de ella.

Por otro lado, si bien la IA ha generado potenciales problemas también hay muchos escenarios de impacto positivo. Un buen uso de IA y desarrollos con conciencia social auditados por un consejo especializado para reducir sesgos en los modelos pudiera dar brillantes resultados. Creo que esa parte de la historia faltó contarse en este documental que termina siendo algo dramático.

Documentales como estos tienen la oportunidad de hacer resonar propuestas de intervención escalables y transparentes para resolver las problemáticas que presentan. Faltó profundizar en más propuestas en este documental. Sin embargo podemos alegar que la directora Shalini Kantayya nos dejó esa tarea. Ahora tocará a la sociedad investigar más recursos para poder cuestionarnos la aplicación del IA.

Y ¿Cuáles son tus opiniones? Compártenos en @DatlasMX qué fue lo que te gustó y no te gustó del documental ¿Cuál fue tu mayor aprendizaje?

– Equipo Datlas –

Keep it weird