Los algoritmos de las redes sociales operan con el concepto de “sabiduría de las multitudes” según el cual ocupar como guía las acciones y opiniones de otras personas, nos lleva a tomar decisiones acertadas. Los bots generan “falsas multitudes” y hacen creer que son “populares” contenidos marginales o noticias falsas. Santos, Mondelli y Valdebenito, en otra columna en Tercera Dosis, muestran que en la presidencial chilena, los bots más activos multiplican mensajes favorables a Kast y críticos de Boric y Sichel. ¿Cuál es el problema con esto? Que mientras más veces la gente está expuesta a una idea, “más probabilidades hay de que la adopten y la compartan”, sugiere este artículo.
Artículo publicado originalmente en The Conversation US. Traducción de Emilia Guzmán
El 5 de octubre de 2021 la ex gerente de Facebook, Frances Haugen, testificó ante el Senado de Estados Unidos que las plataformas de esa empresa “dañan a los niños, avivan la división y debilitan nuestra democracia”.
Haugen fue la fuente principal en la investigación Los archivos de Facebook, publicada por The Wall Street Journal. Calificó de “peligrosos” a los algoritmos de esa compañía y pidió al Congreso que la regulara. Sostuvo que sus ejecutivos estaban al tanto de la amenaza, pero que anteponían las ganancias al bienestar de las personas.
Las plataformas de las redes sociales dependen mucho del comportamiento de las personas para decidir qué contenido nos van a mostrar. Preferentemente buscan contenidos con el que las personas “interactúan” al darle “me gusta”, al comentar o compartir. Las granjas de trolls, organizaciones que difunden contenido polémico, explotan esa característica: copian y publican, como si fuera propio, el contenido que ha tenido alta interacción, lo cual les ayuda a ampliar sus propias audiencias.
Como científico informático que estudia la forma en que grandes grupos de personas interactúan a través de la tecnología, entiendo la lógica de usar el concepto de “sabiduría de las multitudes” con el que operan estos algoritmos. Al mismo tiempo, veo dificultades sustanciales en la forma en que las empresas de redes sociales ponen este concepto en práctica.
los leones en la SaBanA y los “me gusta”
El concepto de “la sabiduría de las multitudes” supone que ocupar como guía las acciones, opiniones y preferencias de otras personas, conduce a tomar decisiones acertadas. Las predicciones colectivas, por ejemplo, son normalmente más precisas que las individuales y por ello la inteligencia colectiva se utiliza para predecir el comportamiento de mercados financieros, deportes, elecciones e incluso brotes de enfermedades.
“Cuando las redes sociales les dicen a las personas que un artículo se está volviendo viral, sus sesgos cognitivos se activan y se traducen en una necesidad irresistible de prestarle atención y compartirlo”
A lo largo de millones de años de evolución, “la sabiduría de las multitudes” se ha codificado en el cerebro humano en forma de sesgos cognitivos que hemos bautizado como familiaridad, mera exposición y efecto de vagón. Si todo el mundo empieza a correr, tú también deberías empezar a correr; tal vez alguien vio un león y correr te salvaría la vida. Puede que no sepas por qué, pero es más prudente hacer preguntas más tarde.
El cerebro capta pistas en el entorno y usa reglas simples para transformar rápidamente esas señales en decisiones: “ve con el ganador”, “sigue a la mayoría”, “copia a tu vecino”. Estas reglas funcionan muy bien en situaciones típicas porque se basan en suposiciones sólidas. Por ejemplo, asumen que la gente suele actuar de forma racional, que el pasado predice el futuro, que es poco probable que muchos se equivoquen, etc.
La tecnología permite que las personas tengan acceso a las señales de un número mucho mayor de personas, la mayoría de las cuales no se conocen entre sí.
Las aplicaciones de inteligencia artificial hacen un uso intensivo de estas señales de popularidad o “participación” para seleccionar los resultados de las búsquedas que haces, o para recomendarte música y videos, sugerirte amigos y ofrecer una clasificación de publicaciones en fuentes de noticias.
No todo lo que es viral merece serlo
Nuestra investigación muestra que prácticamente todas las plataformas de tecnología web, así como las redes sociales y los sistemas de recomendación de noticias, tienen un fuerte sesgo de popularidad. Cuando las aplicaciones están impulsadas por señales como la interacción en lugar de consultas explícitas al motor de búsqueda, el sesgo de popularidad puede generar consecuencias nocivas.
“La sabiduría de las multitudes fracasa porque se basa en la falsa suposición de que la multitud está formada por fuentes diversas e independientes. Eso no es así”
Redes sociales como Facebook, Instagram, Twitter, YouTube y TikTok dependen, en gran medida, de los algoritmos de inteligencia artificial para clasificar y recomendar contenido. Estos algoritmos toman como entrada lo que te gusta, comentas y compartes; en otras palabras, el contenido con el que interactúas. El objetivo de los algoritmos es maximizar las interacciones descubriendo lo que le gusta a la gente y colocándolo al inicio cuando esta entra a su perfil.
A primera vista, esto parece razonable. Si a la gente le gustan las noticias creíbles, las opiniones de expertos y los videos divertidos, estos algoritmos deberían identificar ese contenido de alta calidad. Pero la “sabiduría de las multitudes” lleva a suponer que recomendar lo que es popular ayudará que el contenido de alta calidad “burbujee”.
Probamos esta suposición mediante el estudio de un algoritmo que usa una combinación de calidad y popularidad para clasificar elementos de información. Descubrimos que, en general, es más probable que el sesgo de popularidad reduzca la calidad general del contenido. La razón es que cuando pocas personas han estado expuestas a un artículo, la interacción no es un indicador confiable de calidad. En estos casos, la interacción genera una señal ruidosa y es probable que el algoritmo amplifique este ruido inicial. Cuando la popularidad de un artículo de baja calidad es suficientemente grande, esta seguirá ampliándose.
Los algoritmos no son lo único que se ve afectado por el sesgo de participación. También puede afectar a las personas. La evidencia muestra que la información se transmite a través de un “contagio complejo”, lo que significa que cuantas más veces la gente está expuesta a una idea, más probabilidades hay de que la adopten y la compartan. Cuando las redes sociales les dicen a las personas que un artículo se está volviendo viral, sus sesgos cognitivos se activan y se traducen en una necesidad irresistible de prestarle atención y compartirlo.
Multitudes no tan sabias
Recientemente realizamos un experimento con una aplicación de alfabetización informativa llamada Fakey. Es un juego desarrollado por nuestro laboratorio que simula una fuente de noticias como las de Facebook y Twitter. Los jugadores ven una combinación de artículos actuales de noticias falsas, ciencia basura, fuentes hiper partidistas y conspirativas, así como fuentes convencionales. Obtienen puntos por compartir o dar me gusta a noticias de fuentes confiables y por marcar artículos de baja credibilidad para que sean verificados.
“Un famoso experimento demostró que saber qué música les gusta a tus amigos afecta tus propias preferencias. Tu deseo social de pertenecer distorsiona tu juicio independiente”
Descubrimos que es más probable que los jugadores den un me gusta o compartan a que señalen artículos de fuentes de baja credibilidad cuando ven que muchos otros usuarios han interactuado con esos artículos. La exposición a las métricas de participación por lo tanto crea una vulnerabilidad.
La sabiduría de las multitudes fracasa porque se basa en la falsa suposición de que la multitud está formada por fuentes diversas e independientes. Existen varias razones por las cuales eso no es así.
Primero, debido a la tendencia de las personas a asociarse con personas similares, los vecindarios en línea no son muy diversos. La facilidad con la que los usuarios de las redes sociales pueden dejar de ser amigos de aquellos con quienes no están de acuerdo empuja a las personas hacia comunidades homogéneas, a las que a menudo se hace referencia como cámaras de eco.
En segundo lugar, los amigos de muchas personas son amigos entre sí y se influyen mutuamente. Un famoso experimento demostró que saber qué música les gusta a tus amigos afecta tus propias preferencias. Tu deseo social de pertenecer distorsiona tu juicio independiente.
En tercer lugar, las señales de popularidad pueden ser aprovechadas. A lo largo de los años, los motores de búsqueda han desarrollado técnicas sofisticadas para contrarrestar las llamadas “granjas de enlaces” y otros esquemas para manipular los algoritmos de búsqueda. Las plataformas de redes sociales, por otro lado, apenas están comenzando a conocer sus propias vulnerabilidades.
Las personas que buscan manipular el mercado de la información han creado cuentas falsas, como trolls y bots, y han organizado redes falsas. Han inundado las redes para crear la apariencia de que una teoría conspirativa o un candidato político es popular, engañando tanto a los algoritmos de la plataforma como a los sesgos cognitivos de las personas. Incluso han alterado la estructura de las redes sociales para crear ilusiones sobre las opiniones mayoritarias.
Reduciendo el compromiso
¿Qué hacer? Las plataformas tecnológicas están actualmente a la defensiva. Se vuelven más agresivas durante las elecciones para eliminar cuentas falsas y desinformación dañina. Pero estos esfuerzos pueden ser similares a al juego de “golpea al topo”.
Un enfoque preventivo diferente sería agregar fricción, es decir, desacelerar el proceso de difusión de información. Los comportamientos de alta frecuencia, como los “me gusta” y las interacciones automatizadas, podrían verse inhibidos por tarifas, o pruebas CAPTCHA, que requieren que un humano responda. Esto no solo reduciría las oportunidades de manipulación, sino que con menos información las personas podrían prestar más atención a lo que ven. Dejaría menos espacio para que el sesgo de participación afecte las decisiones de las personas.
También ayudaría que las empresas de redes sociales ajustaran sus algoritmos para depender menos de las señales de interacción y más de las señales de calidad para determinar el contenido que ofrecen. Quizás las revelaciones de la denunciante proporcionen el ímpetu necesario.

Pingback: Bots x Kast – Tercera Dosis