Ilustración: Leo Camus

 

Cómo los perfiles automatizados intoxican la presidencial

En bots, Kast supera ampliamente a Boric

TEMAS: , , , , , , ,

Un análisis computacional a las cuentas bots que siguen a cada candidato en Twitter muestra que la proporción de bots de izquierda que siguen a Kast es mucho menor (4%) que los bots de derecha que siguen a Boric (30%). Estos datos son consistentes con el tipo de campaña planteada desde cada comando, “con tendencia a polarizar la conversación, más que promover la deliberación”, concluyen los autores.


En una elección tan ajustada como la actual presidencial entre José Antonio Kast y Gabriel Boric, pequeños detalles pueden hacer una diferencia significativa. La tentación de emplear técnicas de comunicación política inauténticas, como circular rumores y desinformar al público, hackear grupos de apoyo de un candidato, y montar funas virtuales en contra de figuras políticas, es grande. De hecho, la investigación internacional y nacional muestra que los bots son crecientemente usados en campañas políticas. Sin embargo, hasta ahora hay poca información sistemática sobre estas conductas por parte de ambas candidaturas. En esta columna presentamos un análisis de la actividad de bots de ambas campañas en Twitter. Identificamos el número de bots que siguen a cada candidato, su orientación política y carga emocional. La evidencia recolectada nos permite identificar cuán intoxicada está la campaña en Twitter y dónde se produce la principal fuente de contaminación.


“El estudio revela que el uso de lenguaje negativo en el caso de los bots de derecha se correlaciona con el tipo de campaña desplegada por el comando de Kast”


LOS BOTS QUE SIGUEN A LOS PRESIDENCIABLES

Partimos por analizar todas las cuentas de Twitter que siguen a @gabrielboric y @joseantoniokast. Mediante la interfaz de Twitter API Académica, entre el 11 y 14 de noviembre recolectamos todas las cuentas con alguna actividad en el periodo (es decir, con al menos 1 tweet en la semana previa a la recolección de datos) que seguían a alguno de los candidatos. En el caso de Boric, registramos 591.402 cuentas y en el de Kast, 469.107 cuentas. Luego, entre el 24 de noviembre y el 9 de diciembre empleamos la herramienta Botcheckcl –desarrollada en Chile– para detectar cuántas de esas cuentas pueden considerarse bots[1]. Es importante recordar aquí que los bots son usualmente identificados como productores automatizados de contenidos diseñados para imitar y alterar el comportamiento humano (Ferrara et al., 2016). En términos concretos, lo que aquí llamamos bots son cuentas creadas en Twitter que probablemente no son gestionadas por personas, sino programadas para realizar ciertas acciones como responder o retuitear ciertas cuentas, temas, hashtags, etc. La Figura 1 muestra el volumen de bots por total de seguidores para cada candidato.


Figura 1

Volumen de bots que siguen a cada candidato

Fuente: elaboración de los autores

La Figura 1 muestra que aproximadamente el 5% de las cuentas que siguen a cada candidato son bots. Es un volumen relevante considerado que en otros estudios hemos visto que cantidades tan despreciables como menos del 1% de bots pueden llegar a producir el 5% (Fuentes et al., 2021) o hasta el 10% de los mensajes . El análisis también revela un altísimo volumen de cuentas suspendidas, lo que podría estar relacionado con la detección de actividad inauténtica por parte de Twitter (como los bots) o la infracción a los términos de uso de la plataforma por discursos de odio, hostigamiento u otros, detectados por la plataforma, informados por los usuarios o por instituciones como el IMFD, que monitorean este tipo de actividades. También, el usuario puede haber decidido cerrar su cuenta en el tiempo que transcurrió entre la recolección y el análisis de los datos. Por todo lo anterior, es probable que nuestra estimación de 5% de bots sea conservadora.


“Predominan los bots con orientación ideológica de derecha, que llegan a 62% del total, mientras los con orientación de izquierda representan un 38%”


LA POSTURA IDEOLÓGICA DE LOS BOTS

Que un bot siga a un candidato no significa que esté controlado o sea beneficioso a dicho candidato. Sabemos que hay bots que apoyan o amplifican el mensaje del candidato (bots amplificadores), pero también hay otros que se dedican a atacar automáticamente la cuenta del adversario (bots polarizadores). Por lo mismo, es fundamental analizar el contenido que transmiten los bots, por ejemplo, en términos de orientación política y carga emocional. Al estimar la posición política de los bots, podemos determinar cuán alineados están con la orientación ideológica de cada candidato. Al determinar si los mensajes de los bots tienen una carga emocional positiva o negativa, podemos inferir su intencionalidad.

Para inferir la orientación política de cada cuenta bot, empleamos el algoritmo Text-based Ideal Points (TBIP, ver recuadro 2), que analiza los mensajes de las cuentas y le asigna un puntaje en el eje izquierda-derecha. La Figura 2 muestra la distribución de bots por candidato, según el eje continuo izquierda-derecha.


Figura 2

Volumen de bots por candidato, distribuido en el eje continuo izquierda – derecha

Fuente: elaboración de los autores

Este ejercicio revela varias asimetrías entre los bots que siguen a Boric y Kast. Predominan los bots con orientación ideológica de derecha, que llegan a 62% del total, mientras que los con orientación de izquierda representan un 38%. Además, los bots que siguen a Boric son en su mayoría de centro o centroizquierda (cercanos al 0 en el eje horizontal); solo 2% están identificados como de extrema izquierda (ver Figura 2). En cambio, los bots que siguen a Kast son pronunciadamente de derecha (cercanos al 1 en el eje horizontal), y el 8% son de extrema derecha. Aún cuando no todos los bots están ideológicamente alineados con cada candidato, podemos afirmar que el 30% de los bots que siguen a Boric son opuestos ideológicamente a él, mientras que solo el 4% de los que siguen a Kast lo son. Es decir, hay 7,5 veces más bots que podrían atacar a Boric que a Kast.


Tabla 1

¿Cómo luce un bot?

Ideología estimadaEmociónDescripción de la cuenta
según biografía de Twitter
Tuits recientesSigue a:
Extrema derechaMuy negativaSólo zurdos votan por los mismos que los *** una y otra vezTuits fijados:  
A ver si entienden
El comunismo es estatista
El socialismo es estatista
El Nacional SOCIALISMO era estatista
El fascismo era estatista
La izquierda es estatista…
Kast
Extrema derechaMuy NegativaPatriota de corazón<, hasta los huesos antirojo de nacimiento. Por la Patria y la LibertadTuis con referencia:
Chile patriota on TikTok La madre de todas las batallas URL a tiktok
Kast
Centro-izquierdaMuy PositivaSoy un bot. Publico memes  y lxs mantengo informadxs sobre la campaña de @GabrielBoric
Ustedes me siguen y yo lxs sigo de vuelta
Tuit fijado:
No da lo mismo!  #BoricPresidente
Boric
Centro-izquierdaPoco positivaVamos por el cambio!Retuit:   PIENSAPRENSA San Pedro de La Paz: Electores denuncian Gran desorden para realizar votación…Boric
Fuente: elaboración de los autores

LA CARGA EMOCIONAL DE LOS BOTS

Otra forma de analizar los contenidos de los bots es inferir su intencionalidad determinando la carga emocional de las palabras que emplean. Para ello, calculamos la valencia lingüística del timeline de cada cuenta bot. Es decir, estimamos un nivel de lenguaje emocional según una escala de desagrado-agrado (ver recuadro 3). Esto nos permite inferir si los mensajes de una cuenta bot que sigue a un candidato tienen una carga emocional positiva o negativa. Las Figuras 3a y 3b muestran la distribución de la media de puntaje de valencia lingüística de las cuentas bot, desagregadas entre cuentas de derecha e izquierda.


FIGURA 3 (A)

Distribución de valencia lingüística entre los bots de ambos candidatos. a) Distribución de valencia sobre el total de cuentas bots que siguen a Gabriel Boric, y b) Distribución de valencia sobre total de cuentas bots que siguen a José Antonio Kast.


FIGURA 3 (B)


La figura 3a muestra, en primer lugar, que los bots de derecha que siguen a Boric tienen un lenguaje significativamente más negativo que los de izquierda, como podría esperarse. Lo llamativo está en la figura 3b: esta muestra que los bots que siguen a Kast también reflejan mayor negatividad en su lenguaje, aún cuando apoyan a Kast. Es decir, en ambos candidatos, los bots de derecha muestran un desplazamiento hacia el lenguaje con carga emocional negativa. Curiosamente, los bots de izquierda que siguen a Kast tienen una valencia más positiva que los de Kast, lo que sugiere que los bots de izquierda hacen uso de un lenguaje más optimista. Estos resultados, creemos, son consistentes con los diferentes tipos de campaña empleadas por cada comando. Mientras que la campaña de Kast hace un uso más frecuente de ataques, llegando incluso a ser calificada como “sucia”, la de Boric suele enfatizar más sus propuestas programáticas.

CONCLUSIONES

Es importante destacar que, si bien este análisis ilustra los patrones de comportamiento de los bots, tanto en la perspectiva ideológica como en la emocional, no es concluyente acerca de quiénes crean y administran los bots. Sí se puede inferir que los bots identificados ideológicamente con la derecha evocan emociones significativamente más negativas con su vocabulario comparados con los bots identificados con la izquierda.

Si bien algunos de los bots se presentan como tales (por ejemplo, en su biografía indican: “Soy un bot”; ver Tabla 1), otros se caracterizan por tener un comportamiento inauténtico. Esto es, ocultan ser un bot, engañan a los usuarios respecto de quiénes son y cuál es su propósito, y tienen por función contaminar las redes sociales con ataques, desinformación u otro tipo de contenido malicioso. Cuando este comportamiento inauténtico es coordinado a través de redes de cuentas automatizadas (bots) o semi-automatizadas (cyborgs [2]), se pueden amplificar mensajes de candidatos políticos (Boichak et al., 2021; Giglietto et al., 2020), movilizar simpatizantes de una causa (Gruzd & Mai, 2020) o bien crear tendencias falsas en Twitter (Elmas et al., 2021). Por ejemplo, King et al. (2017) estiman que el gobierno chino crea casi 500 millones de mensajes favorables al gobierno al año, emitidos por cyborgs en acción coordinada en las plataformas sociales.

Nuestro análisis presenta indicios que refuerzan la hipótesis de comportamiento inauténtico coordinado por parte de la campaña de Kast, con bots que lo siguen y que presentan tintes ideológicos y emocionales afines a su candidatura. En otras palabras, el estudio revela que el uso de lenguaje negativo en el caso de los bots de derecha se correlaciona con el tipo de campaña desplegada por el comando de Kast. La proporción de bots de izquierda que siguen a Kast es mucho menor (4%) que los bots de derecha que siguen a Boric (30%). Estos datos son consistentes con el tipo de campaña planteada desde cada comando, con tendencia a polarizar la conversación, más que promover la deliberación.


Recuadro 1

Botcheckcl

Analizar bots en español es una tarea desafiante. Herramientas de amplia difusión, tales como Botometer (Davis et al. 2016), usan algoritmos de aprendizaje automático basados en datos recolectados principalmente en Estados Unidos. En consecuencia, los modismos y características de estilo propias del lenguaje hacen que estas herramientas tengan un sesgo hacia el inglés. Para este estudio, recopilamos cuentas de Twitter en español, anotadas por expertos de la PAN at CLEF 2019 (Daelemans et al., 2019) y del benchmark TwiBot-20 (Feng et al., 2021). Sobre la base de estos datos, creamos nuestro propio detector de bots, Botcheckcl. Botcheckcl usa técnicas de inteligencia artificial para detectar patrones en los perfiles, contenidos y timelines de cuentas de Twitter. Con una precisión del 95% en datos del benchmark, Botcheckcl entrega un puntaje de confianza de la predicción, que varía entre 0 y 1. Confianzas cercanas a 1 indican con alta probabilidad la detección de una cuenta bot. Calibramos el método, para alcanzar una confianza acumulada superior al 95%. Botcheckcl supera por amplio margen en la detección de bots en español a otras técnicas consideradas estado del arte, como el Botometer.


Recuadro 2

Text-based Ideal Points (TBIP)

Inferir la posición política de un usuario en Twitter requiere del uso de algoritmos de inteligencia artificial que analicen las posiciones de los usuarios en torno a temáticas contingentes. En este estudio usamos Text-based Ideal Points (TBIP) (Vafa et al., 2020), un algoritmo no supervisado basado en modelos de temas probabilísticos que analiza textos para cuantificar la posición política de los usuarios de una red social. Una de las ventajas de TBIP es que puede estimar la posición política de cualquier usuario que escriba textos relacionados con política contingente. Además, dado que es un algoritmo no supervisado, es agnóstico al lenguaje, por lo que puede aplicarse a cuentas en español.


Recuadro 3

Valencia afectiva

La necesidad de poder comparar la carga emocional del texto usando recursos estandarizados llevó al desarrollo del diccionario ANEW, Affective Norms for English Words (Bradley & Lang, 1999), un conjunto de puntajes normativos de emociones para más de mil palabras en inglés. ANEW indica dimensiones psicolingüísticas de carga emocional a partir del marco conceptual establecido por Osgood et al. (1957), quienes establecieron que la variedad verbal del lenguaje se puede representar en tres grandes dimensiones. Las dos primeras son la valencia afectiva en el eje agrado – desagrado; y estímulo, en el eje pasivo -activo. La tercera dimensión, dominio, menos relacionada con las dos primeras, establece el nivel de control o autorregulación del individuo. Los marcadores verbales normados establecen la carga en cada una de estas dimensiones. Para este estudio, la dimensión más relevante es la carga afectiva de valencia, ya que da cuenta de la carga emocional del autor/a del texto analizado en el eje de agrado – desagrado. La versión en español de ANEW fue desarrollada por Redondo et al. (2007).


NOTAS Y REFERENCIAS

[1] Mediante técnicas de inteligencia artificial, Botcheckcl detecta patrones de automatización en perfiles, contenidos y timelines de cuentas de Twitter. Para mayor profundidad sobre la metodología, ver recuadro 1

[2] Personas remuneradas que actúan detrás de cuentas falsas con ciertas instrucciones claras o comportamientos similares a bots.


Referencias

Boichak, O., Hemsley, J., Jackson, S., Tromble, R., & Tanupabrungsun, S. (2021). Not the bots you are looking for: patterns and effects of orchestrated interventions in the US and German elections. International Journal of Communication, 15, 26. https://ijoc.org/index.php/ijoc/article/view/14866

Bradley, M. & Lang, P. (1999). Affective norms of English words (ANEW). Technical report C-1, The Center for Research in Psychophysiology, USA.

Cooperativa. (2021, 10 de diciembre). Analista: Kast cruzó la línea, es derechamente campaña sucia.

Davis, C. A., Varol, O., Ferrara, E., Flammini, A., & Menczer, F. (2016). BotOrNot: A system to evaluate social bots. In Proceedings of the 25th International Conference Companion on the World Wide Web (WWW’ 16) (pp. 273–274).

Daelemans, W., Kestemont, M., Manjavacas, E., Potthast, M., Pardo, F. M. R., Rosso, P., Specht, G., Stamatatos, E., Stein, B., Tschuggnall, M., Wiegmann, M., & Zangerle, E. (2019). Overview of PAN 2019: Bots and gender profiling, celebrity profiling, cross-domain authorship attribution and style change detection. In Experimental IR Meets Multilinguality, Multimodality, and Interaction – 10th International Conference of the CLEF Association, CLEF 2019, Lugano, Switzerland, September 9-12, 2019, Proceedings(pp. 402–416).

Elmas, T., Overdorf, R., Özkalay, A. F., & Aberer, K. (2021, September). Ephemeral astroturfing attacks: The case of fake Twitter trends. In 2021 IEEE European Symposium on Security and Privacy (EuroS&P) (pp. 403-422). IEEE.

Feng, S., Wan, H., Wang, N., Li, J., & Luo, M. (2021). Twibot-20: A comprehensive twitter bot detection benchmark. In CIKM’21: The 30th ACM International Conference on Information and Knowledge Management, Virtual Event, Queensland, Australia, November 1 – 5, 2021 (pp. 4485–4494). ACM.

Fuentes, M., Hernández, A, Thomas, R., Derpich, C. (2021, 1 de Octubre). Bots en Twitter y la Convención: serían menos del 1% y se “movilizan” mayormente cuando hay polémicas entre constituyentes. El Mercurio, Crónica Constitucional, 8.

Giglietto, F., Righetti, N., Rossi, L., & Marino, G. (2020). It takes a village to manipulate the media: coordinated link sharing behavior during 2018 and 2019 Italian elections. Information, Communication & Society, 23(6), 867-891. https://doi.org/10.1080/1369118X.2020.1739732

Gruzd, A., & Mai, P. (2020). Going viral: How a single tweet spawned a COVID-19 conspiracy theory on Twitter. Big Data & Society. https://doi.org/10.1177/2053951720938405

Lawrence, T. & Durán, P. (2021, 10 de diciembre). Los cien tweets de Boric y Kast tras la primera vuelta. CIPER.

Osgood, C., Suci, G. & Tannenbaum, P. (1957). The measurement of meaning. Technical report No. 47. University of Illinois.

Redondo, J., Fraga, I., Padron, I., & Comesaña, M. (2007). The Spanish adaptation of ANEW (Affective Norms in English Words). Behavior Research Methods, 39(3):600-605. https://doi.org/10.3758/BF03193031

Vafa, K., Naidu, S., & Blei, D. M. (2020). Text-based ideal points. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020 (pp. 5345–5357). ACL.

Deja un comentario