#MetaDatos | En 2012 irrumpió en el debate tuitero la polémica por los llamados #PeñaBots, pero con el paso de los años los expertos en el tema han descubierto que definir a una cuenta como bot es una tarea compleja. En contraste, la interpretación de lo que es un bot se ha vuelto ambigua, imprecisa y generalizada entre usuarios de la Red, que clasifican a los bots junto a actividades como el astroturfing y los spammers políticos en la misma categoría.

A esto se suma que las herramientas que afirman estar diseñadas para encontrar atributos de bots en usuarios –y que aún se encuentran en fase de desarrollo– han alimentado la idea de que cualquier usuario con actividad sospechosa en la Red es un bot. De acuerdo con Erin Gallaguer, analista de redes sociales, la definición se ha generalizado y no existe en la actualidad una metodología para hallar bots, en tanto que su identificación tampoco resulta una tarea tan simple.

Ciudad de México, 22 de febrero (SinEmbargo).– El término bot se ha convertido en una frase de cajón para describir cualquier actividad que en las redes sociales que resulta sospechosa, concluye  Erin Gallagher, especialista en en análisis de redes en un reporte titulado Bot or not?”, publicado esta semana en Medium.

Luego del episodio de los #PeñaBots, las discusiones en México sobre este tema tienden a generalizar a los bots, al astroturfing y otras prácticas en un mismo sentido. La ambigüedad que hoy padece este término contrasta con los escasos estudios sobre el impacto psicológico que tiene en los usuarios el empleo de estrategias publicitarias y de propaganda a partir de bots.

Atroturfing es una técnica nativa de los espacios sociodigitales que inició en el campo publicitario con el objetivo de difundir opiniones falsas y hacer creer a las audiencias que se trataba de personas reales quienes las emitían. En tanto que los spammers políticos son cuentas que tienden a apoyar a un actor político a través de numerosos tuits y retuits.

PEÑABOTS MARCARON LA AGENDA

Erin Gallagher denunció en 2012 la campaña impulsada en Twitter para apoyar de manera artificial al ex Presidente Enrique Peña Nieto, entonces candidato por el Partido Revolucionario Institucional (PRI), estrategia que en aquel entonces recibió en nombre coloquial de “Peñabots”.

En los últimos años, Gallagher también ha analizado campañas con bots creadas en diversos países, entre ellos Honduras, Perú, Turquía y Egipto, y dio seguimiento al caso de México durante el sexenio pasado.

En 2015, sacó a la luz la manera en que el Gobierno de Peña Nieto empleaba la misma estrategia que en la campaña del 2012 –a través de cuentas automatizadas o bots– para contrarrestar las críticas y el disenso por su Gobierno en el Estado Mexicano. Ya en Los Pinos uso esa estrategia para contrarrestar la crisis derivada por el caso Ayotzinapa.

El 1 de diciembre de 2014, fecha en que Peña Nieto rindió su Segundo Informe de Gobierno, Erin Gallagher detectó una operación para contrarrestar la etiqueta #RompeElMiedo, empleada por activistas y periodistas para exhibir el excesivo uso de fuerza empleado por el Gobierno mexicano para repeler las protestas contra el Presidente, y que tuvieron lugar en la Ciudad de México. La investigadora encontró que este hashtag fue repelido desde la Red al contaminarlo con spam. Gallagher reportó en este caso una operación compuesta por al menos 75 mil bots que fueron empleados para combatir las protestas en contra de Peña Nieto.

Sin embargo, el contexto ha cambiado entre el 2014 y el 2020. Ante la pregunta ¿qué es un bot? Gallagher señala que identificar a este tipo de cuentas en la Red no es una tarea simple, y destaca que no existe un método definitorio para encontrarlos.

“La palabra “bot” se ha convertido en una palabra clave para describir cualquier cosa en las redes sociales que la gente perciba como sospechosa o artificial, pero el uso excesivo del término la ha dejado sin sentido y los métodos actuales para la “identificación de bot” son … inexistentes”, expone la especialista.

DE BOTS A SPAMMERS POLÍTICOS

De acuerdo con Gallagher, en los últimos cuatro años han surgido diversas herramientas para la detección de bots, mismas que presentan problemas metodológicos pero que se han puesto a disposición de cualquier usuario. Su uso ha impactado en el actual discurso sobre los bots.

En el entorno académico, el estudio de bot ha incluido metodologías como el análisis de la actividad de las cuentas, que han sido integradas a los estudios de laboratorios como el Instituto de Internet de Oxford que en el año 2016 estimaba que una cuenta podría ser bot cuando presentaba un promedio de 50 o más tuits por día. Pero de acuerdo con Gallagher incluso esta institución ha corregido este método.

La especialista señaló que ante las dificultades para establecer los atributos de los bots ha optado por considerar en sus investigaciones la detección de estas cuentas solo cuando encuentra que utilizan scripts o aplicaciones personalizadas para tuitear. En tanto que cuando una cuenta posiciona una tendencia en la plataforma a través de un alto volumen de tuits, guarda sus reservas al determinar si se trata de un bot o simplemente de un usuario que tuitea de manera insistente sobre un tema.

“Personalmente, hice un esfuerzo para dejar de usar el término ‘bot’ en mi investigación, a menos que pueda probar que una cuenta está usando un script o una aplicación personalizada para tuitear. Si una cuenta de Twitter está tuiteando mucho, generalmente los llamo ‘usuario de gran volumen’ o, a veces, ‘spammer político’, pero trato de agregar advertencias claras de que gran volumen no equivale a automatización / bot”, expone la investigadora.

Activistas, profesionistas o simplemente usuarios de carne y hueso, como una señora de 72 años que pasaba más de 14 horas diarias en Twitter, pueden llegar a generar un alto volumen de tuits y resultar sospechosos de ser bots.

Por su actividad, estas cuentas pueden llegar a marcar varias de las casillas del Digital Forensic Research Lab (DFRLab’s), un laboratorio estadounidense centrado en el estudio del a desinformación, o de otros laboratorios que identifican actividad inorgánica en la Red, pero que al final de cuentas resultan ser cuentas orgánicas, administradas por personas reales.

Mientras los especialistas comienzan a estudiar a los bots cada vez con mayores reservas, en el debate cotidiano que se genera entre usuarios de Twitter, cualquier actividad que resulta sospechosa, como la actividad intensa de un usuario es a menudo denunciada como bot, lo que contribuye a confundir el término cada vez más.

“Un investigador mexicano una vez me dijo que un activista allí puede tener un promedio de 50 a 70 tweets por día si participan en una protesta digital o tuitean sobre algún evento de noticias de última hora. He encontrado estos ejemplos y muchos más de usuarios de alto volumen que no deberían etiquetarse como actividad automatizada, pero de acuerdo con las pautas actuales serían etiquetados como bots”, advierte Gallagher.

Otros atributos que han sido relacionados con los bots son las cuentas alfanuméricas y el empleo de perfiles anónimos, pero tampoco estas características son concluyentes, y según la especialista se trata de estándares que urge actualizar.

En tanto resulta cada vez más complejo identificar a los bots, las campañas para impulsar actores políticos ya sea a través de estrategias que los incluyen o de astroturfing o simplemente de propaganda política en la Red se han multiplicado en todo el mundo. En entrevista con el diario.Es José Mujica, ex Presidente de Uruguay, expuso que en América Latina se está generando un cambio en la manera de hacer política, de los golpes de Estado que han caracterizado a la región -Peru y Venezuela 2000, Bolivia 2008- hay un giro que dibuja una tendencia al empleo de las campañas publicitarias.  “Hay una tendencia de las fuerzas conservadoras a sustituir los viejos golpes de Estado por campañas publicitarias”, señaló el ex Primer Mandatario.

ADICCIÓN DE LA RED, UN TEMA POCO ESTUDIADO

El objetivo de las campañas que han sido identificadas en el pasado que emplearon estrategias automatizadas como los #PeñaBots tienen una característica que podría ser la clave para analizar estas dinámicas, y que va más allá de identificar cuentas falsas en la plataforma.

De acuerdo con la especialista, el problema iniciaría desde la arquitectura de la red y la manera en qué las plataformas como Twitter fueron diseñadas para captar la atención de los usuarios.

“Las campañas de desinformación son malas, pero la razón por la que son efectivas es porque los actores negativos saben qué tipo de usuarios están pegadas a sus pantallas, y eso es por diseño. Las redes sociales están diseñados para mantenernos haciendo clic y desplazándonos y nunca dejar las máquinas tragamonedas en nuestros bolsillos”, aseguró la experta.

Gallagher precisó a SinEmbargo que este aspecto de la comunicación en las redes sociales, y el impacto que tiene en las audiencias ha sido poco estudiado y es central para entender el éxito de los bots.

“¿Cómo afecta el diseño adictivo de las plataformas de redes sociales a los activistas políticos? ¿Los obliga a ser más activos? ¿Crea usuarios de poder político? ¿Cuál es la actividad normal para un activista político / usuario poderoso en lugar de un periodista, un K-Pop stan o tu tío Bob, el fanático del súper Trump? No estoy seguro de si eso incluso se ha estudiado, ciertamente no tanto como hemos estudiado la amenaza amenazante”, cuestionó Erin Gallagher en su análisis.