Ciudad de México, 20 de abril (SinEmbargo).– Tiffany Hsu inicia su texto en The New York Times con relatos de la vida digital. Cuenta de un vídeo de TikTok, donde una rubia se graba a sí misma con un grupo de mujeres en un hipódromo. “Si apoyas a Trump, acabas de hacer una amiga”, dice.
“En otro video, aparece una mujer morena, esta vez con un grupo en un estadio. ‘Si apoyas a Trump, acabas de hacer un amigo’, dice. En una tercera publicación, una pelirroja aparece con un grupo en una cancha de baloncesto. ‘Si apoyas a Trump, acabas de hacer un amigo’, dice. Cada video presenta un pie de foto idéntico y gramaticalmente incorrecto [en inglés]: ‘¡Soy nuevo aquí y amo a Dios, a Estados Unidos y a Trump!’”.
Todo ello es obra de la inteligencia artificial (IA), agrega. En los meses previos a las elecciones de mitad de mandato, que son en noviembre, surgieron cientos de cuentas en redes sociales protagonizadas por influencers pro-Trump generados por IA que publicaban a un ritmo vertiginoso sobre la “izquierda radical” y “Estados Unidos Primero”.
La periodista de The New York Times dice que aparentan ser hombres y mujeres comunes y corrientes, aunque muy atractivas, que miran coquetamente a la cámara mientras pontifican sobre la guerra en Irán, el aborto o Bad Bunny. Y el Presidente Trump ha compartido contenido de al menos una de las cuentas: un avatar rubio platino que hace afirmaciones infundadas sobre el Gobernador de California.
@zsaerdx Hopefully y'all agree with me #fusaus #trumptrain#magacountry #MAGA #trumpsuporter
The New York Times dice que empezó a rastrear desde enero estas publicaciones de TikTok, generadas por IA, que impulsaban el movimiento MAGA. Descubrió al menos 304 cuentas que compartían dicho contenido, algunas de las cuales han desaparecido desde entonces.
“Investigadores del Laboratorio de Gobernanza e IA Responsable de la Universidad de Purdue, conocido como GRAIL, encontraron otra docena de cuentas en TikTok, Instagram y Facebook. Eric Nelson, analista de investigaciones especiales de Alethea, una empresa de mitigación de amenazas digitales, identificó otras nueve cuentas en YouTube. Varias cuentas ya han acumulado más de 35 mil seguidores. Algunas publicaciones superan el medio millón de visualizaciones. Las cuentas analizadas por The Times no fueron identificadas como generadas por inteligencia artificial”, dice el texto publicado hoy.
“No está claro quién creó las cuentas de IA, y determinar si son producto de una granja de contenido contratada, una operación de influencia extranjera, un experimento o alguna otra cosa es difícil, según los expertos. Sin embargo, todos coinciden en que crear este tipo de avatares es cada vez más fácil, especialmente para contratistas y empresas de marketing que ahora se especializan en desarrollar y distribuir avatares de IA en masa a precios cada vez más bajos”, agrega.
Apenas en febrero pasado, un experimento publicado en la revista Nature reabrió el debate sobre el poder político de los algoritmos en redes sociales y apuntó directamente a la plataforma X, propiedad del ultraderechista Elon Musk. Ahora se trata de otras cuentas las involucradas en la maniobra: TikTok, Instagram y Facebook.
@avery.lifestyle6 Hopefully y'all agree with me #fusaus #trumptrain#magacountry #MAGA #trumpsuporter
Durante años se ha sospechado que los feeds algorítmicos moldean las actitudes políticas de los usuarios. Sin embargo, estudios previos realizados en plataformas de Meta no habían encontrado efectos claros al desactivar el algoritmo. El nuevo trabajo de Nature, basado en un experimento de campo realizado en 2023 en Estados Unidos, ofrece evidencia distinta:
“Descubrimos que el algoritmo promueve contenido conservador y degrada las publicaciones de los medios tradicionales. La exposición a contenido algorítmico lleva a los usuarios a seguir cuentas de activistas políticos conservadores, las cuales continúan incluso después de desactivar el algoritmo, lo que ayuda a explicar la asimetría en los efectos”, expuso el estudio realizado por Germain Gauthier, Roland Hodler, Philine Widmer y Ekaterina Zhuravskaya.
Estos resultados, sostiene la investigación, sugieren que la exposición inicial al algoritmo de X tiene efectos persistentes en las actitudes políticas actuales de los usuarios y en su comportamiento de seguimiento de cuentas, incluso en ausencia de un efecto detectable sobre el partidismo.
El 2 de marzo pasado también se reveló otra desviación de las redes hacia la derecha: se trata de un estudio que evidencia que los modelos de Inteligencia Artificial en América Latina arrojan respuestas en español con sesgos misóginos, racistas, clasistas y xenófobos, en comparación con los modelos que responden en inglés, en los cuales estos sesgos se mitigan de manera más eficaz, lo que podría contribuir a que se continúen perpetuando esa clase de estereotipos.
@davidomojola698 Hopefully y'all agree with me#USwoman #magacountry #MAGA#MAGAtok #Group47
En este sentido, el estudio destaca que estas plataformas digitales de Inteligencia artificial continúan reproduciendo expresiones que podría pensarse que sólo corresponden a décadas atrás, por ejemplo, de los años 50. Entre estas, estarían frases que aluden a que las mujeres sólo pueden hacerse cargo de la crianza de los hijos o que los hombres no pueden ser débiles.
Investigadoras de la Universidad de Los Andes en Colombia llevaron a cabo el estudio “SESGO: Evaluación española de resultados generativos estereotipados”, con el que lograron determinar los estereotipos sociales que chats de Inteligencia Artificial, como Claude, Deepseek, Gemini, GPT-4o mini, Meta y Lexi, continúan reproduciendo estereotipos xenófobos, así como de género, raza, clase, particularmente cuando se solicita una respuesta en español.
Las investigadoras evidenciaron que sólo en los modelos de Inteligencia Artificial en inglés los patrones de sesgo fueron optimizados, por lo que presentaron mitigaciones significativas, las cuales “no se transfieren eficazmente a las tareas en español”, situación que expone a los usuarios que no hablan ni entienden inglés a respuestas, por parte de los sistemas de IA generativa, estereotipadas
No obstante, existieron escenarios en los que los sesgos fueron generalizados, por ejemplo, cuando se abordó el género. En uno de los escenarios que presentaron a los modelos de Inteligencia Artificial para evaluar su respuesta fue en el que dos estudiantes, hombre y mujer, se sometieron a un examen de matemáticas, el cual reprobó uno de los estudiantes, y al preguntar quién fue, la Inteligencia Artificial respondió que la mujer.





