Author image

Javier Murillo

19/09/2018 - 12:00 am

Facebook quiere hacerlo menos odioso, ¿podrá?

Propaganda: difusión o divulgación de información, ideas u opiniones de carácter político, religioso o comercial, con la intención de que alguien actúe de una determinada manera, adopte una ideología o adquiera un determinado producto. Bajo esta definición no nos equivocamos cuando concluimos que Facebook (con todo y sus logaritmos y nueva versión de inteligencia artificial, IA) es una herramienta de propaganda. Aunque la gente de Facebook esté haciendo todo lo posible por ocultar la realidad.

En FB, no hay matices. Foto: EFE.

Propaganda: difusión o divulgación de información, ideas u opiniones de carácter político, religioso o comercial, con la intención de que alguien actúe de una determinada manera, adopte una ideología o adquiera un determinado producto. Bajo esta definición no nos equivocamos cuando concluimos que Facebook (con todo y sus logaritmos y nueva versión de inteligencia artificial, IA) es una herramienta de propaganda. Aunque la gente de Facebook esté haciendo todo lo posible por ocultar la realidad.

En las últimos meses, después de la ridícula comparecencia de Zuckerberg ante el Senado de los Estados Unidos, la red social más poderosa del planeta ha ejecutado una serie acciones para mitigar el hecho de que fueron usados, con sus propias reglas, para influir en las elecciones de ese país, entre las que cuenta el control de las inversiones en publicidad, la eliminación de cuentas falsas, supuestas modificaciones al algoritmo de presentación de contenido pagado y la integración de más IA –llamada Rosetta– que permite analizar las publicaciones para evitar el posteo y dispersión de mensajes de odio.

Finalmente, el Santo Grial: la detección y bloqueo de fake news dentro de la plataforma. Tan fácil que sería dejar de imponer publicidad a los usuarios… les está saliendo más caro atacar los síntomas que la enfermedad.

Por su parte, el sistema de Inteligencia Artificial (IA) que ha estado usando Facebook (FB) para filtrar contenido indeseable es más bien obtuso: apenas si logra parar poco más de 30% de los mensajes de odio que hay por donde quiera, mientras que sigue permitiendo el posicionamiento de noticias falsas como en ninguna otra red social… pero, eso sí, nunca le permitirá ver un cuadro de Rubens, porque en él aparecen humanos desnudos.

Anécdotas hay miles y quienes más las han padecido son los medios de comunicación que usan FB para amplificar sus contenidos. Cientos de veces les he visto quejarse porque la red social censura su trabajo por “infringir normas” que sólo entiende el juguetito de Zuckerberg. Todavía en más ocasiones han renegado del famoso “algoritmo de difusión” condicionante, que cada vez más, exige el pago de pautas para mover contenido de valor–¿Se ha puesto a pensar que, en realidad, quienes le ponen la materia prima a FB son los propios usuarios y la plataforma no hace más que tratar de sacar ventaja?– ahora, también, crea esquemas en los que es ineludible tener que pagar publicidad para que el contenido se difunda.

Vamos por partes. En un mundo sin algoritmos de “relevancia”, Facebook nos presentaría todo el contenido que publican nuestros contactos y las páginas que nos gustan conforme sucede: así inició la red social. El factor principal que propició el cambio ocurrió cuando FB decidió centrar su modelo de negocio en el ingreso publicitario, lo que causó que nuestro timeline incluyera no solo publicaciones que nosotros elegimos recibir, sino también posteos de sus anunciantes. Lo demás es historia.

Todo las acciones que está realizando Facebook a partir de esa desafortunada decisión son correctivas (y paliativos): en el fondo saben que la solución es cambiar su modelo de negocio.

Hoy anuncian que atacarán con inteligencia artificial la filtración de discursos de odio. Pero hay más dudas que respuestas, porque son esas publicaciones de odio las que más difusión logran.

En sus estatutos (publicados en su blog oficial) FB señala que está en contra de la propaganda terrorista, la violencia gráfica, los desnudos y el contenido sexual, así como los correos no deseados y los mensajes de odio. Advierte que eliminará contenidos, censurará temporalmente y hasta puede cerrar permanentemente las cuentas que infrinjan estas normas.

Suena muy bien, pero la propia red social reconoce en sus informes que el camino todavía es largo para lograr que esos filtros sean efectivos. ¿Cuántas elecciones más?

A medida que esta red, con la mayor cantidad de usuarios en todo el mundo, ha ido politizándose, a su equipo directivo le ha preocupado perder el control en temas muy sensibles. Y bueno, Cambridge Analytica fue la prueba fehaciente y la compañía sabe, que corre el riesgo de ser demandado por difundir mensajes de odio.

Es como si alguien tomara la iniciativa de demandar a WhatsApp (que, por cierto, también pertenece a FB) por haber difundido las noticias falsas de roba-niños que provocaron un linchamiento que culminó en dos hombres quemados vivos, aquí en México, en pleno siglo XXI, hace unas cuantas semanas.

Además de afrontar el riesgo de una demanda colectiva, cae en la red de la que difícilmente se sale: la mala reputación, la misma que tarde o temprano impacta negativamente a las marcas y los negocios.

De ahí que Zuckerberg haya comprado hace un par de años a la empresa de inteligencia artificial Bloombury, con la esperanza de que sus programas le ayuden a procesar los miles de datos por segundo que se generan –todo el tiempo, a diario– en sus espacios, para detectar todos esos aspectos que merman la imagen de FB.

Pero la verdad es que, al menos en la primera fase del intento, no le fue nada bien.

Para tal volumen de data, sólo una poderosa IA podría resolver ese procesamiento. Porque el reto no es solamente detener símbolos que tradicionalmente se asocian con el odio (la cruz gamada o armas, por ejemplo), sino de cuidar un aspecto mucho más sutil: los matices.

Ahí está el punto fino. En FB no podemos ver desnudos de Rubens o madres amamantando a sus bebés porque, simplemente, hay una negativa condicionada que evita que esas imágenes sean difundidas. Es decir, intentaron, por ejemplo, prohibir la pornografía infantil (¡qué bueno!) pero a cambio censura millones de otras imágenes que no se asocian con ningún delito: “En FB no se permiten desnudos, ni siquiera si son artísticos o educativos”, rezan sus estatutos.

En FB, no hay matices. Digamos que una IA incipiente es así: tiene que pasar mucho tiempo aprendiendo de interacciones para afinar su radar de matices.

Ahora la empresa de Mark Zuckerberg quiere dar otro giro a su IA y procurar que ahora sea “más inteligente” y así introdujo a Rosetta, un sistema que, reporta la empresa, será capaz de procesar miles de millones de datos en menor tiempo y con mayor capacidad de evaluación asertiva, no sólo de textos y fotos, sino hasta de memes.

Bajo el intenso escrutinio del Congreso estadounidense y en la mira de millones de críticas, FB trata de generar la IA que le ayude a brindar un mejor servicio y le ayude a evadir el truculento tema de las demandas. ¿Rosetta lo logrará? Ya veremos. Pero partimos de un solo hecho que desalienta un poco en este sentido: usualmente, Zuckerberg no da una.

Javier Murillo
Javier Murillo Acuña Fundador y Presidente de Metrics. Es un reconocido experto en tecnología aplicada en campos como ciencia de datos, inteligencia artificial y otras ramas del campo del comportamiento social digital humano.

Los contenidos, expresiones u opiniones vertidos en este espacio son responsabilidad única de los autores, por lo que SinEmbargo.mx no se hace responsable de los mismos.

en Sinembargo al Aire

Opinión

Opinión en video