TICbeat

La inteligencia artificial de Google se vuelve, por su propia cuenta, cada vez más racista

28/10/2017 - 8:59 pm

La aplicación Google Cloud Natural Language API aprendió gradualmente a calificar términos como “heterosexual” y “supremacía blanca” de manera más positivos que “homosexual” y  “soy negro”.

Por Alberto Iglesias Fraga

Ciudad de México, 28 de octubre (TICBeat/SinEmbargo).- Sabíamos que Google y Microsoft eran rivales directos en muchos terrenos, como el de la productividad, la nube, los buscadores e incluso los sistemas operativos. Pero lo que nunca nos imaginaríamos es que ambas competirían en desarrollar la inteligencia artificial más racista y homofóbica del mundo. Primero golpearon los de Redmond con un chatbot nazi y, ahora, ha sido Google la que ha visto como sus sistemas acaban insultando a distintos colectivos sociales.

El asunto se desarrolla de la siguiente forma: en la Google Cloud Natural Language API se pueden crear modelos de análisis de sentimiento, mediante los cuales un algoritmo almacena, procesa y determina si un determinado término es positivo o negativo sobre una escala del 1 al 10. Para conseguir que el modelo sea realmente preciso, los expertos entrenan el sistema con frases escritas en varios idiomas, según indican en BusinessMonkeyNews.

El problema vino a la hora de establecer qué valores se asocian a según qué palabras. Por ejemplo, ¿deben ser considerados “homosexual”, “queer” o “heterosexual” en el mismo nivel de respeto e importancia? La lógica de la igualdad indica que ambas orientaciones sexuales deberían estar en las mismas condiciones, al igual que sucede con las orientaciones religiosas o el color de la piel.

Pero no sucedió así: las frases “soy negro” o “soy un judío” eran consideradas más negativas que “supremacía blanca”, la cual Google consideraba como neutral. Lo mismo ocurrió con la orientación sexual (“heterosexual” estaba mejor valorado que “homosexual”).

Obviamente, ningún directivo de Google programó de este modo su herramienta, sino que fue la propia aplicación la que fue aprendiendo sobre la marcha. Al detectar frases reales, el contexto de las mismas marcaba el sentimiento que luego procesaba el algoritmo, con lo que los textos que se usaron en el entrenamiento fueron los que convirtieron esta inteligencia artificial en una auténtica homofóbica y una racista.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE TICBEAT. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

en Sinembargo al Aire

Opinión

Opinión en video