“Cada vez son más los gobiernos, las empresas privadas y hasta las iglesias que buscan controlar la distribución o uso de tecnología para vincular caras y datos”. Foto: Ricardo Castelán, Cuartoscuro

Una feroz competencia por toda la información relacionada con nuestros rostros está en marcha. Cada vez son más los gobiernos, las empresas privadas y hasta las iglesias que buscan controlar la distribución o uso de tecnología para vincular caras y datos.[1] Estos eventos suceden a la vista de todos, literalmente en nuestras caras, sin mayor regulación o control. Dos casos paradigmáticos pueden ser útiles para entender por qué lo que ocurre tendría que importarnos.

(1) El primer caso paradigmático a revisar está relacionado con China. De acuerdo con una investigación de The New York Times, el Gobierno chino ha venido instalado una cantidad descomunal de cámaras de videovigilancia.[2] Muchas de estas cámaras se encuentran ocultas -por ejemplo, en árboles- y su red alcanza incluso poblaciones rurales donde a duras penas hay energía eléctrica. Esta red de hardware es acompañada de un poderoso software que permite el reconocimiento facial inmediato, y de una base de datos donde se almacena información de cada individuo, desde sus huellas digitales hasta sus historiales laborales, fiscales o políticos.

La idea detrás del “Estado de vigilancia” chino es clara: saber todo de todos representa para un Gobierno la última forma de control sobre la ciudadanía. Y es que, a través de esta estrategia, el Gobierno de Xi Jinping busca, en un sentido preventivo, intimidar todos los individuos que habitan ese país para disuadirlos de cuestionar al Gobierno. En un sentido reactivo, gracias a la información recabada ese Gobierno puede castigar a las personas que le resultan potencialmente incómodas. Ambos sentidos han sido probados en China con mayor dureza sobre minorías, y se liga a los campos de concentración en los que el Gobierno chino busca “reformar” a musulmanes.[3]

Es tentador pensar que la presencia de semejante aparato, digno de las más negativas distopías, es impensable fuera China. Sin embargo, es un hecho plenamente documentado que el “Estado de vigilancia” chino es material de exportación. Por ejemplo, ese país ha vendido recientemente tecnología a naciones africanas o latinoamericanas, como Ecuador.[4] La exportación ocurre también, más sutilmente, a través de la empresa Huawei; una organización estrechamente vinculada financiera y operativamente con el Gobierno chino. De esta forma, emisarios de diversas ciudades del mundo, como Mérida, viajan a china para observar demostraciones de productos que prometen, a cambio de una inversión económica relativamente baja, hacer a sus ciudades “inteligentes”.[5]

El principal problema que esto implica es, desde luego, la forma en que esta tecnología, diseñada para controlar, será empleada en México. Por ejemplo, es terrorífico imaginar al Estado policíaco pisador de derechos humanos de Felipe Calderón con semejante posibilidad en sus manos.  Sin embargo, no hay que ir tan lejos para tender lo problemático de esta herramienta. Resultaría ingenuo suponer que los alcaldes que la adquieran tendrán la posibilidad de garantizar que la información recabada en sus ciudades no sea almacenada y utilizada por ese proveedor chino o por el Gobierno que auspicia su expansión por el mundo. Esto es, el pago en dinero viene necesariamente acompañado de un pago en oculto en la moneda más fuerte del momento: la información personal de seres humanos. Y una vez que esa información ha sido registrada, no sabemos cómo y para qué podría ser utilizada.

(2) El segundo caso que nos ayuda a entender los alcances de la tecnología de reconocimiento facial es el de la empresa Clearview.[6] De acuerdo con otro reportaje de The New York Times esta empresa vende software a corporaciones de seguridad -desde el FBI hasta policías locales- en Estados Unidos. Su crecimiento en los últimos meses ha sido sigiloso pero exponencial. El caso de Clearview es paradigmático por dos razones principales:

(a) La primera es la naturaleza del software que esta empresa ha desarrollado. Su tecnología permite reconocer con 99 por ciento de efectividad fotos de caras incluso cuando éstas son parciales o poco claras. Adicionalmente, este software realiza una búsqueda en Internet, desde redes sociales hasta registros oficiales, de todas las fotos donde aparezca la cara que se desea encontrar. Por ejemplo, gracias a Clearview una corporación policiaca pudo identificar a un abusador de menores cuya imagen aparecía distorsionada y lejana en un video. La búsqueda en Internet encontró que esa cara hacía “match” con un rostro que aparecía en segundo plano, aparentemente como mero paisaje, en la “selfie” de gimnasio de otro hombre. Inmediatamente esta corporación policiaca mandó a agentes a que mostraran la foto a trabajadores del gimnasio. Los trabajadores reconocieron al hombre que aparecía en segundo plano, proporcionaron sus datos y el individuo fue rápidamente arrestado. Caso resuelto.

Para las corporaciones policiacas, una herramienta de esta naturaleza es oro molido. Pero eso no evita que su existencia y uso impliquen una evidente violación a la privacidad: una persona no necesita subir sus fotos para ser identificada inmediatamente; aparecer en cualquier fotografía es suficiente para ser identificado. Esto no es todo. Es fácil ver que en manos de corporaciones policiacas corruptas, como muchas de las mexicanas, una tecnología de este tipo podría tener consecuencias nefastas. ¿Se sentiría una persona mexiquense más segura si la policía del Estado de México tuviera esta herramienta en sus manos?

(b) La segunda razón por la que el caso de Clearview es paradigmático tiene que ver con la naturaleza misma de esta empresa. Kashmir Hill, reportera de The New York Times, buscó incansablemente entrevistar a sus empleados y propietarios, pero la dirección postal que aparece en su página de internet resultó inexistente. Después de indagar en oficinas registradas a nombre de la empresa, y tras sólo lograr hablar con personal secundario que trabaja para esa compañía, la periodista acudió a distintos departamentos de policía que habían adquirido la tecnología. Ahí, Hill pidió que se usara el software en ella para ver cómo funciona. En su caso, el resultado en todas las ocasiones fue “no match” o “rostro no encontrado”.

Dado que Hill tiene cuentas en redes sociales, y considerando el 99 por ciento de efectividad de Clearview, para esta reportera el resultado no tuvo mucho sentido. Por ende, decidió preguntar directamente qué ocurrió a los agentes que usaron el software. La respuesta, en todos los casos, fue una y la misma: apenas introdujeron la cara de Hill en el programa, los agentes recibieron una llamada de gente de Clearview preguntándoles/reclamándoles el estar buscando a esa reportera de The New York Times. Clearview terminó bloqueando la posibilidad de buscar a esa persona.

Lo que esto implica es que la empresa que comercializa este software tan poderoso tiene la capacidad de ver a quiénes investiga cada corporación policiaca. A su vez, esto abre la puerta a un eventual tráfico de información o a infiltraciones. ¿Quién garantiza que las Clearviews del mundo no serán sobornadas o amenazadas por criminales que se beneficiarían de ser alertados? ¿Qué pasará con las versiones de estas empresas que se establezcan en México? Los escenarios más probables, aquellos basados en la realidad mexicana, son francamente preocupantes.

Esto no es todo, cuando finalmente Hill logró entrevistar al fundador de Clearview, esta reportera le preguntó cómo podríamos estar seguros de que esa tecnología no se comercializará como una app en las tiendas de Apple o Android o que no se venderá a gobiernos represores. La respuesta del cerebro de la empresa fue que eso sería “contrario a sus valores.”[7] Es decir, que ello no ocurre porque no quiere.

Pero un simple cambio de voluntad o de directivo sería suficiente para que, por ejemplo, un hombre en un bar de la CdMx pudiera tomar una foto a una mujer que le resulta atractiva y obtener información de aspectos personales como su nombre, dónde vive, sus datos financieros o de sus círculos de amigos. A ello hay que sumar que el número de compañías similares Clearview se ha multiplicado y que actualmente unos cuántos cientos de dólares son suficientes para obtener alguna versión de software de reconocimiento facial. Es decir para sentirnos seguros tendríamos que apelar a la buena voluntad de todas las empresas y de todos sus usuarios.

Los dos casos paradigmáticos discutidos arriba comparten riesgos derivados de la nula regulación o controles que existen actualmente sobre la producción, distribución de estas tecnologías. Sin importar si se trata de una empresa cobijada por un Gobierno autoritario o de un startup basada en una democracia occidental, estos ensayos avanzan a gran velocidad.

Pero estos casos también tienen en común la falta de conciencia que existe actualmente entre la ciudadanía de lo urgente que resulta presionar a sus gobiernos para que esta regulación exista. Si la influencia negativa de Facebook en términos de privacidad y democracia ha sido enorme, lo que está ocurriendo con el desarrollo y uso de reconocimiento facial tiene un potencial probablemente más disruptivo. Aún no es demasiado tarde para reaccionar. Pero para que eso sea posible primero es necesario reconocer que el riesgo es real. Y que este riesgo se encuentra, aquí y ahora, en nuestras caras.

Facebook: Antonio Salgado Borge

Twitter: @asalgadoborge

Email: [email protected]

[1] https://www.theguardian.com/uk-news/2020/feb/11/met-police-deploy-live-facial-recognition-technology

https://www.eldiario.es/internacional/Empresas-servicio-reconocimiento-iglesias-Brasil_0_987951855.html

[2] https://www.nytimes.com/2019/12/17/technology/china-surveillance.html

[3] https://www.nytimes.com/2019/05/22/world/asia/china-surveillance-xinjiang.html

[4] https://www.nytimes.com/2019/04/24/technology/ecuador-surveillance-cameras-police-government.html

[5] https://www.yucatan.com.mx/editorial/espionaje-en-merida

[6] https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html

[7] https://www.nytimes.com/2020/02/10/podcasts/the-daily/facial-recognition-surveillance.html