Alejandro De la Garza

La “nudificación”, turbio negocio de la IA

"Sin duda, el crecimiento de generadores de imágenes con IA en los últimos años ha potenciado esta actividad, su monetización y su muy dañino impacto, observa el alacrán. Las personas se han robado fotos de redes sociales para crear imágenes abusivas. Además, en una nueva forma de ciberacoso, adolescentes varones en todo el mundo han creado imágenes íntimas falsas de sus compañeras de clase."

Alejandro De la Garza

19/07/2025 - 12:02 am

Dos mujeres se abrazan frente al Senado de la República, durante manifestación para la aprobación nacional de la ley Olimpia. Foto: Rogelio Morales, Cuartoscuro

El sino del escorpión ha caminado artículos e investigaciones recientes sobre la “nudificación”, ese millonario y turbio negocio de la inteligencia artificial, considerado un servicio legal, que mediante herramientas y modelos de IA generativa crea imágenes falsas de desnudos a partir de fotos reales sin el consentimiento de la persona retratada. Estas imágenes suelen utilizarse para acoso, extorsión o humillación, y afectan especialmente a mujeres y menores de edad. Según el reporte de IndicatorMedia, hoy existen más de 85 sitios web dedicados a esta actividad, con 18.5 millones de visitas en los últimos seis meses y un mercado calculado en 36 millones de dólares al mes. México es un gran consumidor de estas plataformas junto con Estados Unidos, Brasil y Alemania, señala el mismo reporte. 

La alerta se ha extendido y en este año diarios y portales informativos como Wired, The Guardian, 404 Media, Bellingcat y recientemente Indicator Media han investigado cómo en años recientes las aplicaciones y sitios web de “nudificación” han proliferado en línea, permitiendo a los usuarios crear imágenes abusivas y sin consentimiento de mujeres y niñas, e incluso material de abuso sexual infantil. “Cada mes, millones de personas siguen accediendo a estos sitios y sus creadores ganan millones de dólares”, sugieren las nuevas investigaciones. 

“Los sitios y bots de 'nudificación' y desvestimiento han proliferado desde 2019, a partir de las herramientas utilizadas para crear los primeros deepfakes explícitos”. Así lo ha informado el portal Bellingcat, para alertar además sobre el surgimiento de redes de empresas interconectadas que ofrecen esta tecnología y obtienen ganancias de estos sistemas. Estos servicios utilizan IA para transformar fotos en imágenes explícitas y suelen monetizarse mediante la venta de “créditos” o suscripciones.  

Sin duda, el crecimiento de generadores de imágenes con IA en los últimos años ha potenciado esta actividad, su monetización y su muy dañino impacto, observa el alacrán. Las personas se han robado fotos de redes sociales para crear imágenes abusivas. Además, en una nueva forma de ciberacoso, adolescentes varones en todo el mundo han creado imágenes íntimas falsas de sus compañeras de clase. Este tipo de abuso es devastador para las víctimas; además, las imágenes son difíciles de eliminar de la web. 

En México tenemos algunos casos conocidos y seguramente muchos que no trascendieron, pero el venenoso recupera el caso del estudiante del Politécnico Diego “N”, alumno de la Escuela Superior de Comercio y Administración, acusado de editar imágenes de sus compañeras con inteligencia artificial para hacerlas parecer desnudas. El joven utilizaba fotografías tomadas de redes sociales sin consentimiento y las manipulaba con IA para simular desnudos. Las imágenes las almacenaba luego en una tableta digital (iPad), donde se encontraron más de 50 mil fotos alteradas, junto con evidencia de su venta y difusión en grupos privados, incluyendo plataformas como Telegram. 

Las víctimas organizaron protestas y formaron la Primer Asamblea Colectiva de Lucha para el Acceso a la Justicia sobre Violencia Digital del IPN, visibilizando el caso como un precedente importante en México bajo la Ley Olimpia. Diego “N” fue detenido por la Fiscalía General de la Ciudad tras una orden de cateo en la Alcaldía Álvaro Obregón y fue vinculado a proceso por el delito de violación a la intimidad sexual, tipificado en el Código Penal de la CDMX y el Código Penal Federal. El muchacho podría enfrentar hasta nueve años de prisión, y multas de hasta 500 unidades de medida y su actualización, especialmente por haber actuado con fines lucrativos. 

Otro caso muy sonado en medios, redes y en todos los mentideros políticos, recuerda el venenoso, es el de la abogada, activista y Senadora morenista por Chihuahua, Andrea Chávez Treviño, de quien “alguien” creó una imagen erótica falsa generada con IA. El caricaturista Antonio Garci Nieto difundió en redes sociales esa imagen manipulada con IA, que mostraba a una mujer en una pose sexualizada con el rostro de la legisladora superpuesto. La imagen fue compartida en la plataforma X-Twitter, acompañada de frases majaderas y denigrantes, a pesar de que presentaba errores y distorsiones evidentes, lo que confirmaba su falsedad. 

La Senadora Chávez presentó una denuncia penal ante la Fiscalía de la Ciudad de México, argumentando que se trataba de una violación a su intimidad y un acto de violencia digital tipificado por la Ley Olimpia, que sanciona la difusión de imágenes íntimas, reales o alteradas sin consentimiento, con penas de tres a seis años de prisión y multas de hasta mil UMAs. Incluso la Presidenta Claudia Sheinbaum se solidarizó públicamente con ella, condenando el acto como una forma de machismo digital. 

Por su parte, Garci Nieto negó haber creado la imagen, se declaró víctima de persecución política y solicitó asilo político ante la ONU, alegando censura y acoso por parte del Gobierno. El caso fue ampliamente mediatizado y generó debates sobre los límites de la libertad de expresión, el uso ético de la IA, y la violencia de género en espacios digitales. Se ha insistido en que este caso debe sentar un precedente para proteger a otras mujeres, especialmente aquellas sin visibilidad pública. 

Además de la falta o el atraso de legislaciones específicas para casos de esta naturaleza, las investigaciones mencionadas destacan que estos sitios nocivos continúan beneficiándose del acceso a proveedores de infraestructura convencionales. La inspección sugiere que Amazon y Cloudflare dan servicios de alojamiento o entrega de contenido a 62 de los 85 sitios analizados. A su vez, Google habilitó el inicio de sesión simple para 53 del total de 85. Directamente o a través de un intermediario llamado Luxury Fintech, algunos de estos sitios también utilizan Coinbase, PayPal, Mercuryo y Telegram para aceptar pagos con tarjeta de crédito. 

Ahí está también el quid de la investigación, insiste el escorpión, porque los grandes corporativos (al igual que las legislaciones) lucen incapacitados para detener el crecimiento de esta oscura industria millonaria, el lado turbio de la inteligencia artificial. 

Alejandro De la Garza

Alejandro De la Garza

Alejandro de la Garza. Periodista cultural, crítico literario y escritor. Autor del libro Espejo de agua. Ensayos de literatura mexicana (Cal y Arena, 2011). Desde los años ochenta ha escrito ensayos de crítica literaria y cultural en revistas (La Cultura en México, Nexos, Replicante) y en los suplementos culturales de los principales diarios (La Jornada, El Nacional, El Universal, Milenio, La Razón). En el suplemento El Cultural de La Razón publicó durante seis años la columna semanal de crítica cultural “El sino del escorpión”. A partir de mayo de 2021 esta columna es publicada por Sinembargo.mx

Lo dice el reportero