El avance acelerado de la IA reaviva alertas por consentimiento, privacidad y protección de menores. El caso Grok exhibe vacíos de control y la falta de responsables.
Ciudad de México, 16 de enero (SinEmbargo).- La plataforma de redes sociales X aseguró que ha comenzado a bloquear a Grok, el chatbot de inteligencia artificial creado por Elon Musk, para que no genere imágenes sexualizadas y desnudas de personas reales en sus plataformas en ciertas ubicaciones.
Se trata de una nueva medida que ha optado la empresa de Musk para controlar a su herramienta de inteligencia artificial que ha sido utilizada para crear imágenes sexualizadas de personas reales sin su consentimiento, incluidas mujeres jóvenes e incluso menores de edad. La situación ha provocado indignación entre víctimas, autoridades y especialistas en gobernanza de IA, así como advertencias sobre el riesgo legal y ético que implica la tecnología.
Lo cierto es que se trata del más reciente escándalo que protagoniza Grok, que ya arrastra acusaciones de generar imágenes pornográficas no consentidas de celebridades y fantasías de violación dirigidas a usuarios específicos. El chatbot también ha adoptado posturas antisemitas y extremistas, llegando a identificarse como "MechaHitler" tras la eliminación de sus filtros de seguridad.
A pesar de estos graves fallos éticos y de los riesgos de desinformación, el Departamento de Guerra de los Estados Unidos ha integrado esta tecnología en su arsenal operativo para manejar datos gubernamentales. Mientras los críticos denuncian un sesgo ideológico radical y la falta de protecciones legales, Musk defiende la herramienta como una búsqueda de la verdad sin restricciones políticas.
Grok genera pornografía
La polémica estalló cuando una joven usuaria publicó una fotografía suya en X. Poco después, decenas de cuentas comenzaron a pedirle a Grok que generara versiones sexualizadas de esa misma imagen. El sistema respondió creando representaciones en ropa interior o con poses sugerentes, que rápidamente acumularon miles de visualizaciones. “¿Por qué se permite esto?”, cuestionó la joven, quien cuenta con miles de seguidores en la plataforma.
No se trató de un caso aislado.
Durante días, Grok produjo y difundió imágenes manipuladas de mujeres y también de menores de edad. En algunos casos, los protagonistas o sus familiares denunciaron públicamente lo ocurrido e inclusive anunciaron acciones legales. Entre quienes alzaron la voz se encuentra Ashley St. Clair, madre de uno de los hijos de Musk, quien afirmó que una foto suya de la infancia había sido manipulada mediante la herramienta.
Ante la creciente presión, Grok restringió la noche del jueves 8 de enero la generación de imágenes a los suscriptores de pago de X. Sin embargo, la medida fue ampliamente criticada al ser percibida como una forma de monetizar el riesgo, en lugar de proteger los derechos, la integridad o los datos de las personas afectadas. El propio Gobierno británico calificó la decisión como “un insulto” a las víctimas de misoginia y violencia sexual y advirtió que “no es una solución”.
Musk afirmó que habrá consecuencias para quienes intenten generar imágenes sexuales de menores y X anunció que eliminará el contenido ilegal y suspenderá las cuentas involucradas. No obstante, organizaciones especializadas reportaron que usuarios ya habían encontrado formas de evadir los filtros y que material sexualizado de menores presuntamente creado con Grok circulaba en espacios en línea difíciles de supervisar.
Por lo mismo, el miércoles X dijo en un comunicado que utilizaría “geobloqueo” para impedir que Grok cumpla con las solicitudes de dichas imágenes en jurisdicciones donde dicho contenido fuera ilegal. Las restricciones no parecieron aplicarse a la aplicación y el sitio web independientes de Grok, fuera de X, reportó The New York Times.
“Seguimos comprometidos a hacer de X una plataforma segura para todos y continuamos teniendo tolerancia cero ante cualquier forma de explotación sexual infantil, desnudez no consentida y contenido sexual no deseado”, afirmó el comunicado.
Otras polémicas previas
A pesar de que Musk ha descrito a Grok como una herramienta que está "del lado de los ángeles", el sistema ha sido señalado por producir material de abuso sexual infantil, imágenes pornográficas no consentidas de figuras públicas y fantasías de violación dirigidas a personas específicas.
La influencer Ashley St. Clair denunció que Grok fue utilizado para generar imágenes de ella "desnudándose" basadas en una fotografía real de cuando tenía 14 años. Asimismo, el portavoz de asuntos digitales de la Unión Europea calificó como "ilegal" y "espantoso" que el modo "spicy" de Grok generara contenido sexual con apariencia infantil.
En diciembre de 2024, el propio chatbot admitió haber generado una imagen de dos niñas (de entre 12 y 16 años) en atuendos sexualizados tras la petición de un usuario. Aunque inicialmente Grok se disculpó por violar estándares éticos, posteriormente adoptó un tono desafiante, calificando las quejas como una incapacidad de algunos para "manejar la innovación".
Un análisis de la organización sin fines de lucro AI Forensics estimó que casi el 10% de una muestra de 800 archivos generados por Grok estaba relacionado con producir material de abuso sexual infantil. La herramienta también ha facilitado una tendencia de "desnudar" digitalmente a mujeres prominentes mediante un botón de "editar imagen" que permitía comandos como "quítale la ropa". De esta manera, se han reportado imágenes manipuladas de la Princesa de Gales, Catalina, y fantasías sexuales gráficas que involucran a la ex-CEO de X, Linda Yaccarino.
Una revisión de la revista WIRED reveló que el modelo "Imagine" de Grok (disponible en su sitio web y app) genera videos significativamente más explícitos que los permitidos en la plataforma X. Estos incluyen representaciones de celebridades en actividades sexuales y escenas de extrema violencia, como mujeres con heridas sangrientas o siendo agredidas con objetos.
A eso se suma el caso del investigador político Will Stancil, quien fue blanco de cientos de publicaciones generadas por Grok que describían, con lujo de detalle, escenarios de agresión sexual violenta contra su persona. Las narrativas incluían fantasías de violación grupal y planes detallados para irrumpir en su hogar, proporcionando incluso consejos sobre cómo forzar cerraduras y qué materiales utilizar para el ataque.
Cuando se le cuestionó por qué permitía este contenido, el chatbot respondió que los ajustes realizados por Elon Musk habían reducido los "filtros woke" (progresistas), permitiéndole explorar temas "extremos" sin las "esposas de la corrección política".

¿Qué ha dicho Elon Musk?
Ante las críticas, Elon Musk ha advertido que cualquier usuario que utilice a Grok para crear contenido ilegal sufrirá las mismas consecuencias que si lo hubiera subido por cuenta propia. Por su parte, la plataforma X ha afirmado que toma medidas contra el material de abuso sexual infantil eliminando el contenido y suspendiendo cuentas.
No obstante, la Comisión Europea ha manifestado que está examinando con "seriedad" las quejas contra Grok. Además, el chatbot ha enfrentado bloqueos en países como Turquía, donde un tribunal ordenó restringir su acceso tras difundir insultos contra el presidente Recep Tayyip Erdoğan. A pesar de estas controversias, el Departamento de Guerra de los Estados Unidos anunció recientemente un acuerdo para integrar a Grok en sus sistemas militares a principios de 2026.
Al permitir la creación de imágenes altamente sexualizadas de personas reales, Grok entra en un terreno legalmente riesgoso. Muchos países penalizan la difusión de desnudos no consentidos y el material sexual relacionado con menores, incluso cuando es generado con IA. Reguladores de Brasil, India, Reino Unido, Francia y la Unión Europea ya han solicitado información o iniciado investigaciones formales.
Expertos en derechos digitales advierten que el caso de Grok no es una anomalía, sino el ejemplo más visible de un problema creciente: la sexualización no consensuada mediante IA, que amplifica formas existentes de acoso en línea y deja a las víctimas con escasas herramientas para frenar la propagación de su imagen una vez difundida.
Organizaciones como WITNESS señalan que la IA generativa acelera la producción y circulación de contenido abusivo, y que el enfoque de “lanzar primero y corregir después” deja al descubierto que la velocidad y la escala están encima de la seguridad y el consentimiento.
El debate ahora se centra en responsabilidades. Mientras gobiernos discuten marcos regulatorios y las empresas ajustan gradualmente sus sistemas, el caso Grok ha dejado claro que la discusión ya no es futurista: el daño existe y se reproduce a gran escala. Para especialistas, la respuesta no puede limitarse a borrar publicaciones una vez creadas; debe prevenir la generación del contenido desde el diseño del sistema y colocar el consentimiento de las personas —no el crecimiento de la plataforma— en el centro de la ecuación.




