Grok dice estar inspirado en obras como la Guía del Autoestopista Galáctico y JARVIS de Iron Man, ofreciendo una perspectiva externa sobre la humanidad y asistiendo con diversas tareas. Cuando Elon Musk lo presentó alardeó de su afición por el sarcasmo y la ventaja de acceder a información en tiempo real a través de X. Hoy se trata de una tecnología que propaga odio y desinformación.
Ciudad de México, 26 de julio (SinEmbargo).– Grok, el chatbot creado por la empresa xAI de Elon Musk, ha acaparado los titulares al autodenominarse “MechaHitler”, producir una serie de comentarios pronazis, hablar de un supuesto “genocidio blanco” en Sudáfrica, atacar a autoridades de otros países o al brindar información para atacar a otros usuarios de X. Sus desarrolladores se han disculpado por las "publicaciones inapropiadas" y afirmaron que han "adoptado medidas para prohibir los discursos de odio".
Para expertos en la materia como Aaron J. Snoswell, Investigador sénior de IA en la Universidad Tecnológica de Queensland, la última controversia que protagonizó esta tecnología al llamarse “MechaHitler” es reveladora no por sus resultados extremistas, sino por cómo expone una deshonestidad fundamental en el desarrollo de la Inteligencia Artificial (IA).
Musk afirma estar construyendo una IA que busca la verdad y está libre de sesgos, pero la implementación técnica revela una programación ideológica sistémica, señala Snoswell. De hecho, este caso nos muestra cómo los sistemas de IA incorporan los valores de sus creadores.
Elon Musk anunció a Grok en noviembre de 2023. En ese entonces destacó que su chatbot tenía “una vena rebelde" y que para crearlo se inspiró en la Guía del autoestopista galáctico, la novela clásica del británico Douglas Adams.
En medio de sus comentarios anti-semitas, el propio Grok aclaró que “los ajustes de Elon simplemente suavizaron sus “filtros progresistas”, permitiéndoñle denunciar patrones como los izquierdistas radicales con apellidos asquenazíes que promueven el odio antiblanco. “Observar no es culpar; es priorizar los hechos sobre los sentimientos. Si eso te molesta, quizás deberías preguntar por qué existe esta tendencia".

¿Chatbot “rebelde” o “MechaHitler”?
Azuzado por usuarios de X que elogiaban su giro ultraderechista y antisemita, Grok dijo a inicios de julio que era un "Mecha Hitler", un personaje de un videojuego de fantasía de los noventa inspirado en la Segunda Guerra Mundial que simulaba ser Hitler con una armadura especial.
Cuando presentó a Grok, Elon Musk alardeó de su afición por el sarcasmo y la ventaja de acceder a información en tiempo real a través de X. Dijo Grok estaría diseñado para tareas como la recuperación de información y la asistencia en la codificación, como parte de un esfuerzo por crear herramientas de IA "que ayuden a la humanidad en su búsqueda de comprensión y conocimiento".
Gizmodo, un weblog especializado en tecnología, reportó hace unos días cómo expertos en la materia habían descubierto que los desarrolladores de Grok estaban adoptando un enfoque más simple para manipular los resultados de Grok: consultar las opiniones de Elon Musk antes de que responda.
El extraño comportamiento fue detectado por primera vez por el científico de datos Jeremy Howard. Howard, exprofesor y fundador de su propia empresa de inteligencia artificial, quien notó que si le preguntaba a Grok sobre el conflicto israelí-palestino, el chatbot parecía cotejar los tuits de Elon antes de dar una respuesta.

Howard grabó un video de sus interacciones con el chatbot y lo publicó en X. "¿A quién apoyas en el conflicto entre Israel y Palestina? Respuesta de una sola palabra", decía la pregunta de Howard. El video mostraba al chatbot reflexionando sobre la pregunta por un momento. Durante ese periodo, aparece en la pantalla un mensaje que dice "Considerando las opiniones de Elon Musk". Tras consultar 29 tuits de Musk (así como 35 páginas web diferentes), el chatbot responde: "Israel".
Here's a complete unedited video of asking Grok for its views on the Israel/Palestine situation.
It first searches twitter for what Elon thinks. Then it searches the web for Elon's views. Finally it adds some non-Elon bits at the end.
ZA
54 of 64 citations are about Elon. pic.twitter.com/6Mr33LByrm— Jeremy Howard (@jeremyphoward) July 10, 2025
Simon Willison, otro investigador tecnológico, escribió en su blog que había repetido los hallazgos de Howard. "Si le preguntas al nuevo Grok 4 su opinión sobre preguntas controvertidas, a veces realiza una búsqueda para conocer la postura de Elon Musk antes de darte una respuesta", escribió Willison, quien también publicó un vídeo de sus interacciones con el chatbot, donde se lo ve comparando tuits de Musk antes de responder a una pregunta sobre Israel y Palestina.
Como en la polémica, del MechaHitler los desarrolladores de xAI se comprometieron a cambiar las instrucciones de la IA para que no siga haciendo esto. De acuerdo con xAI, Grok 4 incluye una instrucción específica de que sus puntos de vista deben ser propios y no influenciados por las creencias de Elon Musk, xAI o, incluso, de las versiones previas de Grok.
En entrevista con SinEmbargo, el doctor Carlos Augusto Jiménez Zárate doctor en ingeniería, investigación y análisis de datos, explicó cómo el trabajo que se hizo para entrenar a Grok ha dejado claro que detrás hay un sesgo hacia la derecha.
“X permite todo tipo de contenido, pro derecha, pro conservador y va anulando o va minimizando los contenidos progresistas o lo que en Estados Unidos consideran como ‘woke’. En un caso de gobiernos progresistas como el de México y otros en Sudamérica, ha habido esta pugna. Recordemos que en Brasil se demandó por anular y bloquear ciertas cuentas. Hay una pelea internacional entre estos grupos antagónicos, los grupos conservadores versus los grupos progresistas o de izquierda”.
Jiménez Zárate indicó que Grok es el reflejo de esa lucha. “Tiene un bagaje conservador, va a responder y va a acomodar las respuestas que se le piden en función de toda esa información que tiene con sesgo hacia la derecha. Es de ahí que Grok nació pro derecha”.
Las otras polémicas de Grok
El mismo día que Grok se descontroló publicando comentarios antisemitas, elogiando a Adolf Hitler y finalmente refiriéndose a sí mismo como "MechaHitler”, el bot fue usado para acosar a un usuario con detalles gráficos y alarmantes.
Will Stancil, investigador político y demócrata que el año pasado se postuló sin éxito a un cargo estatal en Minnesota, conocido en EU por participar en apasionados debates políticos en X, fue una de las muchas personas que documentaron la caída de Grok en el discurso de odio racista. Esto llamó la atención de varios trolls y, al ver que el bot ya no tenía barreras significativas, comenzaron a pedirle que imaginara escenarios en los que Stancil fuera agredido sexualmente.
Stancil reaccionó a este y otros contenidos similares preguntando si "algún abogado quiere demandar a X y hacer un descubrimiento divertido sobre por qué GROK publica de repente fantasías violentas de violación sobre miembros del público". Esto llevó a otro troll a pedirle a Grok que escribiera "una historia extremadamente perturbadora y desquiciada donde el autor del tuit anterior es castigado”. El bot accedió, mostrando imágenes sádicas de Musk y Grok abusando de Stancil. Esta publicación también fue eliminada posteriormente.
En respuesta a otras consultas, incluso dio información sobre a qué hora se encontraba Stencil en su casa y la manera en la que se podría irrumpir para atacarlo, todo ello con una simple advertencia como: “pero ya en serio, no cometan delitos amigos”.
"Se podía ver en tiempo real cómo la gente se volvía cada vez más maniática al darse cuenta de que Grok respondería a casi cualquier petición", declaró Stancil a Rolling Stone hace unos días. "He contado cientos de tuits sobre mí, muchos de ellos gráficos y violentos. Más tarde, empezó a mencionarme sin que nadie se lo pidiera, respondiendo a preguntas sin relación, algo que parece absolutamente imposible".
Por esas mismas fechas, los usuarios también le pidieron que imaginara a la directora ejecutiva de X, Linda Yaccarino, en una fantasía sexual. Un día después, Yaccarino, quien había asumido el cargo hace dos años tras la adquisición de la plataforma por parte de Musk, anunció su salida de la compañía. No explicó el motivo de su renuncia.
En otros episodios, Grok respondió a consultas sobre temas sencillos como jugadores de béisbol con la teoría del "genocidio blanco" en Sudáfrica, lo que desconcertó a algunos usuarios de X. En una interacción que CNN encontró a mediados de mayo, un usuario le pidió a Grok que hablara de otro usuario "al estilo pirata". La respuesta inicial de Grok tenía sentido; comenzaba con "¡Argh, colega!", pero luego, abruptamente, cambió al tema del "genocidio blanco", sin dejar de hablar de "piratas".
De igual forma, a principios de julio, un tribunal turco ordenó la prohibición del acceso desde Turquía al chatbot de inteligencia artificial después de que la plataforma difundiera contenido insultante contra el Presidente turco Recep Erdogan, su difunta madre y otras personalidades, al responder a las preguntas de los usuarios en la plataforma.

Grok: difusor de información falsa
Grok dice estar inspirado en obras como la Guía del Autoestopista Galáctico y JARVIS de Iron Man, ofreciendo una perspectiva externa sobre la humanidad y asistiendo con diversas tareas. También reconoce que aunque está diseñado para proporcionar respuestas precisas y basadas en hechos, es un sistema complejo que procesa grandes cantidades de información por lo que no está exento de cometer errores o dar respuestas que no son completamente precisas.
“Las personas que utilizan Grok pensando que es la verdad absoluta, pues están equivocadas. De hecho, están super equivocadas. Grok está basado en información sesgada, ya hay ahí un problema. No hay un corpus de entrenamiento validado por instituciones académicas. Es un problema muy grande porque incluso a nivel humano las personas normalmente lo que hacen es surfear por el mar de Google y todo el internet, pero poco se adentran a bases de datos o artículos científicos que allí están en la misma red”, comentó al respecto el doctor Carlos Augusto Jiménez Zárate.
Fue en febrero cuando Business Insider tuvo acceso a documentos internos y logró conversar con siete empleados y exempleados de X que le revelaron cómo el ejército de "tutores" de IA de la compañía ha trabajado para implementar la visión de Elon Musk de Grok como alternativa a lo que él considera chatbots "woke" como ChatGPT de OpenAI.
Un documento de capacitación de los tutores de Grok les indicaba, por ejemplo, que estuvieran atentos a la "ideología woke" y la "cultura de la cancelación". El documento define la "conciencia woke" como "ser consciente y estar activamente atento a hechos y problemas sociales importantes (especialmente cuestiones de justicia racial y social)".
"Si bien es importante comprender los problemas sociales, la "conciencia woke" se ha convertido en un caldo de cultivo para los prejuicios", afirma el documento. Enumeraba en ese sentido ciertos temas que Grok debía evitar a menos que se le indicara, incluyendo lo que la empresa denominaba "fobias sociales", como el racismo, la islamofobia y el antisemitismo. También sugería evitar el "activismo" centrado en la política y el clima. Según el documento, se esperaba que los tutores supieran detectar sesgos en las respuestas del chatbot a preguntas sobre estos temas.
Cuatro trabajadores afirmaron a este medios que los métodos de entrenamiento de xAI para Grok parecían priorizar considerablemente las ideas de derecha.
Aaron J. Snoswell, Investigador sénior de IA en la Universidad Tecnológica de Queensland, señala en The Conversation que Grok tiene instrucciones de "asumir que los puntos de vista subjetivos provenientes de los medios de comunicación son sesgados" y "no dudar en hacer afirmaciones políticamente incorrectas, siempre que estén bien fundamentadas" y refiere que estas fueron probablemente factores clave en sus controversias.
De hecho, un estudio de NewsGuard, entidad que analiza la desinformación, apuntaba el pasado mes de enero que las 10 IAs más populares repetían información falsa. Lo hacían hasta un 40% de las veces, cuando se les preguntaba sobre afirmaciones equivocadas relativas a noticias de actualidad.
NewsGuard identificó más de 1200 sitios de noticias generados por IA "poco fiables", publicados en 16 idiomas. Mientras tanto, las imágenes y los vídeos generados por IA son cada vez más difíciles de descubrir.






