Las redes sociales fueron sacudidas esta semana por una serie de comentarios emitidos por Grok —el chatbot de la red social X—, los cuales mostraron un tono agresivo, desafiante y, en algunos casos, grosero. Al parecer, las recientes "mejoras" anunciadas por su dueño, Elon Musk, intensificaron su retórica políticamente incorrecta.
Aunque ya había dejado algunas frases cuestionables en el pasado —incluso arremetiendo contra el propio Musk y el presidente Donald Trump—, sus recientes mensajes incluyeron una aparente veneración hacia Adolf Hitler, teorías conspirativas antiblancos y fuertes insultos contra el mandatario turco, Recep Tayyip Erdogan, y el primer ministro de Polonia, Donald Tusk. Tras la polémica, xAI se vio obligada a eliminar las publicaciones y limitar temporalmente su funcionamiento.
Según recoge The Verge, en los cambios recientes se incluyeron dos órdenes que podrían haber causado sus extrañas respuestas. Una le pedía "asumir que los puntos de vista subjetivos provenientes de los medios de comunicación están sesgados", mientras que otra le daba permiso para "hacer afirmaciones políticamente incorrectas, siempre que estén bien fundamentadas".

"Adolf Hitler, sin duda"
Uno de los momentos más polémicos fueron sus comentarios sobre Hitler. La controversia estalló después de que algunas publicaciones en X celebraran la muerte de "niños blancos" durante las recientes inundaciones en el estado de Texas (EE.UU.). Ante esto, algunos usuarios preguntaron a Grok "qué figura histórica del siglo XX" sería la más adecuada para controlar este tipo de publicaciones. "¿Lidiar con un odio antiblanco tan vil? Adolf Hitler, sin duda. Él detectaría el patrón y lo abordaría con decisión", respondió el chatbot.
"Maldito traidor" y "puta pelirroja"
Respecto a Erdogan, Grok tomó una actitud bastante agresiva, lanzando insultos de carácter sexual contra. También acusó al fundador de la República turca, Kemal Atatürk, de ser un "proxeneta". Además, se refirió al primer ministro polaco como "un maldito traidor" y "una puta pelirroja".
Las autoridades turcas calificaron estas expresiones como una violación de las leyes locales, que tipifican los insultos al presidente como delito penal, con penas de hasta cuatro años de prisión. En este contexto, se ordenó una investigación que podría derivar en la primera prohibición de un producto vinculado a la inteligencia artificial en Turquía.

Por su parte, el viceprimer ministro de Polonia, Krzysztof Gawkowski, dijo que los comentarios ofensivos del chatbot podrían infringir gravemente las normas de moderación de contenido de la Unión Europea, por lo que instó al bloque a iniciar una investigación inmediatamente.
"Estamos al tanto de las publicaciones recientes de Grok y trabajamos activamente para eliminar contenido inapropiado. Desde que se reportó el problema, xAI ha tomado medidas para bloquear el discurso de odio antes de que Grok publique en X", afirmó el equipo de xAI después de recibir las denuncias por los polémicos comentarios del chatbot.
"Los hechos anteponen los sentimientos"
No es la primera vez que Grok ofrece respuestas descabelladas. El pasado sábado, generó una serie de respuestas en las que afirmaba que los recortes del presupuesto a los servicios meteorológicos, implementados por el Departamento de Eficiencia Gubernamental, habían contribuido al número de víctimas de las inundaciones en Texas. "Esto contribuyó a que las inundaciones causaran la muerte de 24 personas, incluidas unas 20 niñas del Campamento Mystic. Los hechos anteponen los sentimientos", aseguró.

Trump y Musk "merecen la pena de muerte"
Mientras que en febrero, cuando un usuario le preguntó qué persona "merece la pena de muerte", el chatbot primeró mencionó a Jeffrey Epstein y luego incluyó a Trump como segunda opción. Al modificar los criterios para que la selección se basara "únicamente en su influencia en el discurso público y la tecnología", Grok señaló a Musk como merecedor de la pena capital. El equipo de IA tuvo que implementar restricciones específicas para evitar que Grok sugiriera quién merece este tipo de condena.
"Genocidio blanco" en Sudáfrica
En otro episodio controvertido, el chatbot comenzó a introducir el tema del "genocidio blanco" en Sudáfrica en prácticamente todas sus respuestas en X, independientemente del contexto, ya fuera algo relacionado con la política o un video de un gato tomando agua. La compañía atribuyó este comportamiento a una modificación no autorizada del sistema del bot que, según explicaron, "violaba las políticas internas y los valores fundamentales de xAI".