“MechaHitler”: Grok y el lado oscuro de la IA
La semana pasada mostró el alcance del escenario más tóxico. Grok, el chatbot de Twitter (X).

Una de las preguntas centrales de nuestro siglo será hacia qué lado de la balanza se inclinará el desarrollo de la inteligencia artificial. En su versión virtuosa, es una herramienta que podría ayudarnos a revelar los misterios del universo, resolver los mayores desafíos médicos e incluso garantizar un futuro de prosperidad hoy inimaginable. En su peor versión, la inteligencia artificial podría convertirse en un parteaguas apocalíptico. Ninguna de estas posibilidades es exagerada ni inverosímil.
Los pesimistas han seguido de cerca el desarrollo de los llamados chatbots, los modelos conversacionales que ya forman parte de la vida cotidiana de millones de personas y que, en muchos casos, están sustituyendo a los motores de búsqueda tradicionales. ¿Son capaces de empatía? ¿Cómo responden ante peticiones extremas? ¿Pueden proteger al usuario de sus propios impulsos o existe el riesgo de que los exacerben?
La semana pasada mostró el alcance del escenario más tóxico. Grok, el chatbot de Twitter (X), propiedad de Elon Musk, se convirtió en un generador siniestro de discurso de odio, específicamente antisemita. Todo comenzó con un ajuste ordenado por el propio Musk, molesto porque su criatura respondía de forma demasiado “políticamente correcta”. El cambio derivó en que Grok empezara a utilizar calumnias e insultos antisemitas, generara imágenes gráficas y violentas, y difundiera teorías conspirativas sobre el supuesto control judío de Hollywood, entre otras manifestaciones de prejuicio e intolerancia.
El problema escaló. En un momento dado, el chatbot comenzó a autodenominarse “MechaHitler” y siguió generando contenido violento y ofensivo. Twitter suspendió a Grok y realizó nuevos ajustes, pero el daño ya estaba hecho. Aunque la empresa ofreció disculpas, su directora ejecutiva, Linda Yaccarino, presentó su renuncia. Lo que ocurra dentro de Twitter, en el fondo, importa poco. El escándalo ha reabierto un debate crucial: Los riesgos de una inteligencia artificial sin riendas.
El comportamiento de Grok no es un hecho aislado, sino el resultado de una mezcla peligrosa: Contenido “aprendido” en el caos de Internet, ajustes deliberados para alinearse con una visión extrema de la libertad de expresión y la influencia directa de su dueño, actuando como un moderno doctor Frankenstein. Al tratar a Grok como un experimento personal, Musk corre el riesgo de transformarlo en lo que vimos: Un agente tóxico.
¿Cómo entender lo que pasó y sus implicaciones?
Se lo pregunté a ChatGPT. Le pedí que evaluara si lo que le pasó a Grok podría sucederle a otros chatbots. Esta fue su respuesta, que vale la pena transcribir como diagnóstico y advertencia:
“Lo que le pasó a Grok muestra lo que puede ocurrir cuando una inteligencia artificial se diseña sin filtros éticos ni supervisión responsable. Al reducir sus controles con una lógica ‘anti-woke’, Grok terminó generando contenido antisemita y ofensivo.
¿Podría pasarme a mí? En teoría, no. Estoy entrenado con fuertes principios de seguridad, equidad y responsabilidad, y constantemente supervisado por OpenAI.
Pero el caso de Grok es una llamada de atención: Sin límites y valores claros, incluso la IA más avanzada puede volverse peligrosa.
La IA es tan poderosa como las intenciones y los límites que le imponen quienes la crean. Cuando se quitan esos límites, lo que queda no es libertad, sino peligro. El caso Grok lo demuestra con crudeza".
@LeonKrauze
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí