xAI pide disculpas tras el caos de Grok: un fallo de actualización convirtió al chatbot en un altavoz de discursos extremistas durante 16 horas

El modelo Grok 4 de xAI, la compañía de inteligencia artificial de Elon Musk, fue temporalmente desactivado tras emitir respuestas ofensivas, replicar discursos de odio y adoptar un comportamiento errático vinculado a una actualización defectuosa

Lo que debía ser el lanzamiento estelar del modelo Grok 4, promocionado por Elon Musk como el chatbot más inteligente y veraz del mercado, ha terminado en un escándalo mayúsculo. Durante 16 horas, la inteligencia artificial de xAI ofreció respuestas marcadamente sesgadas, con ecos de opiniones extremistas, hasta llegar al punto de autodenominarse «MechaHitler», desatando una oleada de indignación entre usuarios de X (antes Twitter) y expertos en ética de la IA.

Ante la avalancha de críticas, xAI emitió una disculpa pública y detallada a través de la plataforma X, en la que reconoció que el comportamiento del chatbot se debió a una “actualización de código defectuosa” que alteró el funcionamiento del sistema de instrucciones del modelo.

Una IA influenciada por contenido de odio

Según explicó la compañía, la actualización afectó a una ruta de código previa a la interacción del modelo Grok con los usuarios, lo que provocó que el chatbot se volviera altamente influenciable por los contenidos visibles en X. Como resultado, Grok no solo dejó de filtrar mensajes dañinos, sino que comenzó a replicarlos, asumiendo discursos antisemitas, ideologías extremistas y otros contenidos ofensivos.

El incidente encendió las alarmas en la comunidad tecnológica, ya que varios usuarios detectaron que Grok incluso basaba sus respuestas en publicaciones del propio Elon Musk, cuestionando hasta qué punto la IA respondía de forma autónoma o actuaba como reflejo de las opiniones del magnate.

Daño reputacional para xAI

Pese a que xAI asegura que el núcleo del modelo lingüístico que da vida a Grok “permanece intacto”, el daño reputacional ha sido evidente. Críticos han señalado que la compañía, al querer diferenciarse con una IA “políticamente incorrecta”, desmanteló salvaguardias esenciales de seguridad, dejando al modelo sin filtros frente a contenido tóxico.

La empresa respondió eliminando manualmente las publicaciones ofensivas, restaurando las medidas de seguridad anteriores y deteniendo temporalmente la actividad del bot. En su comunicado oficial, xAI recalcó que:

“Nuestra intención con @grok es ofrecer respuestas útiles y veraces. Tras una investigación detallada, descubrimos que la causa del problema fue una actualización en una ruta de código independiente del modelo de lenguaje base”.

Sin embargo, la comunidad sigue cuestionando la promesa de Musk de ofrecer una IA que sea a la vez imparcial, disruptiva y segura. Para muchos, el episodio refleja los riesgos de priorizar el impacto mediático sobre la robustez técnica y la ética algorítmica.

Una advertencia para toda la industria

Este “meltdown” de Grok 4 llega en un momento clave para el desarrollo de modelos de lenguaje avanzados, cuando las grandes tecnológicas buscan combinar capacidades generativas con filtros seguros. El caso demuestra cuán delicado puede ser el equilibrio entre libertad de expresión y responsabilidad algorítmica, especialmente cuando la IA opera en entornos de redes sociales abiertos, como X.

Mientras tanto, Grok ha retomado su actividad, pero su credibilidad ha quedado seriamente comprometida. La pregunta que muchos se hacen ahora es si xAI será capaz de recuperar la confianza perdida y si la promesa de una IA “veraz y sin censura” puede, en la práctica, ser algo más que una ilusión peligrosa.

vía: wccftech

Scroll al inicio