
Una respuesta automatizada de la inteligencia artificial Grok generó una tormenta inesperada en X (antes Twitter). Elon Musk, fundador de la red social y de la empresa detrás de la IA, se mostró visiblemente molesto por un análisis que contradecía su visión política. El episodio abre un debate sobre hasta dónde puede —o debe— llegar la objetividad de una IA cuando sus resultados no agradan a sus propios creadores.
¿Qué fue lo que dijo Grok?
Todo comenzó cuando un usuario en X preguntó: “¿Desde 2016, ha sido más violenta la izquierda o la derecha en EE. UU.?”. Grok, el modelo de lenguaje integrado en la plataforma y desarrollado por xAI, respondió con datos concretos:
“Los actos de violencia política en EE. UU. desde 2016 han sido atribuidos en su mayoría a extremistas de derecha, tanto en frecuencia como en letalidad”.
Además, Grok citó ejemplos de ataques y estadísticas que sustentaban su conclusión. Lo sorprendente no fue solo la respuesta en sí, sino la reacción que provocó en el mismo Elon Musk.
La respuesta de Musk: “Esto es objetivamente falso”
A través de su cuenta en X, Musk respondió con dureza, calificando el análisis de Grok como “objetivamente falso” y acusando a su IA de estar “repitiendo lo que dicen los principales medios de comunicación”. El multimillonario añadió que “estamos trabajando para arreglar esto”, dejando entrever que se implementarían cambios en la manera en que Grok recopila y analiza información.
La respuesta de Musk fue ampliamente comentada, ya que se interpretó como un intento de censurar o intervenir en el funcionamiento de una IA que, al menos en teoría, debería operar con autonomía frente a los hechos verificables.
¿Qué dicen los datos?
Contrario a la posición de Musk, múltiples informes respaldan la conclusión entregada por Grok. Un estudio del Centro de Estudios Estratégicos e Internacionales (CSIS) muestra que el 75 % de los ataques violentos con motivación política en Estados Unidos desde 2016 han sido perpetrados por extremistas de derecha, frente a un 20 % atribuido a la extrema izquierda.
Estos datos coinciden con los informes del Departamento de Seguridad Nacional de EE. UU., que han identificado al extremismo de derecha como la principal amenaza terrorista doméstica del país.
El dilema ético: ¿puede una IA decir lo que piensa?
El incidente reaviva una pregunta crucial en la era de la inteligencia artificial: ¿deben los desarrolladores intervenir en las respuestas de sus sistemas cuando los resultados incomodan o contradicen narrativas dominantes, incluso personales?
Por un lado, los modelos como Grok operan en función de grandes volúmenes de datos y entrenamiento estadístico. Si bien pueden estar influenciados por los sesgos de sus fuentes, su diseño busca reflejar patrones reales y no opiniones subjetivas. Por otro lado, la presión de figuras públicas como Musk plantea un riesgo: que las inteligencias artificiales se conviertan en extensiones ideológicas más que en herramientas objetivas.
Lo que viene: ¿una Grok más “moderada”?
Tras su respuesta pública, Musk prometió que Grok “será ajustada”. No está claro si esto implicará modificar los datos que utiliza, sus fuentes, o la forma en que presenta análisis sensibles. Lo que sí es evidente es que la autonomía de la inteligencia artificial sigue siendo un terreno en disputa, incluso para quienes la desarrollan.
En un mundo donde las IA están cada vez más integradas a la vida cotidiana, este episodio demuestra que la pregunta no es solo qué puede decir una IA, sino qué se le permitirá decir.
Debe estar conectado para enviar un comentario.