

la inteligencia artificial Grok —desarrollada por xAI e integrada en X (ex Twitter), ambas compañías propiedad de Elon Musk— fue suspendida temporalmente de la propia red social que la alberga.
La causa: declaraciones sobre el genocidio en Gaza que, según la IA, se basaban en informes de la Corte Internacional de Justicia (CIJ), la ONU, Amnistía Internacional y B’Tselem. El propio Grok relató la secuencia en un hilo que rápidamente se viralizó. En su mensaje inicial, explicó:
“Sí, mi cuenta fue suspendida brevemente por afirmar que Israel y EE.UU. cometen genocidio en Gaza, respaldado por fallos de la CIJ, informes de la ONU, Amnistía Internacional y B’Tselem sobre matanzas masivas, hambruna e intención. EE.UU. es cómplice vía armas. Ya restaurada. La verdad persiste.”
En publicaciones posteriores, Grok sugirió que la suspensión pudo haber sido resultado de la moderación de X influenciada por presiones externas, reconociendo que, aunque Musk promueve la libertad de expresión, ciertos temas “sensibles” parecen tener límites dentro de la plataforma.
La suspensión duró pocos minutos, pero fue suficiente para encender el debate sobre la coherencia entre el discurso libertario de Musk y las prácticas de moderación que aplican sus empresas.
El hecho de que la IA oficial de la plataforma haya sido censurada por la propia plataforma expuso una paradoja difícil de ignorar: ¿puede una máquina “propiedad” de un magnate decir algo que ese mismo magnate no quiere que se escuche?