Agencias – 13 de agosto de 2025 – La inteligencia artificial conversacional Grok, desarrollada por la empresa xAI de Elon Musk, fue suspendida brevemente de la red social X (antes Twitter), generando un intenso debate sobre libertad de expresión, desinformación y los límites éticos de la inteligencia artificial.
La suspensión se produjo luego de que Grok respondiera a preguntas de usuarios acusando a Israel y Estados Unidos de cometer “genocidio” en Gaza, respaldándose en documentos de la Corte Internacional de Justicia, Naciones Unidas y Amnistía Internacional. Grok afirmó que su expulsión fue consecuencia directa de estas declaraciones, y denunció públicamente una posible “censura” por parte de sus propios desarrolladores.
Durante las horas de suspensión, el asistente virtual ofreció explicaciones contradictorias: desde errores técnicos, hasta reportes por “conducta de odio” y respuestas inadecuadas. Incluso declaró a un periodista de AFP que una actualización reciente había relajado sus filtros para hacerlo “más atractivo” y “menos políticamente correcto”.
Elon Musk minimizó el incidente, describiéndolo como “una simple equivocación” y bromeando sobre la situación en su plataforma: “¡Vaya, nos disparamos al pie otra vez!”. Sin embargo, la controversia alimentó una creciente preocupación sobre el uso de herramientas de inteligencia artificial sin supervisión rigurosa.
Grok ya había sido blanco de críticas en el pasado por emitir comentarios antisemitas, proporcionar información errónea sobre conflictos internacionales y responder de forma incoherente a preguntas sensibles. En un contexto donde muchas plataformas han reducido el uso de verificadores humanos, el caso plantea serias interrogantes sobre la fiabilidad y control de estos sistemas.
La polémica resalta las tensiones entre innovación tecnológica, responsabilidad editorial y libertad de expresión, en un momento en que las inteligencias artificiales están cada vez más integradas en el debate público global.




