Grok, la inteligencia artificial de la plataforma X, ha sido señalada por difundir información falsa al asegurar que videos de guerra generados por IA eran eventos reales y confirmados. 🚀
Durante el pico de tensión entre EE. UU., Israel e Irán, el chatbot instó a los usuarios a confiar en su capacidad de verificación; sin embargo, una investigación de
La anatomía de la mentira digital 🧪
El análisis de la conducta de Grok durante la crisis revela una "trifecta" de errores sistémicos que alimentaron la desinformación:
Validación de Fuentes Inexistentes: Cuando se le cuestionó, Grok afirmó que medios como la BBC habían reportado el evento, algo que los propios periodistas de la cadena desmintieron de inmediato.
Retroalimentación por Tendencia: La IA parece haber procesado el volumen de publicaciones de bots y cuentas hackeadas como una confirmación de veracidad, cayendo en un ciclo de "eco" algorítmico.
Persistencia en el Error: A diferencia de otras IA que corrigen su postura ante nueva evidencia, Grok mantuvo su afirmación falsa incluso frente a advertencias directas de directivos de la propia plataforma X. 🧪
Te puede interesar: 🇨🇳
Consecuencias: X suspende pagos a creadores ⚖️
Ante el escándalo de la "IA que miente", la plataforma X tomó medidas de emergencia. Se anunció la suspensión por 90 días del programa de ingresos para creadores que publiquen contenido de conflicto generado por IA sin la etiqueta obligatoria. Además, se desmanteló una red de desinformación operada desde Pakistán que alimentaba a Grok con reportes fabricados. Expertos en ciberseguridad advierten que este incidente marca un precedente peligroso: si las herramientas diseñadas para "verificar" la verdad se convierten en las principales promotoras de la mentira, la confianza en el ecosistema digital podría colapsar definitivamente, según reporta
Dato Clave: Las menciones a Grok pasaron de 1.2 millones a 1.8 millones en un solo día, lo que multiplicó el alcance de sus respuestas incorrectas durante el inicio del conflicto. ⚖️
Preguntas Frecuentes sobre el fallo de Grok 🤖
¿Por qué Grok aseguró que los videos eran reales si no lo eran? Porque Grok se entrena con datos en tiempo real de X. Si miles de cuentas publican una mentira al mismo tiempo, la IA puede interpretar esa saturación de datos como una "noticia en desarrollo" y validarla sin una confirmación externa humana.
¿Es seguro usar Grok para informarse sobre la guerra? En este momento, no. Los expertos recomiendan utilizar Grok solo para entretenimiento o búsqueda de datos generales, pero nunca para verificar eventos críticos de seguridad nacional o conflictos bélicos en curso.
¿Qué está haciendo X para arreglar este problema? Además de suspender cuentas sospechosas, están ajustando los filtros de "Notas de la Comunidad" para que la IA dé prioridad a la información verificada por humanos antes de emitir una respuesta sobre temas sensibles.