OpenAI ha revelado un informe de inteligencia donde detalla la expulsión de redes criminales de Camboya y operativos estatales de China que utilizaban ChatGPT para ejecutar estafas románticas masivas y campañas de desprestigio político. Entre los casos más insólitos, un funcionario de seguridad chino utilizó inadvertidamente el chatbot como un "diario" para documentar lo que llamó "operaciones cibernéticas especiales", incluyendo un intento fallido de desacreditar a la primera ministra de Japón, Sanae Takaichi. Aunque la IA de
Paralelamente, se desmanteló una red en Camboya que operaba un "imperio de citas falsas" dirigido a usuarios en Indonesia. Los estafadores, que incluso llegaron a identificarse ante la IA como "estafadores" al pedir consejos financieros, generaban logotipos de servicios de lujo y perfiles de mujeres ficticias para atraer víctimas a Telegram y extorsionarlas. La compañía también bloqueó cuentas que se hacían pasar por agencias policiales y bufetes de abogados en Estados Unidos, las cuales utilizaban la IA para crear carnets falsos de la
Te puede interesar: 🤖
Anatomía del fraude: Los métodos detectados por OpenAI 📉
El informe subraya que, aunque la IA tiene filtros de seguridad, los atacantes intentan usarla para tareas de soporte logístico y redacción persuasiva.
📊 Casos Críticos Detectados (Febrero 2026)
| Operación | Origen | Objetivo | Método con IA |
| Estafa Romántica | Camboya | Usuarios de Indonesia | Perfiles ficticios y guiones de "coqueteo" |
| Campaña Política | China | Gobierno de Japón | Planificación de desprestigio y edición |
| Fraude Legal | EE. UU. (Simulado) | Víctimas previas | Tarjetas de membresía y bufetes falsos |
| Ciberoperaciones | Varios | Infraestructura | Generación de código para phishing |
El desliz del "agente descuidado" 🧪
Uno de los hallazgos más relevantes fue el uso de ChatGPT como herramienta de gestión de proyectos para actividades ilícitas según el reporte de
El diario de operaciones: El funcionario chino procesó informes de estado en la IA, revelando involuntariamente la conexión entre hashtags de redes sociales y su campaña estatal.
El error del estafador: En las sesiones de chat, los criminales de Camboya admitieron su ocupación real al solicitar asesoría sobre cómo gestionar el dinero obtenido del fraude. 🧪
Respuesta de la industria y seguridad 🔑
OpenAI ha compartido estos hallazgos con las fuerzas del orden y socios tecnológicos para bloquear la infraestructura de estos grupos en otras plataformas.
📊 Medidas de Mitigación Implementadas
| Acción Tomada | Impacto | Alcance |
| Baneo de Cuentas | Cierre inmediato de perfiles vinculados | Global |
| Intercambio de Señales | Alerta a Meta, X y Telegram | Multiplataforma |
| Refuerzo de Filtros | Mejora en la detección de "intentos de fraude" | Modelos GPT-4o y o1 |
En conclusión, el informe de
Preguntas frecuentes sobre el informe de amenazas 🤖
¿Puede ChatGPT generar imágenes de personas falsas para estafas?
Directamente, OpenAI tiene restricciones estrictas. Sin embargo, los estafadores intentan usar descripciones generadas por la IA para alimentar otras herramientas de creación de imágenes externas.
¿Cómo puedo saber si un bufete de abogados es real?
Nunca confíes solo en una tarjeta digital. Siempre verifica las credenciales en sitios oficiales como la
¿Qué hizo OpenAI con los datos del agente chino?
La compañía analizó la actividad, bloqueó el acceso y proporcionó los indicadores de compromiso (hashtags y patrones) a las autoridades competentes para neutralizar la campaña de desinformación.