🚨 "Mamá, Soy Yo": La Nueva Oleada de Estafas en México que Usan Deepfake de Voz para Robar Identidad y Dinero a Través de Llamadas (+DETALLES)

México enfrenta una nueva y sofisticada ola de estafas donde la Inteligencia Artificial (IA) se convierte en el arma más personal de los ciberdelincuentes: el deepfake de voz. Esta técnica permite clonar la voz de un familiar, un hijo o un ser querido con solo unos segundos de audio, usando la urgencia y el vínculo emocional para defraudar y robar identidad.

El modus operandi consiste en simular una emergencia (accidente, secuestro exprés o un problema en el extranjero) para forzar a la víctima a realizar transferencias bancarias inmediatas. Ante la preocupación social, la Guardia Nacional y las unidades de Policía Cibernética en estados como Sonora han emitido alertas urgentes con tácticas de defensa inmediata.


🎙️ Así Funciona la Clonación de Voz con IA

El proceso de robo de identidad con deepfake de voz es alarmante por su simpleza y alta efectividad:

  1. Recolección de Audio: Los estafadores obtienen una muestra de la voz de la persona objetivo (videos en redes sociales, mensajes de voz de WhatsApp).

  2. Entrenamiento del Modelo: Utilizan software de IA que analiza las frecuencias, el tono y los patrones de habla para replicar la voz con una precisión que, bajo el factor sorpresa y el pánico, resulta indistinguible.

  3. El Engaño (Suplantación): El delincuente llama a la víctima (usualmente padres o abuelos), empleando la voz clonada para simular una crisis, a menudo un "fraude del secuestro" o una "estafa del abuelo".

Según el Consejo Ciudadano para la Seguridad y Justicia, esta facilitación por parte de la IA está disparando las prácticas de fraude, subrayando que la falta de regulación sobre el uso de audios personales es tan peligrosa como la ausencia de normas en la gran lucha por la Propiedad Intelectual en EE. UU..


TE PUEDE INTERESAR 👇


🛡️ Guía de Ciberseguridad Urgente: Tácticas de Defensa

La mejor defensa contra este tipo de estafa es el protocolo de calma y verificación cruzada. La Secretaría de Seguridad y Protección Ciudadana (SSPC) y la Unidad Cibernética de la SSC-CDMX aconsejan aplicar estas tácticas de defensa inmediata:

TácticaAcción InmediataObjetivo
Párate y PiensaMantén la calma y cuelga inmediatamente.La estafa se basa en la presión y la angustia para anular la racionalidad.
La Pregunta SecretaHaz una pregunta de seguridad personal que solo el familiar real sabría (Ej: nombre de una mascota o un recuerdo íntimo).Un estafador con voz clonada no tiene acceso a detalles personales privados.
Verificación CruzadaContacta a la persona supuestamente en apuros por otro canal (otro número, WhatsApp, o llama a otro familiar para confirmar).No confíes en el número que te llama, ya que puede estar suplantado (spoofing).
Palabra Clave FamiliarEstablece una palabra o frase de seguridad con tu círculo íntimo. Si no la dicen, es una estafa.Es la defensa más robusta contra la suplantación de identidad.

Los expertos de ciberseguridad señalan que los deepfakes de voz en tiempo real aún presentan imperfecciones digitales perceptibles, como una expresión monótona, eco o un leve "zumbido" electrónico, que son difíciles de detectar cuando se está bajo pánico.

La Guardia Nacional recuerda que, en caso de ser víctima o para realizar una denuncia, se puede llamar al 088 o contactar a la Policía Cibernética de la entidad correspondiente como se detalla en sus alertas oficiales de prevención.

Manténgase al día con la información minuto a minuto en Facebook Twitter/X Threads Bluesky ¡NEWSTECNICAS su ventana tecnológica!