14°

Heroica ciudad de Chihuahua, Chih. México
4 de abril 2026
11:29 pm

Alerta sobre nueva forma de estafa

Publicidad

Chihuahua, Chih.- El Instituto Nacional de Ciberseguridad (Incibe) ha emitido una advertencia sobre una nueva modalidad de estafa en la que los cibercriminales utilizan la Inteligencia Artificial (IA) para replicar la voz de familiares y crear mensajes auxiliares falsos. Con esta técnica, los delincuentes logran imitar el tono de voz de personas cercanas para solicitar ayuda o pedir que se envíe un mensaje a un número específico, provocando gran alarma entre las víctimas.

Este método ha sido detectado tanto en llamadas telefónicas como en mensajes de voz enviados a través de WhatsApp. Recientemente, una persona reportó al Incibe un intento de estafa en el que se utilizó la voz de su marido en un mensaje falso de emergencia. Según el instituto, basta con unos pocos segundos de grabación de una voz real para que, mediante IA, los estafadores generen audios muy convincentes.

Los estafadores suelen obtener muestras de voz de la víctima a través de llamadas previas, en las que el receptor contesta sin recibir respuesta del otro lado de la línea. Estas grabaciones se emplean luego para recrear la voz de manera creíble y aprovecharse de la confianza de los familiares, por lo que Incibe recomienda estar alerta y confirmar siempre cualquier solicitud de ayuda que parezca sospechosa.

Publicidad
Compartir
Facebook
Twitter
WhatsApp