top of page

Ciberestafas con IA en México: lecciones vigentes para banca, aseguradoras y marketplaces

Deepfakes de voz y mensajes urgentes: MFA, verificación y cero enlaces sospechosos.
Deepfakes de voz y mensajes urgentes: MFA, verificación y cero enlaces sospechosos.

Autoridades y medios han documentado modalidades de fraude que usan IA generativa para suplantar identidades y extraer credenciales: clonación de voz para simular a un familiar o ejecutivo bancario; videos o imágenes deepfake para dar “legitimidad” a un trámite; y mensajes con enlaces a supuestos reembolsos, entregas o “recuperación” de bienes.

 

En México, la Policía Cibernética y divulgadores tecnológicos insisten en prácticas de higiene digital: MFA robusta, verificación por canal oficial (colgar y devolver la llamada a números de la institución), y nunca compartir OTP o claves de banca.

 

Para organizaciones, tres frentes: (1) segmentar accesos y activar monitoreo de anomalías (ubicación, dispositivo, biometría); (2) entrenar al personal en phishing/vishing, con simulaciones y table-top de respuesta; (3) políticas claras de qué jamás se pide por teléfono o chat.

 

En aseguradoras y marketplaces, conviene reforzar procesos de KYC, verificación de identidad y alertas de ingeniería social para vendedores y compradores. Para familias, acordar palabras clave y validar emergencias por múltiples canales.

 

Aunque no es un pico de hoy, el crecimiento de estas tácticas en temporadas de alto consumo demanda prevención continua y canales de denuncia visibles.

 

Fuentes: 


Comentarios


bottom of page