Cada vez son más frecuentes las llamadas engañosas generadas con voces clonadas por inteligencia artificial (IA). Este tipo de métodos de robo es un tipo de ciberataque que usa esta tecnología para clonar voces, reemplazando la identidad de familiares o amigos para hacer que sus víctimas confíen de manera más directa. Esto puede ser muy peligroso si no tomamos los recaudos necesarios.
De acuerdo con una encuesta realizada por la empresa de seguridad “McAfee”, el 77% de los usuarios son víctimas de llamadas de este tipo de modalidad, dónde terminaron enviando dinero a los ciberdelincuentes. Por este motivo, en este artículo ahondaremos sobre qué debes saber para identificar este tipo de estafas y no perder todos los fondos de tu cuenta bancaria o datos sensibles de tu información personal.
Cómo funciona esta modalidad llamadas de robo

Este reciente tipo de engaños comienza con una llamada telefónica en la que los estafadores utilizan una voz clonada por IA para hacerse pasar por alguien cercano de la familia o círculo de amistad. La modalidad de este tipo de llamadas es simular una situación de emergencia en la que el supuesto familiar o amigo le pide de manera urgente el envío de dinero. Cada vez son más habituales estas estafas, que confunden a las personas con voces de familiares de nuestro entorno.
Estas llamadas de estafadores también afectan a las empresas. Los cibercriminales usan la clonación de voz para hacerse pasar por superiores y así engañar a los empleados para hacer considerables transferencias de dinero. Esta técnica de suplantación es una combinación de deepfake de voz y robo de identidad, lo cual incrementa significativamente su efectividad y la dificultad para identificarlo.
Esta técnica de suplantación es una combinación de deepfake de voz y robo de identidad.
WhatsApp: el foco de interés de los ciberdelincuentes

La IA ha permitido en el último tiempo que los estafadores accedan a datos personales y a contactos para hacer estas llamadas peligrosas. Para lograr esta modalidad deben recopilar grabaciones o muestras de voz para replicarlas y llevar a cabo las estafas. En la misma línea, estos delincuentes también robaron cuentas de WhatsApp para generar un clima de confianza en las víctimas mediante mensajes previos a las llamadas.
La protección contra estas amenazas radica en comprender cómo funcionan estas tecnologías y ser muy cuidadosos con las solicitudes inesperadas de ingresos de nuestra cuenta bancaria. Las estafas con voces clonadas por IA son un gran reto por vencer para la protección de datos y privacidad, asociados directamente con la inteligencia artificial. Así que debes juntar toda la información necesaria para estar resguardado ante estas situaciones.