La estafa que se ha coronado como la más peligrosa y extendida en las redes sociales durante este 2025 no llega con las fanfarrias de un virus informático ni con la complejidad de un ataque de denegación de servicio. Por el contrario, se desliza silenciosamente en nuestras vidas digitales, vistiendo el disfraz de la normalidad y la confianza. Se aprovecha de nuestra conexión constante y de la familiaridad que sentimos en plataformas como Instagram, Facebook o TikTok. El verdadero peligro reside en su aparente inocuidad, en un simple mensaje o una etiqueta en una publicación que, sin que lo sospechemos, puede abrir la puerta a un quebradero de cabeza financiero y personal de dimensiones considerables.
El ingenio de los ciberdelincuentes ha evolucionado hasta crear un ecosistema de engaño casi perfecto, donde la prisa y la curiosidad son los principales aliados del fraude. Ya no se trata de correos electrónicos con una redacción torpe y promesas inverosímiles que alertaban hasta al más despistado. Ahora, la amenaza se personaliza, utiliza nuestra propia red de contactos como cebo y explota la ingeniería social con una precisión quirúrgica. Comprender su funcionamiento no es una opción, sino una necesidad imperiosa para navegar con seguridad en un entorno digital donde, tras una foto de perfil atractiva o una oferta irresistible, se esconde a menudo un calculado intento de vulnerar nuestra privacidad y nuestro bolsillo.
4LA NUEVA FRONTERA DEL FRAUDE: INTELIGENCIA ARTIFICIAL AL SERVICIO DEL CRIMEN

La evolución de este tipo de engaños ha dado un salto cualitativo con la irrupción de la inteligencia artificial generativa. Los indicios que antes nos permitían detectar un fraude, como una redacción torpe o errores gramaticales, están desapareciendo. Ahora, los mensajes fraudulentos pueden ser redactados por una IA con una perfección lingüística indistinguible de la de un hablante nativo, adaptándose incluso a la jerga y al tono de un grupo de edad específico. Las imágenes de perfil ya no son necesariamente robadas; se crean desde cero avatares hiperrealistas de personas que no existen, lo que complica enormemente la tarea de discernir lo real de lo artificial. Esta nueva sofisticación obliga a los usuarios a ser todavía más escépticos, convirtiendo cada interacción con desconocidos en un potencial campo de minas, y elevando el nivel de amenaza de cualquier estafa.
El siguiente nivel, que ya se está viendo en casos aislados pero cuya frecuencia va en aumento, es el uso de la clonación de voz y los ‘deepfakes’ de vídeo. Los delincuentes pueden tomar una muestra de voz de un vídeo público que hayamos subido a nuestras redes sociales y utilizarla para crear un mensaje de audio o incluso simular una llamada telefónica. Imaginemos recibir una llamada de un familiar pidiendo dinero urgentemente con una voz idéntica a la suya. El impacto emocional es tan grande que anula cualquier defensa racional. Esta técnica, aplicada a la estafa, representa un peligro sin precedentes, pues ataca directamente la confianza que depositamos en nuestros sentidos, y nos demuestra que debemos verificar la información incluso cuando la fuente parece incuestionablemente auténtica.