Cuidado con los vídeos en los que personajes famosos prometen ganar hasta 30.000 euros
Los timadores usan voces clonadas, imágenes manipuladas y logos falsos para suplantar a figuras públicas y promocionar plataformas de inversión no autorizadas
"Con esta plataforma podrás ganar hasta 30.000 euros al mes". Con este tipo de mensajes circulan vídeos manipulados con inteligencia artificial en los que políticos y figuras conocidas como Yolanda Díaz, Pedro Sánchez, Ana Botín o Florentino Pérez supuestamente promocionan plataformas de inversión. Los vídeos, creados a partir de grabaciones reales, usan técnicas de clonación de voz y edición facial para simular declaraciones que nunca ocurrieron.
Relacionadas
Estos contenidos, según señala Maldita.es, han sido alterados con herramientas de inteligencia artificial que permiten clonar voces, sincronizar labios y generar discursos inventados. En algunos casos, los vídeos incluyen logotipos de medios como RTVE, aunque no hay rastro de ellos en sus canales oficiales.
Los vídeos originales no mencionan ninguna plataforma de inversión: el de Yolanda Díaz corresponde a una rueda de prensa en Sevilla el 1 de julio y el de Ana Botín a una entrevista publicada por La Jornada durante una visita a México en febrero de 2025.
Además, la cuenta de YouTube que difundió los vídeos de Sánchez y Díaz se abrió el 15 de julio con el nombre Start Now in 2025. La que compartió el vídeo manipulado de Botín fue creada el 21 de julio y utiliza el nombre del diario ABC. En el caso de Florentino Pérez, el vídeo lo publicó una cuenta de Facebook usa el nombre de El Mundo y está administrada desde Vietnam, Estados Unidos y Filipinas.
Un experto advierte del peligro de utilizar la IA para las apuestas deportivas
Páginas web falsas
El objetivo de estos vídeos es redirigir a los usuarios a páginas web que simulan ser plataformas de inversión. Algunas aseguran estar avaladas por el Gobierno, el Banco de España o la Comisión Nacional del Mercado de Valores (CNMV). Solicitan una inversión inicial de 250 euros y garantizan beneficios mensuales de entre 20.000 y 30.000 euros, sin necesidad de experiencia previa.
Una trabajadora gana el juicio a la empresa que la sustituyó por inteligencia artificial
La Comisión Nacional del Mercado de Valores (CNMV) ha advertido que este tipo de vídeos "simulan la voz de un personaje o de un responsable público para recomendar inversiones fraudulentas, lo que se conoce como deepfake". El organismo recomienda extremar precauciones y consultar su buscador de entidades autorizadas antes de invertir.
Almudena Barreiro, experta en inteligencia artificial, explica que "son cada vez más accesibles, tanto para usuarios comunes como para ciberdelincuentes" y que "suelen ser muy asequibles o incluso gratuitas". Según Nieves Ábalos, cofundadora de Monocero Labs, existen versiones más simples conocidas como cheapfakes, que aunque de menor calidad, también pueden resultar convincentes.
Peligros de la clonación de voz
La clonación de voz, también conocida como voice hacking, puede tener consecuencias muy negativas tanto para quien la sufre como para otras personas y detectada a tiempo puede evitar graves perjuicios económicos. Puede suponer también un robo de identidad y es uno de los riesgos más serios asociados a esta estafa. La consecuencia puede causar pérdida de dinero, pero también tener dificultades para restaurar la propia identidad.
Los delincuentes, sin escrúpulos, también pueden usar esta técnica para enviar mensajes falsos que afecten a la reputación o a la imagen personal o profesional de una persona, con el perjuicio que eso supone. Una voz clonada puede ser utilizada para enviar mensajes falsos o comprometedores que dañen las relaciones familiares, amistosas o laborales.
Medidas de protección
Para protegerse de los fraudes de clonación de voz y minimizar los riesgos, desde el Incibe (Instituto Nacional de Seguridad) aconsejan combinar medidas preventivas y prácticas de seguridad. El organismo pide desconfiar de las llamadas que recibamos de números desconocidos. En primer lugar, hay que mantener la calma, dudar de las peticiones urgentes y verificar la identidad de la otra persona antes de compartir cualquier información personal.
También recomienda cambiar las contraseñas con regularidad y que estas sean seguras y difíciles de adivinar. No se debe utilizar la misma contraseña en muchas cuentas distintas.
Configurar la autenticación de voz en dispositivos para que respondan solo a tu voz añade una capa adicional de seguridad dificultando así que los estafadores utilicen una voz clonada para acceder a tus dispositivos.
En el caso del asistente de Google, debes evitar usar el asistente de voz en lugares públicos. Podría ser captado por otros dispositivos y utilizado después para crear un perfil de tu voz.
Tener tu dispositivo actualizado corregirá fallos de seguridad, lo protegerá contra nuevos tipos de ataques y reducirá también su vulnerabilidad, que podría ser aprovechada por los delincuentes para atacarte.
Temas
Más en Berm@tu
-
Timadores usan la imagen del doctor Pedro Cavadas para promocionar 'productos milagro'
-
María, la asistente virtual de la DGT que resuelve dudas y trámites con IA
-
Cómo los timadores suplantan a Maisons du Monde para hacerse con tu dinero
-
El verdadero potencial de la tecnología en las aulas es la Inteligencia Artificial