Cómo detectar estafas con IA para proteger tu dinero

Actualidad

Cómo detectar estafas con IA para proteger tu dinero

Publicado por Kosmos

29 de agosto de 2025

Las llamadas de “familiares” que necesitan dinero urgente se han vuelto más convincentes y peligrosas con el uso de la IA. Aquí te explicamos cómo prevenir ser estafado y protegerte.

En este artículo

ChatGPT, Midjourney y otras herramientas de IA son de utilidad para facilitar una gran variedad de tareas. Pero así como se pueden usar para cosas positivas, también hay muchos criminales que las utilizan para facilitar la tarea de engañar a otros. Por ello, no es una sorpresa que las estafas con inteligencia artificial vayan en aumento. Solo en 2024, estas estafas generaron pérdidas de más de 20.000 millones de pesos según Ricardo Amper, director de la empresa de ciberseguridad Incode. 

Conforme la IA se vuelve más sofisticada, no sería raro que el número crezca aún más en los años siguientes. Por ello, creemos que es importante informar acerca de estas estafas para ayudar a prevenirlas. En este blog post te explicamos en detalle el funcionamiento de dos de los modus operandi más comunes y qué puedes hacer para evitar ser víctima y perder dinero.

 

Tipos de estafas con IA más comunes

La inteligencia artificial se utiliza principalmente para hacer que la suplantación de identidad sea más convincente. Antes del acceso generalizado a la IA, la forma más común de suplantación de identidad era a través de mensajes escritos por correo electrónico, mensajes de texto o páginas web. Ahora pueden ir un paso más allá y utilizar elementos distintivos de una persona, como su voz y su rostro, para hacerse pasar por ellos y estafar a familiares y conocidos en su nombre. A continuación te explicamos en más detalle cómo funciona.

 

Clonación de voz

Consiste en tomar muestras de voz de una persona y utilizarlas para entrenar a un modelo de inteligencia artificial. Las muestras de voz pueden venir de videos en redes sociales, pero también hay ocasiones en las que llaman a la víctima desde números desconocidos con la intención de grabar la voz cuando conteste la llamada. Finalmente, también hay aplicaciones de celular de dudosa procedencia que graban la voz en secreto una vez instaladas.

Una vez que tienen las muestras de voz, el modelo es capaz de generar audios con esa voz a partir de un texto. El resultado es un audio en el que imita la voz de la persona mientras dice lo que quiera el delincuente. Funciona bien para audios cortos, pero en audios más largos podrían aparecer inconsistencias como cambio en el tono de la voz o el acento. 

Es muy utilizado para hacer llamadas a familiares alegando que la víctima tiene una emergencia o está en un problema y necesita dinero urgentemente. También se usa frecuentemente para mensajes por audio en aplicaciones como WhatsApp. Los familiares reconocen la voz y se preocupan por la “urgencia” de la situación, así que transfieren el dinero. Los principales afectados suelen ser padres que reciben llamadas supuestamente de sus hijos adultos. 

Un ejemplo hipotético es el de una mujer que recibe una llamada de su hija de un número desconocido. Tan pronto contesta la llamada, su hija le dice que ha tenido un accidente y que necesita dinero urgente para pagar algún gasto en el hospital. Para justificar la situación, añade que ha perdido la cartera con sus tarjetas y que su teléfono se quedó sin batería. Además, insiste en que la situación es grave y que necesita el dinero inmediatamente. 

 

Videos deepfake

Este modelo de estafa es una extensión del anterior. En este caso, utilizan clips de video para copiar la apariencia de una persona y generar clips alterados utilizando su rostro y voz. Uno de los métodos más comunes es utilizar un video existente y utilizar inteligencia artificial para reemplazar el audio y hacer cambios menores a la apariencia. Las muestras de video vienen principalmente de redes sociales, ya que es de donde se pueden extraer más fácilmente debido a la popularidad de los videos cortos.

Al igual que con la clonación de voz, los videos deepfake funcionan bien durante unos segundos, pero rara vez llegan al minuto sin que aparezcan inconsistencias en la apariencia o en la voz de la persona. Si el video es lo suficientemente largo, se vuelve más sencillo detectar que es falso.

Esta modalidad de estafa es usada principalmente para robar la apariencia de actores, deportistas, influencers y otras personalidades públicas. Después, los videos deepfake se utilizan para anuncios en redes sociales promocionando formas de hacer dinero fácil y oportunidades de inversión con rendimientos ridículamente altos y asegurados.

Generalmente el video deepfake es un primer gancho para generar reconocimiento en las víctimas y aportarle credibilidad a lo que está publicitando. Una vez la víctima hace clic en el enlace, pueden ocurrir varias cosas. Una de las más comunes es que se le soliciten sus datos personales para utilizarlos en otras estafas. Otra muy común es agregar a la víctima a un grupo de WhatsApp donde se la presiona a transferir cantidades de dinero para ser invertidas. 

 

Cómo prevenir las estafas con IA

Con el creciente número de estafas que están ocurriendo, es posible que alguien intente estafarte a ti o a alguien cercano a tu círculo al menos una vez. Además de saber que estas estafas existen y cómo funcionan, hay ciertas acciones que puedes tomar para evitar ser víctima de una. 

Primero, esto es lo que puedes hacer para prevenir que suplanten tu identidad:

  • Sé cuidadoso con lo que compartes en redes sociales. Mientras más sepan los delincuentes sobre ti, más fácil será para ellos suplantar tu identidad de forma convincente. Por ello, evita dar demasiada información sobre los lugares que frecuentas, tus rutinas diarias y tu familia. 

  • Desconfía de las llamadas de números desconocidos. Si te llama un número desconocido, actúa con cautela y espera a que la persona que llama se identifique. Si nadie habla del otro lado, es posible que te estén grabando. También desconfía si te hacen preguntas sin identificarse primero.

  • Verifica aplicaciones antes de instalarlas. Puedes hacer una búsqueda en Google para ver opiniones de otros usuarios respecto a esa aplicación. Si no aparece nada, o lo que ves es negativo, tal vez sería mejor que no la instales y busques una alternativa. Dentro de la tienda de aplicaciones también hay señales de una aplicación fraudulenta, como tener pocas descargas, reseñas repetitivas o genéricas, logos e imágenes de baja calidad, errores gramaticales e inconsistencias. 

Por otro lado, estos son algunos consejos para evitar caer en estafas de clonación de voz con IA:

  • Desconfía de las llamadas y mensajes de números desconocidos. Si te llama un número desconocido o recibes un mensaje de voz y el interlocutor dice ser un familiar tuyo, desconfía inmediatamente. Mantén la calma y no dejes que la “urgencia” te influencie a transferir dinero. Pídele más información de la situación y detalles concretos. Ofrece ir personalmente al sitio para pagar. Si se enojan o se niegan, es probable que sea falso. 

  • Presta atención a la voz. Aunque la reconozcas, de todas formas escucha con atención y trata de ver si detectas algo raro. Por ejemplo, una voz sin emoción, con tono cambiante, con pronunciación rara o que utiliza palabras que tu familiar no suele usar.

  • Pide una videollamada para verificar la identidad. Por ejemplo, a través de WhatsApp. Si acceden, podrás ver a tu familiar en el momento y verificar que se trata de ellos. Si se niegan, probablemente es falso.

  • Llama al número de tu familiar para verificar si se trata de ellos. Para estar seguro, prueba a llamar al número de tu familiar para ver si contesta. En la mayoría de los casos, es probable que sí conteste y puedas verificar si realmente necesitan ayuda o no.

  • Establece una palabra clave con tu familia. Acuerden una palabra clave que solo debe ser utilizada en casos de emergencia. De esta forma, cuando recibas una llamada o un audio de un familiar, puedes preguntarles la palabra clave para verificar en el momento si se trata de ellos. Nunca compartas esta palabra públicamente.

Finalmente, estas son algunas formas en las que puedes evitar caer en estafas de deepfake con IA:

  • Desconfía automáticamente de promesas exageradas. Cualquier video que prometa inversiones con rentabilidades aseguradas y ganancias diarias es falso. No te dejes llevar por lo atractivo que suena ganar mucho dinero fácilmente, porque las inversiones no funcionan así. 

  • Verifica con la persona si el video es cierto. Esto funciona principalmente en el caso de influencers. Busca las redes sociales de la persona y deja un comentario o un mensaje privado preguntando al respecto. En muchos casos, la persona te responderá que no tiene ninguna relación con lo que mencionas y tal vez incluso no sabía que ese video existe.

  • Busca noticias al respecto. Si se trata de una celebridad o atleta, busca por internet para ver si hay artículos de fuentes confiables anunciando una colaboración o si no aparece nada oficial al respecto. De esta forma, si alguien ha reportado la estafa, es probable que lo veas. 

  • Investiga cualquier aplicación o empresa mencionada. Busca el nombre en Google y trata de ver si es una empresa real, a quién pertenece y dónde está registrada. Así podrás ver si se trata de un negocio legítimo o si solo es una empresa fantasma. 

 

Portal de Fraudes Financieros de la CONFUSEF

Desde 2018, la CONDUSEF tiene a disposición del público en el Portal de Fraudes Financieros. En este portal puedes buscar un número de teléfono, dirección de correo, nombre de empresa o enlace de página web para ver si existen reportes de fraude en su contra. En caso de que sí existan, es una confirmación inmediata de que no puedes confiar en ellos.

Por otro lado, también tienen un formulario donde puedes compartir tu experiencia de estafa para advertir a otras personas, aunque está pensado principalmente para denunciar si has sido víctima. Finalmente, la página también tiene información sobre fraudes y modus operandi para que puedas aprender más al respecto. 

Además de utilizar el portal de fraudes, también puedes considerar contactar con la Policía Cibernética, la Guardia Nacional o la Fiscalía General de Justicia para reportar el incidente. Esto es importante si han conseguido quitarte dinero, pero también si están suplantando tu identidad o la de alguien cercano a ti. Si intentaron estafarte a ti, puede que también lo intenten con otros amigos y familiares, y una denuncia podría ayudar a evitar que tengan éxito. 

Si decides denunciar, recopila toda la información que puedas para poder aportarla como prueba. El personal que te atienda podrá guiarte en esto, pero por ejemplo, si durante la llamada telefónica te dieron datos de pago, puedes utilizarlos como prueba de quién está involucrado en la estafa. Si se contactaron contigo por mensaje, usa capturas de pantalla y mensajes de audio como prueba.

Finalmente, cabe destacar que los intentos de estafa siempre están evolucionando y que cada vez surgen métodos más sofisticados. Es importante mantenerse alerta, investigar bien y no transferir dinero a la ligera, especialmente mientras la IA se vuelve cada vez más habilidosa y capaz de engañar.

Compartir artículo

Artículos relacionados

Comentarios

Este artículo aún no tiene comentarios. Sé el primero en comentar.

Añade un comentario

Responsable del tratamiento: KOSMOS EQAV, S.L.

Finalidad: Publicación de comentarios en el sitio web.

Base jurídica: Consentimiento del usuario en el presente formulario.

Destinatarios: No se comunicarán los datos del usuario a terceros (salvo por obligación legal).

Derechos: Tienes derecho a consultar, modificar, suprimir tus datos según lo indicados en las Políticas de Privacidad.

Puedes consultar la información detallada sobre nuestra política de protección dedatos haciendo click aquí