Address
304 North Cardinal St.
Dorchester Center, MA 02124
Work Hours
Monday to Friday: 7AM - 7PM
Weekend: 10AM - 5PM
Address
304 North Cardinal St.
Dorchester Center, MA 02124
Work Hours
Monday to Friday: 7AM - 7PM
Weekend: 10AM - 5PM

El fácil acceso que tienen los estafadores a sofisticadas herramientas de inteligencia artificial significa que no se puede confiar en nada, desde correos electrónicos hasta videollamadas.
Imagina que te encuentras con alguien nuevo. Ya sea en una app de citas o en redes sociales, se encuentran por casualidad en línea y empiezan a hablar. Son genuinos y cercanos, así que rápidamente pasan de los mensajes directos a una plataforma como Telegram o WhatsApp. Intercambian fotos e incluso hacen videollamadas. Empiezan a sentirse cómodos. De repente, mencionan el dinero.
Quizás necesitan que cubras el costo de su acceso wifi. O están probando esta nueva criptomoneda. ¡Deberías aprovecharla cuanto antes! Y luego, cuando ya es demasiado tarde, te das cuenta de que la persona con la que hablabas no era real.
Eran una falsificación profunda generada por inteligencia artificial en tiempo real que ocultaba el rostro de alguien que estaba llevando a cabo una estafa.
Este escenario podría parecer demasiado distópico o de ciencia ficción para ser real, pero ya les ha sucedido a innumerables personas . Con el auge de las capacidades de la IA generativa en los últimos años, los estafadores ahora pueden crear rostros y voces falsas realistas para ocultar las suyas en tiempo real. Y los expertos advierten que estos deepfakes pueden potenciar una vertiginosa variedad de estafas en línea, desde romances hasta empleos y fraude fiscal.
David Maimon, director de análisis de fraudes de la empresa de verificación de identidad SentiLink y profesor de criminología en la Universidad Estatal de Georgia, ha estado siguiendo la evolución de las estafas románticas con IA y otros tipos de fraude con IA durante los últimos seis años. «Estamos observando un aumento drástico en el volumen de deepfakes, especialmente en comparación con 2023 y 2024», afirma Maimon.
“No era mucho. “Hablamos de unos cuatro o cinco al mes”, dice. “Ahora vemos cientos de estos al mes en general, lo cual es asombroso”.
Los deepfakes ya se utilizan en diversas estafas en línea. Por ejemplo, un empleado del sector financiero de Hong Kong pagó 25 millones de dólares a un estafador que se hizo pasar por el director financiero de la empresa en una videollamada deepfakeada. Algunos estafadores de deepfakes incluso han publicado videos instructivos en YouTube, que incluyen una advertencia que indica que son solo para bromas y fines educativos. Estos videos suelen comenzar con una llamada fraudulenta romántica, donde un joven atractivo, generado por IA, habla con una mujer mayor.
Los deepfakes más tradicionales, como un video pre-renderizado de una celebridad o un político, en lugar de una falsificación en vivo, también se han vuelto más comunes. El año pasado, un jubilado en Nueva Zelanda perdió alrededor de $133,000 en una estafa de inversión en criptomonedas tras ver un anuncio de Facebook con un deepfake del primer ministro del país que animaba a la gente a comprar.
Maimon afirma que SentiLink ha empezado a detectar deepfakes utilizados para crear cuentas bancarias con el fin de alquilar un apartamento o cometer fraudes de devolución de impuestos. Afirma que un número cada vez mayor de empresas también ha visto deepfakes en entrevistas de trabajo en vídeo.
“Cualquier cosa que requiera que las personas estén en línea y que permita intercambiar caras con alguien, estará disponible y expuesta a que el fraude se aproveche de ello”, afirma Maimon.
Parte de este aumento se debe a que las barreras para crear deepfakes son cada vez más bajas. Existen numerosas herramientas de IA de fácil acceso que pueden generar rostros realistas, así como muchas herramientas que pueden animarlos o crear vídeos completos a partir de ellos. Los estafadores suelen usar imágenes y vídeos de personas reales , deepfakes, para modificar ligeramente sus rostros o alterar lo que dicen, con el fin de atacar a sus seres queridos o usurpar su influencia pública.
Matt Groh, profesor de gestión en la Universidad Northwestern que investiga la capacidad de las personas para detectar deepfakes, dice que las herramientas de inteligencia artificial generativa de apuntar y hacer clic hacen que sea mucho más fácil realizar cambios pequeños y creíbles en medios ya existentes.
“Si hay una imagen tuya en Internet, eso sería suficiente para manipular una cara para que parezca que está diciendo algo que no has dicho antes o haciendo algo que no has hecho antes”, dice Groh.
No solo hay que preocuparse por los videos falsos. Con unos pocos fragmentos de audio, también es posible crear una copia creíble de la voz de alguien . Un estudio de 2023 reveló que los humanos no detectaban audio deepfake en más de una cuarta parte de los casos .
“Con solo una imagen y cinco segundos de audio en línea, es definitivamente posible que un estafador haga algún tipo de deepfake realista de ti”, dice Groh.
Los deepfakes se están volviendo más comunes en contextos que van más allá de las estafas directas. Durante el último año, las redes sociales se han visto inundadas de “influencers” generados por IA que roban contenido de creadores para adultos mediante la creación de deepfakes de rostros nuevos en sus cuerpos y monetizan los videos resultantes. Los deepfakes incluso han invadido la geopolítica, como cuando los alcaldes de varias capitales europeas realizaron videollamadas con una versión falsa del alcalde de Kiev, Ucrania . La gente ha comenzado a usar deepfakes por motivos personales, como revivir a un familiar fallecido o crear un avatar de una víctima para que testifique en un tribunal .
Entonces, si los deepfakes están por todas partes, ¿cómo detectarlos? La respuesta no es la tecnología. Varias empresas tecnológicas, incluida OpenAI , han lanzado herramientas de detección de deepfakes. Los investigadores también han propuesto mecanismos para detectarlos basándose en factores como la luz reflejada en los ojos de una persona o movimientos faciales irregulares , y han comenzado a investigar cómo implementarlos en tiempo real .
Pero estos modelos a menudo no pueden detectar con fiabilidad diferentes tipos de falsificaciones de IA. El modelo de OpenAI, por ejemplo, está diseñado específicamente solo para reportar contenido generado con la herramienta Dall-E 3 de la compañía, pero no con otros modelos de generación de imágenes.
También existe el riesgo de que los estafadores puedan abusar de los detectores de IA modificando repetidamente su contenido hasta engañar al software.
“Lo más importante que debemos entender es que la tecnología actual no es suficiente para detectar esos deepfakes”, afirma Maimon. “Aún estamos muy atrasados”.
Por ahora, a medida que los deepfakes de video se vuelven más populares, la mejor manera de detectarlos es con humanos. Estudios sobre la detección de deepfakes demuestran que las personas son más efectivas para distinguir si los videos son reales o falsos , a diferencia de solo contenido de audio o texto, y en algunos casos incluso mejores que los modelos de detección líderes .
El equipo de Groh realizó un estudio que descubrió que tomar más tiempo para determinar si una imagen era real o falsa conducía a un aumento significativo en la precisión, de hasta ocho puntos porcentuales por solo 10 segundos de tiempo de visualización.
“Suena casi tan simple”, dice Groh. “Pero si dedicas solo un par de segundos adicionales, aumentas considerablemente la probabilidad de distinguir una imagen como real o falsa. Una forma de que cualquier persona sea un poco menos susceptible a una estafa es preguntarse: ‘¿Esto parece real?’. Y si lo haces durante unos segundos adicionales, todos estaremos un poco mejor”.
La popularidad de los deepfakes podría ser un arma de doble filo para los estafadores, afirma Groh. Cuanto más extendidos estén, más gente los conocerá y sabrá qué buscar.
Esa familiaridad ha dado sus frutos en algunos casos. El verano pasado, un ejecutivo de Ferrari recibió una llamada de alguien que decía ser el director ejecutivo de la empresa. La persona imitó convincentemente la voz del director ejecutivo, pero colgó bruscamente cuando el ejecutivo intentó verificar su identidad preguntándole qué libro le había recomendado el director ejecutivo apenas unos días antes. El director ejecutivo de WPP, la agencia de publicidad más grande del mundo , también fue víctima, sin éxito, de una estafa similar de deepfake.
“Creo que se está buscando un equilibrio”, dice Groh. “Sin duda, hoy en día contamos con tecnología que, por lo general, es difícil de identificar. Pero, al mismo tiempo, una vez que se descubre que existe una herramienta de apuntar y hacer clic que permite transformar un elemento en otro, todos se vuelven mucho más escépticos”.