Nueva modalidad de fraude en EE.UU.: Así son las estafas telefónicas hechas con inteligencia artificial
En los últimos años, los tipos de estafas en Estados Unidos se han hecho cada vez más complejas e inesperadas. Sin embargo, con la llegada de aplicaciones y softwares de inteligencia artificial (IA), la tecnología se ha convertido en una nueva arma para que personas inescrupulosas engañen a otros con más facilidad.
En este sentido, los reguladores federales advierten que llamadas telefónicas procedentes de familiares o amigos, en realidad podrían provenir de un estafador que utiliza un “clon de su voz”.
La Comisión Federal de Comercio (FTC, por sus siglas en inglés) ha emitido esta semana una alerta a los ciudadanos instándoles a estar atentos a las llamadas con clones de voz generados por inteligencia artificial, una de las más recientes estrategias de los estafadores para robarte tu dinero.
“Todo lo que necesita el estafador es un audio con la voz de tu familiar (el cual podría encontrar en sus posts publicados en redes sociales) y un programa de clonación de voz, de modo que, cuando el estafador llame, sonará igual que tu ser querido”, admitió la comisión.
Advertencia de estafas telefónicas usando IA: Si no estás seguro de que sea quien dice ser, cuelga y llámalo de vuelta
La FTC sugiere que, si alguien que suena igual que un amigo o familiar te pide dinero, especialmente si quiere que hagas una transferencia bancaria, pago con criptomonedas o una tarjeta de regalo, entonces debes colgar y llamar directamente a esta persona para verificar su historia.
Un portavoz de la FTC aseguró que, aunque la agencia no puede facilitar una estimación del número de denuncias de personas timadas por ladrones que utilizan clonación de voz, la realidad es que cada vez más personas son víctimas de estas estafas telefónicas usando IA.
Los riesgos de las IA no son algo nuevo: los antecedentes de estas preocupantes estafas telefónicas en EE.UU.
En 2019, unos estafadores que se hicieron pasar por el jefe del CEO de una empresa energética con sede en el Reino Unido exigieron 243,000 dólares. Un director de banco de Hong Kong fue engañado por alguien que utilizaba tecnología de clonación de voz para que hiciera transferencias cuantiosas a principios de 2020.
Y al menos ocho personas mayores de Canadá perdieron un total de 200,000 dólares a principios de año en una aparente estafa de clonación de voz.
Por otra parte, los vídeos “deepfake” que pretenden mostrar a famosos haciendo y diciendo cosas que tal vez nunca harían, son cada vez más realistas, y los expertos afirman que la tecnología de clonación de voz también está avanzando.
Subbarao Kambhampati, profesor de informática en la Universidad Estatal de Arizona, comentó además que el costo de las IA de clonación de voz también está disminuyendo, lo que las vuelve más accesibles para los estafadores.
“Antes se requería de una operación sofisticada”, explica Kambhampati. “Ahora los estafadores de poca monta pueden utilizarla”.
Es por ello que la FTC recomienda que, antes de hacer una transferencia para ayudar a un familiar o amigo, verifiques que, efectivamente, está en problemas.
También podría interesarte:
Derechos de autor 2022 WKTB. Reservados todos los derechos.