La clonación de voz mediante la IA va a enfrentar a nuevos retos operadoras como Telefónica, Orange y MásMóvil, que ya empiezan a diversificar sus mercados con divisiones y servicios de ciberseguridad. Es el nuevo tipo de estafa que se puede llevar a cabo a través de sus servicios de voz. Al igual que los bancos hacen frente ante la Justicia a las múltiples estafas que se llevan a cabo en su nombre, mediante el phishing y la suplantación de identidad, la clonación de voz con la IA va traer más de un dolor de cabeza a las operadoras para evitar que sus usuarios caigan en sofisticadas trampas, en su nombre y a través de sus líneas.
Las posibilidades que va a ofrecer, y ya ofrece, la IA para clonar nuestra voz y la de nuestros conocidos y seres queridos son peligrosas y favorecen cientos de posibilidades de caer en trampas y estafas de todo tipo. Los ciberdelincuentes son capaces de conseguir que hasta los más avispados reconozcan voces que en realidad han sido clonadas y compartan fácilmente su información privada.
Tal y como se desprende de un informe realizado por la consultora McAfee, una pequeña muestra de audio puede convertirse en la voz de casi cualquier persona y permitir dejar falsos mensajes en el buzón de voz o enviar audios en aplicaciones de mensajería. El estudio global descubrió que de las 7.000 personas encuestadas, una de cada cuatro, dijo que había experimentado una estafa de clonación de voz con IA o conocía a alguien que lo había hecho. La encuesta mostró como el 70% de las personas dijeron que no estaban seguros al intentar distinguir entre una voz clonada y una voz real.
Las posibilidades que ofrece la IA para clonar nuestra voz son peligrosas y favorecen cientos de posibilidades de caer en estafas
El equipo de investigación de McAfee Labs confirmó que una de cada diez personas encuestadas en nuestro estudio dijo que ha recibido un mensaje de un clon de voz con IA, y el 77% de esas víctimas dijeron que perdieron dinero como resultado. La facilidad con la que los ciberdelincuentes pueden llevar a cabo estas estafas, solo con una grabación pequeña y un buen guion realizado por los ciberdelincuentes, cualquier mensaje puede ser más que convincente, porque se trata de audios urgentes y angustiados, con argumentos como un accidente de coche, un robo callejero, pérdida del móvil, o ayuda desde el extranjero.
El 45% de los encuestados confesaron que responderían a un mensaje de su buzón de voz o a un audio si creyeran que es de un amigo o ser querido que necesita dinero, especialmente si piensan que la solicitud procede de su pareja o cónyuge (40%), madre (24%) o un hijo (20%).
LA IA Y LOS CIBERDELINCUENTES
Los expertos especialistas en ciberseguridad ya advierten de que se han detectados algunas estafas con esta sofisticada tecnología, que se ha desarrollado a lo largo de este pasado año 2023, pero que va a alcanzar cotas de perfección este mismo año, y será tan corriente como los correos electrónicos y los mensajes falsos, o como los chats de WhatsApp en los que supuestamente un hijo o hija pide dinero a sus padres con el móvil de un supuesto amigo, porque ha perdido el suyo, o advierte falsamente de que les han secuestrado.
Hasta que la concienciación se generalice, o bien operadoras y usuarios incorporen métodos de verificación de la voz, cualquiera puede recibir una llamada telefónica de un familiar o un amigo pidiendo información confidencial o directamente que se hagan transacciones, transferencias o bizums. La voz que se oiga al otro lado de la línea telefónica va a ser real para nosotros. Habrá que establecer formas de determinar si es original o ha sido creada por la inteligencia artificial.
les bastará con seguir nuestro rastro digital y, a través de las redes, identificar amigos y seres queridos
Para conseguir estafarnos con este método, los ciberdelincuentes tan solo necesitarán contar con grabaciones de las voces reales de nuestros allegados. A ellos, les bastará con seguir nuestro rastro digital y, a través de las redes, identificar estos amigos y seres queridos. Con un mínimo fragmento de voz de una persona, la IA puede llegar a generar conversaciones complejas enteras.
Los investigadores de McAfee descubrieron más de una docena de herramientas de IA que con un nivel básico de experiencia y conocimientos, con solo tres segundos de audio, podían realizar un clon de voz con un 85% de coincidencia con la real, lo que indica que con un mayor entrenamiento de los modelos de datos, se podía llegar a un 95% de coincidencia, con la réplica de acentos de casi cualquier lugar del mundo, pero sobre todo de los países de occidente.
PRECAUCIONES ANTE LLAMADAS TRAMPA
Hay que tener en cuenta que ya existen herramientas que transforman las voces en directo y que, gracias a las redes, hemos volcado en internet millones de videos y audios con felicitaciones, chistes, saludos y todo tipo de fragmentos de nuestra voz. Ante la duda, en lo que a conversaciones privadas se refiere, el primer filtro es si la llamada nos la hacen desde un número de teléfono extraño, si la voz es extraña, como apagada o algo robótica, si se superponen sus respuestas a las tuyas, o al contrario, si las pausas entre preguntas y respuestas son demasiado largas.
Es determinante también no dejarse llevar por la precipitación. Si nos requieren datos o una cantidad monetaria con mucha urgencia, por mucho que parezca la voz de un familiar angustiado, se debe desconfiar y usar trucos como la verificación mediante preguntas sorpresa cuyas respuestas solo conocería la persona allegada real. Sin embargo, en general, lo más seguro es aplicar el sentido común, no ponerse nervioso por ninguna urgencia, confirmar con una llamada a la persona, o una rellamada qué es lo que está pasando, y no dar demasiada información sobre nosotros, nuestros seres queridos y nuestras actividades en las redes sociales.
Para las llamadas con contenidos más profesionales o comerciales, como las que se tendrían con bancos, empresas, hoteles, etcétera, la ingenuidad humana se podrá paliar también con tecnología aplicada tanto por las operadoras de telefonía como por las grandes empresas tecnológicas. Empresas como Google ya han pensado en estos peligros de la IA y trabajan en el desarrollo de herramientas para detectar cualquier contenido que haya sido creado mediante IA. Además, es su labor, basándose en los preceptos de la Ley de Servicios Digitales de la UE, que obliga a las grandes compañías tecnológicas que operan en internet a ser vigilantes de bienestar y la seguridad digital de los ciudadanos.