Las hemos escuchado en videos parodiando a Donald Trump y Joe Biden y en las versiones de canciones de artistas como Ariana Grande o Lady Gaga: los avances en inteligencia artificial (IA) permiten crear voces sintéticas (aquellas generadas a través de un software) que son capaces de imitar la forma de hablar de una persona, conocidas como voces clonadas.
Esta tecnología puede tener usos muy positivos, como ayudar a mejorar la vida de las personas que han perdido el habla y devolverles, en cierta forma, su voz.
Pero algunas compañías como Microsoft han advertido que también se pueden usar de forma fraudulenta y los estafadores han comenzado a usar la clonación de voz para engañar a sus víctimas. Ya sabes: la tecnología no es buena ni mala, depende del uso que le demos.
Los estafadores han empezado a usar voces clonadas a través de inteligencia artificial para suplantar a sus víctimas
Una de las formas de usar con malas intenciones la tecnología de las voces clonadas es estafar. Algunos estafadores han comenzado a implementar la inteligencia artificial dentro de su arsenal para suplantar la identidad de sus víctimas a través de las voces clonadas: aquellas voces generadas por software que son capaces de imitar el habla, el timbre y la prosodia (elementos como el acento, el tono de la voz, la entonación…) de una persona en concreto.
Es el caso de Ruth Card y Greg Grace, matrimonio estadounidense que recibió una supuesta llamada telefónica de su nieto pidiendo auxilio. Pero, en realidad, los estafadores habían conseguido replicar su voz gracias a la inteligencia artificial y así engañar a la pareja, según recoge The Washington Post.
Su ejemplo no es el único. The Wall Street Journal publicó en 2019 el caso de una compañía energética que recibió una llamada falsa de su CEO pidiendo una transferencia de 220,000 euros (243.00 dólares).
También en 2020 varios estafadores clonaron la voz del director de otra compañía para intentar hacerse con 35 millones de dólares, asegura Forbes. Son ejemplos de cómo los estafadores han conseguido usar las voces clonadas de otras personas para llevar a cabo sus engaños.
Para replicar estas voces, la máquina estudia varias grabaciones de un único individuo y aprende a reproducir su voz en concreto.
Para ello es necesario grabar diferentes muestras de nuestra voz en buena calidad, junto a su transcripción, para que la máquina aprenda a imitarnos. En este artículo puedes encontrar más detalles del proceso.
La Comisión Federal de Comercio (FTC) también advierte que un estafador podría usar IA para clonar la voz de su ser querido.
“Entonces, ¿cómo puedes saber si un miembro de la familia está en problemas o si es un estafador que usa una voz clonada?”, pregunta el organismo. La clave, según indica, es no confiar en la voz.
Si recibes una llamada de este tipo, es aconsejable que “llames a la persona que supuestamente te contactó y verifiques la historia”. Si no puedes comunicarte directamente con él, lo mejor es que lo intentes a través de otro miembro de la familia o sus amigos.
Los estafadores podrían pedirte que pagues o envíes dinero de forma que después sea difícil para ti recuperarlo, según la FTC. Por ejemplo, puede solicitarte que transfieras dinero, envíes criptomonedas o compres tarjetas de regalo y les des los números de la tarjeta y las claves.
Para evitar caer en fraudes a través de estas voces, en Maldita.es, medio cofundador de Factchequeado, recogieron una serie de consejos para tener en cuenta si alguna vez dudamos de que una llamada o nota de voz sea real.
Se podría clonar nuestra voz a partir de nuestras publicaciones en redes sociales, pero en WhatsApp y Telegram es más difícil
A raíz de estos casos han comenzado a circular diferentes contenidos asegurando que los estafadores podrían emplear los audios que publicamos en redes sociales, incluso las notas de voz que enviamos a nuestros conocidos a través de aplicaciones como WhatsApp, para clonar nuestra voz y suplantar nuestra identidad.
Lo explica a Maldita.es Nieves Ábalos, cofundadora de Monoceros Labs, que argumenta que “cualquier audio con la voz de una persona, ya sea de redes sociales como TikTok, YouTube, o de otras plataformas como WhatsApp podría ser utilizado por alguien con fines maliciosos, aunque sea ilegal”. Pero la diferencia radica en cuántas personas tienen acceso a nuestros audios y en cómo de sencillo es obtenerlos.
Mientras que cualquiera podría obtener un audio publicado en nuestras redes sociales, aplicaciones de mensajería como Telegram o WhatsApp emplean un cifrado de extremo a extremo.
Es decir, que sólo tú y la otra persona con la que hables podrán acceder a estos mensajes de voz, y ningún estafador (o incluso las propias plataformas) pueden hacerse con estos audios de manera externa.
Los estafadores tendrían que hacerse con el control de nuestro dispositivo y acceder a sus archivos. En este artículo te damos más detalles.
En el peor de los casos, ¿cuánto tiempo de grabación necesitan los estafadores para clonar nuestra voz? Algunos modelos de lenguaje, como el que ha desarrollado Eleven Labs, aseguran que pueden clonar voces con sólo un minuto de audio.
VALL-E, el sistema desarrollado por Microsoft, argumenta que puede imitar el habla de una persona a partir de 3 segundos de audio, y advierte de que esta tecnología se puede usar para suplantar la identidad de otra persona.
“Hace dos años, incluso hace un año, necesitabas mucho audio para clonar la voz de una persona”, explica Hany Farid, profesor de análisis forense digital en la Universidad de California en Berkeley, a The Washington Post. Ahora “si tienes una página de Facebook o si grabaste un TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz”.
Aunque estas herramientas no están al alcance de cualquiera, todo dependerá del programa que se utilice y de la calidad del audio.
Según Ábalos, se podría replicar la voz de otra persona de manera convincente con “al menos 10 minutos” de audio, si bien el resultado tendrá algunas imperfecciones. Con una hora de audio en calidad de estudio “ya se puede obtener una muy buena voz”, asegura la fundadora de Monocero Labs.
La experta detalló qué medidas está tomando la industria tecnológica para evitar el uso de las voces sintéticas de forma fraudulenta.
Rastrear a los estafadores puede ser complicado
Los reguladores federales, las fuerzas del orden público y los tribunales están mal equipados para frenar la creciente estafa en la que es utilizada la inteligencia artificial.
Así lo indican algunos expertos citados por The Washington Post, que insisten en que hay pocos precedentes legales para que los tribunales responsabilicen a las empresas que fabrican las herramientas por su uso.
Will Maxson, subdirector de la división de prácticas de marketing de la FTC, ha explicado a este periódico que rastrear a los estafadores de voz puede ser “particularmente difícil” porque podrían estar usando un teléfono en cualquier parte del mundo, lo que dificulta incluso identificar qué agencia tiene jurisdicción sobre un caso particular.
El organismo indica que puede tomar medidas contra empresas que fabrican o venden herramientas diseñadas para engañar, incluso si ese no es su propósito o única finalidad.
“La FTC ha demandado a empresas que difunden tecnologías potencialmente dañinas sin tomar medidas razonables para evitar daños a los consumidores”, destaca.
Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +16468736087 o a factchequeado.com/whatsapp.