Estafadores usaron inteligencia artificial para imitar voz de una adolescente y simular su secuestro

Una mujer en Arizona recibió una alarmante llamada donde estafadores le hicieron creer que su hija estaba secuestrada simulando su voz con una Inteligencia Artificial (IA).

Una mujer en Arizona, Estados Unidos, reportó que sufrió un intento de estafa en el que los delincuentes habrían utilizado una Inteligencia Artificial (IA) para imitar la voz de su hija y fingir un secuestro, por el que exigían una suma de dinero.

Se trata de Jennifer DeStefano, que contó la insólita situación al medio local Arizona’s Family, allí aseguró que los estafadores lograron simular a la perfección la voz de su hija, que incluso estaba supuestamente llorando en la llamada.

DeStefano explicó que justamente en ese momento su hija se encontraba esquiando fuera de la ciudad cuando recibió la llamada de un número desconocido. “Levanto el teléfono y escucho la voz de mi hija y dice: ‘¡Mamá!’ y ella está sollozando. Dije, ‘¿Qué pasó?’ Y ella dijo: ‘Mamá, me equivoqué’, y estaba sollozando y llorando”, explicó.

La situación fue tan realista que Jennifer también escuchó al estafador tras la línea, quien profirió amenazas mientras oía la voz de su hija en el fondo pidiéndole ayuda.

“Oigo la voz de un hombre que dice: ‘Echa la cabeza hacia atrás. Acuéstate’, y yo digo, ‘Espera, ¿qué está pasando?. Este hombre se pone al teléfono y dice: ‘Escucha aquí tengo a tu hija. Llamas a la policía, llamas a cualquiera, la voy a llenar de drogas. Me saldré con la mía con ella y la dejaré en México”, relató DeStefano.

“Y en ese momento, comencé a temblar. En el fondo, ella dice: ‘Ayúdame, mamá. Por favor, ayúdame. Ayúdame’, y gritando. (…) Nunca fue una cuestión de ¿quién es este? Era completamente su voz. Era su inflexión. Era la forma en que ella habría llorado”, agregó.

Una inteligencia artificial para imitar la voz a la perfección

Sin embargo, su hija nunca fue secuestrada y todo indica que la voz tras la línea era un clon hecho con IA. El mismo medio se contactó con un experto que explicó este nuevo método al que se están acercando los estafadores.

Subbarao Kambhampati, profesor de informática en la Universidad Estatal de Arizona, explicó que existen algunas IA que pueden imitar las voces de otras personas con sólo haberlas escuchado durante breves segundos.

“Al principio, requeriría una mayor cantidad de muestras. Ahora hay formas en las que puedes hacer esto con solo tres segundos de tu voz. Tres segundos. Y con los tres segundos, puede acercarse a cómo suenas exactamente”, puntualizó.

Sobre aspectos como el llanto, por ejemplo, mencionó que “la mayor parte de la clonación de voz captura tanto la inflexión como la emoción. Cuanto más grande sea la muestra, mejor será para capturarlos. (…) Es un juguete nuevo, y creo que podría tener buenos usos, pero ciertamente, también puede haber usos bastante preocupantes”, advirtió.

Artículo publicado originalmente en BíoBíoChile

Foto del avatar
Mundo Libre Diario
Por favor, activa JavaScript en tu navegador para completar este formulario.
Consent

COMENTARIOS

guest
0 Comentarios
Más antiguo
Más reciente
Feedbacks en línea
Ver todos los comentarios