Cómo evitar que clonen tu voz con apps de Inteligencia Artificial
Con el rápido desarrollo de la Inteligencia Artificial, surge varias dudas sobre si nuestra voz podría ser hackeada por una aplicación de voz. Aunque parece difícil de llevar a la práctica, varios expertos coinciden que la mejor manera de evitar una estafa es limitar el acceso a nuestras cuentas.
Si bien hay varios proyectos en su fase beta,donde se prueba sus funciones, las aplicaciones avanzan con rapidez hacia tecnologías que pueden simular con exactitud la voz de una persona.
Por ejemplo, la iniciativa de Eleven Labs, permite configurar una voz que viene por defecto, pero también permite descargar y editar una voz con un software, por el precio de unos $267.000.
Inclusive, el software sirvió para que inescrupulosos copiaran el tono de voz de la actriz Emma Watson leyendo extractos de “Mein Kampf” (“Mi Lucha” en español) de Adolf Hitler.
Por otra parte, desde Estados Unidos hubo un caso de estafa publicado The Washington Post, donde Ruth Card y su esposo Greg, creyeron recibir una llamada de auxilio de su nieto Brandon, siendo víctimas de una estafa que les hizo creer que su nieto estaba en peligro.
En el país, la Policía de Investigaciones (PDI) no ha recibido ninguna denuncia sobre una eventual estafa mediante Inteligencia Artificial.
Recomendaciones para evitar una suplantación de voz por Inteligencia Artificial
De acuerdo con Hany Farid, profesor de ciencia forense digital en la Universidad de California en Berkeley, los suplantadores pueden capturar de mejor forma las voces si se comparten en YouTube, podcasts, TikTok, Instagram o videos de Facebook, aseguró.
No obstante, una importante medida de seguridad es limitar al acceso de audio a un público masivo.
El consejo de ciberseguridad que prima, según los expertos:
Verificar si tenemos el perfil público en redes sociales, pues el material que circula libremente en Internet puede ser usado maliciosamente.