PRECAUCIÓN

Inteligencias artificiales que clonan voces: cuidado si hay grabaciones de la tuya

El uso de las inteligencias artificiales se está extendiendo por sus múltiples funcionalidades. Sin embargo, pueden ser utilizadas para generar estafas a través de la voz. Te contamos como puede usarse incluso nuestra propia voz.

>

Con el desarrollo y la explosión de las inteligencias artificiales, hay algunas de ellas que nos permiten editar fotos, vídeos e incluso clonar voces, ya sea nuestra o de algún famoso. Podemos utilizar esas voces de forma lúdica y entretenida. Sin embargo, no nos damos cuenta de que puede ser utilizadas como forma de manipulación o extorsión, y que puede afectarnos de una manera muy clara.

Estos fragmentos de nuestra voz se pueden conseguir de diferentes formas, ya sea por diferentes vídeos que subamos a las redes sociales o a través de llamadas falsas. Las inteligencias artificiales los reconfiguran con nuestra forma de hablar y nuestro tono para conseguir obtener distintas frases que no hemos dicho. Estos audios pueden ser utilizados en nuestra contra.

Audio de WhatsApp | TecnoXplora

¿Cómo puede afectarnos?

Los fragmentos de estos audios pueden generar una conversación y utilizarse para llamadas falsas. No solo para bromas sino también para realizar estafas económicas a nuestros familiares, ya que, si un conocido nos pide dinero, aunque sea de forma poco fiable, es mucho más probable que caiga en la estafa.

Por lo general, los estafadores utilizan estos fragmentos para generar conversaciones acerca de algún tipo de emergencia o de necesidad rápida, por ello no dejan pensar a sus víctimas y aprovechan estas circunstancias.

Hacker | freepik

Este procedimiento también es útil para poder suplantar la identidad de una persona ante una institución o empresa concreta. Por ello es altamente recomendable no subir ninguna grabación de nuestra voz ni a las redes sociales ni a internet.

Más sobre este tema:

Cargando...