Investigación sobre 'deepfakes'

Blanca Suárez o Inés Arrimadas también son víctimas del 'deepfake': los hackers usan su cara para crear vídeos pornográficos

Un equipo de investigación de Más Vale Tarde ha descubierto que hay un sinfín de actrices, cantantes, e incluso políticas a las que han robado la imagen de su cara para crear vídeos pornográficos mediante inteligencia artificial.

La inteligencia artificial sin limites mal empleada puede hacer mucho daño. Es el caso que han denunciado varias madres de Almendralejo, en Badajoz, que han descubierto el robo de las imágenes de sus hijas para convertirlas en imágenes en las que aparecen sus caras con cuerpos desnudos, simulando que son ellas las que posan así.

Este caso es extremadamente grave porque además se trata de menores, pero es más habitual de lo que nos pensamos. En Más Vale Tarde, un equipo de investigación ha llegado a descubrir cómo las famosas también son víctimas de este tipo de situaciones.

Actrices como Amaia Salamanca, cantantes como Laura Pausini, presentadoras como Cristina Pedroche y hasta políticas como Inés Arrimadas estarían protagonizando, sin su consentimiento y sin su permiso, un contenido sexual para adultos. Una huella digital de la que en muchos casos no llegan a ser ni siquiera conscientes.

Es el caso de la expolítica de Ciudadanos, que se ha enterado gracias al programa de que hay un perfil creado desde hace cuatro años en el que se cuelgan vídeos de una supuesta chica que tiene su cara. Arrimadas, al enterarse, ha asegurado que tomará acciones legales.

laSexta/ Programas/ Más Vale Tarde