Astronomía, divulgación, descubrimientos, ecología, innovación...
INTELIGENCIA ARTIFICIAL DE LA UNIVERSIDAD DE BERKELEY
“Traducir” imágenes de una clase a otra, como atardeceres en amaneceres o cuadros en fotografías. Ese es el objetivo principal del nuevo algoritmo de la Universidad de Berkeley. Y así funciona.
Una de las aplicaciones estrella del año pasado fue Prisma (Android / iOS), cuya misión fundamental es poder transformar tus fotografías en obras de arte. Lo que podría ser el sueño de Andy Warhol se puede conseguir con un buen puñado de filtros para darles un toque puntillista, expresionista o cubista a tus fotos, entre otras muchas posibilidades.
Como bien explicamos, esta app usa redes neuronales complejas para hacer una buena interpretación de caras, objetos y fondos de las imágenes. Pues bien, la Universidad de Berkeley ha querido hacerlo más complicado todavía y ha desarrollado un sistema de conversión de imágenes muy curioso, porque no sólo cambia el estilo de la imagen, sino que también se atreve con la metamorfosis entre dos tipos de imagen.
Imaginad que ya no hace falta trasladarse a la casa de Giverny de Monet para ver los nenúfares del estanque de su casa que pintó magistralmente. O la Catedral de Rouen, que la registró en las distintas estaciones del año. Y todo porque una máquina lo hace rápidamente que tú. Más veloz que el Hyperloop.
Los investigadores de la sección de Inteligencia Artificial de la universidad han creado esta transformación de estilos para convertir cuadros impresionistas en una fotografía real, pero también han conseguido que se pueda cambiar cualquier fotografía de un paisaje en un óleo similar al que hicieron los artistas de este movimiento del siglo XIX.
También han conseguido cambiar una imagen primaveral en una otoñal o cambiar una fruta por otra. Ellos han cambiado manzanas por naranjas. Si hubieran evolucionado a peras, Ana Botella se quedaría bastante loca con esto. La técnica también permite transformar caballos en cebras (sic) o incluso hacer trucos como crear un paisaje de fondo para flores u otros objetos fotografiados.
El aspecto más llamativo es que usaron “datos desemparejados”, es decir, que no tenían una fotografía tomada de la escena que Monet pintó. Pero si que tenían conocimiento de sus pinturas y de paisajes similares fotografiados, algo que suena sencillo decirlo pero que es complicado hacerlo entender a una máquina.
Para ello entrenaron 'adversarial networks' (redes contradictorias, en una traducción literal) usando una gran cantidad de fotografías de varias fuentes, redefiniendo las redes con la supervisión de los resultados por parte de personas y máquinas. ¿Lo veremos pronto en el Instagram de turno.
El algoritmo no es perfecto y a veces se pierde mucha resolución o la máquina no logra transferir el estilo que buscamos desde el original, aunque los resultados son prometedores. Cuando más falla es cuando tiene que hacer una transformación radical, como pasar de un perro a un gato, aunque al ser dos animales con rasgos diferentes es algo normal (aquí podéis ver la imagen a lo Frankenstein, muy perturbadora).