UNA IA UN POCO MÁS HUMANA

Meta anuncia ImageBind, una IA capaz de utilizar los sentidos para expresarse

Esta inteligencia artificial no se limitará a modelos de lenguaje e incorporará más elementos dentro de sus deliberaciones, basándose no solo en textos, sino también en imágenes o sonidos.

Inteligencia ArtificialFreepik

La IA sigue su vertiginosa carrera por transformar nuestras vidas y trabajos. Y parece que esta semana será importante en este aspecto. Ya que no solo hoy Google parece que va a dar un espaldarazo definitivo a su IA Bard durante el I/O que celebra en Mountain View esta tarde, sino también por el anuncio de otro gigante, Meta, que ahora también presenta una nueva herramienta que promete revolucionar la manera en la que funciona la IA, al menos respecto de lo que estamos acostumbrados hasta ahora.

Una IA que puede sentir

Hasta ahora nos hemos acostumbrado a interactuar con la IA mediante modelos de lenguaje, con texto, y en alguna ocasión aportando ciertas imágenes que sirvan como inspiración. Pero lo que ahora presenta Meta tiene más que ver con la forma en la que las personas somos capaces de recrear algo en nuestra mente, basándonos en los sentidos, que nos aportan mucha información capaz de moldear la idea que tenemos de algo y que se gesta a partir de detalles tan sutiles como lo sonidos.

Esta IA es capaz por ejemplo de crear una imagen a partir no solo de otra imagen, sino también de un sonido, y desde Meta ponían el ejemplo de la combinación de una imagen de una paloma y de un motor en marcha, gracias a lo cual podía recrear una imagen de una moto rodando entre un grupo de palomas. O simplemente partiendo de un solo audio, en el que se puede escuchar a unos pingüinos, para representarlos después en una sencilla imagen.

Y lo mismo al revés, a partir de imágenes y sonidos sería capaz de crear un texto, después de analizar todo lo que pueden sugerir esos contenidos visuales y de audio. Por tanto, lo que propone Meta es que la IA vaya más allá, y sea capaz de utilizar los sentidos para poder moldear esas imágenes y recrear situaciones que le sugieren estos contenidos. A esto se le denomina un sistema de IA multimodal, que básicamente quiere decir que no se basa en un solo método de entrada de contenidos, sino en varios, y por tanto no se puede entender solo como un simple modelo de lenguaje, sino que ofrece muchas más alternativas en este sentido.

Por tanto, esta nueva IA anunciada por Meta deja de alguna manera desfasada toda la tecnología que hemos conocido en estos últimos seis meses, que a su vez nos parecía extremadamente avanzada. Y es que nos hemos acostumbrado a interactuar con la IA mediante texto, pero parece que esto era solo el principio, y que en unos meses esa IA será mucho más inteligente, y será un poco más parecida al razonamiento humano, basándose también en el entorno para modular sus respuestas y crear contenidos en cuestión de segundos.

Una nueva IA que imaginamos Meta no tardará en implementar dentro de su metaverso y por supuesto en sus distintas redes sociales ya apps, a las que sin duda les vendría bien un poco más de esa inteligencia artificial que ya lo impregna todo en el sector de la tecnología y que está llamado a revolucionar nuestro día a día.

Más sobre este tema:

Cargando...