NUEVO MÉTODO

Google Lens ya permite hacer búsquedas a partir de vídeos

La aplicación de Google ahora nos ofrece una nueva alternativa para preguntarle por el contenido de un vídeo.

Todo lo que puedes hacer con Google Lens en tu móvilPexels

Es desde luego una de las aplicaciones más populares de Google, y eso que los de Mountain View cuentan con muchas de las más descargadas entre su gama de apps. Es una aplicación extremadamente útil, ya que nos permite identificar no solo objetos, sino también animales o flora de todo tipo con solo hacerle una fotografía. Con este uso ya consolidado, Google ha querido añadir en los últimos tiempos nuevas formas de ejecutar las búsquedas, desde diferentes fuentes, que al fin y al cabo están disponibles mayoritariamente en nuestros smartphones.

Búsquedas desde vídeos

Y es que hasta ahora la búsqueda de Lens era un tanto extraña, y poco intuitiva, todo hay que decirlo. Y es que para poder hacer una pregunta a partir de texto primer era necesario escanear alguna imagen. Pero el nuevo método es mucho más sencillo de utilizar, y nos parece desde luego más completo, ya que da lugar a mayores opciones en lo que a resultados se refiere. Ha sido uno de los filtradores más cercanos a la escena Android, quien ha desvelado en su cuenta de X el nuevo súper poder de Google Lens.

Y es que como podemos ver en el vídeo adjunto, ahora podemos añadir contexto a un vídeo y hacer la búsqueda basada en lo que aparece en él. El ejemplo mostrado por MIshaal Rahman es bastante explícito, ya que nos muestra un plato de comida donde aparecen una tostada y varios arándanos. Lo que hace con Lens es grabar un vídeo de ese plato mientras pregunta a la IA cuántos arándanos hay en el plato.

Por tanto, hablamos de vídeos que Lens puede analizar y devolvernos una respuesta con los detalles que le estamos pidiendo. Para poder grabar el vídeo, lo que debemos hacer es dejar pulsar el botón de la lupa, ya que como sabéis, si lo pulsamos una sola vez, hacemos una foto. Pero si lo mantenemos pulsado como en el vídeo, se graba un metraje que analizará Lens en base al texto que le hemos dictado mientras lo grabábamos.

Mientras pulsamos al botón de cámara de Lens podemos leer un mensaje de Habla ahora para preguntar acerca de esta imagen. Una vez que dejamos de pulsar y hemos pronunciado las palabras de nuestra búsqueda, se muestra en Google el resultado de esta. Podemos ver cómo le responde que en total hay 12 arándanos, y que se trata de un experimento de IA, ya que como sabéis, actualmente todo lo que tiene que ver con Gemini, está en cierta manera en pleno desarrollo.

Así que Google tiene ya lista la manera más práctica de hacer búsquedas en la aplicación, ya que nos permite añadir más contexto a estas. Imaginamos que más allá de contar arándanos, será capaz de hacer muchas más cosas analizando el contenido de un vídeo. Por ejemplo, para saber dónde nos encontramos, o incluso para que nos cuente algo del restaurante que tenemos delante de nosotros y del que no sabemos nada de nada. Una funcionalidad que como todas las experimentales irán llegando poco a poco a todos los usuarios.