NUEVO MODO DE AMPLIFICACIÓN DE VOZ

Las Ray-Ban con IA de Meta se actualizan con interesantes novedades

Las gafas inteligentes de Meta estrenan una función especialmente útil, que amplifica voces en los entornos más ruidosos.

Las Ray-Ban con IA de Meta se actualizanMeta

Las gafas de Meta siguen recibiendo mejoras en forma de actualizaciones de software, una excelente ocasión para que quienes han apostado por estas gafas, que son cada vez más, cuenten con nuevas razones para utilizarlas en el día a día más allá de su cometido primario. En esta ocasión Meta ha anunciado una nueva actualización que brinda mejoras, como no, en la gestión de la IA, así como también en algo que nos encanta hacer con ellas, escuchar música.

Nueva actualización v21 tanto para las Ray-Ban como para Oakley

Son tres grandes grupos de novedades los que llegan ahora a estas gafas de la mano de la nueva actualización. Empezando por el Enfoque de conversación, que es la función más importante de todas. Con ella Meta nos ofrece una herramientas que se nutre del conjunto de micrófonos con los que cuentan estas gafas, así como de sus algoritmos de IA. El objetivo es poder usar las gafas como si se trataran de un audífono inteligente.

Las Ray-Ban de segunda generación | Meta

En este caso lo que hacen las gafas es aislar la voz de la persona con la que estamos hablando, por ejemplo en un entorno ruidoso, como un bar repleto de gente. Esto nos permite escuchar mejor a esa persona, ya que amplifica su voz, y la escuchamos de manera más nítida y clara desde los altavoces de las gafas. A la vez, mientras utilizamos este modo, podemos personalizar el nivel de amplificación de la voz con solo deslizar el dedo por la patilla derecha de las gafas. Una función que de momento se implementa en Estados Unidos y Canadá.

La siguiente función se denomina Soundtrack Your World y se ha desarrollado en colaboración con Spotify. Desde Meta aseguran que se trata de la primera experiencia de música basada en IA multimodal. Con ella, las gafas pueden ver nuestro entorno, y sugerirnos música en base a lo que está viendo en cada momento. La frase clave para escuchar esas canciones, es decirle a las gafas, Hey Meta, reproduce una canción que combine con esta vista. La IA analizará la escena y generará una lista de reproducción en Spotify adaptada a ese momento específico.

El control por voz de las gafas ahora es más completo y sencillo, ya que los comandos ahora se pueden decir en distintos idiomas en apps como Spotify, Apple Music, Amazon Music y Shazam. Los usuarios de las gafas ahora pueden utilizar también comandos en español para gestionar tanto la música que escuchamos, como para ejecutar distintas funciones en las gafas, aunque también se puede ahora en francés, alemán, italiano y portugués.

Algo importante a la hora de hacer fotos o grabar vídeos es el comando de activación, que ya no necesita decir Hey Meta. Ahora solo bastará con decir Foto o Vídeo, una función que de momento llega a modelos como las Oakley de Meta. Si tienes unas Vanguard y un dispositivo Garmin emparejado, vas a poder crear entrenamientos con la voz, solo tienes que decir:

  • Oye Meta, vamos a dar una vuelta en bici.
  • Oye Meta, voy a correr 12 millas en la zona de ritmo cardíaco 2.
  • Oye Meta, crea una carrera de 1 hora a 14 minutos por milla.
  • Oye Meta, crea una ruta en bici de 20 millas con cadencia por debajo de 75 rpm.

De estas funciones, la más importante, de Conversation Focus, llegará a España a comienzos de 2026.

TecnoXplora» Gadgets