Astronomía, divulgación, descubrimientos, ecología, innovación...
APPS
Estas son las nuevas funciones presentadas por Google para su asistente.
Hace unos días tuvo lugar el Google I/O 2022 una cita que los Mountain View aprovechan para dar a conocer las novedades en sus productos. A continuación, te contamos en esta ocasión, las novedades que incorpora a su Asiste.
Novedades del asistente de Google
Google sigue desarrollando las capacidades de su asistente y en este caso ha presentado tres novedades de los más interesantes. Tres nuevas funciones que, aunque por el momento sólo estarán disponibles para los usuarios en Estados Unidos, no tardarán mucho en llegar al resto.
Sus nuevas capacidades están orientadas a crear asistente mucho más proactivo e inteligente, tras el uso continuado del mismo este aprenderá a interpretar nuestra forma de hablar y expresarnos para ofrecernos una mejor experiencia. Analizando las pausas que realizamos al hablar y actuando en consecuencia esperando a que terminemos la consulta para ofrecernos un resultado. En el caso en que no podamos completar el proceso, utilizará la información recogida, realizará una búsqueda de los resultados que más se acerquen a la consulta y los expondrá como ha venido haciendo hasta ahora.
Desde hace tiempo se rumorea que planeaban eliminar las frases de invocación del asistente. Hasta ahora para llamar la atención de este tenemos usar las frases para activarlo ya sean “OK Google”, “Hey, Google” o “Hey, boo boo”. Una función que sólo se podrá ejecutar en sus pantallas inteligentes, la nueva función look and talk con la ayuda de la cámara del dispositivo, será capaz de distinguir si una consulta va dirigida al asistente y nos ofrecerá respuesta a nuestra pregunta. Haciendo mucho más ágil la interacción con el asistente.
Por último, pero no menos interesantes es la incorporación de “Quick Phrases” o frases rápidas, que como su nombre indicas son frases o comandos simplificados a través de los cuales realizar peticiones al asistente sin necesidad de invocarlo, al igual que ocurre con la función anterior.
Unas novedades con las que ahorraremos tiempo y se simplificarán considerablemente las ordenes, siendo mucho más fácil interactuar con el asistente y obtener respuestas mucho más rápidamente. Todo apunta a que la tendencia es que el asistente aprenda a interpretar nuestros gestos y formas de hablar, adaptando las capacidades a nosotros y obteniendo así una experiencia mucho más personaliza.
Unas nuevas funciones en las que tienen más presencia las redes neuronales y la inteligencia artificial, lo cual ayuda a los dispositivos a conocernos más y adaptarse a nuestras necesidades. Como ya sabemos las redes neuronales tratan de imitar el modo en que el cerebro humano procesa la información y de este modo alcanzar una mayor naturalidad. Algo que los de la Gran G llevan usando e incorporando desde hace algunos años y que por fin está dando sus frutos. A partir de ahora, pausas, divagaciones y los típicos mmm serán interpretados de forma más natural por el asistente. Por lo que a partir de ahora será mucho más natural la interacción con el asistente pudiendo usar una forma más coloquial y natural en muestras interacciones.