Tecnología
Gafas Ray-Ban de Meta ahora pueden publicar fotos en Instagram con solo usar la voz
Las Gafas Ray-Ban de Meta también tiene poderosas funciones con IA.
Meta ha actualizado sus gafas inteligentes Ray-Ban para integrar el servicio de música en ‘streaming’ Amazon Music y facilitar la publicación de una foto hecha con este dispositivo en la red social Instagram.
Los usuarios de Ray-Ban Meta pueden acceder al contenido de meditación con una experiencia de manos libres, como parte de la colaboración de la firma tecnológica con Calm, para obtener “un momento de atención plena”, como recoge en su blog oficial.
Las gafas inteligentes también han incorporado el soporte para escuchar playlist en Amazon Music. Admite el control con manos libres con comandos de voz, para no tener que sacar el ‘smartphone’, pero pueden utilizarse los controles táctiles.
Asimismo, es posible, con la última actualización, compartir las fotos tomadas con las gafas directamente en Instagram como una historia, con comandos de voz. Se trata de una función que la compañía está desplegando de forma gradual.
Tendencias
Cabe recordar que Meta ha estado trabajando en la optimización de la IA multimodal de sus gafas Ray-Ban, para dotarla de nuevas capacidades.
IA de Meta ya puede reconocer lugares de interés y ofrecer información sobre ellos
En su momento Meta indicó que había mejorado las capacidades de inteligencia artificial de sus gafas Ray-Ban, las cuales ahora pueden reconocer lugares y puntos de referencia para brindar información de interés sobre esos sitios.
Este dispositivo cuenta con funciones de cámara dual de 5 MP y vídeo, además de que viene con audio incorporado para escuchar música y realizar llamadas. También es compatible con algunos de los servicios que desarrolla la propia Meta, como WhatsApp, para enviar mensajes encriptados de punto a punto o escuchar las respuestas de audio, entre otras opciones, así como Facebook View.
La compañía anunció a finales del año pasado la integración de su asistente de asistente Meta AI en una nueva generación de sus gafas, que combina la comprensión del lenguaje con la visión computacional para ver el mundo desde la perspectiva del usuario.
Entonces, comentó que estaba probando nuevas capacidades de IA multimodal para permitir traducir un idioma de un texto que esté leyendo el usuario o crear un título divertido para una foto que haya tomado.
La firma ha comentado ahora que ha mejorado la IA multimodal de este dispositivo para que sea capaz de reconocer puntos de referencia “populares” y obtener información sobre ellos, tal y como ha comentado en Threads el director de Tecnología de Meta, Andrew Bosworth.
Esto significa que, por ejemplo, al situarse con las gafas inteligentes frente al puente Golden Gate de San Francisco (Estados Unidos), el usuario obtiene información sobre él, como el nombre por el que se le conoce o el color.
Por otro lado, la compañía ha comentado que, más allá de las mejoras enfocadas al apartado de IA multimodal, Meta está actualizando periódicamente la experiencia general de manos libres, añadiendo comandos de voz para compartir su última interacción de Meta AI en WhatsApp, Messenger y mensajes de texto.
También será posible configurar en el apartado de Voz la velocidad de reproducción de los pódcast, para que Meta AI pueda leerlos a un ritmo más lento o más rápido.
Cabe recordar que también el año pasado la compañía reconoció en agosto del año pasado, antes de la llegada de la segunda generación, que del total de sus compradores, tan solo un 10 % las utiliza habitualmente.
Con información de Europa Press