Las gafas inteligentes Ray-Ban Meta siguen mejorando con la integración de la IA. El grupo tecnológico, propietario de Facebook, WhatsApp e Instagram, anunció el despliegue de la actualización de software v11, que añade nuevas funciones destinadas a hacer que las gafas Ray-Ban sean “más eficientes, más útiles y más divertidas que nunca”, explica en su blog.
El primero, llamado “Live AI”, agrega video al asistente Meta AI. Esta funcionalidad, que recuerda a la que OpenAI acaba de implementar en ChatGPT, permite analizar continuamente el entorno del usuario y responder preguntas en lenguaje natural sobre lo que está viendo en ese momento. Así, será posible, por ejemplo, pedir a la IA de Meta que sugiera recetas basadas en los productos visibles en la sección de frutas y verduras de una tienda, informa The Verge.
Los Meta Ray-Ban también tienen una herramienta de traducción instantánea que admite inglés, español, francés e italiano. “Cuando hablas con alguien que habla uno de estos tres idiomas, escuchas lo que dice en inglés a través de los parlantes de las gafas o como transcripción en tu teléfono, y viceversa”, explica Meta en su nota de prensa.
Anunciados durante el evento Meta Connect 2024 a finales de septiembre, estos dos nuevos “superpoderes”, como los llama la compañía estadounidense, actualmente solo están disponibles para los miembros del Programa de acceso anticipado de Meta. Esto le permite probar funciones en desarrollo antes de su lanzamiento oficial.
Meta también introdujo otra novedad para todos los propietarios de gafas conectadas Ray-Ban en Estados Unidos y Canadá: la integración de Shazam. Como lo demostró el jefe Mark Zuckerberg en un video en Instagram, donde conduce un buggy, ahora es posible invocar Meta AI para identificar una canción que se está reproduciendo actualmente mediante el reconocimiento de música.