Google anunció recientemente que volvía al ruedo de las gafas inteligentes con una nueva plataforma software, Android XR, que proporciona funcionalidades como la traducción simultánea, la presentación de notificaciones de las aplicaciones instaladas en el teléfono (que es, de hecho, de donde saca su potencia computacional), búsquedas online, o indicaciones para llegar a ubicaciones, todo ello mediante el concurso de la inteligencia artificial de Gemini.
Hasta aquí, la multinacional de Mountain View parecía haber dejado bastante de lado el segmento de las smart glasses tras el abandono de las Google Glass, unas primigenias gafas inteligentes pensadas para early adopters, desarrolladores, y usos profesionales en terrenos como la industria. Al calor de este abandono, poco se había movido en el sector más allá de algunos modelos de gafas -como los presentados por la firma china TCL- que actúan a modo de monitor, o bien que proporcionan unas funcionalidades mínimas.
Al calor de la nueva apuesta de Google, Meta ha anunciado que añade nuevas funcionalidades a las Ray-Ban Meta, sus gafas inteligentes realizadas conjuntamente con la reconocida e histórica marca fabricante de gafas de sol.
La más importante es, sin lugar a dudas, la traducción simultánea, que iguala a la demostración que Google hizo en el evento TED2025 de un prototipo de gafas equipadas con Android XR que eran capaces, gracias a Gemini, de traducir del Farsi al Inglés en tiempo real.
Dicha funcionalidad en las gafas Ray-Ban Meta no es del todo nueva, sinó que ha estado disponible, en fase preview, en determinados mercados, pero ahora se despliega ya en todo el mundo una vez ha llegado a una fase de madurez, aunque personalmente, pocas dudas tengo de que la presentación de Google ha tenido bastante que ver en que este anuncio se haya precipitado.
La gran ventaja que presenta la nueva funcionalidad de traducción simultánea de las Ray-Ban Meta Frames, es que no necesitamos estar conectados a Internet para utilizarla, ya que podemos hacerlo con nuestro teléfono en modo avión siempre y cuando hayamos descargado los paquetes idiomáticos necesarios.
Con sólo solicitar a las gafas que inicien la aplicación de traducción en tiempo real (“Oye Meta, inicia la traducción en vivo” o, en inglés, “Hey Meta, start live translation”), podremos escuchar a nuestro interlocutor en el idioma que prefiramos a través del sistema de audio de las gafas, y en tiempo real, mientras que nuestro interlocutor podrá ver una transcripción traducida de la conversación en la pantalla de nuestro teléfono.
El asistente de IA de Meta también será capaz de ver a través de la cámara de las gafas, de forma que podremos conversar con él sobre lo que estemos viendo.
Otra funcionalidad que se añade a las gafas Ray-Ban Meta es la de recepción de mensajes directos, fotos, y llamadas de audio y vídeo realizadas a través de Instagram, en las mismas gafas. Hasta ahora, esto se podía hacer con las aplicaciones WhatsApp y Messenger, así como las apps de mensajería de los terminales Android o iPhone.
La ampliación de funcionalidades disponibles hasta ahora de forma limitada a ciertos territorios, a todo el resto del mundo, continúa con la capacidad de poder escuchar canciones y listas de Spotify, Amazon Music, Apple Music y Shazam, que hasta ahora se encontraba disponible solamente en los Estados Unidos y Canadá. Eso sí, la configuración de lengua de las gafas deberá estar en inglés y, además, también podremos solicitar a la IA de Meta información sobre la canción o álbum que estemos escuchando.
Además de la ampliación de funcionalidades de estas gafas por parte de Meta, Ray-Ban también ha puesto a disposición de los compradores interesados, nuevos modelos de montura, con nuevos diseños y colores.