A lo largo de los últimos meses, Meta ha ido introduciendo su inteligencia artificial generativa, basada en el modelo de lenguaje grande (LLM por sus siglas en inglés) Llama 4, en sus servicios como WhatsApp o Instagram y, ahora, llega su app independiente para iOS y Android que convierte esta IA en un asistente personal, poniéndose a la altura de ChatGPT, Gemini, o Grok.
La gran ventaja de lanzar una app dedicada es que, además de integrar su IA en los distintos servicios y marcas que ofrece la compañía, los usuarios y consumidores en general también pueden acceder a ella de forma independiente.
Esta plataforma independiente también dispone de capacidad de interacción por voz, tanto en el reconocimiento del habla del usuario, como para sintetizar por voz las respuestas que da a las preguntas de estos.
Además, el asistente busca conocer mejor a cada uno de sus usuarios para proporcionar respuestas más útiles, con un tono conversacional que procura hacer la interacción tan fluida y natural como hablar con otra persona, con capacidad full-duplex (lo que quiere decir que podemos interrumpir el discurso de la IA para hacerle nuevas preguntas sobre lo que ha venido diciendo). Este modo full-duplex es activable y desactivable, por lo que podemos “jugar” con él.
Las conversaciones de voz, incluida la demo, se encuentran disponibles inicialmente en los Estados Unidos, Canadá, Australia y Nueva Zelanda, aunque es probable que se vayan ampliando a más zonas geográficas a lo largo de las próximas semanas y meses.
Según la firma, el modelo Llama 4 aporta respuestas más pertinentes y un discurso más cercano a la interacción real con otras personas.
Además de poder interaccionar por voz y texto, la nueva app de IA de Meta también soporta la generación de imágenes, aunque -al menos por el momento- no soporta el reconocimiento de vídeo y fotos a través de la cámara, por lo que no podemos considerar que sea totalmente multimodal.
Tampoco dispone de información a tiempo real ni acceso a la web, y desde Meta advierten que pueden aparecer fallos técnicos o respuestas inconsistentes mientras se recopila la opinión de los usuarios para perfeccionarla.
Un detalle interesante es que se integra con el sistema operativo del dispositivo (recordemos que se encuentra disponible para iOS y Android), de manera que introduce un icono visible para poder utilizar la conversación de voz mientras también empleamos otras funcionalidades del terminal.
En los Estados Unidos y Canadá, la app es capaz de entregar respuestas adaptadas con la información que el usuario ha aceptado compartir en Facebook o Instagram. Quienes gestionen ambas cuentas desde el mismo Accounts Center obtendrán una personalización aún más amplia.
La aplicación incorpora un Discover feed, un espacio donde se muestran los mejores ejemplos de uso compartidos por la comunidad, que pueden modificarse y reutilizarse. Nada se publica sin consentimiento expreso del usuario que lo postea.
Las Meta Frames de Ray-Ban, gafas inteligentes construidas a medias entre ambas firmas, también pueden disfrutar de esta nueva app mediante la fusión con Meta View, la app de gestión de las gafas, que permitirá unificar las experiencias a través de todas las plataformas. En algunos países, será posible pasar de la conversación en las gafas a la aplicación móvil y continuarla en el historial accesible desde la web, aunque no a la inversa.
Las personas que ya usaban Meta View verán trasladados automáticamente sus dispositivos emparejados, ajustes y contenidos a la pestaña Devices tras la actualización.
Por su parte, la versión web del asistente se actualiza con interacción por voz y el mismo Discover feed, garantizando continuidad entre la app, las gafas y el escritorio. La interfaz se ha adaptado a pantallas grandes y flujos de trabajo de escritorio, e incorpora mejoras en la generación de imágenes con más preajustes y opciones para modificar estilo, ambiente, iluminación y color.
Además, en algunos países se prueba un editor de documentos enriquecidos capaz de combinar texto e imágenes y exportar el resultado a PDF. También se está evaluando la importación de archivos para que Meta AI los analice y comprenda.