Una de las novedades que la compañía de Cupertino presentó en la recientemente celebrada WWDC (Worldwide Developers Conference) consistió en la apertura de Apple Intelligence a terceras partes, es decir, a desarrolladores y empresas productoras de software, para que utilicen la inteligencia artificial incorporada en el sistema operativo para sus propias aplicaciones.
Este anuncio tiene una interesante derivada en el ámbito de la privacidad, puesto que el modelo se ejecuta en el dispositivo, no necesitando de la nube -al contrario que ChatGPT o Gemini, por ejemplo, y entre otros- para realizar operaciones como traducción idiomática, composición de textos, o generación de imágenes, con lo que todos los datos proporcionados a la IA se quedan en el dispositivo y no van a Internet.
No obstante, también se hace posible recurrir, mediante Apple Intelligence, a servicios en la nube como ChatGPT, aunque de ello se informa antes y se solicita consentimiento.
El acceso por terceras partes a la Apple Intelligence se encuentra ya disponible en fase de pruebas para los iPhone, iPad, Apple Watch, Vision Pro, y ordenadores Mac, estando previsto que llegue a los usuarios a lo largo del próximo otoño. Además, y antes de que finalice el año, el sistema incorporará ocho idiomas adicionales, entre ellos el portugués, el sueco o el turco.
La firma de Cupertino recordó que en el pasado ejercicio introdujo los primeros modelos de IA integrados en sus sistemas operativos con la premisa de preservar la privacidad. Ahora, y según la misma, los algoritmos han ganado en eficiencia, y Apple busca que la integración alcance más apartados de la experiencia de uso, que van desde la comunicación hasta la productividad.
La actualización también marca un punto de inflexión para los desarrolladores, puesto que por primera vez podrán acceder directamente al modelo base que funciona en los equipos; mediante el nuevo marco Foundation Models, bastan unas pocas líneas en Swift para añadir generación de contenido, búsqueda semántica o análisis de contexto sin costes de inferencia ni dependencia de la conexión a Internet.
Traducción a tiempo real
Entre las funciones que debutan sobresale Live Translation, diseñada para traducir conversaciones en Mensajes, FaceTime y llamadas de voz sin abandonar la app ni exponer datos a servidores externos.
Este servicio muestra el texto traducido conforme el usuario escribe y, en las llamadas, ofrece subtítulos en vivo mientras mantiene la voz original del interlocutor o reproduce la traducción a tiempo real durante la charla telefónica.
Creatividad con Genmoji e Image Playground
A partir de ahora, Genmoji permite combinar distintos emoticonos y descripciones para generar nuevos iconos, además de ajustar rasgos como el peinado cuando se parte de fotografías personales.
Por su parte, Image Playground incorpora estilos adicionales como, por ejemplo, óleo o arte vectorial, y un modo Any Style que delega en ChatGPT la creación de imágenes a partir de instrucciones redactadas por el usuario, aunque solo se comparte la información con el modelo externo cuando se concede autorización explícita.
La vertiente de inteligencia visual también se amplía a todo lo que aparece en pantalla. Basta el mismo gesto utilizado para capturar una imagen, que para solicitar contextos o acciones: desde identificar un objeto y buscar productos similares en apps de comercio electrónico, hasta detectar datos de un evento y sugerir su inclusión en el calendario con fecha, hora y lugar ya cumplimentados.
Apple Watch y actividad física
Apple Watch recibe Workout Buddy, una experiencia que analiza el historial deportivo del usuario —ritmo, distancia, frecuencia cardiaca o metas alcanzadas— y genera indicaciones motivacionales durante la sesión.
Una nueva síntesis de voz, entrenada con locutores de Fitness+, transmite los consejos a tiempo real. La función se estrena en entrenamientos de carrera, ciclismo, HIIT y fuerza, requiere auriculares Bluetooth y un iPhone con Apple Intelligence cercano.
Herramientas para desarrolladores y atajos
El marco Foundation Models ofrece a cualquier aplicación la posibilidad de emplear la IA en local para generar cuestionarios, resumir notas o ejecutar búsquedas en lenguaje natural incluso sin conexión a red, ya sea ésta celular o Wi-Fi. Al integrarse de forma nativa en Swift, el proceso se limita a unas pocas llamadas, y la plataforma incluye ayudas como la generación guiada o la invocación de herramientas externas.
En paralelo, Atajos amplía su repertorio con acciones inteligentes que acceden directamente a los modelos de Apple Intelligence, ya sea en el dispositivo o mediante la nube privada. Así, es posible crear flujos que comparen transcripciones de audio con apuntes o que soliciten a ChatGPT contenido adicional sin exponer datos personales.
Otras integraciones
Las nuevas capacidades también alcanzan Recordatorios, que identifica tareas relevantes a partir de correos o páginas web, y Wallet, donde la IA resume el seguimiento de pedidos en un único panel. Mensajes sugiere encuestas cuando detecta que pueden agilizar la conversación y ofrece fondos personalizados creados con Image Playground.
Estas incorporaciones se suman a las herramientas lanzadas previamente, como la redacción asistida de textos, el borrado de elementos en Fotos, la creación de Genmoji o las respuestas inteligentes en Mail y Mensajes. En todos los casos, la arquitectura conserva la prioridad por el procesamiento local y extiende el uso de Private Cloud Compute cuando se precisan modelos de mayor tamaño, bajo la premisa de que la información del usuario ni se almacena ni se comparte.