Ejecutar los modelos de lenguaje para tareas de la IA directamente en los dispositivos en lugar de depender de la nube, puede abaratar los costes y reforzar la privacidad de los usuarios, una afirmación que ahora se ha visto respaldada por los resultados de un estudio llevado a cabo por la Universidad de California en Riverside con el apoyo de Qualcomm, fabricante de microprocesadores, precisamente, para dispositivos móviles.
Según los resultados arrojados por dicho estudio, cada consulta realizada a un sistema de IA generativa consume, por término medio, unas diez veces más electricidad que una búsqueda convencional en Internet. De hecho, uno de los principales problemas de los centros de datos dedicados a proporcionar servicios de la IA es la gran necesidad de alimentación eléctrica, que ha llevado a algunas grandes empresas como Amazon o Microsoft, a considerar la construcción de pequeñas centrales nucleares para dotarlos de alimentación ininterrumpida.
Una demanda de estos servicios que crece de forma exponencial es la principal causa de esta gran necesidad de alimentación
Los investigadores responsables de la realización de este estudio han comparado el rendimiento de seis modelos generativos ejecutados tanto en centros de datos y, por lo tanto, accedidos en remoto, como en teléfonos equipados con procesadores fabricados por Qualcomm, con el objetivo de medir el consumo de energía y agua (otro factor muy importante en toda esta cadena) y la huella de carbono provocada para responder a las mismas peticiones en ambos entornos.
Las mediciones muestran que procesar las consultas en local en el dispositivo móvil reduce entre un 75% y un 95% el consumo eléctrico, lo que implica descensos proporcionales en la utilización de agua y en las emisiones de gases de efecto invernadero.
Uno de los ejemplos analizados -una pregunta sobre programación planteada al modelo Llama-2-7B desde California- necesitó un 94% menos de energía y un 96% menos de agua cuando se resolvió en el móvil.
Pese a las ventajas medioambientales manifiestas, el tiempo de respuesta fue mayor en los teléfonos para cada uno de los seis modelos analizados, de modo que acortar esta brecha, especialmente en los algoritmos más potentes y populares, se perfila como condición imprescindible para una adopción masiva.
En este aspecto, las optimizaciones del software como las propuestas desde DeepSeek y otras empresas, especialmente las chinas, son esenciales, ya que permiten ejecutar modelos con resultados equivalentes a los que ofrecen OpenAI, Claude o Google, pero en un hardware más escueto, obteniendo una velocidad similar. Son, por lo tanto, buenos candidatos a ejecutar en local.
Los autores del estudio concluyen que, para muchas tareas cotidianas, la capacidad de computación que ya incorporan los smartphones puede resultar suficiente, reduciendo la dependencia de los centros de datos sin renunciar a la funcionalidad de los sistemas de IA.
Para ilustrar estas diferencias de forma comprensible, Qualcomm está desarrollando un simulador que permitirá a cada usuario comparar, según su ubicación y tipo de consulta, los recursos que se ahorrarían al optar por el procesamiento en el dispositivo frente a la nube.