El auge de la inteligencia artificial ha traído consigo un incremento exponencial en la demanda de recursos computacionales, principalmente a través de los grandes centros de datos que alimentan modelos como ChatGPT y Gemini. Esta dependencia de la nube genera una preocupación creciente por el impacto ambiental, con estimaciones que predicen un aumento drástico en las necesidades energéticas de estos centros en los próximos años.
Ante este panorama, una nueva tendencia está ganando fuerza: los modelos de lenguaje pequeños (SLM). Estos sistemas, diseñados para ser más ligeros y eficientes, tienen la capacidad de ejecutarse en dispositivos cotidianos como ordenadores e incluso teléfonos móviles. Esta computación local elimina la necesidad constante de enviar consultas a la nube, lo que se traduce en un menor consumo energético y una reducción de la huella de carbono asociada a la IA.
Empresas y proyectos como Mistral AI con su Mistral Small 3.1, el modelo de código abierto TinyLlama, y Google con su Gemma 3 1B, demuestran la viabilidad de esta alternativa. Estos modelos, aunque menos precisos para tareas complejas como la generación de imágenes, son ideales para aplicaciones como redacción sencilla, resúmenes, traducción o transcripción, directamente en el dispositivo del usuario, protegiendo además la privacidad de los datos.
Expertos como Verónica Bolón-Canedo y George Tsirtsis coinciden en que el futuro de la IA pasa por un enfoque híbrido. Las aplicaciones combinarán la potencia de los grandes modelos en la nube para tareas exigentes con la eficiencia y la inmediatez de los modelos pequeños que operan localmente, buscando un equilibrio entre rendimiento y sostenibilidad energética.