OPINIÓN

De gigantes a modelos de lenguaje pequeños más eficientes y sostenibles



Dirección copiada

El entorno energético ya no es una variable externa, sino un factor determinante en el desarrollo y desplegue de la IA

Publicado el 13 mar 2026

Jostein Birkeland

Senior Technologist for Sustainable Transformation de Hewlett Packard Enterprise



SML

El potencial transformador de la inteligencia artificial es incuestionable. Sin embargo, a nadie se le escapa ya que estos potentes modelos consumen cantidades asombrosas de energía para entrenarse y desplegarse, especialmente en el caso de los grandes modelos de lenguaje (LLM). Con las restricciones energéticas a nivel estatal señalando a los centros de datos y con las cargas de trabajo de IA creciendo en todo el mundo, desarrolladores, programadores y empresas se enfrentan a la realidad de que la innovación debe concebirse pensando en un mundo con recursos limitados y en la necesidad de abandonar el viejo paradigma basado en la disponibilidad infinita de recursos.

Los equipos de desarrollo están recurriendo cada vez más a los Small Language Models (SLM) como alternativas más pequeñas pero potentes que pueden ser más adecuadas para casos de uso empresariales específicos

Jostein Birkeland, HPE

La energía es un factor determinante en el desarrollo de la IA

El creciente manto regulatorio en España y en la Unión Europea revela que el entorno energético ya no es una variable externa, sino un factor determinante en el desarrollo y desplegue de la IA. En España, el Ministerio para la Transición Ecológica ha sometido a audiencia pública un proyecto de Real Decreto que establecerá obligaciones de reporte energético y eficiencia para los centros de datos, que deberán informar consumo, origen de la electricidad y uso del calor residual. Este esfuerzo regulatorio se enmarca en la transposición de la Directiva (UE) 2023/1791, que identifica los centros de datos como un elemento clave para alcanzar los objetivos de eficiencia energética comunitarios. Ante este panorama, los desarrolladores y operadores deben anticiparse con arquitecturas eficientes y soluciones que prioricen el rendimiento energético de la infraestructura TI.

Con todo, la propia innovación en IA está demostrando que no es necesario escalar de forma ilimitada para lograr eficacia. Aunque los LLM han acaparado toda la atención, los equipos de desarrollo están recurriendo cada vez más a los Small Language Models (SLM) como alternativas más pequeñas pero potentes que pueden ser más adecuadas para casos de uso empresariales específicos.

Apuesta por los SLM

Los SLM suelen tener menos de 10.000 millones de parámetros, una cifra pequeña si se compara con los cientos de miles de millones, o incluso billones de los LLM. Este rasgo, que suele traducirse en una menor complejidad hace que sean una interesante alternativa cuando los recursos computacionales son limitados, o cuando la baja latencia y el procesamiento rápido son críticos. De hecho, el mismísimo GPT-5 de OpenAI puede alternar de formar automática con modelos internos más pequeños para responder a preguntas sencillas y reservar los modelos de gran tamaño para tareas más complejas.

Durante mucho tiempo, las organizaciones descartaron los SLM por considerarlos incapaces de alcanzar un rendimiento a nivel empresarial, difíciles de escalar o demasiado limitados por su menor base de datos. Pero no solo, se temía que no pudieran afrontar tareas complejas, trabajar en múltiples idiomas, o gestionar matices y ambigüedades con precisión. Sin embargo, en los últimos 18 meses, muchas de estas percepciones se han demostrado erróneas.

El cambio de paradigma hacia los SLM se explica en base a una premisa sobre la que hay un quorum establecido y es que la calidad de los datos es más importante que su cantidad. Los LLM suelen arrastrar enormes volúmenes de datos sin filtrar, repletos de duplicados o información irrelevante. Los SLM, en cambio, se apoyan en la llamada “eficiencia de datos”, trabajando con conjuntos cuidadosamente seleccionados por su precisión y relevancia. Este enfoque más preciso ha mejorado la exactitud en tareas específicas al tiempo que reduce las ineficiencias asociadas a modelos más grandes.

Ventajas de trabajar con SLM

Además, los SLM destacan por su facilidad para ser reajustados con rapidez y actualizados con frecuencia, lo que los hace más flexibles y adecuados para entornos dinámicos. También resultan atractivos para las empresas porque suelen ser más fáciles de desplegar y gestionar, y son especialmente eficaces en entornos edge, como las fábricas inteligentes, donde la eficiencia energética es esencial.

Numerosos ejemplos de éxito están surgiendo en diferentes sectores. En el comercio minorista, se utilizan modelos ligeros para alimentar chatbots de atención al cliente. En dispositivos como teléfonos inteligentes o wearables, permiten traducciones en tiempo real. En el ámbito sanitario, ayudan a médicos con recursos limitados a analizar síntomas, resultados de laboratorio y antecedentes para sugerir diagnósticos y próximos pasos. Además de su especialización, estos modelos ofrecen tiempos de inferencia más rápidos, menor latencia y requieren menos infraestructura de hardware.

Paralelamente al auge de los SLM, los modelos de peso abierto (open-weight models) también se están consolidando como alternativas energéticamente eficientes. Los modelos con arquitecturas Mixture of Experts (MoE) resultan especialmente atractivos porque solo activan una pequeña parte de sus parámetros durante la inferencia, reduciendo drásticamente el consumo de recursos. Un modelo con cien mil millones de parámetros, por ejemplo, puede necesitar solo cinco mil millones para ejecutar una tarea. Y como los modelos de peso abierto pueden desplegarse localmente y adaptarse a casos concretos, también reducen la carga energética en la infraestructura en la nube, lo que los convierte en una excelente opción para aplicaciones empresariales y entornos edge. Un ejemplo reciente es gpt-oss-20b de OpenAI, un modelo de peso abierto capaz de ejecutarse en hardware doméstico con apenas 16 GB de memoria.

Eficiencia energética

Las lecciones de los últimos años demuestran que los SLM pueden ser igual de eficaces, más económicos y altamente competentes en tareas que no requieren la vastedad de conocimientos de un LLM. Para afrontar con éxito la próxima fase de desarrollo de la inteligencia artificial, las organizaciones deberán asumir que la eficiencia energética debe ser un principio rector desde el diseño y considerarla en cada etapa del ciclo de vida de la IA, desde la selección de datos hasta la arquitectura del modelo y su despliegue. Solo con un enfoque integral y consciente del ciclo de vida podrán refinar sus técnicas y estimular una nueva ola de creatividad en la evolución de la inteligencia artificial.

Artículos relacionados