Desarrollan una herramienta capaz de reducir el impacto medioambiental de la IA

Share

 

Investigadores de la Universidad de Cádiz han desarrollado una nueva vía para reducir el impacto energético de los modelos de lenguaje de gran tamaño, como los usados por chatGPT o Gemini. Este trabajo, que se publicará en septiembre en la revista Future Generation Computer Systems con el título “Energy-efficient large language models”, propone optimizar el software que ejecuta estos sistemas para mejorar su rendimiento sin necesidad de modificar los propios modelos de inteligencia artificial (IA).

Los investigadores señalan que el crecimiento de estos modelos ha supuesto un avance significativo en la interacción con la tecnología, pero también ha generado una elevada demanda energética y computacional, especialmente durante el proceso de generación de respuestas. En concreto, el consumo diario producido por las consultas a modelos como chatGPT equivale al de miles de hogares, y provoca una cantidad de emisiones similar a las de un automóvil al recorrer 80.000 km (casi dos vueltas al mundo). Por ello, el trabajo realizado desde la UCA aborda el reto de reducir el impacto medioambiental de estos modelos de IA desde una perspectiva innovadora centrada en los motores de inferencia, es decir, los programas que utilizan los modelos IA ya entrenados, como chatGPT, para producir respuestas en tiempo real.

Los investigadores explican que su propuesta se basa en una herramienta automática capaz de optimizar el código de estos motores mediante un algoritmo genético, inspirado en los procesos de evolución natural. “Este sistema explora de forma inteligente un gran número combinaciones de mejoras en el software y selecciona aquellas que permiten un uso más eficiente del hardware, generando versiones optimizadas que reducen el consumo energético y aceleran la ejecución”, señalan.

A diferencia de las estrategias existentes, centradas en reducir el tamaño o la complejidad de los modelos y, por tanto, su capacidad de respuesta, este trabajo propone mejorar su eficiencia actuando directamente sobre el software que los ejecuta, “lo que permite avanzar hacia una inteligencia artificial más sostenible y ágil sin afectar a su funcionamiento”, añaden.

Las pruebas realizadas con modelos de lenguaje de diferentes tamaños lograron reducir el consumo energético en más de un 13% y el tiempo de ejecución en cerca de un 20%. Estos ahorros suponen mejoras significativas frente a las optimizaciones genéricas que se aplican hoy en día.

Este contenido está protegido por derechos de autor y no se puede reutilizar. Si desea cooperar con nosotros y desea reutilizar parte de nuestro contenido, contacte: editors@pv-magazine.com.

Popular content

La tramitación de proyectos BESS en España se dispara un 464% interanual
23 abril 2026 El primer trimestre de 2026 muestra una caída interanual de −1.353,2 MW en el desarrollo de nuevos proyectos fotovoltaicos al tiempo que el almacenami...