Investigadores de la Universidad de Cádiz han desarrollado una nueva vía para reducir el impacto energético de los modelos de lenguaje de gran tamaño, como los usados por chatGPT o Gemini. Este trabajo, que se publicará en septiembre en la revista Future Generation Computer Systems con el título “Energy-efficient large language models”, propone optimizar el software que ejecuta estos sistemas para mejorar su rendimiento sin necesidad de modificar los propios modelos de inteligencia artificial (IA).
Los investigadores señalan que el crecimiento de estos modelos ha supuesto un avance significativo en la interacción con la tecnología, pero también ha generado una elevada demanda energética y computacional, especialmente durante el proceso de generación de respuestas. En concreto, el consumo diario producido por las consultas a modelos como chatGPT equivale al de miles de hogares, y provoca una cantidad de emisiones similar a las de un automóvil al recorrer 80.000 km (casi dos vueltas al mundo). Por ello, el trabajo realizado desde la UCA aborda el reto de reducir el impacto medioambiental de estos modelos de IA desde una perspectiva innovadora centrada en los motores de inferencia, es decir, los programas que utilizan los modelos IA ya entrenados, como chatGPT, para producir respuestas en tiempo real.
Los investigadores explican que su propuesta se basa en una herramienta automática capaz de optimizar el código de estos motores mediante un algoritmo genético, inspirado en los procesos de evolución natural. “Este sistema explora de forma inteligente un gran número combinaciones de mejoras en el software y selecciona aquellas que permiten un uso más eficiente del hardware, generando versiones optimizadas que reducen el consumo energético y aceleran la ejecución”, señalan.
A diferencia de las estrategias existentes, centradas en reducir el tamaño o la complejidad de los modelos y, por tanto, su capacidad de respuesta, este trabajo propone mejorar su eficiencia actuando directamente sobre el software que los ejecuta, “lo que permite avanzar hacia una inteligencia artificial más sostenible y ágil sin afectar a su funcionamiento”, añaden.
Las pruebas realizadas con modelos de lenguaje de diferentes tamaños lograron reducir el consumo energético en más de un 13% y el tiempo de ejecución en cerca de un 20%. Estos ahorros suponen mejoras significativas frente a las optimizaciones genéricas que se aplican hoy en día.
Este contenido está protegido por derechos de autor y no se puede reutilizar. Si desea cooperar con nosotros y desea reutilizar parte de nuestro contenido, contacte: editors@pv-magazine.com.











Al enviar este formulario, usted acepta que pv magazine utilice sus datos con el fin de publicar su comentario.
Sus datos personales solo se divulgarán o transmitirán a terceros para evitar el filtrado de spam o si es necesario para el mantenimiento técnico del sitio web. Cualquier otra transferencia a terceros no tendrá lugar a menos que esté justificada sobre la base de las regulaciones de protección de datos aplicables o si pv magazine está legalmente obligado a hacerlo.
Puede revocar este consentimiento en cualquier momento con efecto para el futuro, en cuyo caso sus datos personales se eliminarán inmediatamente. De lo contrario, sus datos serán eliminados cuando pv magazine haya procesado su solicitud o si se ha cumplido el propósito del almacenamiento de datos.
Puede encontrar más información sobre privacidad de datos en nuestra Política de protección de datos.