La IA demanda cada vez más energía
► El entrenamiento y la inferencia de los modelos de Inteligencia Artificial demandan cada vez más consumo de energía, pero la eficiencia de la infraestructura utilizada permite que su huella de carbono sea menor
PedirlePedirle a CHATGPT que haga un resumen o a Midjourney que di-buje di-buje un extraterrestre tiene un consumo eléctrico de nuestro ordenador y de las redes de comunicaciones, los servidores de cálculo y los sis-temas sis-temas de almacenamiento que están detrás de todos los algorit-mos algorit-mos de la Inteligencia Artificial. Pero lo mismo ocurre cada vez que envías un correo electrónico, su-bes su-bes una foto a Instagram o contes-tas contes-tas un Whatsapp.
Las tecnologías que están detrás de nuestro día a día tienen un im-portante im-portante consumo eléctrico. Sin embargo, calcular cuál es el im-pacto im-pacto real que tienen todos estos códigos es complicado.
Consumo sostenido
Según la Agencia Internacional de la Energía, en 2022, los centros de datos (CPD) que alimentan todos los ordenadores, incluida la nube de Amazon o el motor de búsqueda búsqueda de Google, utilizaron entre el 1 y el 1,3% de toda la electricidad mundial. Eso excluye la minería de criptomonedas, que utilizó otro 0,4%, aunque algunos de esos recursos recursos se están redistribuyendo ahora para hacer funcionar la inteligencia inteligencia artificial.
Este mismo organismo asegura que, desde 2010, las emisiones del sector TIC han crecido modestamente, modestamente, sobre todo si se compara con el rápido crecimiento de la demanda de servicios digitales. Algo que se explica gracias a las mejoras de la eficiencia energética, energética, las compras de energía renovable renovable por parte de las empresas de tecnologías de la información y la comunicación (TIC) y una mayor descarbonización de las redes eléctricas en muchas regiones. Por hacernos una idea, entre 2010 y 2018 se produjo un aumento del 550% en las instancias de computación computación y un aumento del 2400% en la capacidad de almacenamiento en los centros de datos globales, pero su consumo de energía aumentó aumentó solo un 6%.
Sin embargo, para alcanzar el escenario de Cero Emisiones, las emisiones deben reducirse a la mitad para 2030. Algo que se agudiza agudiza si tenemos en cuenta que la inteligencia artificial ( IA) y el aprendizaje automático (AM) son una de las principales áreas de crecimiento de la demanda, con implicaciones potencialmente significativas para el uso energético energético de los centros de datos en los próximos años. Aunque la cantidad cantidad de potencia informática necesaria necesaria para entrenar los modelos de ML más grandes está creciendo rápidamente, no está claro a qué velocidad está aumentando el uso total de energía relacionada con el ML en los centros de datos.
Robert Assink, director general de Digital Realty en España, asegura asegura a La Razón que los centros de datos especializados como los de su compañía «llevamos años trabajando trabajando para la llegada de la inteligencia inteligencia artificial, innovando en nuevos modelos de refrigeración
El sector TIC supone el 1,3% del consumo mundial de energía, con valores anuales constantes
más eficientes para dar solución a la mayor densidad de potencia que demanda la IA. Estamos incorporando incorporando sistemas de refrigeración refrigeración líquida para eliminar de forma forma más sencilla el exceso de calor de los equipos, permitiendo un uso más eficiente de la energía».
Calcular el impacto
Los primeros intentos de calcular cuánta electricidad consume la IA se centraron en la energía y las emisiones de carbono asociadas con el entrenamiento de grandes modelos de ML. Sin embargo, datos datos más recientes de empresas como Meta y Google revelan que la fase de entrenamiento solo representa representa alrededor del 20-40% del uso total de energía relacionada con ML. La inferencia (la aplicación aplicación o el uso de estos modelos) supondría entre el 60 y el 70% y hasta un 10% para el desarrollo de modelos (experimentación).
A ello habría que añadir la complejidad complejidad de que no todos los datos se hacen públicos. Por eso, uno de los estudios que más repercusión ha tenido ha sido el elaborado por investigadores de la Universidad de Massachusetts Amherst en 2019. El estudio concluyó que BERT (el modelo de lenguaje grande grande (LLM) de Google era el más grande cuando se hizo el informe) emitió aproximadamente 652 kilos kilos de dióxido de carbono (CO2) durante 79 horas de entrenamien