La IA ya gasta el 1-2% de la energía mundial. En 2022, los centros de procesamiento de datos consumieron 460 teravatios-hora, el equivalente a la demanda energética de Francia. Las estimaciones más prudentes apuntan a que para 2026 esta cifra, como mínimo, se duplicará.
Los centros de procesamiento de datos que posibilitan la existencia de la IA están aumentando su gasto energético a pasos agigantados, lo que no hará más que contribuir a unas consecuencias medioambientales ya desastrosas.
Los defensores de la IA sostienen que su uso ayudará a abordar problemas asociados con la crisis climática como el consumo de recursos, así como otras complicadas cuestiones sociales.
Sin embargo, la IA emite una cantidad considerable de CO2, el motor del cambio climático. Los críticos señalan que esto anula todo lo que la IA se propone conseguir.
Las estimativas más prudentes sobre el gasto energético de la IA apuntan a que esta tecnología consume tanto como los países desarrollados. Al no haber una clara solución, parece que el problema no hará más que agravarse.
La IA depende principalmente de los centros de procesamiento de datos, pero también de componentes físicos cuyo uso y producción son problemáticos para el medioambiente.
Aunque la fase de "interferencia" de la IA no consume mucha energía per se, su uso constante se acumula. Por ejemplo, los centros de procesamiento de datos de Facebook llevaron a cabo billones de interferencias diarias en 2022.
Estas interferencias proceden de funciones algorítmicas como las recomendaciones. Esto significa que cada vez que un usuario de Facebook (de entre los tres mil millones con los que cuenta) inicia sesión y ve las novedades, se activan las interferencias.
Pero no hablamos solo de Facebook. Las plataformas online que, por ejemplo, requieren una prueba de "humanidad" (a menudo mediante la identificación de objetos en imágenes), también participan en este proceso.
Aunque los desarrolladores de aplicaciones analizan el gasto energético al crearlas, los estudios demuestran que su uso diario hace que este se dispare.
La organización Algorithm Watch usa el ejemplo del modelo BLOOM. Durante la fase de desarrollo, esta aplicación consumió 24,7 toneladas de CO2, sin incluir las emisiones de la producción de hardware y las operaciones, lo que casi duplica la cantidad indicada.
La organización también pone como ejemplo a PaLM, el modelo lingüístico de la IA de Google. Aunque casi el 90% de la energía que este recibe procede de fuentes libres de carbono, una sola ejecución en su fase de desarrollo produjo 271,43 toneladas de CO2.
Esta cantidad de emisiones de CO2 equivale a 1,5 vuelos de aviones comerciales en Estados Unidos. Aunque no parezca mucho debido a los miles de vuelos que tienen lugar en este país cada día, sigue siendo una cantidad considerable de CO2.
Esto también resulta preocupante si se tiene en cuenta que PaLM es, supuestamente, un modelo más sostenible que el de otros competidores.
Además de las emisiones, la IA requiere de energía computacional. Los servidores se calientan y necesitan enfriarse constantemente para evitar que se saturen.
Aquí es donde entra en juego el agua, ya necesaria para enfriar las centrales eléctricas y los servidores de IA. Algorithm Watch asegura que los modelos lingüísticos como GPT-3 y LaMDA gastan millones de litros solo en su fase de entrenamiento.
El desarrollo y el aumento de la demanda de programas de IA se traduce en una mayor necesidad de agua. Las cifras y los hechos hablan por sí solos. El consumo de agua de Google aumentó en un 20% en tan solo un año, mientras que el de Microsoft lo hizo en un 34%.
Las herramientas de IA más populares en la actualidad (p. ej. ChatGPT) consumen 500 ml de agua con tan solo unas pocas preguntas y respuestas. Teniendo en cuenta los por lo menos 100 millones de usuarios activos, la cantidad de agua que ChatGPT consume por sí sola es cuanto menos alarmante.
Está claro que el consumo de energía actual de la IA necesita documentarse con precisión, pero también es imperante que se evalúe y regule. Su uso supone un riesgo en varios sentidos, sobre todo en el medioambiental.
Algunos críticos temen que las evaluaciones y las medidas legales limiten la evolución y la innovación de la IA, pero reducir su consumo energético resulta imperante.
Según la Hebrew University, "reducir el gasto energético es esencial" ya que, de lo contrario, la IA corre el riesgo de convertirse en una herramienta de "hombres ricos".
Como la IA funciona gracias al aprendizaje automático, siempre se va a consumir mucha energía para entrenar y ejecutar los modelos.
Está claro que la prevalencia de la IA requiere de ciertos parámetros para garantizar que podamos disfrutar de sus beneficios a la larga. Llevar a cabo un control de sus mecanismos para entender el consumo de recursos, las emisiones de CO2 y la producción de hardware resulta esencial.
El miedo nace de la posibilidad de que cualquiera de estas regulaciones cree unas condiciones tan limitadores que tanto la creación como el uso de los modelos de IA pasen a ser accesibles solo para algunas personas.
Algunos expertos argumentan que la industria de la IA necesita llevar a cabo cambios arquitectónicos a gran escala para abordar las preocupaciones medioambientales, así como apostar por un enfoque más eficiente a la hora de satisfacer las necesidades de la industria.
Estos ajustes también se aplican al desarrollo de hardware, ya que las empresas necesitan invertir en hacer las herramientas técnicas como los chips de las computadoras más eficientes.
El informe medioambiental de 2024 de Google señaló que sus emisiones de CO2 habían aumentado la mitad solo en el último lustro, y las de Microsoft en un 30%. Una gran fuente de consumo de energía procede de la necesidad constante de memoria de la IA.
Los expertos sostienen que la clave para reducir el consumo energético reside en lograr que el acceso a las memorias requiera menos energía y en desarrollar circuitos más eficientes.
Se trata de un proceso largo y costoso que podría requerir una gran inversión en investigación. Por lo tanto, los expertos no solo no creen que las empresas tengan prisa por encontrar soluciones al problema del consumo energético, sino que además temen que estas aprovechen para expandir sus servicios de IA mientras las normativas siguen sin estar claras.
Fuentes: (Nature.com) (Algorithm Watch) (Fierce Network) (Wired)
No te pierdas: ¿Sabrías diferenciar a una persona real de una generada por IA?
La huella energética de la IA: ¿es sostenible?
Para 2026, los centros de procesamiento de datos consumirán tanta energía como Suecia
ESTILO DE VIDA Cambio climático
La inteligencia artificial es el futuro, ¿pero cómo de sostenible es su gasto energético? Las cifras no son muy alentadoras. Según la Agencia Internacional de la Energía (AIE), la IA consumió el 2% de la energía mundial en 2022 y para 2026 se espera que alcance casi el 130%. Para que te hagas una idea, esto equivale al gasto anual de Suecia. Los expertos han compartido su preocupación por el consumo de recursos que implica la IA y advierten de que sus estragos medioambientales no harán más que aumentar. Si quieres saber más al respecto, ¡haz clic para seguir leyendo!