Inicio Quienes somos Revista online Newsletter Videos Webinars
vimeo twitter Facebook linkedin

INTELIGENCIA ARTIFICIAL

El impacto medioambiental de la IA generativa

23/01/2025

CATEGORíA: General MARCA: Massachusetts Institute of Technology


El rápido desarrollo y despliegue de potentes modelos de IA generativa tiene consecuencias para el medio ambiente, como el aumento de la demanda de electricidad y el consumo de agua.


La potencia de cálculo necesaria para entrenar modelos de IA generativa que suelen tener miles de millones de parámetros, como el GPT-4 de OpenAI, puede demandar una cantidad asombrosa de electricidad, lo que provoca un aumento de las emisiones de dióxido de carbono y presiones sobre la red eléctrica.

 

Además, el despliegue de estos modelos en aplicaciones del mundo real, que permiten a millones de personas utilizar la IA generativa en su vida cotidiana, y el posterior ajuste de los modelos para mejorar su rendimiento consumen grandes cantidades de energía mucho tiempo después de que se haya desarrollado un modelo.

 

Además de la demanda de electricidad, se necesita una gran cantidad de agua para refrigerar el hardware utilizado en el entrenamiento, despliegue y puesta a punto de los modelos generativos de IA, lo que puede sobrecargar los suministros municipales de agua y alterar los ecosistemas locales. El creciente número de aplicaciones de IA generativa también ha estimulado la demanda de hardware informático de alto rendimiento, lo que añade impactos ambientales indirectos derivados de su fabricación y transporte.

 

"Cuando pensamos en el impacto ambiental de la IA generativa, no se trata sólo de la electricidad que se consume al enchufar el ordenador. Hay consecuencias mucho más amplias que se extienden a nivel de sistema y persisten en función de las acciones que realizamos", afirma Elsa A. Olivetti, profesora del Departamento de Ciencia de los Materiales e Ingeniería y responsable de la Misión de Descarbonización del nuevo Proyecto Clima del MIT.

 

Olivetti es autora principal de un artículo publicado en 2024, The Climate and Sustainability Implications of Generative AI (Las implicaciones climáticas y de sostenibilidad de la inteligencia artificial generativa), elaborado por colegas del MIT en respuesta a una convocatoria de artículos de todo el Instituto que exploran el potencial transformador de la inteligencia artificial generativa, tanto en direcciones positivas como negativas para la sociedad.

 

Centros de datos exigentes

La demanda de electricidad de los centros de datos es uno de los principales factores que contribuyen al impacto medioambiental de la IA generativa, ya que los centros de datos se utilizan para entrenar y ejecutar los modelos de aprendizaje profundo que hay detrás de herramientas tan populares como ChatGPT y DALL-E.

Un centro de datos es un edificio con temperatura controlada que alberga infraestructura informática, como servidores, unidades de almacenamiento de datos y equipos de red. Por ejemplo, Amazon tiene más de 100 centros de datos en todo el mundo, cada uno de los cuales cuenta con unos 50.000 servidores que la empresa utiliza para dar soporte a los servicios de computación en la nube.

 

Aunque los centros de datos existen desde la década de 1940 (el primero se construyó en la Universidad de Pensilvania en 1945 para dar soporte al primer ordenador digital de propósito general, el ENIAC), el auge de la IA generativa ha aumentado drásticamente el ritmo de construcción de centros de datos.

 

"Lo que diferencia a la IA generativa es la densidad de potencia que requiere. Fundamentalmente, es sólo computación, pero un clúster de entrenamiento de IA generativa puede consumir siete u ocho veces más energía que una carga de trabajo computacional típica", afirma Noman Bashir, autor principal del documento de impacto, que es becario de Computación e Impacto Climático en el Consorcio de Clima y Sostenibilidad (MCSC) del MIT y postdoctorando en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL).

 

Los científicos han estimado que las necesidades energéticas de los centros de datos en Norteamérica aumentaron de 2.688 megavatios a finales de 2022 a 5.341 megavatios a finales de 2023, en parte impulsadas por las demandas de la IA generativa. A nivel mundial, el consumo eléctrico de los centros de datos aumentó a 460 teravatios en 2022. Esto habría convertido a los centros de datos en el 11º mayor consumidor de electricidad del mundo, entre las naciones de Arabia Saudí (371 teravatios) y Francia (463 teravatios), según la Organización para la Cooperación y el Desarrollo Económicos.

 

Para 2026, se espera que el consumo eléctrico de los centros de datos se acerque a los 1.050 teravatios (lo que auparía a los centros de datos al quinto puesto de la lista mundial, entre Japón y Rusia).

Aunque no toda la computación de los centros de datos implica IA generativa, la tecnología ha sido uno de los principales impulsores del aumento de la demanda de energía.

 

"La demanda de nuevos centros de datos no puede satisfacerse de forma sostenible. El ritmo al que las empresas están construyendo nuevos centros de datos significa que la mayor parte de la electricidad para alimentarlos debe proceder de centrales eléctricas basadas en combustibles fósiles", afirma Bashir.

 

La energía necesaria para entrenar y desplegar un modelo como el GPT-3 de OpenAI es difícil de determinar. En un trabajo de investigación de 2021, científicos de Google y de la Universidad de California en Berkeley calcularon que el proceso de entrenamiento consumía por sí solo 1.287 megavatios hora de electricidad (suficiente para abastecer a unos 120 hogares estadounidenses durante un año) y generaba unas 552 toneladas de dióxido de carbono.

 

"Aunque todos los modelos de aprendizaje automático deben entrenarse, un problema exclusivo de la IA generativa son las rápidas fluctuaciones en el consumo de energía que se producen en las distintas fases del proceso de entrenamiento", explica Bashir.

 

Los operadores de la red eléctrica deben tener un modo de absorber esas fluctuaciones para proteger la red, y suelen emplear generadores diésel para esa tarea.

 

Aumento del impacto de la inferencia

Una vez entrenado un modelo generativo de IA, la demanda de energía no desaparece.

Cada vez que se utiliza un modelo, tal vez por una persona que pide a ChatGPT que resuma un correo electrónico, el hardware informático que realiza esas operaciones consume energía. Los investigadores han calculado que una consulta ChatGPT consume unas cinco veces más electricidad que una simple búsqueda en Internet.

 

Con la IA tradicional, el consumo de energía se divide a partes iguales entre el procesamiento de datos, el entrenamiento del modelo y la inferencia, que es el proceso de utilizar un modelo entrenado para hacer predicciones sobre nuevos datos. Sin embargo, Bashir espera que la demanda de electricidad de la inferencia de la IA generativa acabe dominando, ya que estos modelos se están haciendo omnipresentes en muchas aplicaciones, y la electricidad necesaria para la inferencia aumentará a medida que las futuras versiones de los modelos sean más grandes y complejas.

 

El hardware informático de los centros de datos tiene su propio impacto ambiental, menos directo.

Aunque es difícil calcular cuánta energía se necesita para fabricar una GPU, un tipo de procesador potente que puede manejar cargas de trabajo intensivas de IA generativa, sería más de la que se necesita para producir una CPU más sencilla porque el proceso de fabricación es más complejo. La huella de carbono de una GPU se ve agravada por las emisiones relacionadas con el transporte de materiales y productos.

 

"La industria va por un camino insostenible, pero hay formas de fomentar un desarrollo responsable de la IA generativa que respalde los objetivos medioambientales", afirma Bashir.

 

Fuente: https://news.mit.edu

Autor: Adam Zewe

Foto de Google DeepMind en Unsplash

 

 




Volver al listado Volver al listado





vimeo twitter facebook linkedin


Financiado por la Unión Europea Next GenerationEU Plan de Recuperación, Transformación y Resilencia