Los científicos del MIT alertan: vamos camino de que se produzca un apagón y regresemos a la época medieval

La mayoría de los apagones se producen cuando grandes cantidades de suministro o demanda se activan o desactivan repentinamente

Los científicos del MIT alertan: vamos camino de que se produzca un apagón y regresemos a la época medieval

Los científicos del MIT alertan: vamos camino de que se produzca un apagón y regresemos a la época medieval / Freepik

La inteligencia artificial generativa promete grandes cambios en nuestras vidas y ya está invadiéndolo casi todo porque los fabricantes la integran en todos nuestros dispositivos. Sin embargo, esta pequeña revolución tiene un impacto significativo, pero aún poco comprendido, en el medio ambiente. Investigadores del Instituto Tecnológico de Massachusetts (MIT) analizaron el problema para intentar evaluar el coste medioambiental de la IA.

El primer impacto se produce en el nivel de consumo de energía, hasta el punto de que algunos temen una escasez y apagones generalizados. Los modelos de inteligencia artificial, con sus miles de millones de parámetros, son muy exigentes en potencia de cálculo, tanto durante la fase de entrenamiento como en la fase de inferencia (uso diario). Incluso si el centros de datos no sólo se utilizan para ejecutar IA, es la principal razón de su rápida multiplicación recientemente. Así, el estudio de los centros de datos permite una evaluación aproximada del consumo y el impacto de la IA.

Los centros de datos consumen más energía que todo un país de Europa

En América del Norte, el consumo de electricidad de los centros de datos aumentó de 2.688 megavatios a finales de 2022 a 5.341 megavatios a finales de 2023. En todo el mundo, esta cifra se sitúa en 460 teravatios en 2022, equivalente al consumo eléctrico total de Francia (463 teravatios), y se espera que se duplique hasta alcanzar los 1.050 teravatios en 2026. Además, este consumo no es constante, especialmente durante la fase de entrenamiento. Esto requiere que los proveedores de energía, para compensar las fluctuaciones, utilicen fuentes de energía más contaminantes, particularmente con generadores basado en diésel.

La fase de inferencia de la IA también consume mucha energía. Una consulta sencilla con ChatGPT consumiría cinco veces más electricidad que una búsqueda en la web, una cifra que sólo aumentará con la complejidad de los modelos. Pero no es sólo el consumo de electricidad lo que preocupa. Los centros de datos utilizan agua para enfriar los equipos. Este consumo se estima en dos litros de agua por cada kilovatio hora de electricidad, un consumo con un impacto considerable en nuestros ecosistemas.

Un impacto ambiental aún difícil de evaluar

La fabricación de equipos utilizados en los centros de datos y su transporte también genera mucha contaminación, incluida la extracción de materias primas y los productos tóxicos utilizados en su procesamiento. Los investigadores estiman que Nvidia , AMD e Intel vendieron 3,85 millones de tarjetas gráficas (GPU) a centros de datos en 2023, un aumento significativo con respecto a los 2,67 millones de 2022, y se espera que esta cifra sea mucho mayor en 2024. Las tarjetas gráficas se utilizan ampliamente para la IA porque son mucho más eficientes para los cálculos paralelos. Sin embargo, estos procesadores gráficos son mucho más complejos de producir, lo que aumenta su huella de carbono en comparación con los procesadores estándar (CPU).

Los investigadores reconocen que aún no son capaces de evaluar todas las repercusiones del auge de la inteligencia artificial en el medio ambiente. " Necesitamos un método más contextual para comprender de forma sistemática y exhaustiva las implicaciones de los nuevos avances en este campo ", afirmó la profesora del MIT Elsa A. Olivetti.  "Debido a la velocidad de lasmejoras, no hemos tenido la oportunidad de ponernos al día en la medición y comprensión de las compensaciones ".

Tracking Pixel Contents