La Inteligencia Artificial y su impacto ambiental; estos son los litros de agua que consumes diariamente al usarla

El uso de inteligencia artificial genera un alto consumo de agua y energía, afectando recursos naturales clave y causando tensiones en diferentes países

Guardar
Utilizar inteligencia artificial requiere grandes
Utilizar inteligencia artificial requiere grandes volúmenes de agua para enfriar centros de datos globales. (Imagen Ilustrativa Infobae)

La Inteligencia Artificial llegó a revolucionar la forma en que nos desarrollamos los humanos, tanto que se ha integrado en escuelas, empleos y directamente en el internet, donde la mayoría de las personas pueden hacer solicitudes para que les ayude a redactar desde mensajes breves hasta ensayos complejos.

Sin embargo, su apoyo tiene un precio muy alto, pues al redactar un correo de 100 palabras, consume una cantidad elevada de electricidad y agua, tanta que equivale a una botella promedio, según un análisis realizado por The Washington Post en colaboración con investigadores de la Universidad de California, Riverside (UCR).

De acuerdo con el informe, generar un correo electrónico de 100 palabras utilizando el modelo de lenguaje GPT-4, lanzado en marzo de 2023 por OpenAI, requiere aproximadamente 519 mililitros de agua. Si un usuario promedio realiza esta acción semanalmente durante un año, el consumo ascendería a 27 litros, equivalente a 1.43 garrafones de agua.

El papel del agua en los centros de datos

El modelo GPT-4 de OpenAI
El modelo GPT-4 de OpenAI consume 519 ml, lo que equivale a una botella promedio de agua al redactar un correo breve. (EFE/Raquel Manzanares)

El consumo de agua está directamente relacionado con el funcionamiento de los centros de datos, donde se alojan los servidores que procesan las consultas de los chatbots. Estos servidores generan una gran cantidad de calor al realizar los cálculos necesarios para responder a las solicitudes de los usuarios.

Para evitar el sobrecalentamiento, muchos centros de datos utilizan sistemas de enfriamiento basados en agua, que transportan el calor hacia torres de enfriamiento, permitiendo que se disipe. Según Shaolei Ren, profesor asociado de la Universidad de California, Riverside, este proceso es similar al mecanismo de sudoración del cuerpo humano.

Sin embargo, el consumo de agua varía según la ubicación del centro de datos. En regiones donde el agua es escasa o la electricidad es más económica, se opta por sistemas de enfriamiento eléctricos, que también tienen un impacto significativo en el consumo energético.

Además, los centros de datos suelen ser grandes consumidores de agua en las comunidades donde operan, lo que genera tensiones con los residentes locales. Por ejemplo, en West Des Moines, Iowa, los centros de datos de empresas como Microsoft utilizan alrededor del 6 % del agua total del distrito, según registros del departamento de agua.

Además, procesar entre 20 y 50 consultas en estas plataformas puede consumir aproximadamente medio litro de agua dulce, un recurso que ya enfrenta una creciente presión debido al cambio climático y la sobreexplotación.

Los chatbots como otro enemigo del agua

De acuerdo con el estudio
De acuerdo con el estudio de la URC, Meta utilizó 22 millones de litros de agua para entrenar su modelo de inteligencia artificial. (REUTERS/Yves Herman)

Además del agua, los chatbots de inteligencia artificial también demandan grandes cantidades de electricidad. Según el análisis de The Washington Post, generar un correo electrónico de 100 palabras con GPT-4 consume 0.14 kilovatios-hora (kWh) de electricidad, suficiente para alimentar 14 bombillas LED durante una hora. Si esta acción se repite semanalmente durante un año, el consumo asciende a 7.5 kWh, equivalente a la electricidad utilizada por 9.3 hogares en Washington D.C. durante una hora. A mayor escala, si uno de cada diez trabajadores estadounidenses realizara esta acción semanalmente, el consumo anual alcanzaría los 121.517 megavatios-hora (MWh), suficiente para abastecer a todos los hogares de Washington D.C. durante 20 días.

El impacto energético de los centros de datos no se limita a los chatbots. Estas instalaciones también soportan actividades como la computación en la nube, lo que incrementa aún más la carga en las redes eléctricas. En regiones cálidas, donde se depende del aire acondicionado para enfriar los servidores, el consumo energético es aún mayor.

Antes de que los chatbots puedan responder a las consultas de los usuarios, deben ser entrenados mediante modelos de lenguaje avanzados, un proceso que también requiere enormes cantidades de agua y energía. Por ejemplo, el entrenamiento del modelo GPT-3 de Microsoft consumió 700 mil litros de agua, una cantidad equivalente a la necesaria para producir 45 kilogramos de carne de res. Por su parte, Meta utilizó 22 millones de litros de agua para entrenar su modelo de inteligencia artificial LLaMA-3, un volumen comparable al necesario para producir 2.000 kilogramos de arroz.

El entrenamiento de estos modelos puede durar meses y requiere que los servidores analicen millones de datos para generar respuestas precisas y naturales. Este proceso intensivo en recursos ha llevado a empresas como Google, Meta y Microsoft a construir más centros de datos, lo que a su vez incrementa la presión sobre los recursos naturales.