Mundo

Inteligencia Artificial: las consecuencias ecológicas de usar Chat GPT

Se cree que las imágenes con estilo Studio Ghibli causaron el derroche de 200 millones de litros de agua, necesarios para enfriar los servidores. Los riesgos del progreso, desde la perspectiva de expertos argentinos.

Escuchá esta nota

EL DIARIO digital

minutos

Las imágenes estilo Studio Ghibli, que recrean el estilo japonés del animador y productor Hayao Miyazaki, fueron furor durante los últimos días. Millones de usuarios en todo el mundo se divirtieron pidiéndole al Chat GPT que realice esa conversión simpática: basta con suministrar una foto propia para que el algoritmo haga la magia y uno pueda sentirse protagonista de una película como El viaje de Chihiro. De hecho, el éxito de la propuesta fue tal que colapsó la plataforma por un incremento exponencial del uso. Sin embargo, como todo, el éxito tiene su lado B. Aunque es imposible saberlo a ciencia cierta, se estima que se consumieron nada menos que 200 millones de litros de agua, necesarios para el enfriamiento de los servidores que se encargan de realizar el trabajo y responder a la demanda incesante de los usuarios.

En diálogo con el diario porteño Página 12, Emmanuel Iarussi, investigador del Conicet en el Laboratorio de IA de la Universidad Torcuato Di Tella, señala: "Saber cuántos litros de agua se consumieron es un dato que no es fácil de conseguir. Más bien, es un dato que solo saben quienes están detrás de la IA. Creo que debemos apuntar a algo parecido a lo que pasa con las emisiones de carbono: cuando te tomás un vuelo, el prestador está obligado a informar cuánto emitió. Estos modelos deberían tener una obligación similar; reportar cuánta agua usan en cada consulta que realiza un usuario". En concreto, informar sobre la huella hídrica sobre la que actualmente no se tiene registro.

Apenas se presentó la novedad todos quisieron tener su propia imagen, recrear algunas escenas de películas e, incluso, atajadas emblemáticas del "Dibu" Martínez. Así es como una herramienta divertida e inofensiva que parecía emular la apariencia de los personajes de películas como Mi vecino Totoro, pronto provocó demoras de todo tipo en la gestión de nuevas animaciones. Sam Altman, líder de Open AI (firma que gestiona el Chat GPT) compartió en X: "Es divertidísimo ver a la gente disfrutar de las imágenes en ChatGPT. Pero nuestras GPU se están derritiendo. Vamos a implementar temporalmente algunos límites de velocidad mientras trabajamos para mejorar la eficiencia".

Fernando Schapachnik, director ejecutivo de la Fundación Manuel Sadosky, opina al respecto: "Seguimos teniendo miedo a que las máquinas tomen el control, pero el verdadero riesgo existencial lo corre el ambiente". Y continúa: "Veo que le preguntan en redes sociales al Chat GPT cuánta agua usó y este responde. Es una alucinación, no tiene manera de saber cuánto usó. No tiene capacidad de autopercepción". Algunos se animan al cálculo y estiman que cada imagen requiere, como contrapartida, un litro de agua. Desde el lanzamiento de las imágenes estilo Studio Ghibli ya se elaboraron más de 215 millones de imágenes, por lo tanto, se refirió un equivalente proporcional del líquido.

Aunque como se esfuerzan en remarcar Iarussi y Schapachnik es imposible acceder a los números que brindan las empresas, la Fundación Sadosky realizó el intento por brindar algunos parámetros. En un documento denominado "Diez preguntas frecuentes y urgentes sobre Inteligencia Artificial", el equipo de especialistas plantea: "La empresa de investigación Semi Analysis sugirió que OpenAI necesitaba 3.617 servidores HGX A100 de Nvidia, con un total de 28.936 núcleos de GPU, para dar soporte a ChatGPT, lo que implica una demanda de energía de 564 MWh al día. Nuevamente, se trata de gastar por día lo que 160 familias argentinas gastan en todo un año, o, si se comparan ambos datos durante todo un año, mantener el sistema de ChatGPT es equivalente al consumo energético de 60 mil familias argentinas".

El costo ambiental

Como el Chat GPT colapsó ante la demanda simultánea y ante las críticas por un consumo hídrico sin precedentes, la herramienta se volvió paga. Los desarrolladores buscan poner un freno a un fenómeno sin precedentes. Iarussi explica que, de cualquier manera, esto podría pensarse como una solución temporal, como una respuesta a medias.

"Cada vez que hacemos una consulta en Chat GPT, esa consulta se traslada a alguna computadora en alguna parte del mundo. En particular, me parece que los de Open AI están casi todos en Estados Unidos. Son data centers de Microsoft, en los que hay decenas de miles de computadoras, que están todas conectadas entre sí y generan calor solo por el hecho de estar prendidas y más cuando las sometemos a un procesamiento intensivo, como es el caso de la generación de imágenes", detalla.

Después explica que el consumo de agua puede observarse en tres etapas. "El uso más obvio de todos se vincula con la necesidad de agua para enfriar a los servidores. Se enfría el ambiente en donde están colocados. Después, al ser sistemas cerrados, el agua se traslada a torres de enfriamiento, por donde circula aire, se enfría y vuelve a pasar. Si bien puede haber una pérdida por vapor, no es que el recurso se desecha inmediatamente".

Por otra parte, está el proceso de generación mismo de electricidad y la necesidad de disponibilidad de agua también para enfriar estos sistemas y, por último, la que se emplea en la propia fabricación del hardware. "El chip que se usa para luego hacer cosas de IA también utiliza agua y causa contaminación", agrega Iarussi.

En esta línea, Schapachnik remata: "Ya venimos avisando hace bastante: el costo energético y ambiental de la IA plantea el peor escenario. Para jugar gastamos recursos no renovables. Hay una irresponsabilidad de la empresa que pone a disposición el juguete. No importa si ahora en verdad solo está disponible para usuarios pagos, porque con solo 20 dólares se pone en riesgo al ambiente".

Revolución permanente

Aunque los desarrollos en Inteligencia Artificial son previos, todo explotó con el lanzamiento del Chat GPT en noviembre de 2022. A partir de ese momento, más temprano que tarde, el mundo supo que la IA se parece más a una revolución permanente que a una moda pasajera. Por eso, será fundamental el aporte de científicos y tecnólogos con el objetivo de reducir, cada vez más, los tiempos de entrenamiento de los sistemas. De esta manera, si se lograra una mayor eficiencia en el entrenamiento y la ejecución de los modelos, como correlato, también se podría disminuir el consumo energético.

"Es un sistema de cómputo muy intensivo que involucra muchos recursos. Se trata de un hardware que consume mucha electricidad, que genera demasiado calor y por lo tanto lleva más agua", apunta Iarussi. Y confiesa: "Siempre que nos sentamos en un sillón a ver Netflix o estamos aburridos en una sala de espera scrolleando el celular estamos consumiendo recursos. No exactamente en la misma proporción, pero sí consumimos. No hacemos nada en la tecnología sin dejar una huella".

Una huella indeleble que pone en jaque a la naturaleza. Los humanos de este siglo no vacilan, con tal de gozar un rato de entretenimiento, al tomar decisiones que fulminan en cuestión de días un recurso finito y esencial como el agua. 

También te puede interesar...