Las grandes empresas tecnológicas venían presumiendo año tras año sus logros medioambientales y trazando objetivos de esta índole cada vez más ambiciosos. Sin embargo, con la llegada de herramientas como ChatGPT o, mejor dicho, de la inteligencia artificial (IA) tal y como la conocemos hoy en día, la faceta amigable con el medioambiente de estas compañías ha desaparecido casi que por completo.
Tú, que estás leyendo estas líneas, probablemente supones que lo único que consumen plataformas como ChatGPT es electricidad, debido a los servidores sobre los cuales se basa su funcionamiento. Pues bien, en realidad, además de energía, este tipo de herramientas consumen enormes cantidades de agua; tanta, que si tenemos en cuenta la cantidad de consultas que suele recibir este chatbot cada día, es posible afirmar que el despilfarro de recursos es más que preocupante.
1Generar 100 palabras con ChatGPT consume 3 botellas de agua
Tal y como lo lees: según un estudio reciente de la Universidad de California (Estados Unidos), en algunos estados del país del Tío Sam el simple hecho de generar cien palabras con GPT-4, modelo de lenguaje de gran tamaño (LLM) de OpenAI, consume más de 1.400 litros de agua, lo equivalente a tres botellas de medio litro.
Y es que los modelos de lenguaje grandes como sobre los que basan su funcionamiento ChatGPT y Gemini (la IA de Google), por ejemplo, trabajan procesando una enorme cantidad de datos ubicados en la nube, tarea que exige una gran potencia de proceso a través de miles de chips de IA almacenados en centros de datos. Como es lógico, para que estos dispositivos funcionen correctamente se requiere de un gran consumo eléctrico, el cual trae consigo el despilfarro de agua para evitar que se sobrecalienten.
El estudio indica que si un 10 % de los habitantes de Estados Unidos emplearan ChatGPT, o más específicamente, GPT-4 una vez a la semana, en un año consumirían la misma electricidad que todas la viviendas de Washington D.C. a lo largo de veinte días.