Los modelos populares de lenguaje grande como ChatGPT, Bard y otros, han dejado en evidencia una peligrosa relación entre la IA y el consumo de agua, debido a la demanda de granjas de servidores masivas para tener suficientes datos para el entrenamiento pero, si hay algo que dejar claro es que, enfriar esos mismos centros de datos también hace que los chatbots de Inteligencia Artificial estén extraordinariamente sedientos.
Una reciente investigación, indica que solo el entrenamiento para GPT-3 consumió 185 000 galones (lo que equivale a 700 000 litros) de agua. El intercambio conversacional de un usuario promedio con ChatGPT equivale a lanzar una botella grande de agua al suelo, según ha revelado un nuevo estudio. Por lo que debido a la gran popularidad con la que ha contado el chatbot, los investigadores temen que todas esas botellas derramadas puedan tener un efecto alarmante en los suministros de agua, fundamentalmente en medio de sequías históricas y así mismo, la incertidumbre ambiental que se avecina en los Estados Unidos. Sin duda, un tema sumamente vital, por lo tanto, a continuación, le brindaremos todos los detalles al respecto.
Investigadores temen al desmedido consumo de agua en la IA
Investigadores de la Universidad de California Riverside y la Universidad de Texas Arlington publicaron las apreciaciones de consumo de agua de la IA en un artículo “pre- impreso” denominado “Hacer que la IA tenga menos sed”. Los autores descubrieron que la cantidad de agua dulce clara demandada para entrenar “GPT-3” viene siendo equivalente a la cantidad necesaria para llenar la torre de enfriamiento de un reactor nuclear. Incluso, hay que señalar que según informaciones, ChatGPT necesitaría consumir una botella de agua de 500 mililitros para completar un intercambio básico con un usuario que consta de aproximadamente 25-50 preguntas.
Los investigadores esperan que estos requisidesatos de agua se amplíen aún más con los modelos más nuevos, como lo es el “GPT-4” lanzado recientemente. Incluso, se ha mencionado que “la huella hídrica debe ser abordada como una prioridad como parte de los esfuerzos colectivos para combatir los desafíos globales del agua”.
Vale la pena preguntarse: ¿Cómo utilizan los chatbots el agua?
Cabe acotar que, al calcular el consumo de agua de AI, los investigadores distinguen entre la “extracción” y así mismo, el “consumo” de agua. El primero de los ejemplos, es la práctica de extraer agua físicamente de un río, lago u otra fuente, mientras que, el segundo, el cual viene siendo el “consumo”, se refiere a la pérdida de agua por evaporación cuando se usa en centros de datos. La investigación sobre el uso de agua de AI se centra primordialmente en la parte de consumo de esa ecuación, donde el agua no se puede reciclar.
Las salas de servidores se mantienen frescas, generalmente entre 50 y 80 grados Fahrenheit para poder evitar que los equipos funcionen de forma errónea. Por lo que, evidentemente, poder mantener esa temperatura ideal es un reto constante, dado que los propios servidores convierten su energía eléctrica en calor. Las torres de enfriamiento a menudo se implementan para tratar de contrarrestar la temperatura y, así, poder mantener las habitaciones en un clima ideal mediante la evaporación del agua fría.
Torres de enfriamiento evaporativo
Las torres de enfriamiento logran hacer el trabajo pero, requieren de grandes cantidades de agua para poder hacerlo eficazmente. Los investigadores consideran que se consume cerca de un galón de agua por cada “kilovatio-hora” gastado en un centro de datos promedio.
Incluso, hay que destacar que no se puede hacer uso de cualquier tipo de agua, los centros de datos se alimentan de fuentes de agua dulce y limpia para que, de esta forma, evitar la corrosión o el crecimiento de bacterias que puede generar el agua de mar. Así mismo, el agua dulce también es esencial para el control de la humedad en las habitaciones.
Imágenes del centro de datos de Google
Hay que mencionar que los problemas de consumo de agua no se limitan a los modelos OpenAI o a la Inteligencia Artificial. En el año de 2019, Google solicitó más de 2300 millones de galones de agua para centros de datos en sólo tres estados. Hoy en día, la compañía tiene 14 centros de datos repartidos por América del Norte que usa para poder potenciar la búsqueda de Google, su conjunto de productos para el lugar de trabajo y, así mismo, sus modelos de lenguaje grande LaMDa y Bard .
Incluso, es vital señalar que tan solo LaMDA, según el artículo de investigación reciente, podría requerir millones de litros de agua para entrenar, (más que GPT-3) porque varios de los centros de datos sedientos de Google están situados en estados cálidos como por ejemplo Texas.
No sólo requieren de agua, incluso, los nuevos LLM también demandan una cantidad sorprendente de electricidad. Un informe de IA reciente de Stanford, analizó las diferencias en el consumo de energía entre cuatro modelos destacados de IA, y estima que el GPT-3 (de la reconocida compañía “OpenAI”) liberó 502 toneladas métricas de carbono durante su entrenamiento, lo cual, resulta ser una cifra excesiva.
Incluso el cambio climático y el empeoramiento de las sequías podrían llegar a aumentar las preocupaciones sobre el uso del agua por parte de AI. Por lo tanto, debido a esto y todo lo anteriormente mencionado en este artículo, los investigadores recomiendan que los desarrolladores de modelos de IA y, así mismo a los operadores de centros de datos que, sean más transparentes. Al mismo tiempo que mencionaron que aspectos como:
- ¿Cuándo y dónde se entrenan los modelos de IA?
- ¿Qué pasa con los modelos de IA entrenados y/o implementados en centros de datos de colocación de terceros o nubes públicas?
La respuesta a estas preguntas y muchas otras, son vitales para la comunidad investigadora e, incluso, para el público en general!