La catastrófica renuncia de Ilya Sutskever, el científico jefe de OpenAI, que está detrás de la IA y de grandes modelos de lenguaje como ChatGPT de OpenAI, ha revigorizado los debates públicos sobre el futuro de la Inteligencia Artificial y sus costos exorbitantes. Más allá de las cuantiosas preocupaciones reconocidas, como la seguridad de la IA o el futuro del trabajo y la creatividad, hay una disyuntiva que no será menos transformadora. La Inteligencia Artificial es una de las empresas de TI modernas que más energía consume. El mundo, preocupado por las emisiones de carbono, puede no estar preparado.
Por si no lo sabía, los centros de datos utilizados para entrenar y operar estos modelos requieren monumentales cantidades de electricidad. GPT-4, por ejemplo, requirió más de 50 gigavatios-hora, alrededor del 0,02% de la electricidad que California genera en un año, y 50 veces la cantidad que se necesitó para entrenar GPT-3, la iteración anterior. Conforme la IA prolifere en las industrias, esta demanda de energía solo aumentará. Cuando la Inteligencia Artificial se use para optimizar la fabricación intensiva en energía, que necesitará experimentación y más datos, este problema se agravará todavía más.
Lo que debe conocer acerca de la demanda de energía de la IA
Los centros de datos y sus redes de transmisión asociadas se han convertido en un factor fundamental del consumo energético mundial. Actualmente, representan el 3% del consumo mundial y emiten tanto CO2 como Brasil. Las progresivas necesidades energéticas tampoco muestran signos de desaceleración, puesto que el consumo podría crecer de 460 teravatios-hora en 2022 a 1000 twh en 2026. Solo en los Estados Unidos, se espera que el aumento de la demanda de energía debido a la demanda de los centros de datos aumente de 200 twh en 2022 a 260 twh en 2026, lo que equivale al 6% del consumo energético total en el país. Ahora, se espera que las demandas energéticas de los centros de datos se dupliquen para 2030.
Ahora bien, otro de los problemas que se agravan es la dispersión geográfica de los centros de datos. Como sucede en numerosas industrias, los centros de datos se agrupan. La rápida velocidad de su construcción, combinada con su capacidad de ser económicamente viables en casi cualquier lugar, significa que están surgiendo rápidamente nuevos problemas energéticos en lugares inesperados. El norte de Virginia se ha convertido en el mayor centro de centros de datos del mundo. La región posee 51 millones de pies cuadrados de espacio dedicado a centros de datos y consume electricidad equivalente a 800.000 hogares. Es de resaltar que esta presión sobre la distribución de electricidad crea peligrosas oscilaciones en la demanda de energía que amenazan la infraestructura energética.
Conforme las empresas comiencen a utilizar la Inteligencia Artificial (IA) para algo más que grandes modelos de lenguaje, podemos esperar que el consumo de electricidad de numerosas empresas individuales aumente. Cabe aclarar que esto no solo impulsará la construcción de más centros de datos, sino que también hará que los centros de datos usen más energía. Un rack de servidores tradicionales en un centro de datos funciona con 7 kilovatios de electricidad, mientras que un rack de servidores de Inteligencia Artificial con mayor capacidad de procesamiento usa entre 30 y 100 kilovatios. Nvidia, el líder actual en el mercado de servidores de IA, envió 100.000 unidades el año pasado, que se espera que consuman 7,3 veces la energía anual.
La eficiencia computacional puede seguir la Ley de Koomey, con la cantidad de energía necesaria para llevar a cabo una cantidad determinada de cálculos reduciéndose a la mitad cada 2 años y medio, pero los centros de datos presentan sus propios obstáculos incluso en este escenario. Por ejemplo, conforme los procesadores de datos se vuelven más eficientes, naturalmente se calientan más. Esto requiere recursos adicionales de energía y agua que deben destinarse a sistemas de refrigeración, puesto que Google y Microsoft por sí solos consumieron 32 mil millones de litros de agua en sus centros de datos en 2022.
Entonces, para satisfacer ese nivel de consumo, Estados Unidos tiene que utilizar con cuidado sus recursos. En la actualidad, las grandes empresas responsables de la proliferación de centros de datos, como Microsoft, están intentando compensar su consumo de electricidad mediante la construcción de parques eólicos y solares para abastecerlos. Aunque se trata de un buen comienzo, estas fuentes de energía son intermitentes y los centros de datos seguirán requiriendo energía para seguir procesando cuando no sople el viento ni brille el sol.
Sin lugar a dudas, cualquier solución al problema de uso que plantean los centros de datos debe abordar la tensión que se ejercerá sobre la red a la que están conectados. La red eléctrica estadounidense ya está sobrecargada debido al aumento de la producción industrial, impulsada por el regreso de más manufacturas del extranjero, y no disminuirá.
Por su parte, los vehículos eléctricos, que están ganando popularidad en los Estados Unidos, requieren un uso intensivo de electricidad para cargarse. Se prevé que los vehículos eléctricos ayuden a aumentar la demanda energética interna de Estados Unidos en un 38% para 2035, y la mitad de todos los vehículos vendidos en ese momento serán vehículos eléctricos. El riesgo que plantean estos factores en conjunto ya ha mostrado su cara, puesto que Texas, un estado plagado de empresas de tecnología y centros de datos, ha sufrido picos de precios y apagones en parte como resultado de ello.
Lo cierto es que, para disfrutar de una energía abundante, asequible y al mismo tiempo, constante, la industria de la IA y las empresas de servicios públicos que la atienden deben recurrir al gas natural abundante y al potencial de la energía nuclear para satisfacer la alta demanda energética, además de construir parques solares y eólicos. Los centros de datos de Inteligencia Artificial en el extranjero pueden recurrir a la electricidad alimentada por gas natural licuado estadounidense. Los más cercanos al tema coinciden. El director ejecutivo de OpenAI, Sam Altman, ha expresado su preocupación por la capacidad de la energía limpia actual y la tecnología de baterías para permitir el crecimiento de la IA, certificando que serían necesarios avances para considerarlas como una opción.
Entre tanto, Estados Unidos también tiene la posibilidad de actualizar su infraestructura de red obsoleta para mantenerse al día. La construcción de nuevas líneas de transmisión ha disminuido de 4.000 millas en el año de 2013 a alrededor de 1.000 millas anuales en la actualidad, mientras que las industrias y los hogares del país precisan más electricidad para funcionar. La capacidad adicional de generación de energía significa muy poco cuando las empresas de servicios públicos no pueden transmitir un suministro de energía mayor.
Lo que hay que entender es que, la IA representa el futuro de la humanidad y la economía. Si Estados Unidos no puede adaptarse a su desarrollo, inevitablemente quedará rezagado respecto de competidores similares, como China. Aunque esta tecnología plantea un nuevo desafío a la capacidad del país para generar y transmitir energía, la energía nuclear, el gas natural y las energías renovables tienen un papel en el desarrollo de la infraestructura del país. Para hacerlo, los responsables políticos y los líderes empresariales tienen que cambiar su enfoque de las soluciones a corto plazo y reducir las barreras al uso de todos los recursos energéticos a disposición del país.