El CEO de Microsoft, Satya Nadella, participó recientemente en una entrevista y en ella Nadella explicó que el verdadero problema que tiene el segmento de la IA no es que haya una producción excesiva de chips, sino que no tengamos energía suficiente para alimentar todos ellos. Es la confirmación de algo que estamos viendo venir desde hace tiempo.
Demasiados chips para tan poca energía. En la entrevista participaron tanto Nadella como Sam Altman, el CEO de OpenAI. Durante la misma el CEO de Microsoft explicó que «el mayor problema que tenemos ahora no es el exceso de capacidad informática, sino la energía. Es algo así como la capacidad de construir [los centros de datos] lo suficientemente cerca de fuentes de energía».
Chips en el cajón. Nadella continuó destacado que «si no puedes hacer algo así [suministrar suficiente energía], tendrás un montón de chips abandonados en el inventario y que no puedes conectar. De hecho, ese es mi problema ahora mismo: no es que no tenga un suministro suficiente de chips: en realidad es el hecho de que no tengo lugares en los que conectarlos».
Un problema que se veía venir. Microsoft, como otras empresas que apostaron por este segmento, llevan tratando de prepararse para esa demanda energética desde hace tiempo. Hace dos años, en otoño de 2023 , ya buscaban expertos para liderar su programa nuclear. El objetivo: apostar por los novedosos reactores SMR que podían ser una buena solución para alimentar futuros centros de datos. Google tuvo claro exactamente lo mismo un año después, y llegó a un acuerdo con Kairos Power para construir siete de esos reactores de aquí a 2030.
Yo me lo guiso, yo me lo como. Las grandes empresas tecnológicas que están dedicando miles de millones de dólares a la creación de nuevos centros de datos en EEUU han descubierto que la red eléctrica actual puede ser insuficiente para sus necesidades. Su solución es la de construir centrales propias, algo que esperan que pueda equilibrar la demanda y consumo que imponen estas gigantescas factorías de cómputo en la que decenas de miles de GPUs aceleradoras de IA trabajan para poder dar servicio a los usuarios actuales (y futuros) de funciones de IA.
Necesidades crecientes. Un informe de la International Energy Agency (IEA) estimó que en 2022 se usaron entre 240 y 340 TWh de energía para centros de datos (excluyendo criptodivisas). Eso supone un aumento de entre el 20 y el 70% respecto a los consumos de 2015. Ya en abril de 2024 ese mismo organismo avisaba de que varios países multiplicarán ese consumo de forma notable.
¿Triple de energía? El CEO de ARM, Rene Haas, apuntaba entonces que las necesidades de energía se triplicarían, pero probablemente no podía saber cómo se desarrollarían los acontecimientos. Desde aquel momento las empresas de IA han anunciado proyectos mastodónticos —con Stargate a la cabeza— y dedicarán enormes cantidades de dinero en una apuesta incierta: la de que la IA será la gran revolución que impulsará nuestro día a día.
–
La noticia
El mundo de la IA tiene un problema: no hay energía para tanto chip
fue publicada originalmente en
Xataka
por
Javier Pastor
.

