La IA es la impulsora de una transformación sin precedentes en los centros de datos. Tanto es así, que se prevé que el gasto global en capital de los centros de datos se duplique con creces, pasando de 430.000 millones de dólares en 2024 a 1,1 billones de dólares en 2029.
Conforme aumenta la demanda mundial de tecnología de IA, también crece el gasto de los centros de datos aumenten en servidores, energía e infraestructura de refrigeración. El resultado, según el último informe de Dell’Oro Group, es que el gasto de capital en centros de datos alcanzará los 1,1 billones de dólares en 2029, frente a los 430.000 millones de dólares en 2024.
Gran parte de este crecimiento se debe a la IA.
En la actualidad, las empresas gastan alrededor del 35% de sus presupuestos de inversión en centros de datos en servidores acelerados optimizados para la IA, frente al 15% en 2023. Así lo cree Baron Fung, analista de Dell’Oro, quien sostiene que la proporción aumentará hasta el 41% en 2029.
Dicha inversión es mayor si cabe en el caso de los hiperescalares, que ya gastan el 40% de sus presupuestos en servidores acelerados. Servidores, dicho sea de paso, bastante más caros que los tradicionales, según Fung, que suelen costar entre 7.000 y 8.000 dólares. Y añade en declaraciones a Network World: “Los servidores de IA pueden costar entre 100.000 y 200.000 dólares, sobre todo si equipan las últimas CPU de Nvidia”.
0 seconds of 11 minutes, 12 secondsVolume 0%
Visto esto, Fung no duda en reconocer que sólo cuatro empresas (Amazon, Google, Meta y Microsoft) representarán este año casi la mitad de la inversión en centros de datos a nivel mundial.
En su opinión, “de inicio, esperaría que la mayoría de las cargas de trabajo de IA se realizaran en la nube pública, en lugar de en las instalaciones, dado el alto coste y la potencial baja utilización de la infraestructura de IA en los centros de datos privados. A medida que las empresas tengan una mejor idea de la utilización de la carga de trabajo de IA, es posible que vuelvan a llevar las cargas de trabajo a las instalaciones”.
Las proyecciones de este analista tienen en cuenta los recientes avances en IA y eficiencia de los centros de datos. Por ejemplo, considera que el modelo de IA de código abierto de la empresa china DeepSeek parece haber demostrado que un LLM se podría traducir en resultados de muy alta calidad a un coste muy bajo, con algunos cambios arquitectónicos inteligentes en el funcionamiento de los modelos.
Por eso defiende que cabe la posibilidad de que estas mejoras sean rápidamente replicadas por otras empresas de IA. “Muchas de estas empresas están tratando de sacar modelos más eficientes. Se está haciendo un gran esfuerzo para reducir costes y hacerlos más eficientes”.
A esto hay que añadir que los hiperescalares ya están diseñando y construyendo sus propios chips, optimizados para sus cargas de trabajo de IA. En este sentido, Dell’Oro predice que sólo el mercado de aceleradores está diseñado para alcanzar los 392.000 millones de dólares para 2029. Para entonces, los aceleradores personalizados superarán a los aceleradores disponibles de manera comercial, como las GPU.
Asimismo, el despliegue de servidores de IA dedicados también impacta en las redes, la energía y la refrigeración. La consecuencia será un aumento del gasto en infraestructura física de centros de datos (DCPI), aunque a un ritmo más moderado. Este caso, a una tasa del 14% anual hasta alcanzar los 61.000 millones de dólares en 2029.
Tam Dell’Oro, fundador de Dell’Oro Group, destaca en el informe lanzado por dicha empresa que “los despliegues de DCPI son un requisito previo para soportar las cargas de trabajo de IA”.
La empresa de investigación elevó su perspectiva en esta área debido a que los resultados reales de 2024 superaron sus expectativas; y también a que la demanda se está extendiendo de los proveedores de servicios en la nube de primer nivel a los de segundo nivel. Además, los Gobiernos y los operadores de telecomunicaciones de primer nivel se involucran cada vez más en la expansión de los centros de datos, lo que la convierte en una tendencia a largo plazo.
Por consiguiente, Dell’Oro Group defiende que las redes se verán muy afectadas por la IA. Tanto es así, que prevé que el mercado de adaptadores de red Ethernet para dar soporte a redes backend en clústeres informáticos de IA crezca para 2029 a una tasa de crecimiento anual compuesta del 40%.
Pero la IA también consume mucha energía. Según Dell’Oro, la densidad de potencia media de un rack es hoy en día de unos 15 kilovatios por rack, pero las cargas de trabajo de IA requieren de 60 a 120 kilovatios.
De todas formas, otras investigaciones respaldan estas proyecciones de crecimiento. IDC, por ejemplo, prevé que el consumo energético de los centros de datos relacionados con la IA aumente un 45% anual, hasta alcanzar los 146 teravatios hora en 2027.
Y McKinsey reconoció el pasado mes de diciembre en un informe que, si hace diez años un centro de datos de 30 megavatios ya se consideraba grande, hoy en día, una instalación de 200 megavatios se considera normal.
Por eso las densidades de potencia medias se han más que duplicado en los últimos dos años debido a la IA, pasando de 8 kilovatios por rack a 17, y McKinsey predice que aumenten hasta 30 para 2027. El entrenamiento de un modelo de IA como ChatGPT puede consumir más de 80 kilovatios por rack, y el último chip de NVIDIA y sus servidores requieren densidades de rack de hasta 120 kilovatios.
Basta con ver que los sistemas actuales de refrigeración por aire tienen un límite superior de eficacia de unos 50 kilovatios por rack. Eso hace que los operadores de centros de datos comiencen ya a adoptar la refrigeración líquida. IDC hizo público un informe el pasado mes de septiembre en el que reflejaba que la mitad de las organizaciones con racks de alta densidad se decantan de manera predominante por la refrigeración líquida.
Además, un informe del Uptime Institute de 2024 expuso que el 22% de los centros de datos en general utiliza ahora la refrigeración líquida, y otro 61% la está considerando. En el caso de los grandes centros de datos, aquellos con 20 MW o más, el 38 % ya utiliza refrigeración líquida directa.
Por eso Lucas Beran, director de marketing de productos de Accelsius, especialista en refrigeración líquida, admite que el año pasado fue un año de transición para dicha refrigeración. Hay que destacar que este especialista era, hasta hace poco, director de investigación de Infraestructura Física de Centros de Datos en Dell’Oro.
En declaraciones a Netwotk World, argumenta que 2023 fue un año importante para el mercado de la infraestructura física de centros de datos, ya que las empresas dieron por finalizados sus planes de digitalización inducidos por la pandemia. “A medida que empezamos a entrar en 2024, los cambios de diseño comenzaron a materializarse en las nuevas construcciones de centros de datos”. De ahí que recomiende que “si está construyendo una nueva instalación, tiene que pensar en la refrigeración líquida aunque no la necesite desde el primer día. Tiene que prepararse para el futuro”.
Beran va más allá y afirma que la refrigeración líquida va a ser todo cuestión de escalabilidad 2025. “Hemos decidido lo que queremos hacer, tenemos una idea bastante clara de cómo hacerlo y vamos a empezar a desplegar la infraestructura a escala. La confianza crecerá en estos despliegues de refrigeración líquida, lo que ayudará a la industria a acelerar su adopción”, dice para concluir.
Fuente: Computerworld

