Se incrementa el calor en centros de datos y pone en riesgo operaciones

La Inteligencia Artificial (IA) acelera la infraestructura y exige enfriar centros de datos con bajas emisiones, según expertos en DataCool 2025 de Schneider Electric.

Durante el Innovation Talk: DataCool 2025 de Schneider Electric, el encuentro anual que reúne a líderes de centros de datos, nube y energía para discutir tendencias, se habló de cómo la Inteligencia Artificial (IA) está reescribiendo la escala de la infraestructura que se necesita, la velocidad a la que hay que construirla y la forma de enfriar esos espacios con bajas emisiones de carbono.

En 2020 se marcó el paso de ‘la internet de las personas’ (el teléfono, la laptop) a ‘la internet de las cosas’ (IoT): sensores, cámaras, vehículos eléctricos, electrodomésticos inteligentes y robots en fábricas. Ese cambio disparó la cantidad de datos, ya que entre 2021 y 2025, el número de dispositivos conectados pasó de cerca de 12 mil millones a más de 21 mil millones, y se proyecta superar los 39 mil millones en 2030, según la revista Statista. Eso significa miles de millones de objetos que están generando información, minuto a minuto, sobre nosotros, nuestras ciudades y nuestras empresas.

¿Dónde va todo eso que generamos?

Cuando se graba un video y ‘queda en la nube’, en realidad llega a centros de datos, que son edificios repletos de equipos que almacenan y procesan información. En simple, ahí vive internet. El problema es de escala: mientras nuestra vida conectada crece, esos centros de datos deben crecer al mismo ritmo, y lo están haciendo de forma acelerada y generando más calor, aumentando el gasto energético por la necesidad de enfriarlos para no perder las operaciones.

Hoy existen centros de datos tan grandes e intensivos que ya se miden como plantas eléctricas: algunos consumen más de 100 megavatios, el equivalente al consumo energético de una ciudad pequeña. La demanda global de energía por capacidad de centros de datos podría aumentar cerca de 90% de aquí al 2028, impulsada por inteligencia artificial y computación en la nube. Y si esa demanda sigue acelerando, los centros de datos podrían representar hasta 21% del consumo eléctrico mundial hacia 2030, según un informe de proyecciones de la industria de Sloan.

‘Cada nueva función inteligente en la casa, en nuestro vehículo, en la fábrica o en la ciudad, necesita un lugar donde alojarse. Ese lugar no es virtual: son racks o gabinetes, cables, transformadores, enfriadores (o chillers), personas monitoreando en tiempo real. Lo que para el usuario es ‘subir una foto’, para el centro de datos es energía, espacio físico, calor y un aumento en el reto más importante, el enfriamiento de ellos de forma sustentable’, explica Mario Marchena, Gerente de Desarrollo de Negocio para México y Centroamérica de Schneider Electric.

El nuevo problema: procesar inteligencia artificial genera muchísimo calor

Las cargas de trabajo de IA están forzando a los centros de datos como nunca antes. Cuanto más intensas son las tareas de IA, más calor se concentra en menos espacio físico. Y cuando sube la temperatura, si no se logra enfriar de forma controlada y constante, los equipos podrían dejar de funcionar. Si se apagan, se cae el servicio. Para un banco, un hospital o una empresa logística, eso no es una simple molestia, ya que tiene implicaciones para los usuarios de estos servicios y puede significar perder operación y dinero en segundos.

Por eso, en lugar de bajar más el aire de toda la sala (como en los viejos laboratorios de cómputo) la industria está llevando el frío justo al lugar donde surge el calor: los chips. Por lo que es a través del enfriamiento líquido que se puede aplicar frío directo al procesador y extraer el calor. Así los equipos se mantienen estables, el servicio no se interrumpe y se usa menos energía que enfriando todo el cuarto, lo que genera ahorros operativos, y menor huella de carbono.

Hoy los centros de datos son más densos, y en un solo rack o gabinete se puede tener equipos con muchísima potencia, sobre todo cuando hablamos de IA. Enfriar a la antigua (bajando la temperatura de toda la sala) significa gastar enormes cantidades de electricidad en aire frío que, además, no siempre llega de forma pareja al punto más caliente.

‘El enfoque de proporcionarle más aire frío a todo el cuarto es caro e ineficiente. No podemos seguir operando como hace 20 años, la cantidad de información que necesita resguardarse es otra, la temperatura que producen los centros de datos es otra y el costo energético y las emisiones de carbono solo van en aumento. El enfriamiento líquido gana terreno como la opción más eficiente y eficaz, que además reduce la huella ecológica de las empresas’, agrega Marchena.

Enfriar justo donde se calienta

En lugar de intentar enfriar todo el ambiente o la sala, el enfriamiento líquido va directo a las partes que más calor generan (los procesadores que corren IA) y extrae el calor ahí mismo. Luego, el aire se usa solo como apoyo para el resto del equipo.

‘Se trata de rediseñar toda la forma en que ingresa la energía, se usa y se extrae el calor. Ese rediseño combina enfriamiento líquido, monitoreo constante y toma de decisiones en tiempo real. Y lo estamos planeando con años de antelación, porque la demanda no va a bajar’, concluye el gerente de Desarrollo de Negocio para México y Centroamérica de Schneider Electric.

Quiero Suscribirme y recibir información

Al completar este formulario, aceptas que los datos proporcionados podrán ser utilizados por Prensario TILA para enviarte noticias, novedades editoriales y comunicaciones comerciales propias, así como información de nuestros clientes y socios. Tus datos serán tratados de forma confidencial y podrás solicitar en cualquier momento la modificación o baja de nuestras listas de contacto.