Viernes 26 de Abril de 2024       •      Dólar= $945,10      •      UF=$37.242,15       •      UTM=$65.182

¿Cómo determinar el
requerimiento energético de un Datacenter?
Por Equipo de Prensa Revista ElectroIndustria
Considerando la importancia que han adquirido en las últimas décadas los servicios informáticos, los centros de datos -desde donde funcionan muchos de estos servicios- se han transformado en un elemento clave. En este artículo, revisamos algunos criterios para mantener un adecuado suministro eléctrico para estos recintos, así como algunas recomendaciones para reducir su consumo energético.

Como el “hogar” de decenas o cientos de equipos informáticos, un Datacenter posee un gran consumo energético, el que no siempre es gestionado de la forma adecuada. “Los requerimientos energéticos de un centro de datos son altos y exigentes, dado que tienen que mantener operativo servidores, memorias y discos, sistemas de redes de interconexión, todos elementos que generan calor y deben ser enfriados por sistemas de aire acondicionado, que aumentan aún más el consumo energético. Esto requiere varios kVA por fase de alimentación, además del consumo mismo de cada aire acondicionado para el sistema de enfriamiento”, afirma Mauricio Solar, académico del Departamento de Informática de la Universidad Técnica Federico Santa María y Director del proyecto Observatorio Virtual Chileno (ChiVO).

Independientemente de los avances tecnológicos que se dan en estos centros, “hay una característica común que no cambia: el Datacenter debe ser eficiente y confiable, lo que se logra solamente con una operación impecable del centro, sin fallas y a costo óptimo”, sostiene Claudio Sala, Director de Innovación de la Universidad San Sebastián (USS).

Por esta razón, las soluciones de energía para Datacenters están evolucionando hacia diseños basados en el concepto de mantener limitado el consumo máximo de cada rack, pero asegurando la correcta continuidad operacional de los servidores, administrando de manera flexible los peaks de consumo demandados por cada elemento dentro del rack. Esto es posible ajustando el costo total de operación del Datacenter a un presupuesto de gasto de energía. “La tendencia es usar diseños de fuentes de suministro de energía que tengan las capacidad de limitar energía máxima y administrar asignación de cargas máximas por blade/rack o por prioridades, usando diseños basados en Static Power Capping (SPC) o Dynamic Power Capping (DPC)”, agrega el docente de la USS.

Para Rodrigo Muñoz, Director de las carreras Técnico en Energías Renovables y Eficiencia Energética de Duoc UC sede San Joaquín, la evolución de las soluciones de energía para centros de datos ha ido de la mano con los conceptos de aseguramiento de la confiabilidad y disponibilidad de los equipos. “Es así como con los años, se han incorporado sistemas de respaldo de energía y otros que permiten obtener una mejor calidad de la misma, evitando caídas de tensión, contaminación armónica y otros fenómenos eléctricos que puedan afectar la operación de los equipos”, añade.

El docente de la UTFSM, asegura que ha habido diversos avances. “Por ejemplo, los equipamientos en algunos centros de datos pueden funcionar adecuadamente entre 14 y 27ºC, lo que significa que no hay que gastar mucha energía en enfriarlos. Además, se ha podido mejorar la eficiencia energética con tecnologías llamadas ‘verdes’, que desconectan los dispositivos de la alimentación eléctrica cuando no son usados los servidores”, comenta.

Los Datacenters contemporáneos, añade Solar, tienen un PUE (Power Usage Effectiveness) superior a 1,6, lo cual es “bueno”, pero la próxima generación alcanzará un PUE menor que 1,2, lo cual es “excelente”, no solo en términos medioambientales, sino que también económicos. Esto quiere decir que la mayor parte de la energía eléctrica que entra al Datacenter se consume en los dispositivos computacionales, y no tanto en enfriarlos. El ideal es un PUE de 1, que significa que todo lo que entra en energía se utiliza solo en el procesamiento de los datos.


Soluciones disponibles

Respecto a las soluciones disponibles en el mercado, Rodrigo Zúñiga, CEO de NCO, señala que por el lado de los servidores, la Virtualización es una manera de hacer más eficiente el uso de la energía, porque hoy en un equipo físico se puede contar con múltiples servidores virtuales. No obstante, para Zúñiga, "aunque comparativamente es un avance en el uso de la energía, esta tecnología creó nuevos desafíos, ya que la concentración o densidad por cm² es mayor que antes”, afirma.

Por el lado de los Facility, agrega, el diseño y arquitectura han jugado un papel preponderante; el desarrollo de sistemas de enfriamiento, distribución y confinamiento ha sido sin duda los que mayor aporte han entregado a mejorar la eficiencia energética en los Datacenters. “Es importante destacar que no es posible conseguir eficiencia sin medición, es decir, no podemos ser más eficientes si no contamos con herramientas que nos digan cómo está operando el Datacenter. No solamente son necesarias las mediciones, sino que hoy la administración y gestión sobre estas son las que permiten tomar acciones eficaces, tener registro y trazabilidad dentro de los Datacenters”, sentencia el ejecutivo.

Por su parte, dentro de la oferta de energía para este segmento, Muñoz, de Duoc UC, destaca las UPS (del inglés “Uninterruptible Power Supply”, Sistemas de Alimentación Ininterrumpida), “que han evolucionado en capacidad y características siendo no solo un medio de suministro de emergencia en caso de suspensión de la red principal, sino que también cumplen la función de estabilizar el voltaje”.

Otro equipo importante a considerar, añade, son las PDU (Power Distribution Unit) del tipo “inteligente”. “Estas cumplen variadas funciones, desde medir el consumo de energía de los racks y ejecutar acciones de desconexión de unidades a fin de racionar la energía disponible hacia equipos más críticos, hasta medir variables ambientales”, asegura.


Consideraciones energéticas de un Datacenter

Existe una amplia gama de criterios que se deben considerar para determinar el requerimiento energético de un centro de datos. “Siempre la primera consideración será determinada por el nivel TIER que se ha escogido para el Datacenter. Para determinar las exigencias que implica escoger un nivel TIER, existe la norma internacional ANSI/TIA-942, ideada por el instituto de normas Uptime Institute, que clasifica en cuatro niveles el nivel de tolerancia a fallas con que diseñamos un Datacenter”, sostiene Sala, de la USS. Los niveles TIER son:

TIER I (Centro de Datos Básico): su nivel de disponibilidad de operación en servicio es del 99.671%. Es una instalación que no tiene sus componentes vitales redundantes, como el suministro eléctrico y la climatización. Por lo tanto, un Data Center TIER I perderá su capacidad de operación ante fallas de su fuente de energía principal o de algún componente del suministro energético. Se requiere parar el centro para operaciones de mantenimiento.

TIER II (Centro de Datos Redundante): su nivel de disponibilidad de operación en servicio es del 99.741%. En esta categoría, el Datacenter tiene sistemas vitales redundantes (duplicados), como la refrigeración, pero cuenta con un único camino de suministro eléctrico. Puede tener generadores auxiliares o unidades de respaldo de baterías (UPS). Está conectado a una única línea de distribución eléctrica y de refrigeración. Por tanto, se trata de instalaciones con cierto grado de tolerancia a fallas y que permiten algunas operaciones de mantenimiento “on line”.

TIER III (Centro de Datos con Mantención Concurrente en Línea): su nivel de disponibilidad de operación en servicio es del 99.982%. Además de cumplir los requisitos de TIER II, tiene niveles importantes de tolerancia a fallos al contar con todos los equipamientos básicos del suministro eléctrico, redundantes, permitiéndose una configuración Activo/Pasivo. Todos los servidores deben contar con doble fuente (idealmente) y, en principio, el Datacenter no requiere paradas para operaciones de mantenimiento básicas.

Este tipo de centros están conectados a múltiples líneas de distribución eléctrica y de refrigeración, pero únicamente con una activa. Es requisito también que pueda realizar el upgrade a TIER IV sin interrupción de servicio.

TIER IV (Centro de Datos Tolerante a Fallas): su nivel de disponibilidad de operación en servicio es del 99.995%. Esta es la clasificación más exigente, que requiere cumplir con los requisitos de TIER III, pero además debe soportar fallas en cualquiera de sus componentes que inhabilite una línea de suministro de energía o de refrigeración. Por lo tanto, debe estar conectado a múltiples líneas de distribución eléctrica y de refrigeración, con múltiples componentes redundantes. Esto significa que a lo menos debe contar con dos líneas de suministro eléctrico, cada una de ellas con redundancia, de tal manera que un fallo solo puede ocurrir si hay pérdida de suministro eléctrico y fallas en dos o más grupos electrógenos en cada una de las líneas de suministro.

En el caso que estemos enfrentados a ambientes con restricciones de capacidad de energía, la elección de un sistema de suministro de energía con capacidades de administrar el Límite de Carga en los racks, más la administración de prioridades según relevancia de procesos en cada hoja o blade, puede ser una elemento clave para reducir significativamente los costos de operación que son de los más importantes dentro de costo total del Datacenter.

“También es deseable que el sistema de suministro de energía tenga compatibilidad y se integre naturalmente mediante interfaces concretas de traspaso de lectura de parámetros, con el sistema DCIM (Data Center Infrastructure Management), de su centro de datos. Los sistemas DCIM han evolucionado cada año, permitiendo cada vez más y mejores técnicas de control y de optimización de la operación del centro, como por ejemplo: visualizar gráficamente y mantener bien documentada toda la infraestructura de equipos albergados en el Datacenter; aumentar la densidad de equipos por rack y de racks en el centro; ahorros de inversión con la administración proactiva del reemplazo y actualización de equipos; reducciones de costos de energía consumida y de costos de refrigeración; administración más eficiente de licencias de alto costo; solo por mencionar algunas”, explica el académico de la USS.

Otra tendencia muy relevante que se ha consolidado al momento de diseñar uno de estos centros, es la estandarización, que permite diseñar los nuevos centros con construcciones modulares y contenedores, que mejoran de manera relevante los tiempos de construcción e implementación y permiten reducir los costos de los procesos de ingeniería de diseño. Esto aplica también directamente a los sistemas de suministro de energía, agrega el experto.

“Prestar atención a la estandarización de elementos del sistema de suministro de energía, como los bancos de baterías o de otros elementos, puede, en su momento, generar grandes ahorros de costo y de operación, al facilitar la interoperabilidad entre diversos proveedores de repuestos, o colaborar a reducir el costo del mantenimiento tanto en el pañol de herramientas especiales, como en el stock de repuestos”, puntualiza.

Noviembre 2016
.......
Comentarios acerca de este artículo
No hay comentarios publicados
Comenta este artículo
Nombre:
Empresa:
Email:
Comentario:
Notificarme de actividad en este artículo
Ingrese los caracteres de la imagen:
Reportajes
SUBESTACIONES DIGITALES: Transformando el futuro energético
Cables eléctricos para aplicaciones industriales
GENERADORES ELÉCTRICOS: ¿Cómo elegir el modelo adecuado para su empresa?
Contáctenos
Dirección: José Manuel Infante 919, Of. 203,
Providencia, Chile
Teléfono: (562) 2433 5500
Email: info@emb.cl
Visite también:
© Copyright 2023 Editora Microbyte Ltda.