¿Cuándo podemos decir que un Centro de Datos es Green?

Anuncio
¿Cuándo podemos decir que
■ Olof Sandstrom
Director de Operaciones
arsys
número 06■2013
L
152
OS Centros de Proceso de Datos
(CPD) cuentan con
una tecnología cada vez más encaminada hacia la eficiencia, con motivo de
una reducción de costes, pero también
para orientarlos hacia un modelo “Green”. No obstante, debemos ser conscientes de que son instalaciones complejas
con un consumo de electricidad muy elevado, que se reparte principalmente entre
la alimentación de los servidores que
prestan el servicio (50%) y la alimentación destinada a los sistemas de climatización necesarios para disipar el calor
que generan los servidores (35%). El 15%
restante de la potencia se destina a la
distribución eléctrica, la iluminación y
otros elementos técnicos.
se utilizase estuviera destinado al equipamiento TI. Con esto, lograríamos ser
más eficientes y que no tuviéramos pérdidas en el sistema eléctrico ni que climatizáramos la sala. Pero obviaríamos
una realidad: el equipamiento TI genera
calor, por lo que es necesario controlar la
temperatura y las condiciones ambientales de la sala.
Cada vez es más común que las empresas comprometidas con el medio ambiente cuiden especialmente la eficiencia
energética de estos distintos elementos
que soportan las operaciones TIC de sus
CPD, que se suelen denominar con conceptos como Green TIC, Green Hosting o
Green Data Center. Principalmente, centran sus esfuerzos en dos líneas principales de trabajo: optimizar el porcentaje de
electricidad destinado a TI y mejorar el
rendimiento de la plataforma TI.
Actualmente, los Centros de Datos
que se están esforzando en ser “Green”
trabajan con valores PUE entre 1,3 y 1,7,
aunque hay algunos casos de éxito con
valores de 1,2 en entornos muy controlados. En el caso de arsys, con un entorno real muy exigente en cuanto a la
computación (1,5 millones de servicios
de todo tipo y en todo tipo de plataformas: Cloud, Dedicadas, compartidas, de
correo, críticas, etc.), esperamos cerrar
2012 con un PUE medio anual de 1,38,
un 15% por debajo de la cifra alcanzada
en 2011. Y hay trimestres en los que el
PUE es mucho más bajo, ya que aprovechamos al máximo las condiciones externas para la climatización de las má-
En el primer escenario sobre el aumento del porcentaje de electricidad
destinado al equipamiento TI, lo ideal en
un CPD sería que cada kilowatio (kW) que
El PUE (Power Utilization Effectiveness), la relación entre la electricidad total que consume un Centro de Datos y la
electricidad que consume su equipamiento TI, es el indicador más extendido para
medir esta eficiencia e idealmente debería tener un valor de 1, aunque generalmente sea de 2. Es decir, por cada kW
que se destina a TI hace falta otro para
mantenerlo en óptimas condiciones.
quinas. Gracias a estos datos, calculamos que hemos ahorrado al medio ambiente, como mínimo, la generación de
275.000 kW/h, que hubieran supuesto
unas 420 toneladas de CO2.
Dentro del CPD, las mejoras en la
distribución eléctrica son un punto crítico. Si los servidores dejaran de funcionar
en un Data Center un solo segundo, todos
los sistemas se caerían. Levantarlo de
nuevo podría llevar varias horas de trabajo, pues todos los servidores y sistemas
dejarían de funcionar.
perspectivaempresarial
un Centro de Datos es Green?
Al estar hablando de entornos que
tienen que estar disponibles a cualquier
hora y cualquier día del año, debemos
plantear un escenario en el que el suministro sea constante y que no dé pie ni a
un segundo de cortes, pues supondría un
perjuicio económico considerable para
cualquier empresa.
El diseño de la instalación eléctrica
de un CPD debe ser sumamente meticuloso y todos los elementos tienen que estar duplicados. Los sistemas se alimentan a través de una acometida eléctrica
de compañía, pero, por si acaso hay interrupciones de suministro, se tiene que
instalar un grupo electrógeno que suministre electricidad.
número 06■2013
Y, como el grupo electrógeno tarda
unos segundos en arrancar y empezar a
proporcionar corriente eléctrica, hace falta un sistema basado en baterías que alimente la instalación durante ese periodo
de tiempo, un Sistema de Alimentación
Ininterrumpida (SAI). Por si fuera poco,
todos estos elementos deben estar duplicados, por si se diera el caso de que
cuando entraran en funcionamiento alguno de ellos presentara alguna anomalía.
153
Al final, y todo para evitar cualquier corte
de suministro, se necesitan dos acometidas, dos grupos y dos SAI.
con el medio ambiente y los niveles de
rendimiento de las máquinas que debemos facilitar a los clientes.
La optimización de la electricidad
también tiene que ver con algunos aspectos que es necesario cuidar, como por
ejemplo, el aprovechamiento de la temperatura ambiente, la separación de aire
frío / caliente o la calibración de las temperaturas.
Durante años, lo importante para un
Centro de Datos ha sido tenerlo lleno de
servidores. Sin embargo, las tecnologías
de virtualización han permitido dar un
paso más y hacer que lo importante no
sea tenerlo lleno de servidores, sino que
cada kW que se consuma se destine a algo productivo para lograr que sea eficiente y optimizable.
Para que los equipos TI funcionen
adecuadamente se trabaja habitualmente
con una temperatura del aire alrededor
de 20 grados centígrados. En muchos
emplazamientos, la temperatura ambiental se sitúa durante bastantes horas al
año por debajo. Por tanto, al diseñar el
sistema de climatización se debe prever
la posibilidad de utilizar el frío del exterior
para controlar la temperatura de la sala.
De hecho, hay tecnologías que permiten inyectar directamente aire del exterior cuando su temperatura es inferior a
20 grados, de forma que la inversión en
climatización se reduce. Por contrapartida, estos sistemas requieren de la instalación de unos filtros de aire de grandes
dimensiones y con un coste de mantenimiento elevado. Otra forma de hacerlo es
que los sistemas de climatización incorporen un módulo que utilice el frío exterior para enfriar el agua en lugar de los
compresores cuando la temperatura exterior lo permita.
número 06■2013
Otro tipo de sistemas también válidos, como son las torres de evaporación
que enfrían el agua antes de que llegue a
los compresores. Estas torres aumentan
el rendimiento cuando la temperatura exterior es baja y hacen que el agua llegue
a los compresores a una temperatura lo
suficientemente baja como para que no
tengan que enfriarla más.
154
Por otro lado, es fundamental hacer
llegar de la forma más directa posible el
frío que hemos generado a los equipos TI.
Los equipos TI toman aire frío por delan-
te y sueltan el aire caliente por detrás,
por lo que si no se aísla adecuadamente
el aire frío del caliente, estos se mezclan
y, al final, llega a los equipos más caliente de lo que sería deseable. Consecuentemente, si el aire tiene que llegar a los
equipos en torno a los 20 grados pero se
mezcla con aire caliente, será necesario
que su temperatura esté por debajo, hasta 17 ó 18 grados.
Para hacer esto, se suele cerrar
completamente el pasillo por donde circula el aire frío, de forma que no haya posibilidad de que se mezcle el aire caliente. También es fundamental aislar los
huecos de los racks que no tienen servidores instalados, de forma que el aire caliente no vuelva al pasillo frío por esos
espacios.
Los equipos de climatización tienen
unas temperaturas de consigna para trabajar, de forma que cuanto más bajas sean estas temperaturas de consigna, más
frío habrá que introducir en la sala. La
tendencia de muchos técnicos es bajar
estas consignas de forma que las máquinas trabajen con una temperatura más
fría, creyendo que los equipos trabajan
mejor a menos temperatura. Esto no es
estrictamente así: hay unos márgenes de
temperatura de trabajo.
De hecho, en arsys estamos trabajando con distintos proyectos de innovación, el más importante en colaboración
con Intel, que parten de la premisa de
que es posible elevar la temperatura de
las salas técnicas, garantizando en todo
momento el correcto funcionamiento de
los servidores. Debido esta revolución en
la Nube que vivimos, fabricantes de hardware y proveedores de servicio estamos
tratando de encontrar el punto de inflexión que compatibilice la responsabilidad
La virtualización reduce drásticamente del consumo eléctrico del CPD y, por lo
tanto, se consigue un uso más responsable de los recursos energéticos. Al ser
muy normal que un servidor tenga la carga de CPU por debajo del 15%, en principio es posible que una única máquina física haga el trabajo que hasta ese momento hacían seis y se puede prescindir
de cinco servidores y de los recursos necesarios para su funcionamiento. Todo
ello sin afectar a la calidad del servicio.
En este sentido, resulta imperativo
consolidar máquinas dentro del Centro
de Datos mediante el uso del Cloud Computing y las tecnologías de virtualización,
que permiten reducir el número total de
servidores necesarios para prestar el
servicio. Si un CPD consigue pasar de tener 2.000 servidores en producción a tener 400 (unas cifras que, teniendo en
cuenta las tecnologías actuales de virtualización, no resultan disparatadas) habrá
pasado de consumir unos 500 kW en su
equipamiento TI a consumir unos 120
kW, un 76% menos.
En definitiva, en una estrategia para
conseguir que nuestro CPD pase a ser
“Green”, hay involucradas muchas tácticas que optimizan la eficiencia del Centro
de Datos y que pase a ser “Green”, no
una sola y única fórmula. Es necesario
trabajar a lo largo de toda la complejidad
del Centro de Datos y entonces sí podremos decir que gestionamos un entorno
“Green”.
Descargar