Seis prácticas de data centers eco eficientes

Muchos centros de datos están en contra de la máxima potencia eléctrica disponible para su utilidad. Otros se enfrentan a problemas de gestión: la cantidad de tiempo para desplegar nuevas capacidades y para gestionar la capacidad y los sistemas existentes. Y los logros alcanzados mediante la virtualización y la consolidación de servidores, a menudo se pierden de nuevo a medida que se añade nuevo equipo.

 
La demanda por más ciclos de CPU y petabytes de almacenamiento no va a desaparecer. Ni los problemas de presupuesto, o el costo de la energía, refrigeración y espacio.
 
He aquí un vistazo a cómo los vendedores, los grupos de la industria y los expertos planificadores de TI e instalaciones, enfrentan estos desafíos -además de algunas ideas que todavía pueden ser como un cielo azul.
 
Ubicación, ubicación, ubicación
Los centros de datos necesitan energía. Mucha, y a un precio favorable.
 
Los centros de datos también necesitan refrigeración, ya que toda la electricidad que viaja a través de los equipos de TI, eventualmente se convierte en calor. Normalmente, esta refrigeración requiere más energía eléctrica. Una de las medidas de eficiencia energética del centro de datos es su PUE -Eficacia en el consumo de energía- que es la relación entre la potencia total consumida por la instalación de TI, refrigeración, iluminación, etc, dividida por la energía consumida por los equipos de TI. El mejor PUE es el más cercana posible a 1,0; las clasificaciones PUE de 2.0 son, por desgracia, muy típicas.
 
"Querrá estar en una geografía fresca y seca, con energía barata, como en partes del noroeste del Pacífico. Por ejemplo, el centro de datos de Facebook en Prineville, Oregon. O en un lugar muy seco, donde se pueda obtener el enfriamiento por evaporación", señala Rich Fichera, vicepresidente y analista principal de infraestructura y el grupo de operaciones de Forrester Research.
 
Empresas como Apple, Google y Microsoft, junto con empresas de alojamiento de centros de datos, han estado buscando sitios que cumplan con energía asequible y criterios de refrigeración (a la vez que no sean propensos a los terremotos o los extremos meteorológicos peligrosos, que sean asequibles a los bienes raíces, que tengan buena conectividad de red, y buenos lugares para comer).
 
Google, con un estimado de 900 mil servidores, dedica considerable atención a la eficiencia del centro de datos y otras mejores prácticas, cómo, dónde y cuándo sea posible, utilizando el enfriamiento por evaporación para reducir al mínimo la frecuencia en que la energía es acaparada por los enfriadores (cuando están en uso, los enfriadores "pueden consumir más energía que el resto del sistema de refrigeración combinado"). El enfriamiento por evaporación, también requiere energía -pero mucho menos. Y las nuevas instalaciones de Google en Hamina, Finlandia, "utilizan agua de mar para proporcionar refrigeración". Según la compañía, "los data center diseñados por Google utilizan la mitad de la energía que un centro de datos típico".
 
Energía renovable, carbono neutral
Además de buscar la asequibilidad, muchos planificadores de centros de datos están buscando fuentes de energía que no consuman combustible, o de lo contrario, que tengan una baja huella de carbono.
 
Por ejemplo, Verne Global está poniendo un "centro de datos de carbono neutral" en Islandia -programado para noviembre del 2011- totalmente alimentado por una combinación de fuentes hidroeléctricas y geotérmicas, de acuerdo con Lisa Rhodes, vicepresidente de marketing y ventas de Verne Global. (Alrededor del 80% de la energía provendrá de una hidroeléctrica).
 
La energía en Islandia también es abundante, señala Rhodes: "La red eléctrica actual en Islandia ofrece aproximadamente 2.900 megavatios (MW) de potencia instalada, y la población de Islandia es de aproximadamente 320 mil personas. Su utilización de la potencia total disponibles de aproximadamente 300MWatts. Las fundiciones de aluminio actualmente son las industrias más intensivas en energía de Islandia, dejando más de la capacidad suficiente para la industria de los centros de datos".
 
Dependiendo de dónde es el cliente, la compensación para la localización de los centros de datos basados en la energía, los factores de refrigeración u otros, puede, por supuesto, incrementar la latencia de la red -la demora causada por las señales que viajan a través de uno o varios miles de kilómetros de fibra, además de, posiblemente, otro dispositivo de red o dos. Por ejemplo, una vía de tránsito del centro de datos a Europa, añade 18 milisegundos; a los Estados Unidos, alrededor de 40 milisegundos.
 
No es solo el calor, es la humedad
Los "lugares secos" no están necesariamente en instalaciones frescas Por ejemplo, las instalaciones de i/o Data Center en Phoenix, que según la compañía, es uno de los mayores centros de datos mundiales, se encuentra, como el nombre de la institución indica, en Phoenix, Arizona.
 
"Una de las ventajas del desierto es que es muy seco", señala Anthony Wanger, presidente de i/o. "Es más fácil eliminar el calor en un ambiente seco, lo que hace de Arizona una ubicación ideal".
 
Según la compañía, el centro de datos de Phoenix cuenta con una serie de técnicas y tecnologías para reducir el consumo de energía y mejorar la eficiencia energética.
 
"Estamos haciendo todo lo posible para ahorrar energía en todos nuestros centros de datos, señala Wanger. "Suministramos aire frío y el retorno de aire caliente por separado. Para alejar el calor, agrega Wanger, "todavía no hay medios más eficientes para calmar la energía que a través del agua. El aire como líquido es mucho menos denso y menos eficiente. Una vez que tenemos aire caliente, se descarga en un sistema de circuito cerrado y es intercambiado en un sistema de circuito abierto, donde se puede eliminar el calor. También utilizamos almacenamiento térmico. Podemos consumir energía en la noche cuando está asentada en el inventario de la empresa de servicios públicos".
 
Además, agrega Wanger, "tenemos que poner la humedad en el aire. El modo antiguo era tener una gran lámpara de metal calentando el agua. La solución de humidificación era encender una lámpara de calor y hacer la transición a la humedad. Ahora usamos un proceso conocido como la humidificación de ultrasonidos, que utiliza señales electrónicas de alta frecuencia para romper la tensión superficial del agua y disipar el vapor de agua fresca en el aire -esto toma alrededor de 1/50avo de la cantidad de energía".
 
El mod pod
Desde hace varios años, un creciente número de proveedores, como HP y Microsoft han estado ofreciendo centros de datos listos para utilizar que no solo incluyen informática, almacenamiento, sino también equipos de refrigeración -solo póngalo en su lugar y conecte el encendido, la conectividad, y todo lo que necesite enfriamiento.
 
Algunos ni siquiera necesitan un centro de datos para alojarse.
 
Y no solo son vendedores; los proveedores de alojamiento como i/o Data Center no solo utilizan sus propios módulos, sino que también los ofrecen directamente a los clientes que podrían no hacer uso de las instalaciones de i/o.
 
Por ejemplo, HP ofrece su Performance Optimized Datacenter 240, más conocido como "el EcoPOD de HP". Amazon tiene su propio contenedor Perdix, y Microsoft ofrece su centro de datos ITPAC (Componentes TI pre-ensamblados).
 
EcoPOD de HP utiliza refrigeración al aire libre y de DX (expansión directa), sin necesidad de agua fría. "Solo tiene que añadir energía y crear redes -en cualquier ambiente", señala John Gromala, director de marketing de productos, sistemas modulares, servidores estándar de la industria y el software de HP. De acuerdo con Gromala, "EcoPOD optimiza la eficacia logrando una eficacia casi perfecta del consumo de energía (PUE) entre 1,05 a 1,30 (según las condiciones ambientales)". Y, agrega Gromala, "debido a que los EcoPODs son independientes, se pueden implementar en tres meses aproximadamente. Los clientes están poniendo EcoPODs detrás de sus instalaciones existentes, dentro de los almacenes o en los techos".
 
El cambio de AC a DC
El equipo de TI funciona con corriente continua (DC), pero las empresas de servicios públicos proporcionan electricidad AC (corriente alterna).
 
Normalmente, "un UPS convierte los 480vAC trifásicos que vienen de la empresa de servicio público, en DC, para cargar sus baterías, y luego vuelve a convertir la energía a 480vAC para enviarla al centro de datos. La PDU (Unidad de distribución de energía) para cada estante o fila de bastidores convierte los 480vAC trifásicos a 208vAC trifásico, que es lo que normalmente va en los equipos de TI como servidores y almacenamiento. Y las fuentes de alimentación en los equipos de TI convierten esos 208vAC en 380vDC", señala Dennis Symanski, de Senior Project Manager, Electric Power Research Institute, y presidente del comité Emerge Alliance que escribe la norma 380vDC.
 
Se están desarrollando varias iniciativas para explorar directamente desde la red pública. "Hemos hecho varios demos en todo el mundo sobre la ejecución de centros de datos a 380vDC (voltios de corriente continua) en lugar de 208vAC", comenta Symanski.
 
Al mudarse a una infraestructura de corriente continua, agrega Symanski, "se deshace de tres pasos de conversión en el sistema eléctrico, y también reduce la carga sobre el aire acondicionado, por la reducida cantidad de calor que se crea.
 
¿Qué significa eso en términos de ahorros en dólares? "En la mayoría de nuestras demostraciones hemos encontrado que se obtiene un 15% de reducción en la energía utilizada para ejecutar el equipo de TI. Además, el ahorro de necesitar menos aire acondicionado, que probablemente es comparable, pero más difícil de medir.
 
Dado que una infraestructura DC implica DC UPS, disyuntores DC, cables de interconexión DC, etc, etc, es poco probable que los centros de datos conviertan la programación AC, a menos que sea como un banco de pruebas, señala Symanski. "Esto es para cuando está expandiendo su centro de datos, agregando una nueva fila de bastidores, o la construcción de un nuevo centro de datos".
 
Cámbiese a componentes de ahorro de energía
Hay muchas oportunidades de reducir el consumo de energía, simplemente mediante la sustitución de algunos de los componentes de los sistemas de potencia y de refrigeración.
 
i/O Data Centers, por ejemplo, "utiliza enfriadores de frecuencia variable, bombas, torres de enfriamiento y de tratamiento de aire para reducir el consumo de energía. Al utilizar solo la potencia necesaria para mantener a los equipos funcionando en niveles óptimos de i/o, es capaz de operar centros de datos eco eficientes".
 
"No se cambia el ventilador o el motor, se pone un VSD en el motor. Ahora se puede ralentizar lo que antes solía ser un ventilador de velocidad", señala Symanski de EPRI. "Y al reducir la velocidad de un ventilador en un 50%, con un accionamiento de velocidad variable (VSD), se utiliza solo una octava parte de la energía". Sin embargo, advierte Symanski: "Hay que asegurarse de que no habrá condensación y que el refrigerante no se congele por frenar demasiado".
 
Incluso hay una fácil actualización de componentes que se puede hacer con un equipo existente de TI, señala Symanski: Sustituir las viejas fuentes de poder por una de las nuevas eco eficientes, que además cuentan con nuevas certificaciones como 80PLUS y Energy Star.
 
"Los nuevos suministros de energía pueden venir en diferentes versiones -Bronce, Plata, Oro y Platino- con una mejor eficiencia correspondiente", señala Symanski. "Sustituir una vieja fuente de poder con una de nivel Platino puede producir de 10 a 15% de ahorro de energía, y la fuente de poder suele tener bajo costo".
 
¿Loco como un zorro, o simplemente loco?
Hasta ahora, todo lo que ha leído se encuentra disponible y ha sido probado, o al menos está siendo estudiado en condiciones de prueba. Pero ¿por qué detenerse allí cuando todavía hay margen para seguir mejorando? Aquí están algunas ideas de cielo azul…
 
Yo asumo todo el crédito/o culpa de esta. ¿Por qué no colocar los servidores dentro de las ruedas de la turbina, y lanzarlos -atados con cables coaxiales de fibra- al agua? El movimiento del agua en la turbina genera energía, el movimiento del agua mantiene fresco el servidor. Para el intercambio máximo de calor, (y para evitar problemas de flotabilidad), utilice refrigeración por inmersión en los servidores, como en Hardcore Computer. Para tener crédito adicional -tenga cuidado de poner pantallas de malla de alambre alrededor de los servidores- críe salmón, almejas y/o tilapia, ya que el agua puede estar más tibia que de costumbre.
 
Hablando de su ubicación, con la generación de energía basada en aire en desarrollo, ¿qué hay de módulos de centros de datos aerotransportados, generando energía y consiguiendo enfriamiento por aire, sin dejar huella en el suelo? (Por supuesto, un blanco fácil para los piratas del aire armados con tenazas de seis pies). O ¿qué tal los más grandes en instalaciones más ligeras que el aire?
 
Mi sugerencia favorita viene de Perry R. Szarka, tercer consultor de soluciones en el integrador de sistemas MCPC, Inc.: "¿Qué tal una combinación de micro-cervecería y centro de datos? La idea sería que la cerveza participe de alguna manera en el proceso de enfriamiento del centro de datos a través del proceso de destilación/fermentación. La micro cervecería tal vez podría tener un bar donde los clientes pueden ver la cerveza a través de grandes ventanales y un tubo de vidrio claro a medida que se mueve a lo largo de todo el sistema. Supongo que esto podría ser el último concepto en sistemas de enfriamiento líquido del centro de datos, por lo menos para los administradores de centros de datos que he conocido".
 
¿Qué prácticas innovadoras de centros de datos está usted viendo? ¿O usted tiene algunas ideas propias de cielo azul?
 
Daniel P. Dern, ITworld.com