Virtualización de servidores: necesidad para las empresas

Los beneficios de la virtualización de servidores están ya fuera de toda duda para la mayoría de los expertos. Las corporaciones que posterguen la migración a este nuevo entorno se encontrarán en clara desventaja competitiva frente a sus rivales. Esta tecnología permite, entre otras cosas, hacer un mejor uso de los recursos informáticos de lo que los servidores físicos permiten, realizando múltiples tareas de distinta índole en un mismo sistema real. Asimismo, la virtualización mejora y simplifica los balances de carga y el mantenimiento de los equipos, ofreciendo la posibilidad de usar servidores virtuales de recuperación, en caso de que se produzca algún tipo de error.

A pesar de estas ventajas, es totalmente comprensible que un CIO tenga reticencias a emprender un cambio de paradigma tan grande como el que supone la virtualización. Es por ello que expertos en la materia aconsejan empezar la migración en pequeños dispositivos, como el ordenador de sobremesa o los portátiles, para valorar los beneficios y los inconvenientes de esta tecnología sin arriesgar la infraestructura completa de la empresa. Mediante la virtualización de uno de estos equipos personales, el usuario puede, por ejemplo, trabajar con aplicaciones legacy que exigían un sistema operativo diferente al empleado por el resto de aplicaciones corporativas.

Tras esta tímida introducción, el CIO debería seguir el camino desarrollando un pequeño laboratorio en el que probar, ahora sí, con grandes equipos la virtualización. Para ello se pueden emplear servidores que hayan sido retirados de las operaciones diarias, siempre teniendo en cuenta que posean suficientes conexiones y una gran memoria RAM, ya que la virtualización permite reducir la carga de trabajo de la CPU pero aumenta notablemente el trabajo que lleva a cabo la RAM. Ahora es cuando el CIO debe llevar a cabo la decisión estratégica acerca de la solución de software más conveniente para las necesidades actuales y futuras de la empresa. En el mercado existen numerosas ofertas de varios proveedores, como VMware, Microsoft, Citrix o Red Hat, la mayoría de los cuales permiten instalaciones de prueba de hasta un mes.

Almacenamiento compartido

Al trabajar con el nuevo entorno, se hará obligado contar con alguna forma de almacenamiento compartido para sacarle el máximo provecho a la virtualización. El objetivo es que los distintos servidores físicos cuenten con acceso a la unidad de memoria, de tal modo que puedan extraer datos y operar con ella de forma inmediata e independiente, sin depender del resto de equipos.

La industria tecnológica se ha adelantado a esta necesidad, y ya existe una amplia variedad de protocolos de almacenamiento, entre los que destacan NFS, iSCSI y Fibre-Channel. También existen soluciones más económicas, como unir varios discos duros a un sistema Windows o Linux, o bien emplear completas soluciones open source como FreeNAS.

Con ello, el necesario laboratorio de pruebas estará completo. En él, la empresa podrá ir perfeccionando el modelo y resolver los errores e ineficiencias que se descubran. Los expertos recomiendan que este laboratorio se mantenga en marcha incluso cuando se haya comenzando la implantación real, ya que este entorno de pruebas permitirá testar nuevas funcionalidades, actualizaciones e incluso la estabilidad de la plataforma en sí misma.

Pero antes de dar el paso final al mundo virtual, se debe asegurar de qué hardware será necesario en el paso al nuevo entorno. En este ámbito también existe una amplia variedad de herramientas, como VMware´s Capacity Planner, que permiten predecir las necesidades de infraestructura a las que la empresa se enfrentará. Estas aplicaciones requieren ser configuradas, por lo que este proceso puede suponer una carga de tiempo extra que sin embargo, permite a los CIO contar con una información extremadamente útil antes de emprender el camino de la virtualización.

Las especificaciones de los servidores también han de ser revisadas de cerca, especialmente desde el punto de vista financiero. Por ejemplo, las unidades de memoria RAM de alta densidad son notablemente más caras que las de baja densidad, por lo que puede salir más económico para la empresa implantar dos memorias RAM de 32 GB que una sola de 64 GB. Este tipo de detalles son los que hacen, poco a poco, incrementar los costes totales del proyecto y a largo plazo pueden determinar el éxito o fracaso en lo que al retorno de la inversión se refiere.

Primeros pasos

Una vez que ya se ha desarrollado la solución de virtualización personalizada para la empresa y se ha probado con unos pocos servidores, es el momento de comenzar la migración real al nuevo entorno virtualizado. Eso sí, los expertos recomiendan empezar despacio, con un plan claro y realista, que permita una transición ordenada y sin sobresaltos.

La práctica más correcta según los expertos es elegir unos pocos equipos de menor escala, como un servidor de aplicaciones ligeras o incluso un controlador de dominio de Active Directory. También se pueden construir nuevas soluciones en la infraestructura virtual o utilizar las herramientas P2V (de físico a virtual). Al comenzar por los servidores de menor tamaño, y sin especial relevancia dentro de la infraestructura de la empresa, el CIO puede asegurarse de eliminar cualquier problema que no se hubiera detectado hasta el momento y que podrían comprometer el desarrollo futuro si se implantara en un servidor crítico. Una vez que los nuevos equipos virtualizados satisfagan las previsiones planteadas, se puede seguir migrando el resto de servidores de mayor tamaño.

Con el proceso de transición ya en marcha, el responsable de TI debe mantener una estrecha vigilancia sobre el rendimiento del nuevo servidor virtual y el nivel de almacenamiento que se está utilizando. Asimismo, si se ha optado por una configuración de nivelación de carga automática, éste deberá estar activado y operativo para poder ir viendo cómo funciona el nuevo entorno en que trabajará la empresa. De este modo, cualquier organización puede incorporar la virtualización a sus servidores de una forma sencilla y sin riesgos para el negocio, ahorrando costes y mejorando la seguridad de sus sistemas TIC.

Pese a lo que pueda parecer, la virtualización es un paradigma al que aún le queda mucha cuerda, y más de la mano de la nube. Desde que apareciera este término, allá por el año 2001, la virtualización se ha convertido en una de las tendencias tecnológicas más importantes del siglo XXI que ha traído consigo grandes cambios en el mercado TIC. De hecho, junto con la capacidad para permitir a los usuarios aprovisionar rápidamente nuevas cargas de trabajo, también se está impulsando la demanda de almacenamiento a máximos jamás vistos. Y así parece que seguirá en los próximos años.