Los sistemas de almacenamiento evolucionan y crecen

En su primer día completo de VMworld, el proveedor de almacenamiento Scale Computing, lanzó un nuevo dispositivo de almacenamiento que elimina toda la red de almacenamiento I/O que se encuentra entre los servidores y el almacenamiento. En su lugar, el dispositivo utiliza procesadores potentes que son capaces de albergar varias máquinas virtuales en la misma caja de almacenamiento. El aparato no requiere ningún software de virtualización ni almacenamiento externo, lo que podría reducir los costos de almacenamiento hasta en 75% para las pequeñas y medianas empresas con recursos y experiencia de almacenamiento limitados.
 
Algunos observadores de la industria lo llaman un gran avance. Otros lo llaman una progresión esperada en la arquitectura de almacenamiento. Pero todos coinciden en que la evolución del almacenamiento de los sistemas básicos a las computadoras de almacenamiento de alta potencia, es una tendencia que está alcanzando a las organizaciones de todos los tamaños.
 
"Es la primera vez que se hace algo así", señala Dick Csaplar, analista de Aberdeen Group, refiriéndose a la arquitectura collapsed de Scale Computing, que combina servidores, almacenamiento y virtualización en un solo aparato. "Parece bastante sencillo. Hace que uno se pregunte ‘¿Por qué no ocurrió antes? ".
 
De hecho, muchos proveedores de almacenamiento, veteranos y recientes, han estado conspirando cambios hacia computadoras con alto poder de almacenamiento durante algún tiempo, a medida que cada vez se degradan más funciones en los sistemas de almacenamiento.
 
Una de las razones principales por las que es posible disminuir el poder computacional de almacenamiento es la aparición de arquitecturas de escala horizontal, que pueden aportar mucho más CPU, memoria y networking a nivel de almacenamiento. Las arquitecturas de almacenamiento tradicionales, con sus cantidades fijas de CPU, memoria y networking, no fueron diseñadas para alojar aplicaciones de forma nativa en sistemas de almacenamiento. Hoy en día, la arquitectura emergente permite que los usuarios añadan muchos sistemas de almacenamiento a una infraestructura ya existente y amplíen no solo la capacidad, sino también el rendimiento, la CPU, la memoria y el networking por igual.
 
Los avances en la potencia de procesamiento también han llevado a la decisión de migrar hacia la computación de almacenamiento. Con los procesadores de 16 núcleos, por ejemplo, los sistemas tienen "una increíble cantidad de poder de cómputo. Utilizando un poco de ese poder para cosas como el procesamiento de una aplicación", señala Csaplar.
 
La virtualización de servidores también ha llevado a los sistemas tradicionales de almacenamiento hasta un punto de inflexión, a veces, con 20 a 30 servidores virtualizados en un servidor. "Así que ahora los administradores de almacenamiento se enfrentan a una tremenda carga que entra en un sistema de almacenamiento", agrega Hu Yoshida, CTO de Hitachi Data Systems. "Esto ha aumentado la demanda de procesamiento I/O".
 
Replantean sus posiciones
El gigante de almacenamiento, 
EMC, está trabajando en la próxima generación de capacidades de escalado a nivel de almacenamiento, pero el proveedor todavía no tiene un producto nuevo que anunciar. "Ciertamente es un área de interés", señala Sam Grocott, vicepresidente de marketing. "Desde el punto de vista de la industria, creo que todo el mundo está mirando eso. Tenemos ciclos y núcleos de CPU y mucho más memoria disponible no solo para tareas de almacenamiento, sino también para los casos de uso de aplicaciones".
 
Hitachi Data Systems se ha estado moviendo hacia la computación de almacenamiento de gran alcance desde el año 2000, comenta Yoshida. Hoy en día, su plataforma de almacenamiento virtual puede mover datos al almacenamiento de alto rendimiento cuando una aplicación lo necesita, y regresarlos al almacenamiento de clase baja cuando el rendimiento ya no es necesario.
 
"No es solo una computadora de almacenamiento -es un multiprocesador híbrido", agrega Yoshida. "También lo hacemos en nuestro producto NAS de alto rendimiento".
 
El siguiente paso será la "unificación", añade. "En nuestro producto de gama media, hemos añadido un sistema de archivos óptico para que los usuarios puedan hacer procesamiento de archivo y de bloque. Nuestro sistema de archivos está construido en torno a una arquitectura de objetos, por lo que puedo hacer una consulta con los metadatos y encontrar las cosas rápidamente. Así es como combinamos hardware y el software que se ejecuta en una CPU a la velocidad de nuestro proceso. Hitachi incluyó ese sistema de archivos en su sistema de almacenamiento unificado en abril.
 
"Vamos a ver más híbridos de Hitachi", señala Andrew Reichman, analista de Forrester Research. "Ellos tienen las herramientas, pero son lentos en el mercado. Se toman su tiempo, pero construyen algo que está muy bien diseñado".
 
Casi una docena de nuevas empresas han entrado en el mercado, agrega Reichman. Nutanix, por ejemplo, ha lanzado un híbrido de servidor/almacenamiento diseñado para ser escalados, altamente automatizado y fácil de usar. Nimble Storage ofrece una combinación híbrida de nueva generación de disco/unidad de estado sólido. Tegile Systems, MorphLabs, Tintri, Pivot 3 y Astute Networks también ofrecen cajas informáticas de almacenamiento de una sola parada.
 
Retos complejos
La computación de almacenamiento de alto rendimiento requiere experiencia en servidores, almacenamiento y aplicaciones. Muchos de los vendedores tendrán que forjar alianzas para tener éxito.
 
"Esas tres piezas son claves para hacer que sea un modelo escalable", señala Grocott. "Los proveedores de almacenamiento van a tener que disponer de sólidas alianzas con los actores de la aplicación, ya que tienen que tomar conciencia de qué aplicaciones viven en el almacenamiento y no van a través de las redes tradicionales. Pero también puede crear esa infraestructura escalable a través de hipervisores -ya sea con Microsoft, VMware o algún otro- para albergar estas múltiples aplicaciones dentro de la infraestructura de almacenamiento".
 
Él reconoce que la creación de infraestructura escalable a través de hipervisores podría añadir una capa de complejidad y gastos.
 
"Es un constante intercambio", cuando se trata de elegir entre un alto rendimiento, fácil escalabilidad y menores costos, señala Grocott. "Creo que esa es la pieza que necesita evolucionar más -asegurándonos de que los proveedores de la aplicación son conscientes de este nuevo entorno de almacenamiento y asociándonos juntos para averiguar cuál es el modelo adecuado, tanto desde el punto de vista económico como de integración".
 
En este momento, los dispositivos computacionales de almacenamiento están siendo comercializados a las medianas empresas. "Es una simplificación para las empresas de tamaño medio que están recibiendo golpes con toda la complejidad de los grandes, y no tienen recursos para hacerles frente", agrega Csaplar. Pero las grandes empresas probablemente se beneficiarán más de la arquitectura altamente optimizada para ofrecer un puñado de aplicaciones que están virtualizados en almacenamiento, y van a estar dispuestas a pagar más por un mejor rendimiento, añade Grocott.
 
"Verá diferentes modelos para diferentes mercados emergentes, lo que es apropiado", agrega Csaplar. "Todavía estamos buscando la solución final, y vamos a necesitar una gran cantidad de cambios y errores antes de que alguien tire la pelota fuera del parque".
 
– Computerworld US / IDG News