En los últimos años, la industria del almacenamiento ha sido testigo de cambios radicales con la gran explosión de datos no estructurados y la aparición de implementaciones de nubes híbridas abiertas, y se prevé que esta tendencia continúe por muchos años más.
A continuación presentamos las cinco predicciones principales hechas por Red Hat para el año 2013 a partir de lo que se observa en la “bola de cristal” del almacenamiento.
Predicción Nº1. Los silos de almacenamiento se derrumbarán estrepitosamente.
En la actualidad, la tecnología de la información se ve forzada a reaccionar ante la embestida de los datos mediante la creación de silos de almacenamiento, cada uno con su propio modelo de operaciones de TI. Tradicionalmente, existe un silo para los datos en bloque, un silo para los datos de archivo, un silo para los datos de objetos, etc. Este enfoque reactivo no solo eleva la inversión en bienes de capital para almacenamiento, sino que también genera un impacto enorme en los actuales gastos operativos debido a que se precisan diferentes herramientas de gestión, diferentes herramientas de aprovisionamiento y diferentes habilidades. Prevemos que esto empezará a cambiar en el año 2013 con el surgimiento de soluciones de almacenamiento que ofrezcan un enfoque unificado para la obtención, el aprovisionamiento y la gestión de los datos de las empresas. Estas soluciones deberán ser independientes de la clase de datos, tales como de archivos, objetos, bloques y datos semi-estructurados o no estructurados. Al implementar estas soluciones, las empresas comenzarán a obtener grandes beneficios que se traducirán en menores gastos y en mayores niveles de servicio para sus usuarios finales.
Predicción Nº2. El software de almacenamiento se comerá crudo al hardware de almacenamiento.
Siguiendo los comentarios de Marc Andreessen, líder de la sociedad de capital de riesgo Andreessen Horowitz, acerca del software publicados recientemente en un artículo de CNET, es muy probable que el veloz ritmo de la innovación en la capa software de almacenamiento aventaje rápidamente a la innovación en hardware. Hoy en día, la innovación en software está atada al ritmo de la innovación en hardware debido a que los proveedores más importantes con frecuencia empaquetan sus productos como un producto de hardware: hardware propietario y monolítico con una capa de software que no puede desacoplarse. Nosotros predecimos que esto cambiará en el año 2013 como resultado de dos tendencias pronunciadas: la rápida generalización y estandarización a nivel del hardware combinada con una mayor inteligencia en la capa de software. La confluencia de estas tendencias facilitará a los clientes disfrutar de los beneficios que brinda la economía de volumen del hardware estándar sin comprometer la escalabilidad, la flexibilidad y la confiabilidad que aporta el software de almacenamiento inteligente. Los proveedores continuarán demostrando cómo una capa de software inteligente que funciona perfectamente con servidores estándar puede manejar los exigentes requerimientos de almacenamiento de las empresas sin comprometer el costo y el rendimiento.
Predicción Nº3. El software de almacenamiento de código abierto se comerá crudo al software de almacenamiento propietario.
Los requerimientos y las demandas de un enfoque unificado para la gestión del almacenamiento generados por las nuevas cargas de trabajo de las empresas requerirán un enfoque diferente por parte de los proveedores de software de almacenamiento, uno que esté basado en la innovación impulsada por la comunidad. Esta innovación impulsada por la comunidad es el sello distintivo de un verdadero enfoque de código abierto para resolver los problemas con el almacenamiento en las empresas. Por ejemplo, la incipiente área de los grandes volúmenes de datos cuenta por sí sola con más de 100 proyectos bien definidos sobre “grandes volúmenes de datos” de código abierto, con miles de desarrolladores de software que aportan códigos, perfeccionan características y aumentan la estabilidad. Es difícil equiparar este ritmo de innovación cuando el software se desarrolla dentro de las cuatro paredes de un proveedor. Predecimos que las empresas gravitarán hacia el enfoque de código abierto para resolver los desafíos de almacenamiento del mundo real. Los proyectos como GlusterFS, ceph, Apache Hadoop y MongoDB ya notan un pequeño incremento en la participación comunitaria y en la adopción por las empresas. Prevemos que esta tendencia continúe sin cesar en el año 2013.
Predicción Nº 4. El rol del administrador de almacenamiento cambiará radicalmente con el advenimiento de las implementaciones de nubes híbridas abiertas.
El rol actual de un típico administrador de almacenamiento consiste principalmente en asegurar que los silos de almacenamiento en el centro de datos funcionen lo más óptimamente posible para dar soporte a las necesidades del negocio. El administrador de almacenamiento trabaja en conjunto con los administradores de sistemas y los administradores de redes para garantizar que las tres piezas bien definidas de la infraestructura (procesamiento, redes y almacenamiento) se encuentren en línea. Es probable que la nube híbrida abierta genere un cambio. Como la nube privada permite un nivel de abstracción y la nube pública exige que el almacenamiento se implemente fuera del ámbito del control, los administradores de almacenamiento pasarán a ser responsables de una plataforma de almacenamiento continuo, una que implique un modelo en el cual el almacenamiento no tenga límites. Para que un administrador de almacenamiento tradicional tenga éxito en este nuevo paradigma, deberá convertirse en un administrador de nube e involucrarse más en el diseño y la implementación generales de una infraestructura de negocio. Esto demandará que adquieran una mayor pericia en otros aspectos de la infraestructura que incluyen la virtualización, la conexión de redes y la planificación de la continuidad del negocio. La implementación de soluciones como OpenStack puede forzar este cambio de roles.
Predicción Nº 5. Los grandes volúmenes de datos y el almacenamiento pequeño constituyen la receta perfecta para el éxito.
Una vez que los grandes volúmenes de datos atraviesen la etapa de prueba de concepto, las empresas se darán cuenta de que los grandes volúmenes de datos no implican necesariamente un almacenamiento grande. Los principios básicos de las arquitecturas de referencia de los grandes volúmenes de datos recomiendan una infraestructura de almacenamiento ampliable formada por un conjunto de servidores con almacenamiento pequeño a diferencia de una infraestructura de almacenamiento monolítica ampliable. Por ejemplo, si un proyecto de grandes volúmenes de datos abarca un petabit de almacenamiento, puede resultar mucho más eficiente tener 100 nodos de “almacenamiento pequeño” en lugar de dos grandes nodos de “almacenamiento grande”. La flexibilidad, la agilidad y la adaptabilidad serán las claves del éxito en el almacenamiento de grandes volúmenes de datos.