Multiplica Red Hat su apuesta por Big Data

La explosión de los datos está obligando a repensar continuamente el posicionamiento de los proveedores con el objetivo de dar respuesta a los desafíos de este fenómeno.  Uno de los fabricantes de software que están adaptándose de forma plena a este nuevo escenario es Red Hat, quien acaba de concretar sus soluciones en este terreno y anunciado su contribución a la comunidad abierta Apache en torno a la base de datos Hadoop.

En ese sentido, la empresa del sombrero rojo cuenta con un amplio portafolio de soluciones mejoradas y ampliadas en el terreno del Big Data, desde distribuciones Linux específicamente diseñadas para estos entornos o Red Hat Storage (basado en el sistema operativo Red Hat Enterprise Linux y el sistema de distribución de archivos de GlusterFS) hasta Red Hat Enterprise Virtualization 3.1 o Red Hat JBoss Middleware.

Asimismo, la compañía contribuirá a la comunidad abierta Apache Hadoop con Red Hat Storage Hadoop Plug-in, una herramienta que convierte a dicha plataforma de storage en un sistema de archivos de soporte completo compatible con Hadoop, la base de datos de Big Data más popular en todo el mundo.

El plug-in Hadoop para Red Hat Storage estará disponible a lo largo de este año. La versión previa actual proporciona una nueva opción de almacenamiento para despliegues empresariales Hadoop que ofrece funciones de almacenamiento empresarial, manteniendo la compatibilidad de las API y el acceso a datos locales. Y es que Red Hat Storage proporciona funciones empresariales para entornos big data, como georreplicación, alta disponibilidad, cumplimiento POSIX, recuperación de desastres y gestión, sin comprometer la compatibilidad API ni la localización de datos.

Por otro lado, Red Hat también está trabajando intensamente en llevar a entornos de nube híbrida las infraestructura y plataformas de aplicaciones de big data. Así, Red Hat está participando activamente en la comunidad Open Cloud a través de proyectos como OpenStack y OpenShift Origin para ayudar a cumplir estas expectativas empresariales de grandes volúmenes de datos, ha explicado la empresa en una nota oficial.

 

‘El almacenamiento debe ser visto como una plataforma de datos’

 

Para sacar el máximo partido a los grandes volúmenes de datos se requiere de un enfoque holístico en que las organizaciones vean su almacenamiento como una "plataforma de datos" en lugar de como un simple "destino de los datos”, ha explicado el proveedor de soluciones de código abierto Red Hat.

Con esta nueva perspectiva, afirman desde esta compañía, las empresas serían capaces de que su almacenamiento fuera rentable y escalable, sin necesidad de migraciones de datos y con limitaciones de crecimiento o barreras por silos de ningún tipo. Asimismo, prosiguen, una buena plataforma de storage debe  proporcionar accesibilidad global a los datos, así como proteger y mantener la disponibilidad de los mismos.

Y es que, en tanto que los datos empresariales tienden hacia tamaños que se miden en petabytes, la migración de datos al por mayor ya no es logísticamente y financieramente factible, de acuerdo con Red Hat. Esto significa que la migración de datos anterior debe ser ahora abordada proporcionando un sistema con la capacidad de crecer sin límites.

Red Hat agregó que un enfoque centralizado para la gestión de datos no es viable en la era de Big Data, cuando los volúmenes de datos son demasiado grandes pero la red WAN mantiene un ancho de banda muy limitado. Por ello, una plataforma de almacenamiento de datos debe ser capaz de gestionar los datos que se distribuyen en toda la empresa como un conjunto único y unificado pero sin apostar por la centralización real.