Big Data está creando una gran demanda de Apache Hadoop, el marco de código abierto que es conocido por su capacidad para almacenar, procesar y analizar grandes cantidades de datos con servidores básicos. Con Hadoop, las empresas son capaces de recoger más datos, retenerlos por más tiempo y realizar los análisis que no eran prácticos en el pasado debido a su costo, la complejidad y la falta de herramientas.
Es una plataforma atractiva, pero requiere conocimientos especializados. Mientras que las empresas sopesan la posibilidad de tener Hadoop en sus planes de arquitectura de datos, los profesionales de TI están luchando para perfeccionar sus habilidades. Los cursos de capacitación y programas de certificación de Hadoop están disponibles en compañías como Cloudera, Hortonworks, IBM y MAPR. Pero si no está listo para comprometerse con cursos formales de capacitación, pagados, también hay recursos libres que pueden ayudar a un principiante en Hadoop o a que un veterano amplíe sus habilidades.
Hortonworks, un spin-off de Yahoo que ofrece una distribución de Hadoop y servicios de apoyo comercial, aloja un seminario (webinar) semanal de introducción, ‘Introducción a Hortonworks Data Plattform’, que abarca temas sobre cómo instalar y disponer Hadoop a través de grupos de máquinas; la relación con proyectos relacionados de Apache Hadoop tales como Pig, Hive, Oozie y HBase; herramientas para grupos de vigilancia; y el intercambio de datos entre Hadoop y otros sistemas de datos empresariales.
Hadoop Essentials, una serie de seis ‘webinars’ grabados de Cloudera (que ofrece una distribución de Hadoop, soporte y servicios), explora sistemas de computación tradicionales en gran escala, los enfoques alternativos, y la forma en que Apache Hadoop se ocupa de cuestiones particulares.
Sarah Sproehnle, directora senior de servicios educativos en Cloudera, también recomienda otro video para los usuarios interesados en el aprendizaje de Hadoop. Introducción a Apache MapReduce y HDFS, que explica cómo los componentes trabajan juntos para crear un sistema escalable y potente.
Para los usuarios que quieran empezar su aprendizaje con un documento en lugar de un video, Hadoop Tutuorial, de Cloudera, describe las facetas que enfrenta el usuario del marco Apache Hadoop MapReduce.
MAPR, que ofrece una distribución gratuita M3 para Apache Hadoop, ofrece una serie de videos de entrenamiento a través de su grupo MAPR Academy. Algunos de los más populares, según la empresa son: Writing MapReduce Applications, que abarca los conceptos y componentes de MapReduce; Why Hadoop?, que introduce Hadoop y discute los problemas que recuelve MapReduce; Intro to Cluster Administration, que trata de cómo administrar grupos y usuarios; NFS Concepts, un estudio de los métodos y estrategias para la configuración de NFS para MapReduce; y Enterprise Hadoop, que aborda los desafíos de la evolución de Hadoop para la empresa.
Otro de los jugadores en el campo de la educación de Hadoop es el sitio educativo en línea Big Data University, que actualmente ofrece todos sus cursos de forma gratuita.
Orientado para principiantes, fundamentos de Hadoop I, de Big Data University, está enfocado a los fundamentos de Hadoop, incluyendo la arquitectura de Hadoop, HDFS, MapReduce, Pig, Hive, JAQL, Flume y otras tecnologías relacionadas con Hadoop. El curso permite que los usuarios practiquen con laboratorios prácticos en un clúster Hadoop a través de la nube, con una imagen proporcionada por VMware, o instaladas localmente.
El siguiente paso es Hadoop Fundamentals II, que empieza donde termina la primera parte, añadiendo detalles sobre Pig, Hive, JAQL y Flume, y explora tecnologías analíticas.
Reportes y análisis Hadoop de Big Data University tiene como objetivo enseñar a los participantes cómo crear sus propios informes Hadoop utilizando tecnologías como HBase y Hive, y a que aprendan cómo y cuándo seleccionar diferentes técnicas de presentación de informes, incluidos los informes de lotes directos, exploración en vivo y análisis indirecto de lotes.
– Network World / IDG News