Está en la página 1de 2

Descripción

Durante este curso vamos a aprender los conceptos y componentes que os permitirán trabajar
con un entorno de BigData y Hadoop y montar un cluster con esta tecnología

¿Qué contenidos vamos a ver?

- Aprenderás los conceptos básicos de esta tecnología

- Verás como descargar e instalar Hadoop manualmente

- También aprenderás a instalar y configurar Hadoop con ambari

- Trabajarás con HDFS para entender la gestión de ficheros en Hadoop

- Instalarás y configuraras Map Reduce y YARN

- Aprenderás a instalar y configurar los productos y herramientas más usadas dentro del
ecosistema Hadoop:

HIVE

SQOOP

SPARK

HBASE

HUE

ZooKeeper

....

¡¡¡¡Con máquinas virtuales preparadas para el curso!!!!

- Una máquina básica en Linux Centos 6 con la que podrás hacer todas las prácticas desde el
principio

- Tres máquinas virtuales en Linux Centos 7 con Hadoop ya instalado y configurado en modo
Cluster con las que podrás empezar a trabajar con Hadoop sin necesidad de hacer la parte de
instalación y configuración inicial

En resumen, este curso te capacitará para poder empezar a desarrollar y usar esta
infraestructura en tu entorno laboral.

El curso será sobre todo práctico, de forma que aprendas de forma amena, divertida y también
productiva

Cualquier duda estamos a tu disposición. Pregunta sin problemas¡¡¡¡

Espero lo disfrutes¡¡¡¡¡

¿A quién está dirigido?

Este curso está dirigido a personas que necesiten instalar y administrar un entorno de Hadoop

También es interesante para aquellas personas que quieran mantenerse al día en conocimientos
relacionados con BigData y Hadoop