Monta un cluster Hadoop Big Data desde cero

Aprende a instalar y configurar un entorno de Hadoop Big y sus herramientas de gestión asociadas
4.3 (22 ratings) Instead of using a simple lifetime average, Udemy calculates a
course's star rating by considering a number of different factors
such as the number of ratings, the age of ratings, and the
likelihood of fraudulent ratings.
98 students enrolled
$19
$50
62% off
Take This Course
  • Lectures 55
  • Length 5.5 hours
  • Skill Level All Levels
  • Languages Spanish
  • Includes Lifetime access
    30 day money back guarantee!
    Available on iOS and Android
    Certificate of Completion
Wishlisted Wishlist

How taking a course works

Discover

Find online courses made by experts from around the world.

Learn

Take your courses with you and learn anywhere, anytime.

Master

Learn and practice real-world skills and achieve your goals.

About This Course

Published 4/2016 Spanish

Course Description

Durante este curso vamos a aprender los conceptos y componentes que os permitirán trabajar con un entorno de BigData y Hadoop y montar un cluster con esta tecnología

¡¡¡Puedes descargar una máquina virtual ya preparada para empezar a montar Hadoop¡¡¡

- Aprenderás los conceptos básicos de esta tecnología

- Verás como descargar e instalar Hadoop  manualmente 

- También aprenderás a instalar y configurar Hadoop con ambari

- Trabajarás con HDFS para entender la gestión de ficheros en Hadoop

- Instalarás y configuraras Map Reduce y YARN

En resumen, este curso te capacitará para poder empezar a desarrollar esta infraestructura en tu entorno laboral.

El curso será sobre todo práctico, de forma que aprendas de forma amena, divertida y también productiva

Espero lo disfrutes¡¡¡¡¡


What are the requirements?

  • Se necesitan ciertos conocimientos de Linux, aunque no de un nivel avanzado
  • También sería deseable que supieras algo de Java, aunque no es obligatorio

What am I going to get from this course?

  • Instalar un entorno de Hadoop Big Data
  • Administrar y configurar los componentes de Hadoop
  • Instalar un cluster Hadoop con ambari
  • Aprender a manejar el sistema de ficheros HDFS
  • Entender los coneptos más importantes de MapReduce y YARN

What is the target audience?

  • Este curso está dirigido a personas que necesiten instalar y administrar un entorno de Hadoop
  • También es interesante para aquellas personas que quieran mantenerse al día en conocimientos relacionados con BigData y Hadoop

What you get with this course?

Not for you? No problem.
30 day money back guarantee.

Forever yours.
Lifetime access.

Learn on the go.
Desktop, iOS and Android.

Get rewarded.
Certificate of completion.

Curriculum

Section 1: Introducción a Big Data y Hadoop
04:56

Esta primera lección hará un pequeño repaso de los conceptos de Big Data y Hadoop

04:53

En este capítulo vamos a aprender los conceptos básicos de Hadoop.

03:31

Seguimos con la introducción a Hadoop

07:16

Realizamos un pequeño repaso de algunas de las herramientas y produtos más utilizados en el ecosistema Hadoop

05:23

En este capítulo vemos las empresas que se dedican a realizar distribuciones pre-construidas de Hadoop

Section 2: Preparación de la Infraestructura
02:41

Hacemos un repaso de todo lo que necesitamos para trabajar con hadoop

03:19

Lo primero que necesitamos es Oracle Virtual Box para poder crear la máquina virtual

04:53

Lo siguiente que necesitamos es el Sistem Operativo Linux CentOS que será el que usaremos para todo el curso, ya que Hadoop no funciona bajo Windows

07:44

Vamos a a preparar la máquina virtual con la que vamos a trabajar

10:24

En este capítulo vamos a instalar CentOS en la máquina virtual

10:15

Durante este módulo vamos a añadir a la máquina virtual las Guest Additions, unas utilidades que nos permtitirán trabajar mejor con el entonro gráfico

Article

En este módulo puedes descargar una máquina virtual ya preparada, De ese modo puedes empezar a trabajar directamente con Hadoop, por si no quieres pasar por toda la preparación y configuración de la máquina virtual

Section 3: Preparación de Hadoop
05:55

En este capítulo veremos como descargar Hadoop

07:03

En este capítulo vamos a descomprimir y desplegar el software de hadoop

06:20

En este capítulo vamos a instalar un componente necesario para Hadoop: las JDK de Java

03:55

Vamos a ver la estructura de directorios que tiene hadoop

Corrección al capítulo de preparación del entorno
Article
09:05

En este capítulo vamos a configurar el entorno para poder trabajar con Hadop


08:36

Vamos a comprobar que Hadoop funciona usando un pequeño ejemplo que viene con el producto

06:25

En este capítulo vamos a configurar el acceso seguro a los nodos a través de SSH

Article

Material y pasos para esta sección

Section 4: Montar un cluster de un solo nodo. Aprender HDFS
04:15

En este capítulo vamos a ver un pequeño resumen de HDFS, el sistema de ficheros de Hadoop

04:55

Vamos a dar el primer paso para tener nuestro primer cluster. Necesitamos editar un fichero que se denomina core-site.xml para configurar el entorno


03:21

El siguiente paso para  creara un cluster hadoop es indicar donde se encuentran los datos. Se hace dentro del fichero hdfs-site.xml

04:10

El tercer paso para crear nuestro primer cluster es formatear el sistema de ficheros HDFS

05:27

En este capítulo vamos a arrancar la primera parte de un cluster Hadoop, los datos.

04:19

HDFS dispone de una herramienta WEB que nos permite consultar y ver el estado del entorno

07:17

En este capítulo vamos a ver como HDFS gestiona los cambios dentro del sistema de ficheros

07:21

En este capítulo vamos a ver como podemos trabajar con los ficheros de HDFS. Crear directorios, subir ficheros, ver directorios, etc....

08:37

En este capítulo seguimos trabajando con ficheros y vemos más cosas sobre su almacenamiento


04:34

Seguimos viendo comandos para trabajar con ficheros

04:38

En este capítulo trabajamos con algunos comandos de administración de HDFS

08:39

El último punto que vamos a ver en esta sección son los snapshots de HDFS

Article

Desde esta URL puedes bajarte los ficheros y prácticas para esta sección


Section 5: YARN-MapReduce
05:49

Vamos a ver una introducción a la parte de los procesos. Estudiaremos las dos opciones que existen en la actualidad: MapReduce v1 y MapReduce v2 (YARN)

07:39

Vamos a montar YARN en el cluster que hemos utilizado hasta ahora. Por tanto ya tenemos los dos niveles de Hadoop: datos y procesos

05:50

En este capítulo vamos a aprender a manejar la Web desde la que podemos gestionar y comprobar todos los trabajos lanzados con YARN, así como ver los nodos y componentes implicados

05:34

Vamos a ver una introducción al modo de funcionamiento de Map Reduce

08:51

Vamos a ver un ejemplo práctica del funcionamiento de un programa MapReduce

14:21

En este segundo ejemplo de Map Reduce vamos a crear nuestro propio programa de contar palabras en Java, lo compilaremos y lo lanzaremos contra Hadoop

07:38

Además de Java podemos usar otros lenguajes de programación a través de la librería "streaming"

Article

Material y prácticas para la sessión

Section 6: Montar un Cluster real
04:11

A partir de la máquina que hemos usado durante todo el curso vamos a clonar el resto de máquinas que nos servirán para montar el cluster

03:37

Seguimos con el ejemplo para poder clonar otros nodos Hadoop a partir de la original

03:59

En este capítulo aprendemos como cambiar el nombre a lo servidores clonados y como configurar la red correctamente para que se vean.

04:39

Como último paso de configuración debemos asegurarnos de que los nodos se ven a través de SSH

06:12

Antes de lanzar el cluster tenemos que cambiar los ficheros de configuración y modificar uno nuevo denominado "slaves"

03:40

Por fin estamos preparados para arrancar el cluster real¡¡¡¡

10:38

Vamos a lanzar un proceso map reduce contra nuestro cluster

Article

Desde aquí puedes descargarte material y prácticas para probar


Section 7: Montar un cluster con Ambari
05:08

Vamos a ver una pequeña introducción a Ambari y lo que necesitamos para poder instalarlo y configurarlo

09:35

En este capítulo vemos como instalar Ambari desde el repositorio

04:38

En este capítulo vemos como configurar el servidor Ambari, necesario antes de poder crear el cluster

11:31

Segunda  parte donde se estudia como instalar el cluster de Hadoop mediante Ambari. Fin del curso

Instalar el cluster de Hadoop con Ambari Parte II
15:41

Students Who Viewed This Course Also Viewed

  • Loading
  • Loading
  • Loading

Instructor Biography

Apasoft Formación, Apasoft Formación

Somos dos formadores con mucha experiencia en cursos tecnológicos orientados a profesionales y empresas, sobre todo en el ámbito de Sistemas, Bases de datos y Servidores de Aplicaciones.

También estamos especializados en herramientas de Inteligencia de Negocio, Big Data y tecnologías afines.

Nuestro afán es conseguir que aprendas con nuestros cursos de una forma rápida, agradable y sobre todo de gran calidad.

Nuestros cursos son eminentemente prácticos. Durante los videotutoriales mostraremos paso a paso ejemplos que permitirán conocer rápidamente el producto. Además, mediante prácticas y ejercicios propuestos podréis profundizar en los conocimientos adquiridos

Nuestros cursos están orientados al mundo laboral y por lo tanto intentamos que el alumno adquiera los conocimientos adecuados para mejorar su posición profesional actual o para encontrar trabajo de forma más rápida.

Ready to start learning?
Take This Course