Domina Apache Spark 2.0 con Scala, curso intensivo
What you'll learn
- Resumen general de la arquitectura de Apache Spark.
- Se capaz de trabajar con la abstracción principal de Apache Spark, RDDs o conjuntos de datos distribuidos y resilientes, para procesar y analizar grandes conjuntos de datos.
- Desarrollar aplicaciones Apache Spark 2.0, utilizando transformaciones y acciones en RDD y Spark SQL.
- Escalar aplicaciones Spark a un clúster Hadoop YARN a través del servicio Elastic MapReduce de Amazon.
- Analizar datos estructurados y semiestructurados utilizando conjuntos de datos (Datasets) y Dataframes, y entender a detalle el funcionamiento de Spark SQL.
- Compartir información a través de diferentes nodos en un clúster de Apache Spark, mediante variables de difusión y acumuladores.
- Técnicas avanzadas para optimizar y mejorar, trabajos de Apache Spark mediante el particionado, almacenamiento en caché y la persistencia de RDDs.
- Buenas prácticas de trabajo con Apache Spark
Requirements
- Una computadora con sistema operativo Windows, OSX o Linux
- Tener conocimientos previos de programación con Scala
Description
De qué trata este curso:
Este curso cubre todos los aspectos fundamentales de Apache Spark con Scala, y te enseña todo lo que necesitas saber sobre el desarrollo de aplicaciones Apache Spark con Scala Spark.
Al final de este curso, obtendrás un conocimiento profundo sobre Apache Spark con Scala, así como habilidades generales de manejo y análisis de big data para ayudar a tu empresa o proyecto a adaptar Apache Spark con Scala para la construcción de un pipeline de procesamiento de big data y aplicaciones de análisis de datos.
Este curso incluye más de 10 ejemplos prácticos de big data con Apache Spark. Aprenderás a resolver problemas de análisis de datos con Scala Spark. Juntos veremos algunos ejemplos como la agregación de registros web de Apache NASA, desde diferentes fuentes; exploraremos la tendencia de los precios de viviendas analizando los datos de bienes raíces en California (USA); escribiremos aplicaciones Scala Spark para determinar el salario promedio de desarrolladores en diferentes países mediante el análisis de encuestas publicadas por Stack Overflow; también desarrollaremos un sistema que nos permita averiguar cómo los makerspaces o espacios colaborativos, están distribuidos en el Reino Unido, y mucho mucho más.
¿Qué aprenderás en estas clases?
En particular, aprenderás:
Sobre la arquitectura de Apache Spark.
Serás capaz de trabajar con la abstracción principal de Apache Spark, RDDs o conjuntos de datos distribuidos y resilientes (RDD) para procesar y analizar grandes conjuntos de datos.
Desarrollar aplicaciones Apache Spark 2.0, utilizando transformaciones y acciones en RDD y Spark SQL.
Escalar aplicaciones Spark a un clúster Hadoop YARN a través del servicio Elastic MapReduce de Amazon.
Analizar datos estructurados y semiestructurados utilizando conjuntos de datos (Datasets) y Dataframes, y entender a detalle el funcionamiento de Spark SQL.
Compartir información a través de diferentes nodos en un clúster de Apache Spark, mediante variables de difusión y acumuladores.
Técnicas avanzadas para optimizar y mejorar, trabajos de Apache Spark mediante el particionado, almacenamiento en caché y la persistencia de RDDs.
Sobre buenas prácticas de trabajo con Apache Spark.
Por qué debes aprender Apache Spark:
Apache Spark es una de las últimas tecnologías en análisis de big data. Es también una de las tecnologías más atractivas de la última década debido a su gran impacto en el mundo de big data.
Apache Scala Spark, nos permite realizar cálculos en memoria en clústeres, lo cual incrementa de manera significativa la velocidad de iteración de algoritmos y tareas interactivas de minería de datos.
Apache Spark es la nueva generación de motores de procesamiento para big data.
Muchas compañías están adaptando Apache Spark para interpretar una gran cantidad de datos, que les permite incrementar sus ingresos y mejorar sus procesos, hoy tú tienes está misma tecnología directamente en tu escritorio.
Apache Spark es hoy en día una herramienta necesaria para ingenieros de big data y científicos de datos.
En que lenguaje de programación se basa este curso?
Este curso está basado en Scala. Scala es la nueva generación de lenguajes de programación para programación funcional que cada vez es más popular, y es un de los lenguajes más usados en la industria para escribir programas de Apache Spark.
Aprendamos a escribir programas de Apache Spark con Scala para el manejo y solución de problemas de big data hoy!
¡30 días de garantía de devolución de dinero!
Obtendrás una garantía de devolución de dinero por 30 días de Udemy para este curso. Si no está satisfecho, simplemente solicite un reembolso dentro de los 30 días. Obtendrás un reembolso completo. Sin preguntas en absoluto.
¿Estás listo para llevar tus habilidades y tu carrera en big data al siguiente nivel? ¡Toma este curso ahora!
Who this course is for:
- Cualquier persona que quiera entender completamente cómo funciona Apache Spark, y cómo se usa Apache Spark en la industria.
- Ingenieros de software que deseen desarrollar aplicaciones con Apache Spark 2.0 utilizando Spark Core y Spark SQL.
- Científicos de datos o ingenieros de datos que quieran avanzar en su carrera mejorando sus habilidades de procesamiento de Big Data.
Instructors
Mirror Class is a strategic partner of successful Udemy courses through an innovative methodology covering all kind of topics.
We want to give learners the opportunity to reach first class information in their own language which is more comfortable for learning.
If you have a successful Udemy course and want to reach a new market …
DO NOT HESITATE TO CONTACT US!
I love learning new things, and more I learn the more I'm eager to learn, I found in technology a power many people desire, the power to make peoples' lives easier.
I'm a from Peru, so I speak Spanish, also I speak English (studied in London for a year), and Portuguese :).
Feel free to send me a message, in Spanish, English or Portuguese, or any other language as long as you translate it for me or even better, teach me.
Thanks for reading my profile, wish you all the best, and don't give up, life is short and teaching really pays of, because you're changing other peoples' lives!.
Tao is a passionate software engineer who works in a leading big data analysis company in Silicon Valley.
Previously Tao has worked in big IT companies such as IBM and Tao.
Tao has a MS degree in Computer Science from University of McGill and many years of experience as a teaching assistant for various computer science classes.
When Tao is not working, Tao enjoys reading and swimming, and he is a passionate photographer.