Curso Big Data Arquitect con AWS, Hadoop & Spark

BigData desde su base con Hadoop, Spark y Amazon AWS.

Los arquitectos de Big Data son unos de los perfiles profesionales más demandados del sector de las tecnologías de la información. El arquitecto de datos trata y analiza cantidades grandes de datos que no pueden ser editados y procesados  con programas de uso convencional.

Debe entender a fondo las nuevas tecnologías y como usan, comparten y editan los datos de modo que puedan procesarlos para las empresas. Por lo que especialistas del sector son muy solicitados.

Objetivos

Al finalizar este curso podrás trabajar como Big Data Architect, comprenderás todo el funcionamiento del BigData desde su base en los entornos Hadoop, el procesamiento de datos con Spark y su almacenamiento y estructuración en Amazon AWS.

Conocerás sus usos en la inteligencia artificial y machine learning.

Contenido

Formación Técnica

 

BIG DATA ARQUITECT

Haga clic aquí para saber más

  • Tendencias actual en Big Data.
  • Entorno virtual Cloudera.
  • Primeras operaciones con Cloudera.
  • Lenguajes Hive e Impala
  • Paas, Iaas, Saas.
  • AWS.

Contenido

Formación Específica

 

INTRODUCCIÓN A BIG DATA

Haga clic aquí para saber más

  • Big Data como motor de evolución.
  • Soluciones Big Data.
  • Big Data operacional.
  • Big Data analítico.
  • Bases de datos NoSQL.
  • Modelos de programación para Big Data.

BIG DATA CON MONGODBO

Haga clic aquí para saber más

  • Introducción a MongoDB.
  • Organización de los datos.
  • Manejo básico de datos.

AGREGACIÓN DE DATOS

Haga clic aquí para saber más

  • Métodos básicos de agregación.
  • MapReduce.
  • Aggregation Framework.

ARQUITECTURA DE UNA SOLUCIÓN MONGODB

Haga clic aquí para saber más

  • Uso de índices.
  • Modelado de datos.
  • Replicación de los datos.
  • Distribución de los datos.

BIG DATA CON HADOOP

Haga clic aquí para saber más

  • Introducción a Hadoop.
  • Componentes.
  • Sistema de ficheros distribuido.
  • MapReduce.
  • Historia de Hadoop.
  • Ecosistema Hadoop.

DESARROLLO CON HADOOP

Haga clic aquí para saber más

  • Configuración del entorno.
  • Creación y ejecución de trabajos.
  • Opciones de ejecución.
  • Interfaz para múltiples lenguajes.

ECOSISTEMA HADOOP

Haga clic aquí para saber más

  • Interfaces de consulta de alto nivel.
  • Programación basada en tuberías.
  • Bases de datos.
  • Otros proyectos.

CLOUDERA CERTIFIED ASSOCIATE (CCA) DATA ANALYST

Haga clic aquí para saber más

  • Apache Hadoop Fundamentals.
  • Introduction to Apache Pig.
  • Querying with Apache Hive and Impala.
  • Common Operators and Built-In Functions.
  • Data Management.
  • Data Storage and Performance.
  • Working with Multiple Datasets.
  • Analytic Functions and Windowing.
  • Complex Data.
  • Analyzing Text.
  • Apache Hive Optimization.
  • Apache Impala Optimization.
  • Extending Apache Hive and Impala.
  • Choosing the Best Tool for the Job.

CLOUDERA CERTIFIED ASSOCIATE (CCA) SPARK & HADOOP DEVELOPER

Haga clic aquí para saber más

  • Introduction to Apache Hadoop and the Hadoop Ecosystem.
  • Apache Hadoop File Storage.
  • Distributed Processing on an Apache Hadoop Cluster.
  • Apache Spark Basics.
  • Working with DataFrames and Schemas.
  • Analyzing Data with DataFrame Queries.
  • RDD Overview.
  • Transforming Data with RDDs.
  • Aggregating Data with Pair RDDs.
  • Querying Tables and Views with Apache Spark SQL.
  • Working with Datasets in Scala.
  • Writing, Configuring, and Running Apache Spark Applications.
  • Distributed Processing.
  • Distributed Data Persistence.
  • Common Patterns in Apache Spark Data Processing.
  • Apache Spark Streaming: Introduction to DStreams.
  • Apache Spark Streaming: Processing Multiple Batches.
  • Apache Spark Streaming: Data Source.

CLOUD CONCEPTS

Haga clic aquí para saber más

  • Definir la nube de AWS y su propuesta de valor.
  • Identificar aspectos de la economía de la nube de AWS.
  • Enumerar los diferentes principios de diseño de la arquitectura de la nube.

SEGURIDAD

Haga clic aquí para saber más

  • Definir el modelo de Responsabilidad Compartida de AWS.
  • Definición de la página de conceptos de seguridad y cumplimiento en la nube de AWS.
  • Identificar las capacidades de gestión de acceso de AWS.
  • Identificar recursos para soporte de seguridad.

TECNOLOGÍA

Haga clic aquí para saber más

  • Definir métodos de implementación y operación en la nube de AWS
  • Definir la infraestructura global de AWS
  • Identificar los servicios centrales de AWS
  • Identificar recursos para soporte tecnológico.

FACTURACIÓN Y PRECIOS

Haga clic aquí para saber más

  • Compare y contraste los diferentes modelos de precios para AWS.
  • Reconocer las diversas estructuras de cuentas en relación con la facturación y los precios de AWS.
  • Identificar recursos disponibles para soporte de facturación.

PROYECTO Y CERTIFICACIÓN

Haga clic aquí para saber más

Al finalizar las clases de la formación específica realizarás, con la supervisión de tu tutor, un Proyecto de implantación sobre los conocimientos adquiridos. También, asíncronamente, tienes acceso a exámenes “tipo” para preparar por libre la Certificación oficial, prueba que se puede realizar en nuestro centro Pearson VUE.
Responsable de los datos: Dapen Centro Estudios S.L.
Finalidad: Responder a solicitudes del formulario y envío de actualizaciones y cursos.
Legitimación: Tu consentimiento expreso.
Destinatario: Dapen Centro Estudios S.L. No se cederán datos a terceros, salvo obligación legal.
Derechos: Acceso, rectificación, supresión, anonimato, portabilidad y olvido de sus datos.
Puedes ejercer estos derechos  comunicándote con nosotros a info@cloudslearning.com

Curso totalmente práctico con seminario de certificación de 25 horas para prepararte para las certificaciones oficiales de Cloudera y AWS: CCA Data Analyst, CCA Spark & Hadoop Developer, CLF-C01.

Apache HadooopApache Hadooop
Apache Spark