Loading

Alison's New App is now available on iOS and Android! Download Now

Hadoop: Intermedio

Conozca los principales cambios y servicios dentro del marco de Hadoop con este curso gratuito de Hadoop en línea.

Publisher: Workforce Academy Partnership
Este curso gratuito de Hadoop intermedio en línea le presenta uno de los cambios más significativos realizados en Hadoop, la introducción de YARN. YARN es para otro negociador de recursos y este curso Advanced Hadoop proporciona conocimientos prácticos y entrenamiento práctico en la definición de algunas aplicaciones de Spark relevantes para la programación. Los temas tratados incluyen YARN, NiFi, HBase, MapReduce y Creación de aplicaciones HBase.
Hadoop: Intermedio
  • Duración

    5-6 Horas
  • Students

    231
  • Accreditation

    CPD

Share This Course And
Earn Money  

Become an Affiliate Member

Descripción

Modules

Resultados

Certificación

Ver los módulos del curso

Description

Hadoop Intermediate es un curso gratuito en línea que le ofrece una guía completa para comprender cómo HILO mejora la capacidad de multiproceso de Hadoop. Este curso Advanced Hadoop explica cómo funciona Hadoop con el sistema de archivos distribuido Hadoop (HDFS) para proporcionar un entorno paralelo más completo para las aplicaciones. El contenido explica algunos de los términos que están relacionados con MapReduce, HBase, Tez, shell de Spark y NiFi y más sobre los cambios más significativos de Hadoop en los últimos años conocido como otro negociador de recursos (YARN). Con la ayuda de YARN, Hadoop puede mantener fácilmente un entorno de varios inquilinos, con mejores controles de seguridad y una mejor disponibilidad. En este curso de Hadoop, descubra que NiFi habilita el establecimiento visual en tiempo real de flujos de datos y cómo puede utilizar HBase Shell desde la interfaz de línea de mandatos para comunicarse con HBase.

La siguiente sección de este curso le enseñará sobre los recién llegados del ecosistema Hadoop, Tez y Spark. Tez mejora la eficiencia para ciertos tipos de funciones sobre MapReduce mientras que Spark amplía las capacidades de desarrollo de Hadoop añadiendo un número de nuevos lenguajes como Python, y la base de aplicaciones de Apache. A continuación, se analizará el shell Spark y cómo ejecutar una serie de mandatos en el lenguaje scale. Descubrirá algunas herramientas adicionales para ETL como Flume, Linux y NiFi. Flume proporciona una forma de realizar capturas en tiempo real, así como datos de transmisión y Linux proporciona una serie de programas de utilidad de comandos para la captura, transformación y almacenamiento de datos. Nifi por otro lado es una herramienta de carga de flujo de trabajo genérica recientemente introducida y diseñada para facilitar la realización de operaciones ETL sobre una amplia variedad de fuentes y tipos de datos. Este curso explora la funcionalidad de algunas tareas de flujo de trabajo a menudo denominadas procesadores. La parte final de este curso le permite iniciar el servicio NiFi dentro de Hadoop y explica cómo crear un flujo de trabajo de NiFi junto con los diversos procesadores o tareas necesarias para crear un proceso de flujo de trabajo completo. El curso muestra todos los componentes del proceso ETL y cómo NiFi puede desempeñar un papel significativo en el desarrollo de procesos ETL dentro de Hadoop. HBase es el siguiente tema cubierto y se analizará cómo iniciar el shell HBase, su arquitectura, varios mandatos, prácticas de diseño y el rol que desempeña en la entrega de un proceso rápido y robusto en Hadoop.

Hadoop es una gran solución de BigData que puede beneficiar a muchas profesiones porque es flexible, escalable y rápida. Como profesional de TI podría inscribirse en este curso de Hadoop Intermedia para aprender fácilmente la programación de MapReduce, así como muchos otros. Si tiene un poco de experiencia en BigData o está cómodo con los conceptos básicos de Hadoop, este curso es el mejor paso siguiente.

Inicio Curso Ahora

Careers