Loading

Alison's New App is now available on iOS and Android! Download Now

Hadoop: intermédiaire

Découvrez les principaux changements et services dans le cadre Hadoop avec ce Cours gratuit en ligne.

Publisher: Workforce Academy Partnership
Ce cours en ligne gratuit sur Hadoop intermédiaire présente l'apprenant à l'un des changements les plus importants apportés à Hadoop, l'introduction de YARN. YARN signifie "Yet Another Resource Negotiator". Le cours fournit des connaissances pratiques et une expérience pratique dans la définition de certaines applications de Spark pertinentes à la programmation. Les sujets abordés incluent YARN, NiFi, HBase & MapReduce, Création d'applications HBase avec des détails explicites.
Hadoop: intermédiaire
  • Durée

    5-6 Heures
  • Students

    126
  • Accreditation

    CPD

Description

Modules

Résultats

Certification

View course modules

Description

Hadoop Intermediate est un cours en ligne gratuit qui offre à ses apprenants un guide complet pour comprendre comment le YARN améliore la capacité de traitement multitraitement de Hadoop. Ce cours explique comment hadoop fonctionne avec HDFS pour fournir un environnement parallèle plus complet pour les applications. Le cours explique certains des termes qui sont liés à MapReduce, HBase, Tez, Spark shell et NiFi. Hadoop a apporté des changements importants au cours des années. L'un des changements les plus importants est l'introduction de l'YARN, qui représente pourtant un autre négociateur des ressources. Avec l'aide de YARN, Hadoop peut facilement maintenir un environnement multi-locataires, avec de meilleurs contrôles de sécurité et une meilleure disponibilité. Spark d'autre part développe les capacités de développement de Hadoops en ajoutant le nombre de nouvelles langues telles que Python, ainsi que la base d'application Apache plus elle ’ s plus rapide que MapReduce. Dans ce cours, vous découvrirez que NiFi permet non seulement l'établissement visuel des flux de données, mais il le fait en temps réel. Ce cours explique à l'apprenant l'objectif du nouveau cadre, intitulé Yet Another Resource Negotiator (YARN). Il vous montre comment utiliser le shell HBase à partir de l'interface de ligne de commande pour communiquer avec HBase. Dans ce cours, nous allons examiner brièvement l'interpréteur de commandes de Spark et exécuter une série de commandes dans la langue de la scala.


Dans ce cours, vous allez découvrir quelques paires de nouveaux venus importants dans l'écosystème Hadoop de Tez et Spark. Tez améliore l'efficacité de certains types d'emplois par rapport à MapReduce, tandis que Spark d'autre part développe les capacités de développement d'Hadoop en ajoutant le nombre de nouvelles langues telles que Python, ainsi que la base d'application Apache. Ce cours explique brièvement l'interpréteur de commandes Spark et exécute une série de commandes dans la langue scala. Vous découvrirez des outils supplémentaires pour ETL tels que Flume similaires utilitaires et Linux également NiFi. Flume nous donne un moyen d'effectuer une capture en temps réel ainsi que des données en continu, comme celle d'un canal et d'un NiFi. Linux fournit un certain nombre d'utilitaires de commande pour la capture, la transformation et les stockages de données. Nifi, d'autre part, est un outil générique de charge de travail récemment introduit et conçu pour faciliter l'exécution des opérations ETL sur une grande variété de sources de données avec des types. Ce cours explore la fonctionnalité de certaines tâches de flux de travaux souvent appelées processeurs, de sorte que plus tard nous puissions créer notre propre workflow.


Enfin, ce cours va permettre à l'apprenant de démarrer le service NiFi au sein de Hadoop. Il explique comment classer une liste de flux de travaux NiFi avec les différents processeurs ou tâches dont nous aurons besoin pour générer un processus de flux de travaux complet. Le cours montre tous les composants du processus ETL et comment NiFi peut jouer un rôle significatif dans le développement de processus ETL dans Hadoop. Il explore la façon dont Combiner s'intègre dans l'application MapReduce typique et comment elle est implémentée dans Hadoop. Le cours montre à l'apprenant comment démarrer le shell HBase et quelles dépendances vérifier s'il ne démarre pas. Il explique comment exécuter certaines commandes DDL et DML. Ici, les apprenants vont acquérir une compréhension de l'architecture HBase et voir comment ils sont différents composants, il explique également comment l'ensemble des applications peut être utilisé pour obtenir un cycle de vie d'application, pour livrer un traitement rapide et robuste dans Hadoop. Ce cours permettra également d'explorer des pratiques de conception efficaces, de travailler avec des entités et d'autres considérations à garder à l'esprit lors de la programmation à HBase. Hadoop est d'un grand bénéfice pour toutes les professions car il est flexible, évolutif et rapide ; les professionnels de l'informatique peuvent facilement apprendre la programmation MapReduce ainsi que beaucoup d'autres.

Démarrer le cours maintenant

Careers