Loading

Alison's New App is now available on iOS and Android! Download Now

Hadoop: Fundamentals

Scopri la storia dell'ecosistema BigData Hadoop, i suoi componenti, l'architettura e gli usi in questo corso gratuito online.

Publisher: Workforce Academy Partnership
Questo corso online gratuito ti introduce ai concetti di base di Hadoop usando Hortonworks Hadoop Sandbox. Fornisce conoscenze pratiche e hands-on experience nel definire oltre che implementare l'architettura Hadoop in Hadoop Distributed File System (HDFS). Gli argomenti da trattare includono le sorgenti BigData, Ecosistema di Hadoop, Hadoop Architecture, Hadoop ETL (Estratto, Trasforma, processo di caricamento), la consegna dei dati e anche gli utilizzi degli strumenti Hadoop ETL.
Hadoop: Fundamentals
  • Durata

    5-6 Oras
  • Students

    502
  • Accreditation

    CPD

Share This Course And
Earn Money  

Become an Affiliate Member

Descrizione

Modules

Risultato

Certificazione

View course modules

Description

Hadoop Fondamentals è un corso online gratuito che ti offre una guida completa per capire i vari concetti di Hadoop, la sua storia e le fonti BigData. Definisce alcuni dei termini che sono correlati a BigData - l'obiettivo è quello di trasformare i dati in informazioni, e le informazioni in insight. L'Hadoop Sandbox fornisce un cluster di lavoro e utility come PuTTY (data console), che consente di interagire con il cluster al fine di eseguire lavori, eseguire operazioni di file system e dimostrare le funzionalità di Hadoop. Questo corso BigData introduce il concetto di BigData, alcuni componenti dell'Hadoop Architecture e motivazione per HDFS (Hadoop Distributed File System) nel primo modulo. Poi gli utilizzi degli strumenti Hadoop ETL e il concetto MapReduce sono coperti nel secondo modulo con diversi sub - argomenti che riguardano come affrontare il problem solving in Hadoop. In questo corso si esplorerà come il termine BigData viene utilizzato per descrivere la crescita esponenziale e la disponibilità di dati sia strutturati che non strutturati, e come la cattura critica e la gestione di molti dati possano essere soprattutto quando arriva da più fonti.

Prossimo in questo corso Hadoop si imparerà su alcuni componenti dell'architettura Hadoop, come si adattano all'interno del framework Hadoop e l'espressione di questa architettura in HDFS e MapReduce. Qui si otterrà una comprensione del design architettonico hadoop, in quanto richiede varie considerazioni di progettazione in termini di potenza di calcolo, networking e storage. Questa sezione del corso spiega come Hadoop offre un framework di big data di calcolo distribuito scalabile, flessibile e affidabile per un cluster di sistemi con capacità di storage e potenza di calcolo locale sfruttando l'hardware delle materie prime. L'ultima sezione di questo corso online gratuito vi insegna l'intero ecosistema Hadoop che include ogni fase di elaborazione di BigData come Flume e Sqoop, HDFS insieme a HBase, Spark, MapReduce, Pig, Hive e Impala. Tutti questi componenti e molto altro, giocano un ruolo critico nell'usare Hadoop e imparerai tutto sulla loro interdipendenza e utilizzo.

Questo corso è perfetto per te se vuoi saperne di più su come funziona BigData, il sistema Hadoop e l'architettura o sono un processore di dati o un analista che cerca di far crescere le tue abilità. Enrolling è solo un rapido click per aprire un nuovo mondo di BigData e i fondamentali del software Hadoop open-source.

Inizio Corso Ora

Careers