Loading

Alison's New App is now available on iOS and Android! Download Now

Hadoop: Intermedio

Scopri i principali cambiamenti e servizi all'interno del framework Hadoop con questo Corso gratuito Online.

Publisher: Workforce Academy Partnership
Questo corso gratuito online su Hadoop intermedio introduce l'allievo ad una delle modifiche più significative apportate a Hadoop, l'introduzione di FILATI. FILATI spicchi per Eppure Un altro negoziatore di risorse. Il corso fornisce conoscenze pratiche e hands-on esperienza nella definizione di alcune applicazioni Spark rilevanti per la programmazione. Gli argomenti trattati includono FILATI, NiFi, HBase & MapReduce, Creazione di applicazioni HBase con dettagli espliciti.
Hadoop: Intermedio
  • Durata

    5-6 Oras
  • Students

    125
  • Accreditation

    CPD

Descrizione

Modules

Risultato

Certificazione

View course modules

Description

Hadoop Intermediate è un corso online gratuito che offre ai suoi allievi una guida completa per capire come FILATI migliora la capacità di multiprocessing di Hadoop. Questo corso spiega come funziona hadoop con HDFS per fornire un ambiente parallelo più completo per le applicazioni. Il corso spiega alcuni dei termini che sono correlati a MapReduce, HBase, Tez, Spark shell e NiFi. Hadoop ha fatto dei grandi cambiamenti nel corso degli anni. Uno dei cambiamenti più significativi è l'introduzione di FILATI che spicca per l'ennesil Un altro negoziatore di risorse. Con l'aiuto di FILATI, Hadoop può facilmente mantenere un ambiente multi - tenant, con migliori controlli di sicurezza e una migliore disponibilità. Spark dall'altra parte espande le funzionalità di sviluppo di Hadoops aggiungendo il numero di nuove lingue come Python, così come la base di applicazioni Apache plus più veloce di MapReduce. In questo corso scoprirete che il NiFi consente non solo l'istituzione visiva dei dataflows ma lo fa in tempo reale. Questo corso spiega all'allievo l'obiettivo del nuovo quadro che è stato intitolato Ancora un altro negoziatore di risorse (FILATI). Mostra come è possibile utilizzare l'HBase Shell dall'interfaccia della riga di comando per comunicare con HBase. In questo corso faremo un breve sguardo al guscio di Spark ed eseguiremo una serie di comandi nella lingua scala.


In questo corso, imparerai circa qualche paio di newcomers importanti nell'ecosistema Hadoop Tez e Spark. Tez migliora l'efficienza per alcuni tipi di lavori su MapReduce mentre Spark dall'altra parte espande le funzionalità di sviluppo di Hadoop aggiungendo il numero di nuove lingue come Python, così come la base di applicazioni Apache. Questo corso spiega brevemente la shell Spark ed esegue una serie di comandi nella lingua scala. Scoprirete alcuni strumenti aggiuntivi per ETL come Flume simili utility e Linux anche NiFi. Flume ci dà modo di eseguire la cattura in tempo reale così come i dati in streaming, come quello di un fluo e di NiFi. Linux fornisce una serie di utilità dei comandi per effettuare la cattura dei dati, la trasformazione e le tempeste. Nifi invece è uno strumento generico di carico di lavoro recentemente introdotto e progettato per facilitare l'esecuzione di operazioni ETL su un'ampia varietà di fonti di dati con tipi. Questo corso esplora la funzionalità di alcune attività di workflow spesso indicate come processori in modo che in seguito possiamo creare il nostro workflow.


Infine, questo corso otterrà l'allievo iniziato su come avviare il servizio NiFi all'interno di Hadoop. Spiega come archiviare una canlist del flusso di lavoro NiFi insieme ai vari processori o attività di cui avremo bisogno per costruire un processo di flusso di lavoro completo. Il corso dimostra tutti i componenti del processo ETL e come il NiFi possa svolgere un ruolo significativo nello sviluppo dei processi ETL all'interno di Hadoop. Esplora come Combiner si adatta all'applicazione tipica MapReduce insieme a come viene implementato all'interno di Hadoop. Il corso mostra all'allievo come avviare la shell HBase e quali dipendenze per verificare se doesn si avvia. Spiega come eseguire alcuni comandi DDL e DML. Qui, gli allievi acquisiranno una comprensione dell'architettura HBase e vedranno come si tratta di vari componenti, spiega anche come le intere applicazioni possono essere utilizzate per ottenere un ciclo di vita delle applicazioni, per consegnare una veloce elaborazione robusta all'interno di Hadoop. Questo corso esplorerà anche pratiche di progettazione efficaci, lavorando con entità e altre considerazioni da tenere a mente quando la programmazione in HBase. Hadoop è di grande beneficio per tutte le professioni in quanto è flessibile, scalabile e veloce; i professionisti IT possono facilmente imparare la programmazione MapReduce così come molti altri.

Inizio Corso Ora

Careers