Loading

Cheers to the End of January with 25% Off ALL Certs & Diplomas!

Claim My Discount!

Hadoop: Intermedio

Scopri i principali cambiamenti e servizi all'interno del framework Hadoop con questo corso gratuito online Hadoop.

Publisher: Workforce Academy Partnership
Questo corso gratuito online Hadoop Intermediate ti introduce a una delle modifiche più significative apportate a Hadoop, l'introduzione di FILATI. FILATI stand for Yet Another Resource negoziator e questo corso Advanced Hadoop fornisce conoscenze pratiche e hands-on training nella definizione di alcune applicazioni Spark rilevanti per la programmazione. Gli argomenti trattati includono FILATI, NiFi, HBase, MapReduce e Creazione di applicazioni HBase.
Hadoop: Intermedio
  • Durata

    5-6 Oras
  • Students

    209
  • Accreditation

    CPD

Descrizione

Modules

Risultato

Certificazione

View course modules

Description

Hadoop Intermediate è un corso online gratuito che ti offre una guida completa per capire come FILATI migliora la capacità di multiprocessing di Hadoop. Questo corso Advanced Hadoop spiega come funziona Hadoop con Hadoop Distributed File System (HDFS) al fine di fornire un ambiente parallelo più completo per le applicazioni. Il contenuto spiega alcuni dei termini che riguardano MapReduce, HBase, Tez, il guscio di Spark e NiFi e più i cambiamenti più significativi di Hadoop negli ultimi anni noti come Eppure Un altro negoziatore di risorse (FILATI). Con l'aiuto di FILATI, Hadoop può facilmente mantenere un ambiente multi - tenant, con migliori controlli di sicurezza e una migliore disponibilità. In questo corso Hadoop scopri che NiFi abilita la creazione visiva in tempo reale dei dataflows e come è possibile utilizzare HBase Shell dall'interfaccia della riga di comando per comunicare con HBase.

La seguente sezione di questo corso vi insegnerà su Hadoop ecosystem newcomers, Tez e Spark. Tez migliora l'efficienza per alcuni tipi di funzioni su MapReduce mentre Spark espande le funzionalità di sviluppo di Hadoop aggiungendo una serie di nuove lingue come Python e la base di applicazioni Apache. Successivamente si analizzerà la shell Spark e come eseguire una serie di comandi nella lingua scala. Scoprirete alcuni strumenti aggiuntivi per ETL come Flume, Linux e NiFi. Flume fornisce un modo per eseguire la cattura in tempo reale così come i dati in streaming e Linux fornisce una serie di utilità di comando per la cattura, la trasformazione e la memorizzazione dei dati. Nifi invece è uno strumento generico di carico di lavoro recentemente introdotto e progettato per rendere più semplice l'esecuzione delle operazioni ETL su un'ampia varietà di fonti e tipi di dati. Questo corso esplora la funzionalità di alcune attività di workflow spesso indicate come processori. La parte finale di questo corso ti fa andare avanti come avviare il servizio NiFi all'interno di Hadoop e spiega come archiviare un workflow NiFi insieme ai vari processori o alle attività necessarie per costruire un processo di flusso di lavoro completo. Il corso dimostra tutti i componenti del processo ETL e come il NiFi possa svolgere un ruolo significativo nello sviluppo dei processi ETL all'interno di Hadoop. HBase è il prossimo tema coperto e si analizzerà come avviare la shell HBase, la sua architettura, i vari comandi, le pratiche di progettazione e il ruolo che svolge nel consegnare una veloce elaborazione robusta all'interno di Hadoop.

Hadoop è una grande soluzione BigData che può beneficiare di molte professioni perché è flessibile, scalabile e veloce. Come un professionista IT si potrebbe iscriversi a questo corso Hadoop Intermediate per imparare facilmente MapReduce la programmazione così come molte altre. Se hai un po' di esperienza BigData o ti trovi a tuo agio con le basi di Hadoop, allora questo corso è il tuo miglior passo successivo.

Inizio Corso Ora

Careers