In un mondo in cui le organizzazioni si affidano a processi decisionali rapidi e informati, l'analisi dei big data esiste per estrarre informazioni significative da enormi quantità di informazioni. Svolge un ruolo importante in ogni campo, dalla sanità all'economia, al settore bancario e governativo; continuano a emergere nuove opportunità e sfide per gestire enormi quantità di dati. L'ecosistema Apache Hadoop, con i suoi componenti open source, è progettato per rispondere a queste esigenze: archiviare, elaborare, valutare, analizzare ed estrarre dati. A differenza dei sistemi tradizionali, Hadoop gestisce diversi tipi di carichi di lavoro costituiti da diversi tipi di dati, con una massiccia elaborazione parallela che utilizza hardware standard del
settore.
Hadoop archivia i dati nel file system distribuito Hadoop (HDFS), progettato per funzionare su hardware standard. HDFS è molto tollerante ai guasti, fornisce un accesso ad alto throughput ai dati delle applicazioni ed è adatto per applicazioni con set di dati di grandi dimensioni. Questo corso illustra come è possibile archiviare diversi tipi di dati su HDFS e come elaborarli utilizzando i vari componenti dell'ecosistema Hadoop. I framework di cluster computing come MapReduce sono stati ampiamente adottati per l'analisi dei dati su larga scala. I set di dati distribuiti resilienti (RDD) consentono un riutilizzo efficiente dei dati in un'ampia gamma di applicazioni. Gli RDD sono strutture di dati parallele e tolleranti ai guasti che consentono agli utenti di memorizzare in modo esplicito i risultati intermedi in memoria, di controllarne il partizionamento per ottimizzare il posizionamento dei dati e di manipolarli
utilizzando un ricco set di operatori.Ti
interessano i big data? Vuoi approfondire la tua comprensione del software Hadoop? Questo corso è rivolto a sviluppatori di database e dataware house, sviluppatori e architetti di big data, data scientist, analisti e qualsiasi personale tecnico interessato ad apprendere ed esplorare le funzionalità dei big data e dei relativi strumenti. Con lezioni complete che ti guideranno passo dopo passo e una teoria per supportarle, il corso prosegue con sessioni pratiche per acquisire esperienza pratica in Sqoop, Hive, Spark, Flume, Apache Pig e Cloudera. Quindi, se stai cercando di aumentare la tua conoscenza delle funzionalità avanzate dell'ecosistema Hadoop, inizia oggi stesso questo corso online gratuito
!
In This Free Course, You Will Learn How To
View All Learning Outcomes View Less All Alison courses are free to enrol study and complete. To successfully complete this course and become an Alison Graduate, you need to achieve 80% or higher in each course assessment. Once you have completed this course, you have the option to acquire an official , which is a great way to share your achievement with the world.
Your Alison is:
- Ideal for sharing with potential employers
- Great for your CV, professional social media profiles and job applications.
- An indication of your commitment to continuously learn, upskill & achieve high results.
- An incentive for you to continue empowering yourself through lifelong learning.
Alison offers 3 types of s for completed courses:
- Digital : a downloadable in PDF format immediately available to you when you complete your purchase.
- : a physical version of your officially branded and security-marked
- Framed : a physical version of your officially branded and security marked in a stylish frame.
All s are available to purchase through the Alison Shop. For more information on purchasing Alison , please visit our FAQs. If you decide not to purchase your Alison , you can still demonstrate your achievement by sharing your Learner Record or Learner Achievement Verification, both of which are accessible from your Account Settings. For more details on our pricing, please visit our Pricing Page