Em um mundo em que as organizações dependem de uma tomada de decisão rápida e informada, a análise de big data existe para extrair insights significativos de grandes quantidades de informações. Ela desempenha um papel importante em todos os campos, da saúde e economia ao setor bancário, bem como no governo; novas oportunidades e desafios continuam surgindo para lidar com grandes quantidades de dados. O ecossistema Apache Hadoop, com seus componentes de código aberto, foi projetado para atender a essas necessidades: armazenar, processar, avaliar, analisar e minerar dados. Ao contrário dos sistemas tradicionais, o Hadoop lida com vários tipos de cargas de trabalho que consistem em diferentes tipos de dados, com processamento paralelo massivo usando hardware padrão
do setor.
O Hadoop armazena dados no sistema de arquivos distribuídos (HDFS) do Hadoop, projetado para ser executado em hardware padrão. O HDFS é muito tolerante a falhas, fornece acesso de alto rendimento aos dados do aplicativo e é adequado para aplicativos com grandes conjuntos de dados. Este curso ilustra como diferentes tipos de dados podem ser armazenados no HDFS e como processá-los usando os vários componentes do ecossistema Hadoop. Estruturas de computação em cluster, como o MapReduce, foram amplamente adotadas para análise de dados em grande escala. Conjuntos de dados distribuídos (RDDs) resilientes permitem a reutilização eficiente de dados em uma ampla variedade de aplicativos. Os RDDs são estruturas de dados paralelas e tolerantes a falhas que permitem que os usuários mantenham explicitamente os resultados intermediários na memória, controlem seu particionamento para otimizar o posicionamento dos dados e os manipulem usando um rico conjunto
de operadores.
Você está interessado em big data? Você gostaria de aprofundar sua compreensão do software Hadoop? Este curso é para desenvolvedores de bancos de dados e sistemas de armazenamento de dados, desenvolvedores e arquitetos de big data, cientistas de dados, analistas e qualquer equipe técnica interessada em aprender e explorar os recursos do big data e de suas ferramentas. Com aulas abrangentes orientando você passo a passo e teoria para apoiá-las, o curso segue com sessões práticas para obter experiência prática em Sqoop, Hive, Spark, Flume, Apache Pig e Cloudera. Portanto, se você deseja aumentar seu conhecimento sobre os recursos avançados do ecossistema Hadoop, comece este curso on-line gratuito hoje
mesmo!
What You Will Learn In This Free Course
View All Learning Outcomes View Less All Alison courses are free to enrol, study, and complete. To successfully complete this Certificate course and become an Alison Graduate, you need to achieve 80% or higher in each course assessment.
Once you have completed this Certificate course, you have the option to acquire an official Certificate, which is a great way to share your achievement with the world.
Your Alison certificate is:
- Ideal for sharing with potential employers.
- Great for your CV, professional social media profiles, and job applications.
- An indication of your commitment to continuously learn, upskill, and achieve high results.
- An incentive for you to continue empowering yourself through lifelong learning.
Alison offers 2 types of Certificate for completed Certificate courses:
- Digital Certificate: a downloadable Certificate in PDF format immediately available to you when you complete your purchase.
- Physical Certificate: a physical version of your officially branded and security-marked Certificate
All Certificate are available to purchase through the Alison Shop. For more information on purchasing Alison Certificate, please visit our FAQs. If you decide not to purchase your Alison Certificate, you can still demonstrate your achievement by sharing your Learner Record or Learner Achievement Verification, both of which are accessible from your Account Settings.