En un mundo en el que las organizaciones dependen de una toma de decisiones rápida e informada, el análisis de big data existe para extraer información significativa a partir de enormes cantidades de información. Desempeña un papel importante en todos los campos, desde la salud y la economía hasta la banca, así como en el gobierno; siguen surgiendo nuevas oportunidades y desafíos para gestionar cantidades masivas de datos. El ecosistema Apache Hadoop, con sus componentes de código abierto, está diseñado para responder a estas necesidades: almacenar, procesar, evaluar, analizar y extraer datos. A diferencia de los sistemas tradicionales, Hadoop gestiona varios tipos de cargas de trabajo compuestas por diferentes tipos de datos, con un procesamiento paralelo masivo
mediante hardware estándar del sector.
Hadoop almacena los datos en el sistema de archivos distribuidos (HDFS) de Hadoop, que está diseñado para ejecutarse en hardware estándar. El HDFS es muy tolerante a errores, proporciona un acceso de alto rendimiento a los datos de las aplicaciones y es adecuado para aplicaciones que tienen grandes conjuntos de datos. Este curso ilustra cómo se pueden almacenar diferentes tipos de datos en HDFS y cómo procesarlos mediante los distintos componentes del ecosistema de Hadoop. Los marcos de computación en clústeres, como MapReduce, se han adoptado ampliamente para el análisis de datos a gran escala. Los conjuntos de datos distribuidos (RDD) resilientes permiten la reutilización eficiente de los datos en una amplia gama de aplicaciones. Los RDD son estructuras de datos paralelas y tolerantes a errores que permiten a los usuarios conservar de forma explícita los resultados intermedios en la memoria, controlar sus particiones para optimizar la ubicación de los datos y manipularlos mediante
un amplio conjunto de operadores.
¿Le interesa el big data? ¿Le gustaría ampliar sus conocimientos sobre el software de Hadoop? Este curso está dirigido a desarrolladores de bases de datos y almacenes de datos, desarrolladores y arquitectos de big data, científicos de datos, analistas y cualquier personal técnico que esté interesado en aprender y explorar las características del big data y sus herramientas. El curso, que incluye lecciones exhaustivas que lo guían paso a paso y teoría como respaldo, sigue con sesiones prácticas para adquirir experiencia práctica en Sqoop, Hive, Spark, Flume, Apache Pig y Cloudera. Así que, si quieres aumentar tus conocimientos sobre las funciones avanzadas del ecosistema de Hadoop, ¡comienza hoy
mismo este curso online gratuito!
All Alison courses are free to enrol study and complete. To successfully complete this certificate course and become an Alison Graduate, you need to achieve 80% or higher in each course assessment. Once you have completed this certificate course, you have the option to acquire an official certificate, which is a great way to share your achievement with the world.
Your Alison certificate is:
- Ideal for sharing with potential employers
- Great for your CV, professional social media profiles and job applications.
- An indication of your commitment to continuously learn, upskill & achieve high results.
- An incentive for you to continue empowering yourself through lifelong learning.
Alison offers 3 types of certificates for completed certificate courses:
- Digital certificate: a downloadable certificate in PDF format immediately available to you when you complete your purchase.
- certificate: a physical version of your officially branded and security-marked certificate
All certificates are available to purchase through the Alison Shop. For more information on purchasing Alison certificate, please visit our FAQs. If you decide not to purchase your Alison certificate, you can still demonstrate your achievement by sharing your Learner Record or Learner Achievement Verification, both of which are accessible from your Account Settings.