Hadoop comum

Definição – o que significa Hadoop Common?

Hadoop Common refere-se à coleção de utilitários e bibliotecas comuns que oferecem suporte a outros módulos do Hadoop. É uma parte ou módulo essencial do Apache Hadoop Framework, junto com o Hadoop Distributed File System (HDFS), Hadoop YARN e Hadoop MapReduce. Como todos os outros módulos, o Hadoop Common assume que as falhas de hardware são comuns e que devem ser tratadas automaticamente no software pelo Hadoop Framework.

Hadoop Common também é conhecido como Hadoop Core.

Definirtec explica Hadoop Common

O pacote Hadoop Common é considerado a base / núcleo da estrutura, pois fornece serviços essenciais e processos básicos, como abstração do sistema operacional subjacente e seu sistema de arquivos. O Hadoop Common também contém os arquivos Java Archive (JAR) e os scripts necessários para iniciar o Hadoop. O pacote Hadoop Common também fornece código-fonte e documentação, bem como uma seção de contribuição que inclui diferentes projetos da comunidade Hadoop.