¿Qué es Apache Hadoop?

Apache Hadoop es el nombre de un conjunto de algoritmos de big data, almacenamiento distribuido y software de procesamiento distribuido creado por Apache Software Foundation. Está diseñado para soportar aplicaciones de servicio de datos de gran volumen; Manejo automático de fallos de hardware sin pérdida de servicio.

Hadoop utiliza un sistema de archivos distribuido conocido como HDFS y un software para procesar grandes conjuntos de datos conocido como MapReduce. Los archivos extremadamente grandes se dividen en partes, generalmente de 64 o 128 MB cada uno. La mayoría del software está escrito en Java, con algún código de nivel inferior escrito en C.

Servidor Apache, Big data, Servicio, Términos de Software.