Hadoop utiliza un sistema de archivos distribuido conocido como HDFS y un software para procesar grandes conjuntos de datos conocido como MapReduce. Los archivos extremadamente grandes se dividen en partes, generalmente de 64 o 128 MB cada uno. La mayoría del software está escrito en Java, con algún código de nivel inferior escrito en C.
Servidor Apache, Big data, Servicio, Términos de Software.