Hadoop utilizza un file system distribuito noto come HDFS e un software per l'elaborazione di grandi insiemi di dati noti come MapReduce. File estremamente grandi sono suddivisi in pezzi, di solito 64 o 128 MB ciascuno. Il software è principalmente scritto in Java, con un codice di livello inferiore scritto in C.
Server Apache, Big data, Servizio, Termini del software