Cos'è Apache Hadoop?

Apache Hadoop è il nome di un insieme di algoritmi di big data, storage distribuito e software di elaborazione distribuito creato da Apache Software Foundation. È progettato per supportare applicazioni di servizio dati ad alto volume; gestione automatica degli errori hardware senza perdita di servizio.

Hadoop utilizza un file system distribuito noto come HDFS e un software per l'elaborazione di grandi insiemi di dati noti come MapReduce. File estremamente grandi sono suddivisi in pezzi, di solito 64 o 128 MB ciascuno. Il software è principalmente scritto in Java, con un codice di livello inferiore scritto in C.

Server Apache, Big data, Servizio, Termini del software