Hadoop използва разпределена файлова система, известна като HDFS, и софтуер за обработка на масиви от данни, известни като MapReduce. Изключително големите файлове се разделят на парчета, обикновено 64 или 128 MB всяка. Софтуерът е написан предимно на Java, с код на по-ниско ниво, написан на C.
Apache сървър, големи данни, услуга, софтуерни термини