Hadoop používa distribuovaný súborový systém známy ako HDFS a softvér na spracovanie veľkých súborov dát známych ako MapReduce. Extrémne veľké súbory sú rozdelené na kusy, zvyčajne 64 alebo 128 MB. Softvér je väčšinou napísaný v jazyku Java s kódom nižšej úrovne napísaným v jazyku C.
Apache server, veľké dáta, servis, softvérové podmienky