Hadoop, die Open-Source- und Java-basierte Implementierung des Map/Reduce-Frameworks der Apache Software Foundation, ist ein verteiltes Computing-Framework, das f r datenintensive verteilte Anwendungen entwickelt wurde. Es bietet Tools f r die Verarbeitung gro er Datenmengen mithilfe des Map/Reduce-Frameworks und implementiert dar ber hinaus ein verteiltes Dateisystem, das dem Dateisystem von Google hnelt. Es kann verwendet werden, um gro e Datenmengen parallel auf gro en Clustern auf zuverl ssige und fehlertolerante Weise zu verarbeiten. Java wird seit langem von vielen Programmierern f r die Datenverarbeitung verwendet. In diesem Buch haben wir die Leistung von Hadoop mit Java, Hadoop mit Hadoop Optimize und Hadoop Optimize mit Java anhand verschiedener Leistungskriterien wie Verarbeitung (CPU-Auslastung), Speicher und Effizienz bei der Datenverarbeitung verglichen und analysiert. Unsere Versuchsergebnisse zeigen eine Verbesserung der Ausf hrungszeit bei Verwendung des optimierten Map/Reduce-Algorithmus. Beim Vergleich von Hadoop und Java ist Hadoop besser, wenn wir einen Multi-Node-Cluster haben und die Datenmenge gro ist. Wenn wir jedoch einen einzelnen Node und eine kleine Datenmenge haben, kann sogar Java eine bessere Leistung erzielen.
ThriftBooks sells millions of used books at the lowest
everyday prices. We personally assess every book's quality and offer rare, out-of-print treasures. We
deliver the joy of reading in recyclable packaging with free standard shipping on US orders over $15.
ThriftBooks.com. Read more. Spend less.