Hadoop, l'implementazione open source e basata su Java del framework Map/Reduce dell'Apache Software Foundation, un framework di calcolo distribuito progettato per applicazioni distribuite ad alta intensit di dati. Fornisce gli strumenti per l'elaborazione di grandi quantit di dati utilizzando il framework Map/Reduce e, inoltre, implementa un file system distribuito simile al file system di Google. Pu essere utilizzato per elaborare grandi quantit di dati in parallelo su cluster di grandi dimensioni in modo affidabile e tollerante ai guasti. Da molto tempo Java viene utilizzato da molti programmatori per l'elaborazione dei dati. In questo libro abbiamo confrontato e analizzato le prestazioni di Hadoop con Java, Hadoop con Hadoop Optimize e Hadoop Optimize con Java in termini di diversi criteri di prestazione, quali l'elaborazione (utilizzo della CPU), l'archiviazione e l'efficienza durante l'elaborazione dei dati. I risultati dei nostri esperimenti mostrano un miglioramento dei tempi di esecuzione quando si utilizza l'algoritmo Map/Reduce ottimizzato. Confrontando Hadoop e Java, Hadoop migliore quando si dispone di un cluster multi-nodo e la dimensione dei dati grande. Tuttavia, quando si dispone di un singolo nodo e di dati di piccole dimensioni, anche Java pu funzionare meglio.
ThriftBooks sells millions of used books at the lowest everyday prices. We personally assess every book's quality and offer rare, out-of-print treasures. We deliver the joy of reading in recyclable packaging with free standard shipping on US orders over $20. ThriftBooks.com. Read more. Spend less.