Hadoop ampiamente utilizzato per l'archiviazione di dati distribuiti su larga scala. Sebbene sia altamente tollerante ai guasti, scalabile e funzionante su hardware standard, non fornisce una soluzione di archiviazione dati efficiente e ottimizzata. Quando un utente carica file con lo stesso contenuto su Hadoop, tutti i file vengono archiviati su HDFS (Hadoop Distributed File System) anche se il contenuto identico, il che porta alla duplicazione dei contenuti e quindi a uno spreco di spazio di archiviazione. La deduplicazione dei dati un processo che consente di ridurre la capacit di archiviazione richiesta, poich vengono memorizzate solo le istanze uniche dei dati. Il processo di deduplicazione dei dati ampiamente utilizzato nei file server, nei sistemi di gestione dei database, nell'archiviazione di backup e in molte altre soluzioni di archiviazione. Una strategia di deduplicazione adeguata utilizza in modo ottimale lo spazio di archiviazione disponibile nei dispositivi di archiviazione limitati. Hadoop non fornisce una soluzione di deduplicazione dei dati. In questo lavoro, il modulo di deduplicazione stato integrato nel framework Hadoop per ottenere un'archiviazione dei dati ottimizzata.
ThriftBooks sells millions of used books at the lowest everyday prices. We personally assess every book's quality and offer rare, out-of-print treasures. We deliver the joy of reading in recyclable packaging with free standard shipping on US orders over $15. ThriftBooks.com. Read more. Spend less.