O Hadoop amplamente utilizado para armazenamento de dados massivamente distribu do. Embora seja altamente tolerante a falhas, escal vel e funcione em hardware comum, ele n o oferece uma solu o de armazenamento de dados eficiente e otimizada. Quando o utilizador carrega ficheiros com o mesmo conte do no Hadoop, ele armazena todos os ficheiros no HDFS (Hadoop Distributed File System), mesmo que o conte do seja o mesmo, o que leva duplica o de conte do e, portanto, ao desperd cio de espa o de armazenamento. A deduplica o de dados um processo que reduz a capacidade de armazenamento necess ria, uma vez que apenas as inst ncias nicas de dados s o armazenadas. O processo de deduplica o de dados amplamente utilizado em servidores de ficheiros, sistemas de gest o de bases de dados, armazenamento de c pias de seguran a e muitas outras solu es de armazenamento. Uma estrat gia de deduplica o adequada utiliza suficientemente o espa o de armazenamento em dispositivos de armazenamento limitados. O Hadoop n o oferece uma solu o de deduplica o de dados. Neste trabalho, o m dulo de deduplica o foi integrado na estrutura do Hadoop para obter um armazenamento de dados otimizado.
ThriftBooks sells millions of used books at the lowest
everyday prices. We personally assess every book's quality and offer rare, out-of-print treasures. We
deliver the joy of reading in recyclable packaging with free standard shipping on US orders over $15.
ThriftBooks.com. Read more. Spend less.