Hadoop wird h ufig f r die Speicherung massiv verteilter Daten verwendet. Obwohl es sehr fehlertolerant und skalierbar ist und auf handels blicher Hardware l uft, bietet es keine effiziente und optimierte Datenspeicherl sung. Wenn Benutzer Dateien mit identischem Inhalt in Hadoop hochladen, werden alle Dateien im HDFS (Hadoop Distributed File System) gespeichert, auch wenn der Inhalt identisch ist, was zu einer Duplizierung des Inhalts und damit zu einer Verschwendung von Speicherplatz f hrt. Datendeduplizierung ist ein Prozess zur Reduzierung der erforderlichen Speicherkapazit t, da nur die eindeutigen Dateninstanzen gespeichert werden. Der Prozess der Datendeduplizierung wird h ufig in Dateiservern, Datenbankmanagementsystemen, Backup-Speichern und vielen anderen Speicherl sungen eingesetzt. Eine geeignete Deduplizierungsstrategie nutzt den Speicherplatz auf den begrenzten Speicherger ten ausreichend aus. Hadoop bietet keine L sung zur Datendeduplizierung. In dieser Arbeit wurde das Modul zur Deduplizierung in das Hadoop-Framework integriert, um eine optimierte Datenspeicherung zu erreichen.
ThriftBooks sells millions of used books at the lowest everyday prices. We personally assess every book's quality and offer rare, out-of-print treasures. We deliver the joy of reading in recyclable packaging with free standard shipping on US orders over $15. ThriftBooks.com. Read more. Spend less.