Skip to content
Scan a barcode
Scan
Paperback Effiziente Datendeduplizierung in Hadoop [German] Book

ISBN: 6202087269

ISBN13: 9786202087261

Effiziente Datendeduplizierung in Hadoop [German]

Hadoop wird h ufig f r die Speicherung massiv verteilter Daten verwendet. Obwohl es sehr fehlertolerant und skalierbar ist und auf handels blicher Hardware l uft, bietet es keine effiziente und optimierte Datenspeicherl sung. Wenn Benutzer Dateien mit identischem Inhalt in Hadoop hochladen, werden alle Dateien im HDFS (Hadoop Distributed File System) gespeichert, auch wenn der Inhalt identisch ist, was zu einer Duplizierung des Inhalts und damit zu einer Verschwendung von Speicherplatz f hrt. Datendeduplizierung ist ein Prozess zur Reduzierung der erforderlichen Speicherkapazit t, da nur die eindeutigen Dateninstanzen gespeichert werden. Der Prozess der Datendeduplizierung wird h ufig in Dateiservern, Datenbankmanagementsystemen, Backup-Speichern und vielen anderen Speicherl sungen eingesetzt. Eine geeignete Deduplizierungsstrategie nutzt den Speicherplatz auf den begrenzten Speicherger ten ausreichend aus. Hadoop bietet keine L sung zur Datendeduplizierung. In dieser Arbeit wurde das Modul zur Deduplizierung in das Hadoop-Framework integriert, um eine optimierte Datenspeicherung zu erreichen.

Recommended

Format: Paperback

Condition: New

$46.84
Save $0.16!
List Price $47.00
50 Available
Ships within 2-3 days

Customer Reviews

0 rating
Copyright © 2025 Thriftbooks.com Terms of Use | Privacy Policy | Do Not Sell/Share My Personal Information | Cookie Policy | Cookie Preferences | Accessibility Statement
ThriftBooks ® and the ThriftBooks ® logo are registered trademarks of Thrift Books Global, LLC
GoDaddy Verified and Secured