Skip to content
Scan a barcode
Scan
Paperback Efektywna deduplikacja danych w Hadoop [Polish] Book

ISBN: 6202087420

ISBN13: 9786202087421

Efektywna deduplikacja danych w Hadoop [Polish]

Hadoop jest szeroko stosowany do masowego przechowywania danych. Mimo że jest bardzo odporny na awarie, skalowalny i dziala na standardowym sprzęcie, nie zapewnia wydajnego i zoptymalizowanego rozwiązania do przechowywania danych. Gdy użytkownik przesyla pliki o tej samej zawartości do Hadoop, wszystkie pliki są przechowywane w HDFS (Hadoop Distributed File System), nawet jeśli zawartośc jest taka sama, co prowadzi do powielania treści, a tym samym do marnowania przestrzeni dyskowej. Deduplikacja danych to proces mający na celu zmniejszenie wymaganej pojemności pamięci, ponieważ przechowywane są tylko unikalne instancje danych. Proces deduplikacji danych jest szeroko stosowany w serwerach plik w, systemach zarządzania bazami danych, pamięciach kopii zapasowych i wielu innych rozwiązaniach pamięci masowej. Odpowiednia strategia deduplikacji pozwala na wystarczające wykorzystanie przestrzeni dyskowej w ramach ograniczonych urządzeń pamięci masowej. Hadoop nie zapewnia rozwiązania w zakresie deduplikacji danych. W niniejszej pracy modul deduplikacji zostal zintegrowany z frameworkiem Hadoop w celu uzyskania zoptymalizowanego przechowywania danych.

Recommended

Format: Paperback

Condition: New

$45.94
Save $1.06!
List Price $47.00
50 Available
Ships within 2-3 days

Customer Reviews

0 rating
Copyright © 2025 Thriftbooks.com Terms of Use | Privacy Policy | Do Not Sell/Share My Personal Information | Cookie Policy | Cookie Preferences | Accessibility Statement
ThriftBooks ® and the ThriftBooks ® logo are registered trademarks of Thrift Books Global, LLC
GoDaddy Verified and Secured