Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Enjoy members-only rewards and discounts
  • Create and access a list of your products

Data Domain: Wskazówki dotyczące kompresji Data Domain

Summary: W tym miejscu omówiono terminologie, kompromisy i miary, aby opisać używane typy kompresji, terminologię i inne aspekty kompresji w Data Domain.

This article applies to   This article does not apply to 

Instructions

Techniki kompresji stosowane w Data Domain wykorzystują najnowocześniejsze techniki w celu zmniejszenia fizycznej przestrzeni wymaganej przez dane klienta. Technologie i pomiary poziomów kompresji są złożonymi zagadnieniami. W tym dokumencie omówiono niektóre terminologie, kompromisy i miary, aby lepiej wyjaśnić używane typy kompresji, terminologię i inne aspekty kompresji w systemie Data Domain.

DOTYCZY:
Wszystkie modele Data Domain

1. Wprowadzenie

Ostatnia aktualizacja: Styczeń, 2024

Kompresja to technologia ograniczenia ilości danych, która ma na celu przechowywanie zestawu danych przy użyciu mniejszej ilości miejsca fizycznego. W systemach Data Domain (DDOS) wykonujemy deduplikację i kompresję lokalną w celu kompresji danych użytkownika. Deduplikacja służy do identyfikacji nadmiarowych segmentów danych i przechowywania tylko niepowtarzalnych segmentów. Kompresja lokalna dodatkowo kompresuje unikatowe segmenty danych za pomocą określonych algorytmów kompresji, takich jak lz, gzfast, gz, i tak dalej. Ogólna kompresja danych użytkownika w DDOS to połączenie deduplikacji i kompresji lokalnej. W DDOS do pomiaru skuteczności kompresji danych używany jest „współczynnik kompresji”. Ogólnie rzecz biorąc, jest to stosunek całkowitego rozmiaru danych użytkownika do całkowitego rozmiaru skompresowanych danych lub rozmiaru wykorzystanej przestrzeni fizycznej.

System plików Data Domain to system plików deduplikacji o strukturze dziennika. System plików działający na zasadzie dziennika tylko dołącza dane do systemu, a samo usunięcie nie zwalania fizycznego miejsca. Takie systemy plików wykorzystują odśmiecanie pamięci, aby odzyskać nieużywane miejsce. Cechy systemu plików o strukturze dziennika i technologii deduplikacji w połączeniu sprawiają, że trudno jest jednoznacznie zrozumieć wszystkie aspekty kompresji w DDOS.

W przypadku kompresji istnieje wiele aspektów, które możemy zmierzyć. W tym dokumencie omówimy szczegóły krok po kroku, aby lepiej zrozumieć kompresję DDOS. Na początku wyjaśniamy ogólny efekt kompresji systemu, który mówi nam o realistycznej kompresji osiągniętej w systemie Data Domain, ilości danych użytkownika, ilości zużytej przestrzeni fizycznej i ich stosie. W tym dokumencie współczynnik ten jest nazywany "efektywnym współczynnikiem kompresji systemu". DDOS przeprowadza deduplikację w trybie wewnętrznym i śledzi statystyki oryginalnych segmentów danych użytkownika, unikatowych segmentów danych po deduplikacji oraz efekt kompresji lokalnej w unikalnych segmentach danych. Te statystyki kompresji wbudowanej służą do pomiaru efektu kompresji wbudowanej. Dla każdego zapisu mogą być mierzone wbudowane statystyki kompresji. Ponadto DDOS śledzi statystyki na różnych poziomach; plików, MTree i całego systemu.

Zawartość tego dokumentu może być stosowana do wszystkich wersji DDOS do momentu opublikowania tego dokumentu, do DDOS 7.13. Nie ma gwarancji, że wszystkie dane będą poprawne w przyszłych wersjach. W wersjach wcześniejszych niż 5.0 cały system ma tylko jedno drzewo MTree, a termin "mtree" nie jest wyraźnie wywoływany.

2. Kompresja: Ogólny efekt dla systemu

Ogólny efekt kompresji w całym systemie jest mierzony efektywnym współczynnikiem kompresji systemu, czyli stosunkiem rozmiaru danych użytkownika do rozmiaru używanej przestrzeni fizycznej. Jest on zgłaszany przez polecenie wiersza polecenia filesys show compression (FSC) (odpowiednie informacje są również dostępne w interfejsie użytkownika).  Przykładowe dane wyjściowe FSC są pokazane poniżej:

# filesys show compression

From: 2023-12-31 03:00 To: 2024-01-07 03:00


Active Tier:
                   Pre-Comp   Post-Comp   Global-Comp   Local-Comp      Total-Comp
                      (GiB)       (GiB)        Factor       Factor          Factor
                                                                     (Reduction %)
----------------   --------   ---------   -----------   ----------   -------------
Currently Used:*     6439.6       113.4             -            -    56.8x (98.2)
Written:
  Last 7 days      135421.3      1782.0         35.1x         2.2x    76.0x (98.7)
  Last 24 hrs         532.5         1.5        334.3x         1.1x   356.5x (99.7)
----------------   --------   ---------   -----------   ----------   -------------
 * Does not include the effects of pre-comp file deletes/truncates
   since the last cleaning on 2024/01/05 11:34:13.

Efektywny współczynnik kompresji systemu jest podawany w wierszu 1 sekcji wyników w danych wyjściowych interfejsu wiersza poleceń. Wiersz jest wyróżniony powyżej. Łączny rozmiar danych użytkownika jest oznaczony jako "Przed kompresją". Całkowita wykorzystana przestrzeń fizyczna (zarówno przez dane, jak i metadane) jest oznaczona jako "Post-Comp".

Liczba "Pre-Comp" i liczba "Post-Comp" są odczytywane w czasie wykonywania. FSC domyślnie synchronizuje cały system, a następnie wysyła zapytanie dotyczące tych dwóch liczb. Te dwie liczby są mierzone w taki sam sposób, jak w przypadku polecenia "filesys show space".

Efektywny współczynnik kompresji systemu = Pre-Comp/Post-Comp

Pozostała część danych wyjściowych FSC opisuje wbudowane statystyki kompresji i omówimy je później.

Istnieje kilka operacji, które mogą wpłynąć na efektywny współczynnik kompresji systemu:

  • Szybka kopia

    • Gdy szybka kopia jest wykonywana z pliku w aktywnej przestrzeni nazw (nie migawki), jest to idealna deduplikacja, ponieważ nie jest potrzebna dodatkowa przestrzeń fizyczna dla pliku docelowego. Szybka kopia polega na zwiększeniu rozmiaru danych użytkownika bez zużywania dodatkowej przestrzeni fizycznej. Zwiększa to efektywny współczynnik kompresji systemu. W przypadku wykonywania wielu szybkich kopii efektywny współczynnik kompresji systemu może stać się sztucznie wysoki.

  • Wirtualne syntetyczne

    • Wirtualne syntetyczne kopie zapasowe wykazują zwykle wysoki efektywny współczynnik kompresji systemu. Dzieje się tak, ponieważ wirtualne syntetyczne tworzą logiczne pełne kopie zapasowe, ale przesyłają tylko zmienione lub nowe dane do systemów Data Domain. Wpływ wirtualnych syntetycznych na efektywny współczynnik kompresji systemu jest podobny do efektu fastcopy.

  • Zastępuje

    • Nadpisywania zużywają więcej miejsca fizycznego, ale nie zwiększają logicznego rozmiaru zestawu danych, dlatego nadpisywania obniżają efektywny współczynnik kompresji systemu.

  • Przechowywanie rzadkich plików

    • Pliki rozrzedzone zawierają duże „dziury”, które są zliczane w rozmiarze logicznym, ale nie zajmują miejsca fizycznego z powodu kompresji. W rezultacie współczynnik efektywnej kompresji systemu może wydawać się wysoki.

  • Przechowywanie małych plików

    • DDOS dodaje prawie 1 KB narzutu do każdego pliku dla niektórych wewnętrznych metadanych. Gdy system przechowuje znaczną liczbę małych plików (o rozmiarze mniejszym niż 1 KB lub wyrażonych w jednocyfrowych kilobajtach), narzut metadanych obniża efektywny współczynnik kompresji.

  • Przechowywanie wstępnie skompresowanych lub zaszyfrowanych plików

    • Kompresja i szyfrowanie mogą zwiększyć poziom zmiany danych i zmniejszyć możliwość deduplikacji. Takie pliki zwykle nie mogą być dobrze zdeduplikowane i obniżyć efektywny współczynnik kompresji systemu.

  • Usuwa

    • Usuwanie zmniejsza logiczny rozmiar systemu, ale system nie odzyskuje odpowiadającej mu niewykorzystanej przestrzeni aż do momentu uruchomienia odśmiecania pamięci. Wiele usuniętych plików powoduje, że współczynnik kompresji jest niski do momentu uruchomienia odzyskiwania pamięci (GC).

  • Odśmiecanie pamięci (GC) lub czyszczenie

    • GC odzyskuje miejsce zajmowane przez segmenty danych, które nie są już widoczne dla żadnego pliku. Jeśli w ostatnim czasie usunięto wiele plików, GC może zwiększyć współczynnik kompresji systemu poprzez zmniejszenie wykorzystania miejsca fizycznego.

  • Agresywne wykonywanie migawek

    • Wykonując migawkę obiektu MTree, nie zmieniamy rozmiaru logicznego zestawu danych. Jednak wszystkie segmenty danych, do których odwołuje się migawka, muszą być zablokowane, nawet jeśli wszystkie pliki przechwycone przez migawkę zostaną usunięte po wykonaniu migawki. GC nie może odzyskać miejsca, które jest nadal potrzebne przez migawki; Dlatego posiadanie dużej liczby migawek może sprawić, że efektywny współczynnik kompresji systemu będzie wyglądał na niski. Migawki są jednak przydatnymi narzędziami do odzyskiwania danych po awarii. Zawsze w razie potrzeby warto wykonywać migawki i konfigurować odpowiednie harmonogramy ich wykonywania.

3. Kompresja: Statystyki wbudowane

DDOS przeprowadza deduplikację w trybie inline, ponieważ dane są zapisywane w systemie. Śledzi efekty wbudowanej deduplikacji i kompresji lokalnej dla każdego zapisu i gromadzi statystyki na poziomie pliku. Statystyki wbudowanej kompresji dla poszczególnych plików są dalej agregowane na poziomie drzewa MTree i na poziomie systemu. Kompresja jest mierzona na podstawie trzech liczb w statystykach wbudowanych:

  • Długość każdego zapisu, nazywana raw_bytes
  • Długość wszystkich unikatowych segmentów, nazywanych pre_lc_size
  • Długość lokalnie skompresowanych unikatowych segmentów, nazywanych post_lc_size

Na podstawie powyższych trzech liczb DDOS definiuje dwa dodatkowe współczynniki kompresji o drobnej ziarnistości:

  • Kompresja globalna (g_comp). Wynosi on (raw_bytes/pre_lc_size) i odzwierciedla współczynnik deduplikacji;
  • Kompresja lokalna (l_comp). Jest ona równa (pre_lc_size/post_lc_size) i odzwierciedla efekt lokalnego algorytmu kompresji.

Zgromadzone statystyki kompresji wbudowanej są częścią metadanych pliku w DDOS i są przechowywane w i-węźle pliku. DDOS zapewnia narzędzia do sprawdzania wbudowanych kompresji na wszystkich trzech poziomach; plik, MTree i cały system. Szczegółowo opiszemy je w kolejnych sekcjach.

3.1 Kompresja
plików Kompresja pliku może być sprawdzona za pomocą polecenia CLI "filesys show compression <path>", które zgłasza skumulowane statystyki kompresji przechowywane w i-węźle pliku. Po określeniu katalogu statystyki kompresji wbudowanej wszystkich plików w tym katalogu są sumowane i raportowane. W danych wyjściowych CLI raw_bytes jest oznaczony jako "Original Bytes"; pre_lc_size jest oznaczony jako "Globalnie skompresowany"; post_lc_bytes jest oznaczony jako "Lokalnie skompresowany"; pozostałe koszty ogólne są zgłaszane jako "Metadane". Te dwa przykłady są przechwytywane z rzeczywistego DD:

Przykład 1: Statystyki wbudowanej kompresji pliku

# filesys show compression /data/col1/main/dir1/file_1 
Total files: 1;  bytes/storage_used: 7.1
        Logical Bytes:       53,687,091,200
       Original Bytes:       11,463,643,380
  Globally Compressed:        4,373,117,751
   Locally Compressed:        1,604,726,416
            Meta-data:           18,118,232

Przykład 2: Statystyki kompresji wbudowanej wszystkich plików w katalogu, w tym wszystkich podkatalogów

# filesys show compression /data/col1/main/dir1 
Total files: 13;  bytes/storage_used: 7.1
        Logical Bytes:       53,693,219,809
       Original Bytes:       11,501,978,884
  Globally Compressed:        4,387,212,404
   Locally Compressed:        1,608,444,046
            Meta-data:           18,241,880

System zgłasza ogólny współczynnik kompresji w powyższych danych wyjściowych interfejsu wiersza polecenia jako "bajty/storage_used".  Informacje te należy jednak interpretować ostrożnie, ponieważ mogą one być mylące z różnych powodów. Jednym z nich jest to, że pre_lc_size i post_lc_size są rejestrowane w czasie przetwarzania danych. Gdy plik, który pierwotnie dodał te segmenty, zostanie usunięty, liczba unikatowych segmentów danych w pozostałym pliku powinna zostać zwiększona.

Załóżmy na przykład, że kopia zapasowa pliku sample.file została utworzona w Data Domain, a w pierwszej kopii zapasowej informacje o kompresji pliku to pre_lc_size=10GiB, post_lc_size=5Gib.

Następnie załóżmy, że dane tego pliku są unikatowe i nie są udostępniane żadnemu innemu plikowi. Załóżmy ponadto, że podczas tworzenia drugiej kopii zapasowej pliku plik otrzymuje idealną deduplikację, w której zarówno pre_lc_size, jak i post_lc_size powinny wynosić zero, ponieważ wszystkie segmenty pliku już istniały w systemie. Po usunięciu pierwszej kopii zapasowej druga kopia zapasowa pliku staje się jedynym plikiem, który odwołuje się do 5 GiB segmentów danych. W takim przypadku najlepiej byłoby, gdyby pre_lc_size i post_lc_size pliku w drugiej kopii zapasowej zostały zaktualizowane z wartości zero odpowiednio do 10 GiB i 5 GiB. Nie ma jednak sposobu, aby wykryć, dla których plików należy to zrobić, więc wbudowane statystyki kompresji istniejących plików pozostają niezmienione.

Kolejnym czynnikiem, który wpływa na powyższe liczby, są skumulowane statystyki. Gdy plik otrzymuje wiele nadpisań, niemożliwe jest śledzenie, w jakim stopniu skumulowane statystyki odzwierciedlają zapisy, które wprowadziły dane na żywo. W związku z tym przez długi czas statystyki kompresji wbudowanej mogą być traktowane tylko jako heurystyka do przybliżonego oszacowania kompresji określonego pliku.

Innym faktem, na który warto zwrócić uwagę, jest to, że wbudowana kompresja pliku nie może być mierzona w dowolnym przedziale czasu. Statystyki kompresji wbudowanej pliku są wynikiem skumulowanym i obejmują wszystkie zapisy, jakie kiedykolwiek otrzymał plik. Gdy plik otrzyma wiele nadpisań, raw_bytes może być znacznie większy niż logiczny rozmiar pliku. W przypadku plików rzadkich rozmiary plików mogą być większe niż "Oryginalne bajty".

3.2 Kompresja
MTree Kompresję konkretnego drzewa MTreemożemy sprawdzić za pomocą metody "mtree show compression" (MSC) Polecenie CLI. Wartości bezwzględne statystyk kompresji wbudowanej kumulują się przez cały okres istnienia obiektu MTree. Biorąc pod uwagę, że żywotność MTree może trwać wiele lat, wartości te z czasem stają się coraz mniej pouczające. Aby rozwiązać ten problem, używamy wielkości zmian (delta) statystyk kompresji wbudowanej i raportujemy kompresję tylko dla określonych przedziałów czasu. Podstawowe podejście polega na tym, że okresowo zrzucamy statystyki kompresji MTree do dziennika. Gdy klient wysyła zapytanie o kompresję MTree za pomocą polecenia MSC, używamy dziennika do obliczenia różnic liczb do raportowania kompresji. Domyślnie MSC raportuje kompresję z ostatnich 7 dni i ostatnich 24 godzin, chociaż można określić dowolny okres zainteresowania.

Aby to zademonstrować, załóżmy, że istnieje następujący dziennik dla drzewa MTree A:

3:00AM, raw_bytes=11000GB, pre_lc_size=100GB, post_lc_size=50GB 4:00AM, raw_bytes=12000GB, pre_lc_size=200GB, post_lc_size=100GB

Wtedy kompresja MTree A dla tej godziny wynosi:

g_comp = (12000-11000)/(200-100) = 10x
l_comp = (200-100)/(100-50) = 2x
overall compression ratio = (12000-11000)/(100-50) = 20x

Powyższe obliczenie współczynnika kompresji nie ma wpływu na rozmiar zestawu danych. Na przykład powyższy obiekt MTree może zawierać tylko 500 GB danych logicznych.

MSC obsługuje opcje "daily" i "daily-detailed", podobnie jak polecenie "filesys show compression". Jeśli określono wartość "daily", polecenie zgłasza dzienną kompresję w sposób kalendarzowy. Używa codziennych wartości delta raw_bytes i post_lc_size do obliczania dziennego współczynnika kompresji. Gdy określono wartość "daily-detailed", polecenie pokazuje wszystkie trzy delty (odpowiednio raw_bytes, pre_lc_size i post_lc_size) dla każdego dnia; Oblicza również g_comp i l_comp wraz z całkowitym współczynnikiem kompresji.

Przykładowe dane wyjściowe z tych systemów znajdują się w załączniku.

3.3 Kompresja
systemu Kiedy już zrozumiemy, w jaki sposób kompresja jest raportowana na MTrees, łatwo jest rozszerzyć tę koncepcję na cały system. Wbudowane gromadzenie i raportowanie wbudowanych statystyk kompresji dla całego systemu jest dokładnie takie samo jak w przypadku obiektów MTrees. Jedyną różnicą jest zakres, ponieważ jeden znajduje się w konkretnym MTree, a drugi w całym systemie. Wyniki można sprawdzić za pomocą polecenia "filesys show compression". Przykład tego można znaleźć w sekcji 2. Kompresja systemu "ostatnie 7 dni" i "ostatnie 24 godziny" jest podawana w dwóch ostatnich wierszach sekcji wyników w danych wyjściowych FSC.

4. Warstwa chmury

W przypadku DD z zaimplementowaną warstwą chmury pamięć masowa jest rozdzielona na warstwę aktywną i warstwę chmurową, które są dwiema niezależnymi domenami deduplikacji. Użytkownicy mogą wstrzykiwać dane tylko do warstwy aktywnej. Później funkcje ruchu danych DDOS mogą być używane do migrowania danych z warstwy aktywnej do warstwy chmury. W związku z tym pomiar i raportowanie przestrzeni i kompresji są obsługiwane niezależnie na każdym poziomie. Jednak na poziomie plików nie rozróżniamy według warstwy i nie raportujemy statystyk kompresji wbudowanej; są one dokładnie takie same, jak te, które opisaliśmy w sekcji 3.1.

5. Deduplikacji

Ostatnim tematem, na który należy zwrócić uwagę, są niektóre cechy charakterystyczne deduplikacji, która w wielu dokumentach Data Domain jest nazywana "kompresją globalną". Chociaż zawiera słowo "kompresja", jest zupełnie inna niż tradycyjna koncepcja kompresji, która jest również dostarczana przez DDOS pod nazwą "kompresja lokalna".

Kompresja lokalna zmniejsza rozmiar fragmentu danych przy użyciu określonego algorytmu (niektóre rodzaje danych nie są kompresowalne i zastosowanie na nich algorytmów kompresji może nieznacznie zwiększyć rozmiar danych). Zwykle, po podjęciu decyzji o algorytmie, same dane są jedynym czynnikiem współczynnika kompresji.

Jednak deduplikacja jest inna - nie jest to koncepcja lokalna, jest "globalna". Segment danych przychodzących jest deduplikowany względem wszystkich istniejących segmentów danych w deduplikowanej domenie, która obejmuje wszystkie dane w systemach Data Domain spoza chmury. Sam segment danych nie ma znaczenia w procedurze deduplikacji.

W praktyce rzadko spotykamy się z wysokim współczynnikiem deduplikacji w początkowej kopii zapasowej zestawu danych. W początkowych kopiach zapasowych często istotna redukcja danych wynika z kompresji lokalnej. Gdy kolejne kopie zapasowe trafiają do Data Domain, deduplikacja pokazuje swoją siłę i staje się dominującym czynnikiem kompresji. Skuteczność deduplikacji polega na tym, że szybkość zmian zestawu danych jest niska w przypadku kolejnych kopii zapasowych. Z tego powodu zestawy danych o wysokich współczynnikach zmian nie mogą być dobrze deduplikowane. Gdy aplikacja do tworzenia kopii zapasowych wstawia własne fragmenty metadanych (nazywane znacznikami przez Data Domain) do obrazów kopii zapasowych z dużą częstotliwością, może również nie uzyskać dobrego współczynnika deduplikacji. Nasze techniki posługiwania się markerami mogą czasami pomóc, ale nie zawsze.

Biorąc pod uwagę te obserwacje, czego możemy się spodziewać?

  • Początkowe kopie zapasowe mogą osiągnąć tylko niewielki efektywny współczynnik kompresji systemu, często 2x lub 3x. Deduplikacja zwykle ma niewielkie możliwości pokazania swojej siły w początkowych kopiach zapasowych.
  • Globalny współczynnik kompresji przyrostowej kopii zapasowej jest niższy niż współczynnik kompresji odpowiadającej jej pełnej kopii zapasowej. Dzieje się tak, ponieważ przyrostowa kopia zapasowa zawiera tylko zmienione lub nowe pliki w porównaniu z bezpośrednio poprzedzającą ją kopią zapasową. Globalny współczynnik kompresji zależy od procentu nowych danych w przyrostowej kopii zapasowej.
  • W niektórych scenariuszach współczynnik deduplikacji pełnej kopii zapasowej (niepoczątkowej) może być również niski. Niektóre często obserwowane scenariusze obejmują:
    • Duża szybkość zmian danych tworzonych w kopii zapasowej
    • Zestaw danych jest zdominowany przez małe pliki (mniej niż 5 MiB)
    • Aplikacje do tworzenia kopii zapasowych dodające wiele blisko rozmieszczonych znaczników
    • Kopie zapasowe baz danych, które są przyrostowe lub używają małego rozmiaru bloku
    • W przypadku zaobserwowania niskiego współczynnika kompresji w pełnej kopii zapasowej przy niskim współczynniku zmiany danych należy sprawdzić, czy ma zastosowanie jeden z powyższych przypadków, czy też potrzebna jest dalsza analiza.
  • Kompresja późniejszego obrazu kopii zapasowej nie zawsze jest lepsza niż początkowego. Kolejne obrazy kopii zapasowych mogą wykazywać wysoki współczynnik deduplikacji, ponieważ początkowe i wcześniejsze obrazy kopii zapasowych już dodały większość danych do systemu. Po usunięciu wszystkich wcześniejszych kopii zapasowych współczynnik kompresji globalnego i lokalnego najwcześniejszego istniejącego obrazu kopii zapasowej może być nadal wysoki, ale oznacza to tylko, że uzyskał on dobrą deduplikację po dodaniu go do systemu. Po usunięciu pliku, który ma wysoki globalny i lokalny współczynnik kompresji i jest ostatnim obrazem zapasowym określonego zestawu danych, może zwolnić więcej miejsca niż rozmiar wyznaczony na podstawie współczynnika kompresji.
  • Nie można porównywać współczynników kompresji tego samego zestawu danych w różnych systemach, niezależnie od sposobu dodania zestawu danych do tych systemów. Wynika to z faktu, że każdy system jest niezależną domeną deduplikacji. Nie należy oczekiwać, że dwa różne DD uzyskają takie same lub nawet koniecznie podobne współczynniki kompresji, nawet jeśli ich zestawy danych są takie same.

 6. Summary

Pomiar kompresji jest trudny w deduplikowanych systemach plików, ale jest jeszcze trudniejszy w deduplikowanych systemach plików o strukturze dziennika. Musimy zrozumieć, jak działa deduplikacja i jak śledzone są statystyki kompresji. Współczynniki kompresji są przydatnymi informacjami ułatwiającymi zrozumienie zachowania konkretnego systemu. Efektywny współczynnik kompresji systemu jest najważniejszą, najbardziej wiarygodną i pouczającą miarą. Wbudowane statystyki kompresji również mogą być pomocne, ale w niektórych okolicznościach mogą być tylko heurystyką.

Dodatek: Przykładowe dane wyjściowe "mtree show compression" Załóżmy

, że istnieje drzewo MTree przechowujące 254792,4 GiB danych. Otrzymano 4379,3 GiB nowych danych w ciągu ostatnich 7 dni i 78,4 GiB w ciągu ostatnich 24 godzin (można określić inne przedziały czasu). Opcja „daily” raportuje statystyki kompresji wbudowanej dla ostatnich 33 dni. Gdy dostępna jest opcja "Daily-Detailed", całkowite współczynniki kompresji są dalej wyszczególniane przez podzielenie ich na globalne i lokalne współczynniki kompresji.

Dane wyjściowe listy MTree:

# mtree list /data/col1/main 
Name              Pre-Comp (GiB)   Status
---------------   --------------   ------
/data/col1/main         254792.4   RW
---------------   --------------   ------
 D    : Deleted
 Q    : Quota Defined
 RO   : Read Only
 RW   : Read Write
 RD   : Replication Destination
 IRH  : Retention-Lock Indefinite Retention Hold Enabled
 ARL  : Automatic-Retention-Lock Enabled
 RLGE : Retention-Lock Governance Enabled
 RLGD : Retention-Lock Governance Disabled
 RLCE : Retention-Lock Compliance Enabled
 M    : Mobile
 m    : Migratable
MSC (brak opcji):
# mtree show compression /data/col1/main

From: 2023-09-07 12:00 To: 2023-09-14 12:00

                Pre-Comp   Post-Comp   Global-Comp   Local-Comp      Total-Comp
                   (GiB)       (GiB)        Factor       Factor          Factor
                                                                  (Reduction %)
-------------   --------   ---------   -----------   ----------   -------------
Written:
  Last 7 days     4379.3       883.2          3.4x         1.5x     5.0x (79.8)
  Last 24 hrs      784.6       162.1          3.3x         1.4x     4.8x (79.3)
-------------   --------   ---------   -----------   ----------   -------------

W opcji "codziennie":

# mtree show compression /data/col1/main daily

From: 2023-08-12 12:00 To: 2023-09-14 12:00

  Sun     Mon     Tue     Wed     Thu     Fri     Sat   Weekly
-----   -----   -----   -----   -----   -----   -----   ------   -----------------
 -13-    -14-    -15-    -16-    -17-    -18-    -19-            Date
432.0   405.9   284.1   438.8   347.0   272.7   331.4   2511.8   Pre-Comp
 85.5    66.2    45.3    81.9    61.4    57.4    66.3    464.1   Post-Comp
 5.0x    6.1x    6.3x    5.4x    5.7x    4.7x    5.0x     5.4x   Total-Comp Factor

 -20-    -21-    -22-    -23-    -24-    -25-    -26-
478.0   387.8   450.2   533.1   386.0   258.4   393.6   2887.1
100.6    81.5   100.8   119.0    84.0    40.6    75.3    601.8
 4.8x    4.8x    4.5x    4.5x    4.6x    6.4x    5.2x     4.8x

 -27-    -28-    -29-    -30-    -31-     -1-     -2-
 27.6     1.0     0.4   470.7   467.3   517.7   641.9   2126.7
  4.9     0.2     0.1    83.9    92.3    89.8   140.1    411.2
 5.6x    5.6x    4.3x    5.6x    5.1x    5.8x    4.6x     5.2x

  -3-     -4-     -5-     -6-     -7-     -8-     -9-
539.6   495.0   652.8   658.7   537.1   398.7   305.5   3587.3 
110.8   108.0   139.4   137.0   111.5    78.3    48.3    733.3 
 4.9x    4.6x    4.7x    4.8x    4.8x    5.1x    6.3x     4.9x 

 -10-    -11-    -12-    -13-    -14-   
660.2   738.3   787.2   672.9   796.9                   3655.5
143.9   152.5   167.6   126.9   163.3                    754.2 
 4.6x    4.8x    4.7x    5.3x    4.9x                     4.8x 
-----   -----   -----   -----   -----   -----   -----   ------   -----------------
                 Pre-Comp   Post-Comp   Global-Comp   Local-Comp      Total-Comp
                    (GiB)       (GiB)        Factor       Factor          Factor
                                                                   (Reduction %)
--------------   --------   ---------   -----------   ----------   -------------
Written:
  Last 33 days    14768.3      2964.5          3.4x         1.5x     5.0x (79.9)
  Last 24 hrs       784.6       162.1          3.3x         1.4x     4.8x (79.3)
--------------   --------   ---------   -----------   ----------   -------------

Key:
       Pre-Comp = Data written before compression
       Post-Comp = Storage used after compression
       Global-Comp Factor = Pre-Comp / (Size after de-dupe)
       Local-Comp Factor = (Size after de-dupe) / Post-Comp
       Total-Comp Factor = Pre-Comp / Post-Comp
       Reduction % = ((Pre-Comp - Post-Comp) / Pre-Comp) * 100

Z opcją "daily-detailed":

# mtree show compression /data/col1/main daily-detailed 

From: 2023-08-12 12:00 To: 2023-09-14 12:00

  Sun     Mon     Tue     Wed     Thu    Fri     Sat    Weekly
-----   -----   -----   -----   -----   -----   -----   ------   -----------------
 -13-    -14-    -15-    -16-    -17-    -18-    -19-            Date
432.0   405.9   284.1   438.8   347.0   272.7   331.4   2511.8   Pre-Comp
 85.5    66.2    45.3    81.9    61.4    57.4    66.3    464.1   Post-Comp
 3.5x    4.1x    4.3x    3.6x    3.8x    3.3x    3.4x     3.7x   Global-Comp Factor
 1.4x    1.5x    1.5x    1.5x    1.5x    1.4x    1.5x     1.5x   Local-Comp Factor
 5.0x    6.1x    6.3x    5.4x    5.7x    4.7x    5.0x     5.4x   Total-Comp Factor
 80.2    83.7    84.1    81.3    82.3    78.9    80.0     81.5   Reduction %

 -20-    -21-    -22-    -23-    -24-    -25-    -26-
478.0   387.8   450.2   533.1   386.0   258.4   393.6   2887.1
100.6    81.5   100.8   119.0    84.0    40.6    75.3    601.8
 3.3x    3.3x    3.0x    3.0x    3.3x    4.1x    3.6x     3.3x 
 1.4x    1.5x    1.5x    1.5x    1.4x    1.5x    1.4x     1.5x 
 4.8x    4.8x    4.5x    4.5x    4.6x    6.4x    5.2x     4.8x
 79.0    79.0    77.6    77.7    78.2    84.3    80.9     79.2

 -27-    -28-    -29-    -30-    -31-    -1-     -2-
 27.6     1.0     0.4   470.7   467.3   517.7   641.9   2126.7
  4.9     0.2     0.1    83.9    92.3    89.8   140.1    411.2
 4.4x    3.7x    2.6x    3.8x    3.5x    3.9x    3.2x     3.5x 
 1.3x    1.5x    1.6x    1.5x    1.4x    1.5x    1.5x     1.5x
 5.6x    5.6x    4.3x    5.6x    5.1x    5.8x    4.6x     5.2x
 82.1    82.2    76.8    82.2    80.3    82.7    78.2     80.7

  -3-     -4-     -5-     -6-     -7-    -8-     -9-
539.6   495.0   652.8   658.7   537.1   398.7   305.5   3587.3 
110.8   108.0   139.4   137.0   111.5    78.3    48.3    733.3 
 3.4x    3.1x    3.2x    3.4x    3.3x    3.4x    4.1x     3.3x 
 1.4x    1.5x    1.5x    1.4x    1.4x    1.5x    1.6x     1.5x
 4.9x    4.6x    4.7x    4.8x    4.8x    5.1x    6.3x     4.9x 
 79.5    78.2    78.6    79.2    79.2    80.4    84.2     79.6

 -10-    -11-    -12-    -13-    -14-   
660.2   738.3   787.2   672.9   796.9                   3655.5
143.9   152.5   167.6   126.9   163.3                    754.2
 3.1x    3.4x    3.2x    3.7x    3.4x                      .3x 
 1.5x    1.4x    1.5x    1.4x    1.5x                     1.5x
 4.6x    4.8x    4.7x    5.3x    4.9x                     4.8x
 78.2    79.3    78.7    81.1    79.5                     79.4
-----   -----   -----   -----   -----   -----   -----   ------   -----------------
                 Pre-Comp   Post-Comp   Global-Comp   Local-Comp      Total-Comp
                    (GiB)       (GiB)        Factor       Factor          Factor
                                                                   (Reduction %)
--------------   --------   ---------   -----------   ----------   -------------
Written:
  Last 33 days    14768.3      2964.5          3.4x         1.5x     5.0x (79.9)
  Last 24 hrs       784.6       162.1          3.3x         1.4x     4.8x (79.3)
--------------   --------   ---------   -----------   ----------   -------------

Key:
       Pre-Comp = Data written before compression
       Post-Comp = Storage used after compression
       Global-Comp Factor = Pre-Comp / (Size after de-dupe)
       Local-Comp Factor = (Size after de-dupe) / Post-Comp
       Total-Comp Factor = Pre-Comp / Post-Comp
       Reduction % = ((Pre-Comp - Post-Comp) / Pre-Comp) * 100

Affected Products

Data Domain

Products

Data Domain