Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Enjoy members-only rewards and discounts
  • Create and access a list of your products

Data Domain: Noções básicas sobre a compactação do Data Domain

Summary: As terminologias, as compensações e as medidas são explicadas aqui para descrever os tipos de compactação usados, a terminologia e outros aspectos da compactação no Data Domain.

This article applies to   This article does not apply to 

Instructions

As técnicas de compactação envolvidas em um Data Domain usam técnicas de última geração para reduzir o espaço físico exigido pelos dados do cliente. Portanto, as tecnologias e as medições dos níveis de compactação são tópicos complexos. Este documento discute algumas terminologias, compensações e medidas para explicar melhor os tipos de compactação usados, a terminologia e outros aspectos da compactação em um sistema Data Domain.

APLICA-SE A:
Todos os modelos do Data Domain

1. Introdução

Última atualização: Janeiro de 2024

A compactação é uma tecnologia de redução de dados que visa armazenar um conjunto de dados usando menos espaço físico. Em sistemas Data Domain (DDOS), fazemos desduplicação e compactação local para compactar dados do usuário. A desduplicação, ou deduplicação, é usada para identificar segmentos de dados redundantes e armazenar apenas segmentos de dados exclusivos. A compactação local compacta ainda mais os segmentos de dados exclusivos com determinados algoritmos de compactação, como lz, gzfast, gz, assim por diante. A compactação geral de dados do usuário no DDOS é o esforço conjunto de desduplicação e compactação local. O DDOS usa a "taxa de compactação" para medir a eficácia da compactação de dados. Geralmente, é a proporção entre o tamanho total dos dados do usuário e o tamanho total dos dados compactados ou o tamanho do espaço físico usado.

O file system do Data Domain é um file system de desduplicação "estruturado por logs". Um file system estruturado por logs só acrescenta dados ao sistema, e a exclusão por si só não pode liberar espaço físico. Esses file systems dependem da coleta de lixo para recuperar o espaço que não é mais necessário. As características do file system estruturado em log e a tecnologia desduplicada combinadas tornam difícil entender claramente todos os aspectos da compactação no DDOS.

Para a compressão, há muitos aspectos que podemos medir. Neste documento, discutiremos os detalhes passo a passo para ajudar a entender a compactação do DDOS. Primeiro, explicamos o efeito geral de compactação do sistema, que nos informa a compactação realista alcançada em um sistema Data Domain, a quantidade de dados do usuário, a quantidade de espaço físico consumido e a proporção deles. Neste documento, essa proporção é chamada de "taxa de compactação efetiva do sistema". O DDOS realiza a desduplicação em linha e rastreia as estatísticas dos segmentos de dados do usuário originais, segmentos de dados exclusivos pós-desduplicação e o efeito de compactação local nos segmentos de dados exclusivos. Essas estatísticas de compactação em linha são usadas para medir o efeito da compactação em linha. As estatísticas de compactação em linha podem ser medidas para cada gravação. Além disso, o DDOS mantém o controle das estatísticas em diferentes níveis; arquivos, MTrees e todo o sistema.

O conteúdo deste documento pode ser aplicado a todas as versões do DDOS até a publicação deste documento, até o DDOS 7.13. Não há garantias de que todo o conteúdo seja preciso para versões futuras. Nas versões anteriores à 5.0, todo o sistema tem apenas uma mtree e o termo mtree não é explicitamente chamado.

2. Compactação: Efeito geral no sistema

O efeito geral de compactação em todo o sistema é medido pela taxa de compactação efetiva do sistema, que é a proporção do tamanho dos dados do usuário para o tamanho do espaço físico usado. Isso é relatado pelo comando filesys show compression (FSC) da CLI (as informações correspondentes também estão disponíveis na interface do usuário).  Um exemplo de resultado do FSC é mostrado abaixo:

# filesys show compression

From: 2023-12-31 03:00 To: 2024-01-07 03:00


Active Tier:
                   Pre-Comp   Post-Comp   Global-Comp   Local-Comp      Total-Comp
                      (GiB)       (GiB)        Factor       Factor          Factor
                                                                     (Reduction %)
----------------   --------   ---------   -----------   ----------   -------------
Currently Used:*     6439.6       113.4             -            -    56.8x (98.2)
Written:
  Last 7 days      135421.3      1782.0         35.1x         2.2x    76.0x (98.7)
  Last 24 hrs         532.5         1.5        334.3x         1.1x   356.5x (99.7)
----------------   --------   ---------   -----------   ----------   -------------
 * Does not include the effects of pre-comp file deletes/truncates
   since the last cleaning on 2024/01/05 11:34:13.

A taxa de compactação efetiva do sistema é relatada na linha 1 da seção de resultados na saída da CLI. A linha é destacada acima. O tamanho total dos dados do usuário é rotulado como "Pre-Comp". O espaço físico total consumido (por dados e metadados) é rotulado como "Post-Comp".

Os números "Pre-Comp" e "Post-Comp" são lidos em tempo de execução. O FSC sincroniza implicitamente o sistema inteiro e, então, consulta os dois números. Esses dois números são medidos da mesma forma que o comando "filesys show space".

Taxa de compactação efetiva do sistema = Pré-compactação/Pós-compactação

O restante da saída do FSC descreve as estatísticas de compactação em linha, e vamos discuti-las posteriormente.

Há algumas operações que podem afetar a taxa de compactação efetiva do sistema:

  • Fastcopy

    • Quando uma cópia rápida é feita a partir de um arquivo no namespace ativo (não em um snapshot), é uma desduplicação perfeita, pois não é necessário espaço físico extra para o arquivo de destino. Uma cópia rápida permite aumentar o tamanho dos dados do usuário sem consumir espaço físico adicional. Isso aumenta a taxa de compactação efetiva do sistema. Quando muitas cópias rápidas são feitas, a taxa de compressão efetiva do sistema pode se tornar artificialmente alta.

  • Sintéticos virtuais

    • Os backups sintéticos virtuais tendem a mostrar uma alta taxa de compactação efetiva do sistema. Isso ocorre porque os sintéticos virtuais fazem backups lógicos completos, mas apenas transferem dados alterados ou novos para sistemas Data Domain. O impacto na taxa de compressão efetiva do sistema de sintéticos virtuais é um pouco parecido com o efeito de fastcopy.

  • Substitui

    • As substituições consomem mais espaço físico, mas não aumentam o tamanho lógico do conjunto de dados, portanto, as substituições diminuem a taxa de compactação efetiva do sistema.

  • Armazenando arquivos fragmentados

    • Os arquivos fragmentados contêm grandes "furos" que são contabilizados no tamanho lógico, mas não consomem espaço físico devido à compactação. Como resultado, eles podem fazer com que a taxa de compactação efetiva do sistema pareça alta.

  • Armazenando arquivos pequenos

    • O DDOS adiciona quase 1 KB de sobrecarga a cada arquivo para determinados metadados internos. Quando um sistema armazena um número significativo de arquivos pequenos (tamanhos inferiores a 1 KB ou em KB de um dígito), a sobrecarga de metadados arrasta a taxa de compactação efetiva para baixo.

  • Armazenando arquivos pré-compactados ou pré-criptografados

    • A compactação e a criptografia podem amplificar o nível de alteração de dados e reduzir a possibilidade de desduplicação. Esses arquivos geralmente não podem ser desduplicados bem e fazem com que a taxa de compactação efetiva do sistema seja menor.

  • Exclui

    • As exclusões reduzem o tamanho lógico do sistema, mas o sistema só recupera o espaço não utilizado correspondente quando a coleta de lixo é executada. Muitos arquivos excluídos tornam a taxa de compactação baixa até que a coleta de lixo (GC) seja executada.

  • Coleta de lixo (GC) ou limpeza

    • A GC recupera o espaço consumido pelos segmentos de dados que não são mais visíveis por nenhum arquivo. Se muitos arquivos foram excluídos recentemente, a GC poderá aumentar a taxa de compactação do sistema reduzindo o espaço físico consumido.

  • Captura agressiva de snapshots

    • Quando tiramos um snapshot de um Mtree, não alteramos o tamanho lógico do conjunto de dados. No entanto, todos os segmentos de dados referidos pelo snapshot devem ser bloqueados, mesmo que todos os arquivos capturados pelo snapshot sejam excluídos após a captura do snapshot. A GC não consegue recuperar o espaço que ainda é necessário para snapshots; Portanto, ter muitos snapshots pode fazer com que a taxa de compactação efetiva do sistema pareça baixa. No entanto, os snapshots são recursos úteis de recuperação de falhas. Nós nunca devemos hesitar em capturar snapshots nem configurar agendamentos de snapshot adequados quando necessário.

3. Compactação: Estatísticas em linha

O DDOS realiza a desduplicação em linha, pois os dados são gravados no sistema. Ele rastreia os efeitos da desduplicação em linha e da compactação local para cada gravação e acumula as estatísticas no nível do arquivo. As estatísticas de compactação em linha por arquivo são agregadas ainda mais no nível da MTree e no nível do sistema. A compactação é medida com base em três números nas estatísticas em linha:

  • O comprimento de cada gravação, chamado de raw_bytes
  • O comprimento de todos os segmentos únicos, chamados de pre_lc_size
  • O comprimento de segmentos exclusivos compactados localmente, chamados de post_lc_size

Com base nos três números acima, o DDOS define mais duas taxas de compactação de granularidade fina:

  • Compactação global (g_comp). É igual a (raw_bytes/pre_lc_size) e reflete a taxa de desduplicação;
  • Compactação local (l_comp). Ele é igual a (pre_lc_size/post_lc_size) e reflete o efeito do algoritmo de compactação local.

As estatísticas acumuladas de compactação em linha fazem parte dos metadados de arquivo do DDOS e são armazenadas no inode de arquivo. O DDOS fornece ferramentas para verificar as compressões em linha em todos os três níveis; file, MTree e em todo o sistema. Nós os detalhamos nas seções a seguir.

3.1 Compactação
de arquivos A compactação de arquivos pode ser verificada com o comando da CLI "filesys show compression <path>", que relata as estatísticas de compactação acumuladas armazenadas no inode do arquivo. Quando um diretório é especificado, as estatísticas de compactação em linha de todos os arquivos nesse diretório são somadas e relatadas. No resultado da CLI, raw_bytes é rotulado como "Bytes originais"; pre_lc_size é rotulado como "globalmente compactado"; post_lc_bytes é marcado como "Locally Compressed"; as outras sobrecargas são relatadas como "metadados". Os dois exemplos são capturados de um DD:

Exemplo 1 real: Estatísticas de compactação em linha de um arquivo

# filesys show compression /data/col1/main/dir1/file_1 
Total files: 1;  bytes/storage_used: 7.1
        Logical Bytes:       53,687,091,200
       Original Bytes:       11,463,643,380
  Globally Compressed:        4,373,117,751
   Locally Compressed:        1,604,726,416
            Meta-data:           18,118,232

Exemplo 2: Estatísticas de compactação em linha de todos os arquivos de um diretório, inclusive de todos os subdiretórios

# filesys show compression /data/col1/main/dir1 
Total files: 13;  bytes/storage_used: 7.1
        Logical Bytes:       53,693,219,809
       Original Bytes:       11,501,978,884
  Globally Compressed:        4,387,212,404
   Locally Compressed:        1,608,444,046
            Meta-data:           18,241,880

O sistema relata a taxa geral de compactação em linha no resultado da CLI acima como "bytes/storage_used".  No entanto, é necessário ter cuidado ao interpretar as informações acima, pois elas podem ser falsas por vários motivos. Um dos motivos é que pre_lc_size e post_lc_size são registrados quando as operações de dados são processadas. Quando o arquivo que originalmente adicionou esses segmentos é excluído, o número de segmentos de dados exclusivos no arquivo restante deve ser aumentado.

Por exemplo, suponha que um arquivo sample.file seja feito em backup em um Data Domain e, no primeiro backup, as informações de compactação do arquivo sejam pre_lc_size=10GiB, post_lc_size=5Gib.

Em seguida, suponha que os dados desse arquivo são exclusivos, sem compartilhamento de dados com qualquer outro arquivo. No segundo backup do arquivo, suponha ainda que o arquivo obtenha a desduplicação ideal, de modo que tanto o pre_lc_size quanto o post_lc_size devem ser zero porque todos os segmentos do arquivo já existiam no sistema. Quando o primeiro backup é excluído, o segundo backup do arquivo se torna o único arquivo que faz referência aos 5 GiB de segmentos de dados. Nesse caso, o ideal é que o pre_lc_size e o post_lc_size do arquivo no segundo backup sejam atualizados de zero para 10 GiB e 5 GiB, respectivamente. No entanto, não há como detectar para quais arquivos isso deve ser feito, portanto, as estatísticas de compactação em linha dos arquivos existentes são deixadas inalteradas.

Outro fator que afeta os números acima são as estatísticas cumulativas. Quando um arquivo recebe muitas sobregravações, é impossível controlar até que ponto as estatísticas cumulativas refletem as gravações que introduziram os dados em tempo real. Assim, durante um longo tempo, as estatísticas de compactação em linha só podem ser tratadas como uma heurística para estimar aproximadamente a compactação de um arquivo específico.

Outro fato que vale a pena destacar é que a compactação em linha de um arquivo não pode ser medida para um intervalo de tempo arbitrário. As estatísticas de compactação em linha do arquivo são um resultado cumulativo e abrangem todas as gravações que o arquivo já recebeu. Quando um arquivo recebe muitas substituições, o raw_bytes pode ser muito maior do que o tamanho lógico do arquivo. Para arquivos fragmentados, os tamanhos de arquivo podem ser maiores do que os "bytes originais".

3.2 Compactação
de MTree Podemos verificar a compactação de um MTreeespecífico com o comando "mtree show compression" (MSC) Comando CLI. Os valores absolutos das estatísticas de compactação em linha são cumulativos ao longo da vida útil do MTree. Dado que a vida útil de um MTree pode ser de muitos anos, esses valores se tornam cada vez menos informativos ao longo do tempo. Para resolver esse problema, usamos a quantidade de alterações (deltas) das estatísticas de compactação em linha e relatamos a compactação apenas para determinados intervalos de tempo. A abordagem subjacente é despejar periodicamente as estatísticas de compactação em linha do MTree em um log. Quando um cliente consulta a compactação de MTree com o comando MSC, usamos o log para calcular os deltas dos números para a geração de relatórios de compactação. Por padrão, o MSC relata a compactação para os últimos 7 dias e as últimas 24 horas, embora o período de interesse a qualquer momento possa ser especificado.

Para demonstrar, suponha o seguinte log para MTree A:

3:00AM, raw_bytes=11000GB, pre_lc_size=100GB, post_lc_size=50GB 4:00AM, raw_bytes=12000GB, pre_lc_size=200GB, post_lc_size=100GB

Então a compactação do MTree A para essa hora é:

g_comp = (12000-11000)/(200-100) = 10x
l_comp = (200-100)/(100-50) = 2x
overall compression ratio = (12000-11000)/(100-50) = 20x

O cálculo da taxa de compactação acima não faz nada com o tamanho do conjunto de dados. Por exemplo, a mtree acima pode ter apenas 500 GB de dados lógicos.

O MSC é compatível com as opções "daily" e "daily-detailed", assim como o comando "filesys show compression". Quando "daily" é especificado, o comando relata a compactação diária em uma forma de calendário. Ela usa os deltas diários de raw_bytes e post_lc_size para calcular a taxa de compactação diária. Quando "daily-detailed" é especificado, o comando mostra todos os três deltas (do raw_bytes, pre_lc_size e post_lc_size, respectivamente) para cada dia; Ele também calcula o g_comp e o l_comp juntamente com o fator de compactação total.

O exemplo de resultado desses sistemas está no Apêndice.

3.3 Compactação
do sistema Depois de entendermos como a compactação é relatada em MTrees, é simples estender o conceito para todo o sistema. A compactação, a coleta e a geração de relatórios de estatísticas em linha de compactação em todo o sistema são exatamente iguais aos MTrees. A única diferença é o escopo, já que um está em um MTree específico, enquanto outro está em todo o sistema. Os resultados podem ser verificados usando o comando "filesys show compression". Um exemplo disso pode ser encontrado na Seção 2. A compactação do sistema "últimos 7 dias" e "últimas 24 horas" é relatada nas duas últimas linhas da seção de resultados na saída do FSC.

4. Nível da nuvem

Em DDs com o nível da nuvem implementado, o armazenamento é separado no nível ativo e no nível da nuvem, que são dois domínios de desduplicação independentes. Os usuários podem injetar dados somente no nível ativo. Posteriormente, as funções de movimentação de dados do DDOS podem ser usadas para migrar dados do nível ativo para o nível da nuvem. Assim, a medição e a geração de relatórios de espaço e compactação são tratadas de forma independente em cada nível. Mas, em nível de arquivo, não diferenciamos por nível e reportamos estatísticas de compactação em linha; eles são exatamente os mesmos que descrevemos na Seção 3.1.

5. Deduplicação

O último tópico a destacar são algumas das características da desduplicação, que é chamada de "compactação global" em muitos documentos do Data Domain. Embora contenha a palavra "compactação", ela é totalmente diferente do conceito tradicional de compactação, que também é fornecido pelo DDOS sob o nome de "compactação local".

A compactação local reduz o tamanho de um dado usando um determinado algoritmo (alguns tipos de dados não são compactáveis e aplicar algoritmos de compactação neles pode aumentar ligeiramente o tamanho dos dados). Normalmente, uma vez que um algoritmo é decidido, os dados em si são o único fator da taxa de compactação.

No entanto, a desduplicação é diferente - não é um conceito local, é "global". Um segmento de dados de entrada é desduplicado em relação a todos os segmentos de dados existentes em um domínio desduplicado, o que inclui todos os dados em sistemas Data Domain não em nuvem. O segmento de dados em si não importa no procedimento de desduplicação.

Na prática, raramente vemos uma taxa de desduplicação alta no backup inicial de um conjunto de dados. Nos backups iniciais, muitas vezes, a grande redução de dados vem da compactação local. Quando os backups subsequentes chegam ao Data Domain, a desduplicação mostra sua força e se torna o fator dominante para a compactação. A eficiência da desduplicação baseia-se no fato de que a taxa de alteração de um conjunto de dados é baixa de backup para backup. Por esse motivo, conjuntos de dados com altas taxas de alteração não podem ser bem desduplicados. Quando o aplicativo de backup insere seus próprios fragmentos de metadados (chamados de marcadores pelo Data Domain) nas imagens de backup em alta frequência, ele também pode não obter uma boa taxa de desduplicação. Nossas técnicas de manipulação de marcadores podem ajudar às vezes, mas nem sempre.

Diante dessas observações, o que podemos esperar?

  • Os backups iniciais podem atingir apenas uma pequena taxa de compactação efetiva do sistema, geralmente de 2x ou 3x. A desduplicação geralmente tem pouca oportunidade de mostrar sua força nos backups iniciais.
  • A taxa de compactação global de um backup incremental é menor que a taxa de compactação do backup completo correspondente. Isso ocorre porque um backup incremental contém apenas arquivos alterados ou novos, em comparação com o backup anterior imediato. A taxa de compactação global depende da porcentagem de novos dados no backup incremental.
  • A taxa de desduplicação de um backup completo (os não iniciais) também pode ser baixa em alguns cenários. Alguns cenários observados com frequência incluem:
    • Uma alta taxa de alteração nos dados que estão sendo submetidos a backup
    • O conjunto de dados sendo dominado por arquivos pequenos (menos de 5 MiB)
    • Aplicativos de backup que adicionam muitos marcadores espaçados
    • Backups de banco de dados incrementais ou que usam tamanho de bloco pequeno
    • Quando uma baixa taxa de compactação é observada em um backup completo com uma baixa taxa de alteração de dados, devemos verificar se um dos casos acima se aplica ou se uma análise adicional é necessária.
  • A compactação de uma imagem de backup posterior nem sempre é melhor do que a inicial. As imagens de backup consecutivo podem mostrar uma taxa de desduplicação alta porque as imagens de backup inicial e anterior já adicionaram a maioria dos dados ao sistema. Quando todas as imagens de backup anteriores são excluídas, a taxa de compactação global e local da imagem de backup existente mais antiga ainda pode ser alta, mas isso significa apenas que ela obteve uma boa desduplicação quando foi adicionada ao sistema, nada mais. Quando um arquivo é excluído com uma alta taxa de compactação global e local e é a última imagem de backup de um conjunto de dados específico, ele pode liberar mais espaço do que o tamanho derivado da taxa de compactação.
  • As taxas de compactação do mesmo conjunto de dados em sistemas diferentes não podem ser comparadas, independentemente da maneira como o conjunto de dados é adicionado a esses sistemas. Isso ocorre porque cada sistema é um domínio de desduplicação independente. Não há expectativa de que dois DDs diferentes obtenham taxas de compactação iguais ou mesmo necessariamente semelhantes, mesmo que seus conjuntos de dados sejam os mesmos.

 6. Resumo

Medir a compactação é difícil em sistemas de arquivos desduplicados, mas é ainda mais difícil em sistemas de arquivos desduplicados estruturados em log. Precisamos entender como a desduplicação funciona e como as estatísticas de compactação são rastreadas. As taxas de compactação são informações úteis para entender o comportamento de um sistema específico. A taxa de compressão efetiva do sistema é a medida mais importante, confiável e informativa. As estatísticas de compactação em linha também podem ser úteis, mas podem não ser mais do que heurísticas em algumas circunstâncias.

Apêndice: Exemplo de resultado de "mtree show compression" Comando

Suponha que haja um MTree segurando 254792,4 GiB de dados. Ele recebeu 4379,3 GiB de novos dados nos últimos 7 dias e 78,4 GiB nas últimas 24 horas (outros intervalos de tempo podem ser especificados). A opção "daily" informa as estatísticas de compactação em linha dos últimos 33 dias. Quando a opção "daily-detailed" é fornecida, as taxas de compactação total são mais detalhadas separando-as em taxas de compactação globais e locais.

Resultado da lista de Mtree:

# mtree list /data/col1/main 
Name              Pre-Comp (GiB)   Status
---------------   --------------   ------
/data/col1/main         254792.4   RW
---------------   --------------   ------
 D    : Deleted
 Q    : Quota Defined
 RO   : Read Only
 RW   : Read Write
 RD   : Replication Destination
 IRH  : Retention-Lock Indefinite Retention Hold Enabled
 ARL  : Automatic-Retention-Lock Enabled
 RLGE : Retention-Lock Governance Enabled
 RLGD : Retention-Lock Governance Disabled
 RLCE : Retention-Lock Compliance Enabled
 M    : Mobile
 m    : Migratable
MSC (sem opções):
# mtree show compression /data/col1/main

From: 2023-09-07 12:00 To: 2023-09-14 12:00

                Pre-Comp   Post-Comp   Global-Comp   Local-Comp      Total-Comp
                   (GiB)       (GiB)        Factor       Factor          Factor
                                                                  (Reduction %)
-------------   --------   ---------   -----------   ----------   -------------
Written:
  Last 7 days     4379.3       883.2          3.4x         1.5x     5.0x (79.8)
  Last 24 hrs      784.6       162.1          3.3x         1.4x     4.8x (79.3)
-------------   --------   ---------   -----------   ----------   -------------

Com a opção "diariamente":

# mtree show compression /data/col1/main daily

From: 2023-08-12 12:00 To: 2023-09-14 12:00

  Sun     Mon     Tue     Wed     Thu     Fri     Sat   Weekly
-----   -----   -----   -----   -----   -----   -----   ------   -----------------
 -13-    -14-    -15-    -16-    -17-    -18-    -19-            Date
432.0   405.9   284.1   438.8   347.0   272.7   331.4   2511.8   Pre-Comp
 85.5    66.2    45.3    81.9    61.4    57.4    66.3    464.1   Post-Comp
 5.0x    6.1x    6.3x    5.4x    5.7x    4.7x    5.0x     5.4x   Total-Comp Factor

 -20-    -21-    -22-    -23-    -24-    -25-    -26-
478.0   387.8   450.2   533.1   386.0   258.4   393.6   2887.1
100.6    81.5   100.8   119.0    84.0    40.6    75.3    601.8
 4.8x    4.8x    4.5x    4.5x    4.6x    6.4x    5.2x     4.8x

 -27-    -28-    -29-    -30-    -31-     -1-     -2-
 27.6     1.0     0.4   470.7   467.3   517.7   641.9   2126.7
  4.9     0.2     0.1    83.9    92.3    89.8   140.1    411.2
 5.6x    5.6x    4.3x    5.6x    5.1x    5.8x    4.6x     5.2x

  -3-     -4-     -5-     -6-     -7-     -8-     -9-
539.6   495.0   652.8   658.7   537.1   398.7   305.5   3587.3 
110.8   108.0   139.4   137.0   111.5    78.3    48.3    733.3 
 4.9x    4.6x    4.7x    4.8x    4.8x    5.1x    6.3x     4.9x 

 -10-    -11-    -12-    -13-    -14-   
660.2   738.3   787.2   672.9   796.9                   3655.5
143.9   152.5   167.6   126.9   163.3                    754.2 
 4.6x    4.8x    4.7x    5.3x    4.9x                     4.8x 
-----   -----   -----   -----   -----   -----   -----   ------   -----------------
                 Pre-Comp   Post-Comp   Global-Comp   Local-Comp      Total-Comp
                    (GiB)       (GiB)        Factor       Factor          Factor
                                                                   (Reduction %)
--------------   --------   ---------   -----------   ----------   -------------
Written:
  Last 33 days    14768.3      2964.5          3.4x         1.5x     5.0x (79.9)
  Last 24 hrs       784.6       162.1          3.3x         1.4x     4.8x (79.3)
--------------   --------   ---------   -----------   ----------   -------------

Key:
       Pre-Comp = Data written before compression
       Post-Comp = Storage used after compression
       Global-Comp Factor = Pre-Comp / (Size after de-dupe)
       Local-Comp Factor = (Size after de-dupe) / Post-Comp
       Total-Comp Factor = Pre-Comp / Post-Comp
       Reduction % = ((Pre-Comp - Post-Comp) / Pre-Comp) * 100

Com a opção "daily-detailed":

# mtree show compression /data/col1/main daily-detailed 

From: 2023-08-12 12:00 To: 2023-09-14 12:00

  Sun     Mon     Tue     Wed     Thu    Fri     Sat    Weekly
-----   -----   -----   -----   -----   -----   -----   ------   -----------------
 -13-    -14-    -15-    -16-    -17-    -18-    -19-            Date
432.0   405.9   284.1   438.8   347.0   272.7   331.4   2511.8   Pre-Comp
 85.5    66.2    45.3    81.9    61.4    57.4    66.3    464.1   Post-Comp
 3.5x    4.1x    4.3x    3.6x    3.8x    3.3x    3.4x     3.7x   Global-Comp Factor
 1.4x    1.5x    1.5x    1.5x    1.5x    1.4x    1.5x     1.5x   Local-Comp Factor
 5.0x    6.1x    6.3x    5.4x    5.7x    4.7x    5.0x     5.4x   Total-Comp Factor
 80.2    83.7    84.1    81.3    82.3    78.9    80.0     81.5   Reduction %

 -20-    -21-    -22-    -23-    -24-    -25-    -26-
478.0   387.8   450.2   533.1   386.0   258.4   393.6   2887.1
100.6    81.5   100.8   119.0    84.0    40.6    75.3    601.8
 3.3x    3.3x    3.0x    3.0x    3.3x    4.1x    3.6x     3.3x 
 1.4x    1.5x    1.5x    1.5x    1.4x    1.5x    1.4x     1.5x 
 4.8x    4.8x    4.5x    4.5x    4.6x    6.4x    5.2x     4.8x
 79.0    79.0    77.6    77.7    78.2    84.3    80.9     79.2

 -27-    -28-    -29-    -30-    -31-    -1-     -2-
 27.6     1.0     0.4   470.7   467.3   517.7   641.9   2126.7
  4.9     0.2     0.1    83.9    92.3    89.8   140.1    411.2
 4.4x    3.7x    2.6x    3.8x    3.5x    3.9x    3.2x     3.5x 
 1.3x    1.5x    1.6x    1.5x    1.4x    1.5x    1.5x     1.5x
 5.6x    5.6x    4.3x    5.6x    5.1x    5.8x    4.6x     5.2x
 82.1    82.2    76.8    82.2    80.3    82.7    78.2     80.7

  -3-     -4-     -5-     -6-     -7-    -8-     -9-
539.6   495.0   652.8   658.7   537.1   398.7   305.5   3587.3 
110.8   108.0   139.4   137.0   111.5    78.3    48.3    733.3 
 3.4x    3.1x    3.2x    3.4x    3.3x    3.4x    4.1x     3.3x 
 1.4x    1.5x    1.5x    1.4x    1.4x    1.5x    1.6x     1.5x
 4.9x    4.6x    4.7x    4.8x    4.8x    5.1x    6.3x     4.9x 
 79.5    78.2    78.6    79.2    79.2    80.4    84.2     79.6

 -10-    -11-    -12-    -13-    -14-   
660.2   738.3   787.2   672.9   796.9                   3655.5
143.9   152.5   167.6   126.9   163.3                    754.2
 3.1x    3.4x    3.2x    3.7x    3.4x                      .3x 
 1.5x    1.4x    1.5x    1.4x    1.5x                     1.5x
 4.6x    4.8x    4.7x    5.3x    4.9x                     4.8x
 78.2    79.3    78.7    81.1    79.5                     79.4
-----   -----   -----   -----   -----   -----   -----   ------   -----------------
                 Pre-Comp   Post-Comp   Global-Comp   Local-Comp      Total-Comp
                    (GiB)       (GiB)        Factor       Factor          Factor
                                                                   (Reduction %)
--------------   --------   ---------   -----------   ----------   -------------
Written:
  Last 33 days    14768.3      2964.5          3.4x         1.5x     5.0x (79.9)
  Last 24 hrs       784.6       162.1          3.3x         1.4x     4.8x (79.3)
--------------   --------   ---------   -----------   ----------   -------------

Key:
       Pre-Comp = Data written before compression
       Post-Comp = Storage used after compression
       Global-Comp Factor = Pre-Comp / (Size after de-dupe)
       Local-Comp Factor = (Size after de-dupe) / Post-Comp
       Total-Comp Factor = Pre-Comp / Post-Comp
       Reduction % = ((Pre-Comp - Post-Comp) / Pre-Comp) * 100

Affected Products

Data Domain

Products

Data Domain