Las técnicas de compresión involucradas en un Data Domain utilizan técnicas de vanguardia para reducir el espacio físico requerido por los datos del cliente. Por lo tanto, las tecnologías y las mediciones de los niveles de compresión son temas complejos. En este documento, se analizan algunas de las terminologías, las compensaciones y las medidas para explicar mejor los tipos de compresión utilizados, la terminología y otros aspectos de la compresión en un sistema Data Domain.
SE APLICA A:
Todos los modelos de Data Domain
Última actualización: Enero de 2024
La compresión es una tecnología de reducción de datos cuyo objetivo es almacenar un conjunto de datos utilizando menos espacio físico. En los sistemas Data Domain (DDOS), realizamos desduplicación y compresión local para comprimir los datos de usuario. La desduplicación, o “deduplicación”, se utiliza para identificar segmentos de datos redundantes y almacenar solo segmentos de datos únicos. La compresión local comprime aún más los segmentos de datos únicos con ciertos algoritmos de compresión, como los siguientes lz, gzfast, gz
, etcétera. La compresión general de datos de usuario en DDOS es el esfuerzo conjunto de la desduplicación y la compresión local. DDOS utiliza la “tasa de compresión” para medir la eficacia de su compresión de datos. Por lo general, es la relación entre el tamaño total de los datos de usuario y el tamaño total de los datos comprimidos o el tamaño del espacio físico utilizado.
El sistema de archivos Data Domain es un sistema de archivos con desduplicación "estructurado en registros". Un sistema de archivos estructurados en registros solo agrega datos al sistema y la eliminación por sí sola no puede liberar espacio físico. Estos sistemas de archivos dependen de la recolección de elementos no utilizados para recuperar espacio que ya no es necesario. Las características del sistema de archivos con estructura de registros y la tecnología de desduplicación combinadas hacen que sea difícil comprender claramente todos los aspectos de la compresión en DDOS.
Para la compresión, hay muchos aspectos que podemos medir. En este documento, analizaremos los detalles paso a paso para ayudar a comprender la compresión de DDOS. En primer lugar, explicamos el efecto general de compresión del sistema, que nos indica la compresión realista lograda en un sistema Data Domain, la cantidad de datos de usuario, la cantidad de espacio físico consumido y la proporción de ellos. Esta tasa se denomina "tasa de compresión efectiva del sistema" en este documento. DDOS lleva a cabo la desduplicación en línea y rastrea las estadísticas de los segmentos de datos de usuario originales, los segmentos de datos únicos posteriores a la desduplicación y el efecto de compresión local en los segmentos de datos únicos. Estas estadísticas de compresión en línea se utilizan para medir el efecto de la compresión en línea. Las estadísticas de compresión en línea se pueden medir para cada escritura. Además, DDOS realiza un seguimiento de las estadísticas en diferentes niveles; archivos, MTrees y todo el sistema.
El contenido de este documento se puede aplicar a todas las versiones de DDOS hasta la publicación de este documento, hasta DDOS 7.13. No hay ninguna garantía de que todo el contenido sea preciso para versiones futuras. En versiones anteriores a 5.0, todo el sistema tiene un solo MTree y el término MTree no se menciona explícitamente.
El efecto de compresión general en todo el sistema se mide por la tasa de compresión efectiva del sistema, que es la relación entre el tamaño de los datos de usuario y el tamaño del espacio físico utilizado. Se informa mediante el comando de la CLI filesys show compression (FSC) (la información correspondiente también está disponible en la interfaz de usuario). A continuación, se muestra un ejemplo de salida de FSC:
# filesys show compression
From: 2023-12-31 03:00 To: 2024-01-07 03:00
Active Tier:
Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp
(GiB) (GiB) Factor Factor Factor
(Reduction %)
---------------- -------- --------- ----------- ---------- -------------
Currently Used:* 6439.6 113.4 - - 56.8x (98.2)
Written:
Last 7 days 135421.3 1782.0 35.1x 2.2x 76.0x (98.7)
Last 24 hrs 532.5 1.5 334.3x 1.1x 356.5x (99.7)
---------------- -------- --------- ----------- ---------- -------------
* Does not include the effects of pre-comp file deletes/truncates
since the last cleaning on 2024/01/05 11:34:13.
La tasa de compresión efectiva del sistema se informa en la fila 1 de la sección de resultados en la salida de la CLI. La fila está resaltada arriba. El tamaño total de los datos del usuario está etiquetado como "Pre-Comp". El espacio físico total consumido (tanto por datos como por metadatos) se etiqueta como "Post-Comp".
Los números "Pre-Comp" y "Post-Comp" se leen en el tiempo de ejecución. FSC sincroniza implícitamente todo el sistema y, luego, consulta por los dos números. Estos dos números se miden de la misma manera que el comando "filesys show space".
Tasa de compresión efectiva del sistema = Antes de la compresión/Después de la compresión
. En el resto de la salida de FSC se describen las estadísticas de compresión en línea, las cuales se analizan más adelante.
Hay algunas operaciones que pueden afectar la tasa de compresión efectiva del sistema:
Fastcopy
Cuando se realiza una copia rápida desde un archivo en el espacio de nombres activo (no una instantánea), es una desduplicación perfecta, ya que no se necesita espacio físico adicional para el archivo de destino. El efecto de una copia rápida es que aumentamos el tamaño de los datos de usuario sin consumir espacio físico adicional. Esto aumenta la tasa de compresión efectiva del sistema. Cuando se realizan muchas copias rápidas, la tasa de compresión efectiva del sistema puede llegar a ser artificialmente alta.
Sintéticos virtuales
Los respaldos sintéticos virtuales tienden a mostrar una alta tasa de compresión efectiva del sistema. Esto se debe a que los sintéticos virtuales realizan respaldos lógicos completos, pero solo transfieren datos nuevos o modificados a sistemas Data Domain. El impacto en la tasa de compresión efectiva del sistema de los sintéticos virtuales es algo similar al efecto de FastCopy.
Sobrescribe
Las sobrescrituras consumen más espacio físico, pero no aumentan el tamaño lógico del conjunto de datos, por lo que las sobrescrituras reducen la tasa de compresión efectiva del sistema.
Almacenamiento de archivos dispersos
Los archivos dispersos contienen “orificios” grandes que se cuentan en el tamaño lógico, pero que no consumen espacio físico debido a la compresión. Como resultado, pueden hacer que la tasa de compresión real del sistema parezca alta.
Almacenamiento de archivos pequeños
DDOS agrega casi 1 KB de sobrecarga a cada archivo para ciertos metadatos internos. Cuando un sistema almacena una cantidad significativa de archivos pequeños (con tamaños inferiores a 1 KB o en kilobytes de un solo dígito), la sobrecarga de metadatos reduce la tasa de compresión efectiva.
Almacenamiento de archivos previamente comprimidos o cifrados
La compresión y el cifrado pueden amplificar el nivel de cambio de datos y reducir la posibilidad de desduplicación. Por lo general, estos archivos no se pueden desduplicar correctamente y reducen la tasa de compresión efectiva del sistema.
Elimina
Las eliminaciones reducen el tamaño lógico del sistema, pero el sistema no recupera el espacio no utilizado correspondiente hasta que se ejecuta una recolección de elementos no utilizados. Muchos archivos eliminados hacen que la tasa de compresión sea baja hasta que se ejecuta la recolección de elementos no utilizados (GC).
Recolección de elementos no utilizados (GC) o limpieza
La GC recupera el espacio consumido por los segmentos de datos que ya no son vistos por ningún archivo. Si se eliminaron muchos archivos recientemente, una GC puede aumentar la tasa de compresión del sistema mediante la reducción del consumo de espacio físico.
Toma dinámica de instantáneas
Cuando tomamos una instantánea de un MTree, no cambiamos el tamaño lógico del conjunto de datos. Sin embargo, se deben bloquear todos los segmentos de datos a los que hace referencia la instantánea, incluso si todos los archivos capturados por la instantánea se eliminan después de que se tomó la instantánea. GC no puede recuperar el espacio que todavía necesitan las instantáneas; Por lo tanto, tener muchas instantáneas puede hacer que la tasa de compresión efectiva del sistema parezca baja. Sin embargo, las instantáneas son funcionalidades útiles de recuperación ante fallas. Nunca debemos dudar en tomar instantáneas o configurar programas de instantáneas adecuados cuando sea necesario.
DDOS lleva a cabo la desduplicación en línea, a medida que los datos se escriben en el sistema. Realiza un seguimiento de los efectos de la compresión local y la desduplicación en línea para cada escritura, y acumula las estadísticas en el nivel de archivo. Las estadísticas de compresión en línea por archivo se agregan aún más en el nivel de MTree y en el nivel del sistema. La compresión se mide en función de tres números en las estadísticas en línea:
En función de los tres números anteriores, DDOS define otras dos tasas de compresión de granularidad fina:
Las estadísticas de compresión en línea acumuladas son parte de los metadatos del archivo en DDOS y se almacenan en el inodo de archivos. DDOS proporciona herramientas para comprobar las compresiones en línea en los tres niveles; en el archivo, en MTree y en todo el sistema. Los detallamos en los siguientes apartados.
3.1 Compresión
de archivos La compresión de archivos se puede comprobar con el comando de la CLI "filesys show compression <path>", que informa de las estadísticas de compresión acumuladas almacenadas en el inodo del archivo. Cuando se especifica un directorio, las estadísticas de compresión en línea de todos los archivos en ese directorio se resumen e informan. En la salida de la CLI, raw_bytes se etiqueta como "Original Bytes"; pre_lc_size está etiquetado como "Globally Compressed"; post_lc_bytes está marcado como "Locally Compressed"; las otras sobrecargas se informan como "Metadatos". Los dos ejemplos se capturan de un DD:
Ejemplo 1 real: Estadísticas de compresión en línea de un archivo
# filesys show compression /data/col1/main/dir1/file_1 Total files: 1; bytes/storage_used: 7.1 Logical Bytes: 53,687,091,200 Original Bytes: 11,463,643,380 Globally Compressed: 4,373,117,751 Locally Compressed: 1,604,726,416 Meta-data: 18,118,232
Ejemplo 2: Estadísticas de compresión en línea de todos los archivos de un directorio, incluidos todos los subdirectorios
# filesys show compression /data/col1/main/dir1 Total files: 13; bytes/storage_used: 7.1 Logical Bytes: 53,693,219,809 Original Bytes: 11,501,978,884 Globally Compressed: 4,387,212,404 Locally Compressed: 1,608,444,046 Meta-data: 18,241,880
El sistema informa la tasa de compresión en línea general en la salida de la CLI anterior como "bytes/storage_used". Sin embargo, se debe tener cuidado al interpretar la información anterior, ya que puede ser engañosa por diversas razones. Una de ellas es que los valores de pre_lc_size y post_lc_size se registran en el momento en que se procesan las operaciones de datos. Cuando se elimina el archivo que originalmente agregó esos segmentos, se debe aumentar la cantidad de segmentos de datos únicos en el archivo restante.
Por ejemplo, supongamos que se respalda un archivo sample.file en un Data Domain y, en el primer respaldo, la información de compresión del archivo es pre_lc_size=10GiB, post_lc_size=5Gib.
A continuación, suponga que los datos de este archivo son únicos y que no se pueden compartir con ningún otro archivo. En el segundo respaldo del archivo, suponga además que el archivo obtiene una desduplicación ideal, de modo que tanto pre_lc_size como post_lc_size deben ser cero debido a que todos los segmentos del archivo ya existían en el sistema. Cuando se elimina el primer respaldo, el segundo respaldo del archivo se convierte en el único archivo que hace referencia a los 5 GiB de segmentos de datos. En este caso, lo ideal es actualizar la pre_lc_size y la post_lc_size del archivo en el segundo respaldo de cero a 10 GiB y 5 GiB, respectivamente. Sin embargo, no hay manera de detectar para qué archivos se debe realizar, por lo que las estadísticas de compresión en línea de los archivos existentes no se modifican.
Otro factor que afecta a los números anteriores son las estadísticas acumuladas. Cuando un archivo recibe una gran cantidad de sobrescrituras, es imposible rastrear hasta qué punto las estadísticas acumulativas reflejan las escrituras que introdujeron los datos activos. Por lo tanto, durante mucho tiempo, las estadísticas de compresión en línea solo se pueden tratar como una heurística para estimar aproximadamente la compresión de un archivo en particular.
Otro hecho que vale la pena destacar es que la compresión en línea de un archivo no se puede medir durante un intervalo de tiempo arbitrario. Las estadísticas de compresión en línea de archivos son un resultado acumulativo y cubren todas las escrituras que ha recibido el archivo. Cuando un archivo recibe muchas sobrescrituras, el raw_bytes puede ser mucho mayor que el tamaño lógico del archivo. En el caso de los archivos dispersos, los tamaños de archivo pueden ser mayores que los "bytes originales".
3.2 Compresión
de MTreePodemos comprobar la compresión de un mtree en particular con el comando "mtree show compression"
(MSC, por sus siglas en inglés) Comando de la CLI. Los valores absolutos de las estadísticas de compresión en línea se acumulan durante toda la vida útil del MTree. Dado que la vida útil de un MTree puede durar muchos años, estos valores se vuelven cada vez menos informativos con el tiempo. Para abordar este problema, usamos la cantidad de cambio (deltas) de las estadísticas de compresión en línea e informamos la compresión solo para ciertos intervalos de tiempo. El enfoque subyacente es que volcamos periódicamente las estadísticas de compresión en línea de MTree a un registro. Cuando un cliente consulta la compresión de MTree con el comando MSC, usamos el registro para calcular los deltas de los números para la generación de informes de compresión. De manera predeterminada, MSC informa la compresión de los últimos 7 días y las últimas 24 horas, aunque se puede especificar cualquier período de interés.
Para demostrarlo, suponga el siguiente registro para el MTree A:
3:00AM, raw_bytes=11000GB, pre_lc_size=100GB, post_lc_size=50GB 4:00AM, raw_bytes=12000GB, pre_lc_size=200GB, post_lc_size=100GB
Entonces, la compresión de MTree A para esta hora es:
g_comp = (12000-11000)/(200-100) = 10x l_comp = (200-100)/(100-50) = 2x overall compression ratio = (12000-11000)/(100-50) = 20x
El cálculo de la tasa de compresión anterior no hace nada con el tamaño del conjunto de datos. Por ejemplo, es posible que el mtree anterior solo tenga 500 GB de datos lógicos.
MSC es compatible con las opciones "daily" y "daily-detailed", al igual que el comando "filesys show compression". Cuando se especifica "daily", el comando informa la compresión diaria en forma de calendario. Utiliza los deltas diarios de los valores raw_bytes y post_lc_size para calcular la tasa de compresión diaria. Cuando se especifica "daily-detailed", el comando muestra los tres deltas (del raw_bytes, el pre_lc_size y el post_lc_size, respectivamente) para cada día; También calcula el g_comp y el l_comp junto con el factor de compresión total.
Algunos ejemplos de resultados de estos sistemas se encuentran en el Apéndice.
3.3 Compresión
del sistema Una vez que comprendemos cómo se informa la compresión en MTrees, es sencillo extender el concepto a todo el sistema. La recopilación de estadísticas y la generación de informes en línea de compresión en todo el sistema son exactamente las mismas que con MTrees. La única diferencia es el alcance, ya que uno está en un MTree en particular, mientras que el otro está en todo el sistema. Los resultados se pueden comprobar mediante el comando "filesys show compression". Un ejemplo de esto se puede encontrar en la Sección 2. La compresión del sistema de los "últimos 7 días" y las "últimas 24 horas" se informa en las últimas dos líneas de la sección de resultados en la salida de FSC.
En los DD con el nivel de nube implementado, el almacenamiento se separa en el nivel activo y el nivel de nube, que son dos dominios de desduplicación independientes. Los usuarios pueden insertar datos solo en el nivel activo. Más adelante, las funciones de transferencia de datos de DDOS se pueden usar para migrar datos del nivel activo al nivel de nube. Por lo tanto, la medición y la generación de informes de espacio y compresión se manejan de manera independiente en cada nivel. Sin embargo, en el nivel de archivos, no diferenciamos por nivel ni informamos estadísticas de compresión en línea; son exactamente iguales a los que describimos en la Sección 3.1.
El último tema que se debe destacar son algunas de las características de la desduplicación, que se denomina "compresión global" en muchos documentos de Data Domain. Aunque contiene la palabra "compresión", es completamente diferente del concepto tradicional de compresión, que también proporciona DDOS bajo el nombre de "compresión local".
La compresión local reduce el tamaño de un fragmento de datos mediante un algoritmo determinado (algunos tipos de datos no son comprimibles y la aplicación de algoritmos de compresión en ellos puede aumentar ligeramente el tamaño de los datos). Por lo general, una vez que se decide un algoritmo, los datos en sí son el único factor de la tasa de compresión.
Sin embargo, la desduplicación es diferente: no es un concepto local, es "global". Un segmento de datos entrante se desduplica con todos los segmentos de datos existentes en un dominio desduplicado, que incluye todos los datos en sistemas Data Domain que no son en la nube. El segmento de datos en sí no es importante en el procedimiento de desduplicación.
En la práctica, rara vez vemos una alta tasa de desduplicación en el respaldo inicial de un conjunto de datos. En los respaldos iniciales, a menudo, la reducción de datos principal proviene de la compresión local. Cuando los respaldos posteriores llegan a Data Domain, la desduplicación muestra su fuerza y se convierte en el factor dominante para la compresión. La eficacia de la desduplicación depende del hecho de que la tasa de cambio de un conjunto de datos es baja de un respaldo a otro. Por este motivo, los conjuntos de datos con altas tasas de cambio no se pueden desduplicar correctamente. Cuando la aplicación de respaldo inserta sus propios fragmentos de metadatos (denominados marcadores por Data Domain) en las imágenes de respaldo a alta frecuencia, es posible que tampoco obtenga una buena tasa de desduplicación. Nuestras técnicas de manejo de marcadores pueden ayudar a veces, pero no siempre.
Dadas estas observaciones, ¿qué podemos esperar?
Medir la compresión es difícil en los sistemas de archivos desduplicados, pero es aún más difícil en los sistemas de archivos desduplicados con estructura de registro. Debemos comprender cómo funciona la desduplicación y cómo se rastrean las estadísticas de compresión. Las tasas de compresión son información útil para comprender el comportamiento de un sistema en particular. La tasa de compresión efectiva del sistema es la medida más importante, confiable e informativa. Las estadísticas de compresión en línea también pueden ser útiles, pero es posible que no sean más que heurísticas en algunas circunstancias.
Apéndice: Ejemplo de salida de "mtree show compression"
Comando
Suponga que hay un MTree que contiene 254792,4 GiB de datos. Ha recibido 4379,3 GiB de datos nuevos en los últimos 7 días y 78,4 GiB en las últimas 24 horas (se pueden especificar otros intervalos de tiempo). La opción “daily” informa las estadísticas de compresión en línea de los últimos 33 días. Cuando se proporciona la opción "daily-detailed", las tasas de compresión totales se detallan aún más separándolas en tasas de compresión globales y locales.
Salida de la lista de MTree:
# mtree list /data/col1/main Name Pre-Comp (GiB) Status --------------- -------------- ------ /data/col1/main 254792.4 RW --------------- -------------- ------ D : Deleted Q : Quota Defined RO : Read Only RW : Read Write RD : Replication Destination IRH : Retention-Lock Indefinite Retention Hold Enabled ARL : Automatic-Retention-Lock Enabled RLGE : Retention-Lock Governance Enabled RLGD : Retention-Lock Governance Disabled RLCE : Retention-Lock Compliance Enabled M : Mobile m : Migratable
# mtree show compression /data/col1/main From: 2023-09-07 12:00 To: 2023-09-14 12:00 Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp (GiB) (GiB) Factor Factor Factor (Reduction %) ------------- -------- --------- ----------- ---------- ------------- Written: Last 7 days 4379.3 883.2 3.4x 1.5x 5.0x (79.8) Last 24 hrs 784.6 162.1 3.3x 1.4x 4.8x (79.3) ------------- -------- --------- ----------- ---------- -------------
Con la opción "diaria":
# mtree show compression /data/col1/main daily From: 2023-08-12 12:00 To: 2023-09-14 12:00 Sun Mon Tue Wed Thu Fri Sat Weekly ----- ----- ----- ----- ----- ----- ----- ------ ----------------- -13- -14- -15- -16- -17- -18- -19- Date 432.0 405.9 284.1 438.8 347.0 272.7 331.4 2511.8 Pre-Comp 85.5 66.2 45.3 81.9 61.4 57.4 66.3 464.1 Post-Comp 5.0x 6.1x 6.3x 5.4x 5.7x 4.7x 5.0x 5.4x Total-Comp Factor -20- -21- -22- -23- -24- -25- -26- 478.0 387.8 450.2 533.1 386.0 258.4 393.6 2887.1 100.6 81.5 100.8 119.0 84.0 40.6 75.3 601.8 4.8x 4.8x 4.5x 4.5x 4.6x 6.4x 5.2x 4.8x -27- -28- -29- -30- -31- -1- -2- 27.6 1.0 0.4 470.7 467.3 517.7 641.9 2126.7 4.9 0.2 0.1 83.9 92.3 89.8 140.1 411.2 5.6x 5.6x 4.3x 5.6x 5.1x 5.8x 4.6x 5.2x -3- -4- -5- -6- -7- -8- -9- 539.6 495.0 652.8 658.7 537.1 398.7 305.5 3587.3 110.8 108.0 139.4 137.0 111.5 78.3 48.3 733.3 4.9x 4.6x 4.7x 4.8x 4.8x 5.1x 6.3x 4.9x -10- -11- -12- -13- -14- 660.2 738.3 787.2 672.9 796.9 3655.5 143.9 152.5 167.6 126.9 163.3 754.2 4.6x 4.8x 4.7x 5.3x 4.9x 4.8x ----- ----- ----- ----- ----- ----- ----- ------ ----------------- Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp (GiB) (GiB) Factor Factor Factor (Reduction %) -------------- -------- --------- ----------- ---------- ------------- Written: Last 33 days 14768.3 2964.5 3.4x 1.5x 5.0x (79.9) Last 24 hrs 784.6 162.1 3.3x 1.4x 4.8x (79.3) -------------- -------- --------- ----------- ---------- ------------- Key: Pre-Comp = Data written before compression Post-Comp = Storage used after compression Global-Comp Factor = Pre-Comp / (Size after de-dupe) Local-Comp Factor = (Size after de-dupe) / Post-Comp Total-Comp Factor = Pre-Comp / Post-Comp Reduction % = ((Pre-Comp - Post-Comp) / Pre-Comp) * 100
Con la opción "diario detallado":
# mtree show compression /data/col1/main daily-detailed From: 2023-08-12 12:00 To: 2023-09-14 12:00 Sun Mon Tue Wed Thu Fri Sat Weekly ----- ----- ----- ----- ----- ----- ----- ------ ----------------- -13- -14- -15- -16- -17- -18- -19- Date 432.0 405.9 284.1 438.8 347.0 272.7 331.4 2511.8 Pre-Comp 85.5 66.2 45.3 81.9 61.4 57.4 66.3 464.1 Post-Comp 3.5x 4.1x 4.3x 3.6x 3.8x 3.3x 3.4x 3.7x Global-Comp Factor 1.4x 1.5x 1.5x 1.5x 1.5x 1.4x 1.5x 1.5x Local-Comp Factor 5.0x 6.1x 6.3x 5.4x 5.7x 4.7x 5.0x 5.4x Total-Comp Factor 80.2 83.7 84.1 81.3 82.3 78.9 80.0 81.5 Reduction % -20- -21- -22- -23- -24- -25- -26- 478.0 387.8 450.2 533.1 386.0 258.4 393.6 2887.1 100.6 81.5 100.8 119.0 84.0 40.6 75.3 601.8 3.3x 3.3x 3.0x 3.0x 3.3x 4.1x 3.6x 3.3x 1.4x 1.5x 1.5x 1.5x 1.4x 1.5x 1.4x 1.5x 4.8x 4.8x 4.5x 4.5x 4.6x 6.4x 5.2x 4.8x 79.0 79.0 77.6 77.7 78.2 84.3 80.9 79.2 -27- -28- -29- -30- -31- -1- -2- 27.6 1.0 0.4 470.7 467.3 517.7 641.9 2126.7 4.9 0.2 0.1 83.9 92.3 89.8 140.1 411.2 4.4x 3.7x 2.6x 3.8x 3.5x 3.9x 3.2x 3.5x 1.3x 1.5x 1.6x 1.5x 1.4x 1.5x 1.5x 1.5x 5.6x 5.6x 4.3x 5.6x 5.1x 5.8x 4.6x 5.2x 82.1 82.2 76.8 82.2 80.3 82.7 78.2 80.7 -3- -4- -5- -6- -7- -8- -9- 539.6 495.0 652.8 658.7 537.1 398.7 305.5 3587.3 110.8 108.0 139.4 137.0 111.5 78.3 48.3 733.3 3.4x 3.1x 3.2x 3.4x 3.3x 3.4x 4.1x 3.3x 1.4x 1.5x 1.5x 1.4x 1.4x 1.5x 1.6x 1.5x 4.9x 4.6x 4.7x 4.8x 4.8x 5.1x 6.3x 4.9x 79.5 78.2 78.6 79.2 79.2 80.4 84.2 79.6 -10- -11- -12- -13- -14- 660.2 738.3 787.2 672.9 796.9 3655.5 143.9 152.5 167.6 126.9 163.3 754.2 3.1x 3.4x 3.2x 3.7x 3.4x .3x 1.5x 1.4x 1.5x 1.4x 1.5x 1.5x 4.6x 4.8x 4.7x 5.3x 4.9x 4.8x 78.2 79.3 78.7 81.1 79.5 79.4 ----- ----- ----- ----- ----- ----- ----- ------ ----------------- Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp (GiB) (GiB) Factor Factor Factor (Reduction %) -------------- -------- --------- ----------- ---------- ------------- Written: Last 33 days 14768.3 2964.5 3.4x 1.5x 5.0x (79.9) Last 24 hrs 784.6 162.1 3.3x 1.4x 4.8x (79.3) -------------- -------- --------- ----------- ---------- ------------- Key: Pre-Comp = Data written before compression Post-Comp = Storage used after compression Global-Comp Factor = Pre-Comp / (Size after de-dupe) Local-Comp Factor = (Size after de-dupe) / Post-Comp Total-Comp Factor = Pre-Comp / Post-Comp Reduction % = ((Pre-Comp - Post-Comp) / Pre-Comp) * 100