Synopsis
PowerProtect DD Virtual Edition bietet unerreichte Performance und TCO für Kunden, die die Vorteile einer Data Domain-Appliance in einem virtuellen Formfaktor suchen. Allerdings muss vor der Bereitstellung von PowerProtect-DDVE in bestimmten Arten von Umgebungen sorgfältig vorgegangen werden, da dies zu einer Erhöhung der Metadaten-Nutzung im vorgegebenen Leitfaden geführt hat, was sich auf die vom Benutzer erkannten TCO auswirkt. Die Zunahme der Metadaten, die aus den unten beschriebenen Szenarien resultiert, ist eine natürliche Konsequenz der hohen Deduplizierung, da das Produkt pro Design funktioniert, und wir empfehlen Ihnen dringend, die potenziellen Auswirkungen der unten stehenden Szenarien auf die TCO vor der Bereitstellung zu bewerten.Szenario 1: Backups virtueller synthetischer Dateisysteme
Der Schutz von Datei System Backups auf PowerProtect-DDVE mithilfe einer Backup Anwendung (z. b. Avamar) mit aktivierten virtuellen synthetischen Backups kann zu einer Situation führen, in der der Kunde ein hohes Deduplizierungs-Verhältnis zu den Kosten einer erhöhten Nutzung von Metadaten erlebt. Eine hohe effektive Deduplizierungs Rate übt einen Abwärtsdruck auf TCO aus, während die zunehmende Nutzung von Metadaten einen Aufwärtsdruck ausüben. Die Lösung dieser Kräfte bestimmt die Gesamt TCO, die der Benutzer erlebt. Es ist wichtig, vor der Bereitstellung zu bewerten, ob die Umgebung des Benutzers über diese Art von Workload verfügt.Szenario 2: Partielle Container
Das Schreiben partieller Container in den Objektspeicher, die möglicherweise aufgrund häufiger Commits oder durch Schreiben von kleinen Dateien (< 1 MB) verursacht wird, erhöht den Metadaten-Overhead des Systems. In diesem Szenario ist dieser Spike temporär und das System kann durch Ausführen von Cleaning in einen stabilen Zustand versetzt werden, wodurch die partiellen Container nach vorn kopiert und die Fragmentierung eliminiert wird. Es ist jedoch zu beachten, dass es bei der Reinigung zu den Kosten kommt, die sich möglicherweise auf TCO auswirken, wenn zu häufig ausgeführt wird. Die Best Practice-Richtlinie ist die Reinigung einmal pro Woche und die Größe der Metadaten-Festplatten entsprechend.Szenario 3: Kleine Dateien
In Fällen, in denen die Umgebung des Benutzers Millionen von kleinen Dateien (< 1 MB) hat, ist der Metadaten-Overhead im Vergleich zu den Daten hoch. Dies ist eine nicht unterstützte Arbeitslast und DDVE ist möglicherweise nicht die richtige Lösung zum Schutz solcher Workloads.Szenario 4: Dichte Marker
Bestimmte apps wie Oracle oder CommVault führen Marker im Backup-Stream ein. DDVE dedupliziert diese Marker, was zu hohen Deduplizierungs Raten führt. Der Benutzer muss sich erneut mit einem Kompromiss zwischen einer hohen Deduplizierungs Rate zu Lasten der erhöhten Metadaten-Nutzung konfrontiert sehen. Der Benutzer kann in-App Optimization in der Backup-App deaktivieren und die Nutzung der DDVE-Metadaten reduzieren oder die höheren Deduplizierungs Raten zu Lasten der erhöhten Metadaten-Nutzung auswählen.Szenario 5: Nicht virtuelle synthetische Backups mit hohen Deduplizierungs Raten
Dieses Szenario ist ungewöhnlich und der Benutzer muss sich über die potenziellen Auswirkungen auf die TCO aufgrund der hohenÜbersicht
In den oben beschriebenen spezifischen Szenarien wird davon ausgegangen, dass die Nutzung von Metadaten erheblich ansteigen wirdsysadmin@Atos-ddve # filesys Show Space Tier Active local-Metadata Active Tier: local-Metadata Usage size gib used gib use gib use%------------------------------24290,4 4390,2 19900,2 18,0%------------------------------