Protéger et économiser : résoudre le dilemme de la donnée

Protéger et économiser : résoudre le dilemme de la donnée

Avec des volumes de données en constante augmentation et des applications de plus en plus critiques pour le business, les entreprises font face à un nouveau défi : comment conjuguer protection du SI et diminution des coûts ? Voici la réponse.

Les années passent, les technologies se succèdent, et pourtant, deux problématiques reviennent constamment lorsqu’on interroge les responsables informatiques : la première est la protection des données, la seconde le coût de leur système d’information. La première est tout simplement une obligation : un nombre toujours plus grand d’entreprises dépend de services numériques pour faire tourner leur activité. La donnée est donc au cœur du business et est de plus en plus complexe à gérer, notamment en raison de ses formats variés et de ses volumes importants. Les DSI doivent donc investir dans de nouveaux outils pour accompagner la numérisation des tâches et garantir la continuité de l’activité. Mais la seconde problématique est toujours là. D’après une étude ESG, 35 % des responsables IT chargés de la mise en œuvre des processus et technologies de protection des données citent couramment les coûts comme étant l’un de leurs principaux défis.  Près de 30 % des personnes interrogées par l’analyste également ont fait part de leur intention d’acquérir de nouvelles technologies offrant un meilleur retour sur investissement. La bonne nouvelle est que ces technologies existent.

Segmenter pour économiser

La clé tient en un mot : déduplication. Petit rappel du principe de base : en découpant les fichiers en segments de données, il devient possible d’identifier les segments identiques qui composent différents fichiers et ainsi de ne stocker qu’une seule fois le même segment. Les bénéfices du processus sont nombreux, particulièrement dans le domaine de la protection des données qui nous intéresse aujourd’hui. Le plus évident est bien entendu la capacité à stocker une quantité plus importante de données dans un même espace de stockage. Cela implique donc moins de dépenses en supports de stockage mais également un encombrement moins important dans le datacenter. Et cet avantage prend tout son sens dans un scénario de sauvegarde et de restauration.

« Avec la déduplication à la source, seuls les blocs de données uniques sont envoyés de la source vers la cible durant l’opération de sauvegarde, ce qui allège considérablement le trafic réseau », souligne ESG. Non seulement la performance globale du SI s’en trouve améliorée, et donc par la productivité de l’organisation par la même occasion, mais en plus le réseau devient capable de supporter la croissance des données sans avoir à procéder à des mises à niveau coûteuses de l’infrastructure. Enfin, qui dit moins de données à sauvegarder dit logiquement opérations de sauvegarde plus rapides. Une accélération qui permet non aux entreprises de réaliser des backup plus fréquents et de réduire ainsi les risques de pertes de données qui elles aussi, peuvent s’avérer très coûteuses. Et les choses vont également plus vite dans l’autre sens. En cas d’incident, la restauration des données sera elle aussi plus rapide, ce qui limitera la durée d’indisponibilité d’applications critiques pour le business et donc de perdre un temps précieux.

92 Po de données sur 10 Po d’espace

L’équation est donc finalement assez simple. Moins de données, moins de stockage, moins de bande passante, moins de risques, moins de coûts. Mais comme on vient de le voir, le point de départ est une déduplication efficace. Le cabinet ESG a analysé dans son étude 12 entreprises de différents secteurs avec des volumes de données à protéger allant de 270 To à plus de 90 Po. En exploitant la technologie Data Domain, il est parvenu à obtenir un taux de déduplication moyen de 44 :1, le taux le plus élevé atteignant 126 :1 et le plus faible 9 :1. Même en prenant en considération le scénario le plus négatif, « l’entreprise parvient à protéger près de 92 Po de données en utilisant une capacité de seulement 10 Po », constate ESG. Pour atteindre de tels résultats, plusieurs technologies entrent en jeu.

L’architecture SISL (Stream-Informed Segment Layout) tout d’abord, permet de réaliser 99 % du traitement au sein du processeur et de la mémoire vive, ce qui évite de voire les performances limitées par la vitesse de rotation des disques. La segmentation à longueur variable ensuite, garantit les meilleurs taux de déduplication en créant des segments d’une taille adaptée aux différents types de fichiers. Elle offre également une meilleure évolutivité en permettant de modifier ultérieurement la taille d’un segment afin qu’il incorpore de nouvelles informations. Le logiciel DD Boost va quant à lui délester une partie du travail de déduplication sur le poste client ou le serveur. Un procédé qui permet de libérer des ressources du côté du système cible qui offrira à son tour de meilleures performances de déduplication.

Tout ceci concoure à résoudre le dilemme des DSI, qui peuvent désormais mieux protéger leurs données sans grever le budget. Si l’on prend l’exemple des 12 entreprises analysées par ESG, le coût de la protection varie de 0,062 à 1,2 centime par gigaoctet. Et si vous souhaitez vous faire une première idée des économies que cela peut représenter pour votre entreprise, vous pouvez d’ores et déjà utiliser le CTP (cost-to-protect) Calculator accessible en ligne.

About the Author: Jérôme Osinéri

Jérôme Osinéri, 46 ans, a commencé sa carrière chez IBM en Tunisie en tant que responsable marketing, en charge des études de marché. De retour en France il a rejoint Brother en 1997 comme Chef de Produit imprimantes et multifonctions, en charge du marketing mix. Il continue son parcours dans l’informatique en intégrant l’équipe marketing Dell en 1999, avec la responsabilité de la ligne de produit portables pour la France, et comme focus principal l’accompagnement de la force de vente grands comptes. En 2005 il bascule dans les solutions pour l’entreprise, avec la fonction de Business Manager Stockage pour Dell sur la région EMEA. Dans un premier temps en charge de la ligne de produit PowerVault, il gère en 2008 le lancement des solutions EqualLogic nouvellement acquises par Dell. En 2009, son scope s’étend à toutes les lignes de produits stockage, avec comme priorités les lancements produit et la relation avec les partenaires technologiques. En septembre 2010 il rejoint le segment « Public et Grandes Entreprises » de Dell avec la responsabilité des programmes marketing stockage pour la région EMEA. A ce titre, il développe notamment du contenu pour former et assister les forces de vente dans leurs conversations avec les clients sur les problématiques de gestion des données, il est également en charge des évènements stockage et des activités de promotion et communication des offres vers la clientèle, pour tous les pays de la zone EMEA. Depuis septembre 2017 il est de retour dans l’équipe Dell EMC France en charge du marketing de toutes les solutions d’infrastructure, serveurs, stockage, solutions convergées et hyper convergées, solutions de protection des données, réseaux. Jérôme Osinéri est père de deux enfants et titulaire du diplôme de l’école de commerce Kedge Business School à Marseille, ainsi que d’un Master Spécialisé en Marketing et Communication acquis à ESCP Europe Business School.