En octobre dernier, j’ai parlé des défis qui empêchent les organisations de libérer pleinement le potentiel de l’IA pour stimuler les résultats commerciaux. Depuis lors, la montée continue de l’IA a mis en lumière l’un des ingrédients les plus critiques d’une stratégie d’IA réussie : une plateforme de données prête pour l’IA.
Dans un paysage rempli de données décentralisées, de systèmes hérités, de préoccupations de souveraineté des données et d’applications cloud-native qui n’opèrent que sur des données dans le cloud, les organisations continuent de lutter. Une étude du Boston Consulting Group a révélé que parmi plus de 50 % des leaders en matière de données, la complexité architecturale est un point de friction majeur, contraignant les organisations à une complexité significative, générant des coûts évitables et perdant un temps critique pour la valeur.
[i]Les praticiens des données sont confrontés à des défis redoutables. Les entrepôts de données traditionnels confinent les données dans des formats propriétaires, entravant l’accès universel. Les data lakes manquent de fiabilité et de gouvernance et ne fonctionnent pas bien en termes de performance. Et les architectures à deux niveaux offrent deux choix sous-optimaux : soit utiliser des données de haute qualité mais anciennes d’un entrepôt, soit utiliser des données fraîches mais peu fiables d’un lac. L’émergence des data lakehouses vise à concilier ces problèmes, mais les choix restent insuffisants. Les solutions cloud nécessitent une migration et sont coûteuses à grande échelle. Les solutions sur site sont entravées par des technologies héritées et propriétaires. Et l’open source, bien qu’innovant, entraîne des coûts d’intégration élevés.
Les équipes informatiques luttent également. La consolidation des sources de données disparates en une seule source de vérité est un effort sans fin. La gestion d’une multitude croissante d’outils d’infrastructure de données sollicite les ressources. La complexité de la supervision de multiples composants souligne la nécessité de la simplicité.
Il est clair que les clients méritent une meilleure réponse. Et tout comme je l’ai dit auparavant, une réponse qui fonctionne avec leur gravité des données et non contre elle. Une réponse qui apporte la simplicité et accélère le temps de valeur.
Aujourd’hui marque une étape passionnante car nous concrétisons notre promesse avec la disponibilité générale du Dell Data Lakehouse. Cette nouvelle offre fournit aux clients une plateforme de données entièrement intégrée, construite sur le matériel AI-optimisé de Dell et une suite logicielle complète, alimentée par le puissant et innovant moteur de requêtes de Starburst.
« Alors que Dell continue de mener l’avancée dans l’innovation du stockage et du calcul, Starburst offre fièrement son offre analytique haute performance de data lakehouse et son expertise. Tout comme la technologie de stockage de Dell forme la base du data lake, Starburst agit en tant que moteur dynamique de la lakehouse, harmonisant les données en insights actionnables », a déclaré Justin Borgman, PDG de Starburst. « Ensemble, nous devenons le Dell Data Lakehouse et prêts à redéfinir le paysage de la gestion et de l’analyse des données ».
Cinq Promesses Clés du Dell Data Lakehouse
Comme nous l’avons discuté en octobre, notre vision d’une data lakehouse ouverte et moderne comprend des composants clés pour aider nos clients à relever leurs plus grands défis en matière de données. Le Dell Data Lakehouse tient cinq promesses clés :
- Éliminer les silos de données. Améliorez l’exploration des données avec des requêtes fédérées et sécurisées, alimentées par Starburst, accélérant le temps d’obtention d’informations jusqu’à 90 %[1] et révélant les schémas d’utilisation qui permettent une centralisation plus intelligente des données dans la lakehouse.
- Libérer les performances à grande échelle. Avec un moteur distribué et massivement parallèle fonctionnant sur une infrastructure sur mesure qui sépare le calcul et le stockage, atteignez des performances inégalées qui évoluent avec vos besoins.
- Prendre le contrôle de vos données. 100 % au format ouvert et prêt pour l’avenir avec des normes industrielles modernes telles que les formats de fichier comme Parquet, Avro, ORC et les formats de table comme Iceberg et Delta Lake. La gouvernance des données intégrée vous aide à rester maître de vos données et vous permet de naviguer dans des paysages évolutifs avec confiance et clarté.
- Démocratiser les insights. Donnez à votre équipe de données un accès en libre-service afin qu’elle puisse créer des produits de données de haute qualité favorisant une culture de collaboration et d’exploration pour faire avancer votre entreprise. Intégrez-vous à un large écosystème d’outils tels que les outils BI, IA et ML, permettant une plus grande portée de l’innovation dans toute l’organisation.
- Une plateforme simplifiée. Conçue pour rationaliser le déploiement, la gestion du cycle de vie et les services de support, cette solution clé en main englobant les composants de calcul, de logiciel et de stockage offre un déboursé rentable et prévisible par rapport aux options basées sur le cloud. Le moteur d’analyse de données Dell permet d’obtenir des insights trois fois plus rapidement pour la moitié du coût des autres technologies comparables. [2]Le stockage Dell ECS peut permettre jusqu’à 76 % d’économies totales de coûts par rapport aux offres de cloud public.[3] Et enfin, le logiciel système Dell Lakehouse peut générer d’importantes économies opérationnelles en réduisant les efforts manuels tout au long du cycle de vie.
Cette technologie, associée aux Services Dell, aide les organisations à accélérer les résultats de l’IA à chaque étape. Tire parti des experts de confiance de Dell Technologies, nommés parmi les meilleures firmes de conseil en gestion du monde par Forbes en 2023, pour aligner une stratégie gagnante, valider rapidement les ensembles de données, mettre en œuvre votre plateforme de données et maintenir des opérations sécurisées et optimisées.
La prochaine génération d’IA exigera des organisations qu’elles adoptent de nouvelles architectures pour leur plateforme de données. Nous croyons que cette plateforme devrait être un data lakehouse ouvert et moderne, qui serve de point d’accès unique hautement sécurisé à toutes les données. La puissante combinaison de Dell Data Analytics Engine avec le calcul (PowerEdge), le stockage objet (ECS, ObjectScale et PowerScale) et les Services Professionnels donne aux organisations la possibilité de poser les bases d’une plateforme de données performante et évolutive pour l’ère de l’IA.
Accordez-vous sur NVIDIA GTC et Dell Technologies World pour en savoir plus sur le Dell Data Lakehouse.
Apprenez-en davantage sur les composants de notre solution sur notre site web.. Contactez votre responsable de compte Dell pour explorer le Dell Data Lakehouse pour vos besoins en données.
[1] ESG Economic Validation. McAfee, Nathan. Apr 2022. “Analyzing the Economic Benefits of Starburst Enterprise”
[2] Cloud Data Warehouse vs. Cloud Data Lakehouse: A Snowflake vs. Starburst TCO and Performance Comparison, published by GigaOm
[3] ESG Economic Validation sponsored by Dell Technologies, “Analyzing the Economic Benefits of Dell ECS: Economic Benefit Analysis of On-premises Object Storage versus Public Cloud,” by Tony Palmer, July 2022. Cost savings based on ESG comparison of ECS to a leading public cloud in active storage scenarios