« D’ici un an, il y aura un ChatGPT dans toutes les entreprises »

Franck Sidi, Directeur Data VMware Tanzu, nous éclaire sur le phénomène LLM et les opportunités que ces modèles ouvrent dans les entreprises.

ChatGPT a été un véritable raz-de-marée. Deux mois seulement après sont lancement, l’agent conversationnel comptait déjà plus de 100 millions d’utilisateurs. Et ils seraient aujourd’hui près du double. Derrière ce succès se cache une technologie : les LLM (Large Language Model, ou Grand modèle de langage). Pour Franck Sidi, Directeur Data VMware Tanzu chez VMware, ces modèles vont très rapidement intégrer les processus des entreprises. D’autant qu’il existe déjà des infrastructures matures pour les prendre en charge.

ChatGPT est au centre des discussions depuis maintenant plusieurs mois. Mais est-ce que les LLM trouvent également leur place dans les entreprises ?

Franck Sidi : Il y a depuis plusieurs mois un véritable buzz autour des LLM, particulièrement avec OpenAI et ChatGPT. Mais les entreprises ont des niveaux de maturité différents sur ces technologies et donc des façons également différentes de les intégrer. Certaines ont déjà mis en place leur propre ChatGPT en interne afin de simplifier la recherche d’informations pour les collaborateurs. D’autres adoptent des solutions chez les grands éditeurs du marché. D’autres encore souhaitent exploiter ce type de modèle mais dans un environnement privé et cloisonné, souvent pour des raisons de confidentialité des données. Il y a dans ce domaine des choses très intéressantes qui se font dans l’Open Source, avec les modèles proposés par Hugging Face par exemple. Les entreprises ont tout intérêt à se tourner vers ce type de solutions ouvertes qui permettent de connaître la manière dont elles ont été entraînées, avec quelles sources, et d’éviter de s’enfermer dans un système propriétaire.

Qu’est-ce que ces nouveaux algorithmes ont de si révolutionnaire par rapport aux IA utilisées depuis nombreuses années ?

Des usages comme le NLP (Natural Langage Processing) ou le Computer Vision ne sont effectivement pas nouveaux dans les entreprises mais reposaient jusqu’ici sur des modèles assez limités. Ce qui distingue les LLM aujourd’hui, c’est que ce sont des modèles super-entraînés avec des milliards de paramètres et des librairies simples à utiliser, permettant d’effectuer des recherches qui soient à la fois très rapides, mais aussi très avancées, comme des recherches par similitude par exemple. Et cela ouvre la voie à une nouvelle classe d’application pour les entreprises. Dans le retail par exemple, cela peut permettre d’améliorer les résultats de recherche sur un site de e-commerce. Dans l’assurance, cela peut être utile pour évaluer la satisfaction d’un client, en prenant en compte tous les canaux d’interaction, qu’il s’agisse de formulaires web ou d’appels téléphoniques. D’ici un an, il y aura un ChatGPT dans toutes les entreprises. Coté VMware, nous sommes prêts à les accompagner.

Si une entreprise veut construire une application basée sur un modèle LLM avec une base de données de plusieurs pétaoctets, c’est possible.

Quelles sont les forces de VMware sur ce nouveau marché ?

90 % de la donnée mondiale est non structurée et cette donnée est complexe à valoriser. Le LLM, grâce à un processus d’embedding, est capable de transformer un format texte, audio ou encore vidéo en une suite de nombres appelés des vecteurs, qui serviront ensuite à répondre aux requêtes des utilisateurs. L’enjeu en termes d’infrastructures est de déployer une base de données capable de prendre en charge ces vecteurs. Chez VMware, cette plateforme se nomme Greenplum et elle présente deux avantages clés sur le marché. Tout d’abord, il s’agit d’une solution massivement parallèle, basée sur PostgreSQL, qui n’a pas de limites en termes de volumétrie. Elle peut fonctionner avec un serveur ou plus de 100 machines. Nous avons des clients qui injectent aujourd’hui plusieurs centaines de milliards d’événements par jour dans leur base de données. Si demain, une entreprise veut construire une application basée sur un modèle LLM avec une base qui peut dépasser plusieurs pétaoctets, c’est possible. L’autre différenciateur de Greenplum est que la solution peut stocker les vecteurs, mais aussi l’ensemble des données de l’entreprises : structurées, semi-structurées et non-structurées.


Accélérer l’innovation avec VMware Tanzu sur Dell VxRail

Pour mettre en œuvre rapidement leurs applications basées sur l’IA générative, les entreprises doivent pouvoir s’appuyer sur une infrastructure extrêmement agile. Cette infrastructure : c’est Kubernetes !

L’orchestrateur permet de mettre rapidement des ressources à disposition des développeurs et de s’assurer que vos services conteneurisés auront toujours l’état désiré. Avec VMware Tanzu sur Dell VxRail, les entreprises disposent d’un environnement clé en main comprenant à la fois l’infrastructure hyperconvergée et la suite logicielle « vSphere with Tanzu », pour déployer rapidement des cluster Kubernetes.

L’ensemble est pré-validé et l’utilisateur n’a pas à se préoccuper de la compatibilité entre les différents composants, y compris en cas de mise à jour. VMware étant un des plus importants contributeurs du développement de Kubernetes, les nouvelles fonctionnalités sont répercutées en seulement quelques jours, sans risque pour la stabilité !

Et grâce à une intégration matériel/logiciel poussée, l’administrateur profite d’une gestion full stack de sa plateforme !

About the Author: Dell Technologies