AI, Deep Learning, Machine learning : quelle infrastructure choisir ?

AI, Deep Learning, Machine learning : quelle infrastructure choisir ?

De plus en plus d’entreprises souhaitent tirer parti d’infrastructures plus intelligentes. Mais dans la jungle des technologies émergentes et prometteuses, comment effectuer le bon choix ? Voici quelques clés de lecture pour (enfin) y voir clair dans la révolution des infrastructures.

Elle nourrit beaucoup d’espoir. Elle alimente aussi des craintes. Les promesses et les fantasmes qui entourent l’intelligence artificielle (ou AI, pour Artificial Intelligence) sont nombreux. Une chose est en tout cas certaine, son extraordinaire potentiel ne laisse pas les entreprises indifférentes. Dans une enquête publiée par CNBC, plus d’un quart des directeurs financiers de grandes entreprises jugent l’IA et l’apprentissage machine « critiques » pour leur activité. Ils sont également 43,6 % à les considérer « très importants ». Selon les prévisions du cabinet IDC, 75 % des entreprises et des développeurs de logiciels intégreront de l’intelligence artificielle ou de l’apprentissage machine dans au moins une application en 2018.

Ces technologies ne sont pourtant pas particulièrement récentes et existent même depuis plusieurs dizaines d’années. Si elles font aujourd’hui l’objet d’un tel engouement, c’est parce que le contexte numérique a changé. Tout d’abord, les entreprises disposent aujourd’hui de volumes de données considérables pour alimenter ces systèmes. Ensuite, les infrastructures HPC (High Performance Computing) sous-jacentes deviennent de plus en plus accessibles. Intelligence artificielle, apprentissage machine et apprentissage profond réclament en effet des ressources spécifiques pour fonctionner efficacement. Alors que de nombreux cas d’usage se développent actuellement, des solutions spécialement conçues pour bâtir ces scénarios innovants facilitent leur mise en œuvre.

Simplifier l’utilisation

Reconnaître un visage parmi des centaines ou des milliers d’autres sur une photo ou une vidéo est un procédé complexe pour lequel la machine va devoir ingérer et comprendre un très grand nombre de paramètres physiques en analysant des quantités considérables d’images. L’utilisation des frameworks Hadoop et Spark, capables de traiter rapidement de très grandes quantités de données de manière distribuée, prend ici tout son sens. Mais les data scientists, habitués à manipuler ces environnements Apache, ne sont pas forcément des spécialistes du machine learning et du deep learning. C’est la raison d’être d’offres comme les Dell Ready Solutions, des infrastructures préconfigurées et prêtes à l’emploi élaborées pour exécuter des workloads très précis. Les entreprises qui souhaitent se lancer dans un projet de machine learning pourront par exemple opter pour une appliance intégrant la bibliothèque BigDL, grâce à laquelle elles pourront exécuter leurs nouveaux traitements directement sur le cluster Hadoop/Spark qu’elles connaissent et sur lequel les données sont déjà stockées. La plateforme logicielle Data Robot, elle aussi pré-intégrée, va même plus loin en permettant aux statisticiens, aux analystes métier et aux développeurs d’utiliser des modèles prédictifs open-source, automatisés et spécialisés par secteur (finance, santé, marketing, etc.).

Doper les recommandations

La FinTech, ces startups qui viennent bousculer le monde de la finance à grands coups d’intelligence logicielle, est évidemment avide d’AI. Si les grandes institutions savent depuis longtemps exploiter le HPC pour des applications de trading haute fréquence, les progrès de l’intelligence artificielle permettent de passer un nouveau cap en termes de prédiction des mouvements, d’évaluation des risques, de détection des signaux faibles et, in fine, de prise de décisions. Mais encore faut-il aller suffisamment vite. Les performances du processeur seront au cœur de l’efficacité de l’intelligence artificielle. Ici, aucune concession possible ; il vous faudra exploiter des puces de dernière génération comme celles de la gamme Intel Xeon Scalable. Outre leur rapidité, ces processeurs ont également la particularité de supporter des FPGA (Field Programmable Gate Arrays), ces circuits programmables qui peuvent être reconfigurés autant de fois que nécessaire pour mieux servir un workload spécifique.  « Levyx, qui développe des applications big data, affirme qu’avec le serveur Dell R640 équipé des cartes FPGA Arria 10 FX […], elle a accéléré de plus de deux fois des simulations boursières par rapport aux implémentations Spark traditionnelles », indique Le Monde Informatique.

Accélérer l’inférence

L’inférence est la capacité d’un système à tirer une conclusion à partir d’une base de connaissance. En un mot : son raisonnement. Prenons l’exemple des transactions en ligne. Selon Statista, les ventes mondiales des plateformes de e-commerce vont passer de 1 548 milliards de dollars en 2016 à plus de 4 000 milliards en 2021. Comment détecter les transactions frauduleuses dans une telle quantité de données ? En faisant analyser ces millions d’échanges par un algorithme qui va pouvoir identifier ceux présentant une anomalie. L’enjeu est ensuite d’utiliser une infrastructure suffisamment rapide pour que cette détection se fasse en temps réel, afin de bloquer la fraude avant qu’elle ne soit effectuée. C’est ici qu’entre en jeu l’accélération GPU. Conçu en premier lieu pour effectuer des tâches graphiques intensives, le GPU offre un parallélisme qui se révèle également très performant pour les tâches de deep learning. Le Nvidia Tesla V100 par exemple, embarque 640 cœurs « Tensor ». Ces unités offrent aux réseaux neuronaux une capacité de calcul de plus de 100 téraflops et sont particulièrement adaptées aux frameworks populaires comme Caffe et TensorFlow.

Penser long terme

L’intelligence artificielle est encore bien loin d’avoir dévoilé l’étendue de ses capacités et de nouveaux cas d’usages apparaissent quotidiennement. C’est pourquoi il est important de miser sur des infrastructures évolutives. Les nouvelles solutions hyperconvergées par exemple, permettent d’ajouter très simplement des nœuds dans un cluster au fur et à mesure que les besoins évoluent. En matière de stockage, les technologies scale-out comme Isilon facilitent les mises à niveau par rapport à des systèmes scale-up souvent lourds à gérer et difficiles à faire évoluer. Dans tous les cas, les scénarios d’IA ont ceci de commun qu’ils reposent sur des infrastructures puissantes qui exploitent les dernières innovations aussi bien matérielles que logicielles.

About the Author: Jérôme Osinéri

Jérôme Osinéri, 46 ans, a commencé sa carrière chez IBM en Tunisie en tant que responsable marketing, en charge des études de marché. De retour en France il a rejoint Brother en 1997 comme Chef de Produit imprimantes et multifonctions, en charge du marketing mix. Il continue son parcours dans l’informatique en intégrant l’équipe marketing Dell en 1999, avec la responsabilité de la ligne de produit portables pour la France, et comme focus principal l’accompagnement de la force de vente grands comptes. En 2005 il bascule dans les solutions pour l’entreprise, avec la fonction de Business Manager Stockage pour Dell sur la région EMEA. Dans un premier temps en charge de la ligne de produit PowerVault, il gère en 2008 le lancement des solutions EqualLogic nouvellement acquises par Dell. En 2009, son scope s’étend à toutes les lignes de produits stockage, avec comme priorités les lancements produit et la relation avec les partenaires technologiques. En septembre 2010 il rejoint le segment « Public et Grandes Entreprises » de Dell avec la responsabilité des programmes marketing stockage pour la région EMEA. A ce titre, il développe notamment du contenu pour former et assister les forces de vente dans leurs conversations avec les clients sur les problématiques de gestion des données, il est également en charge des évènements stockage et des activités de promotion et communication des offres vers la clientèle, pour tous les pays de la zone EMEA. Depuis septembre 2017 il est de retour dans l’équipe Dell EMC France en charge du marketing de toutes les solutions d’infrastructure, serveurs, stockage, solutions convergées et hyper convergées, solutions de protection des données, réseaux. Jérôme Osinéri est père de deux enfants et titulaire du diplôme de l’école de commerce Kedge Business School à Marseille, ainsi que d’un Master Spécialisé en Marketing et Communication acquis à ESCP Europe Business School.