Open Data et Edge Computing au service de l’intermodalité des transports de demain

Comment permettre aux usagers de trouver le meilleur itinéraire au sein d’une offre multimodale toujours plus diversifiée ? La réponse est (subtilement) dissimulée dans les données des opérateurs de transports.
En partenariat avec 

À vélo, on dépasse les autos. Mais on peut aussi opter pour le métro, le train, le bus, la trottinette, le VTC, le covoiturage, etc. Et surtout, on peut mixer ces différentes options pour obtenir le meilleur rapport temps/coût/empreinte carbone possible. L’intermodalité n’est pas une nouveauté et les usagers des transports ont depuis longtemps l’habitude de trouver les meilleures correspondances entre différents moyens de transports pour arriver à destination. Mais le développement des offres en libre-service et à la demande, l’essor des équipements électriques, les réseaux routiers de plus en plus saturés en zone urbaine et la prise de conscience écologique lui donnent aujourd’hui une nouvelle dimension. La crise sanitaire, avec l’adoption massive du télétravail qu’elle a engendrée, a par ailleurs poussé un grand nombre de professionnels à s‘éloigner du siège de leur entreprise, et donc des grands centres urbains, pour trouver d’avantage d’espace. Un exode qui se traduit par des déplacements moins fréquents mais plus longs entre le domicile et le travail. La volonté des autorités est aujourd’hui de mieux gérer les flux de circulation et de pouvoir proposer à chacun la mobilité comme un service à la carte composé de différentes solutions. Pour que cette ambition se concrétise, il faut que l’ensemble des acteurs partagent leurs données.

Des données hétérogènes, dispersées et massives

C’est bien l’accès généralisé et complet aux données de chaque mode de transport (horaires, temps de trajet, emplacement des stations, disponibilité des places ou des véhicules, tarifs, etc.) qui permettra de rendre l’intermodalité pleinement efficace pour les usagers. La loi d’orientation des mobilités, promulguée fin 2019, prévoit l’ouverture des données de transport d’ici au 1er décembre 2021. Le partage, la collecte et le traitement de ces données engendrent toutefois différents défis techniques.

  • L’hétérogénéité tout d’abord. Il n’existe pas de norme rendant les données d’un opérateur nativement intelligibles par un autre, chacun disposant de son propre système d’information.
  • La localisation ensuite. Les données sont de plus en plus disséminées avec la montée en puissance des capteurs ou objets connectés (IoT) directement dans les moyens de locomotions eux-mêmes.
  • Enfin, et surtout, la puissance de calcul. Il y a dans l’intermodalité deux échelles de temps : la planification du trajet, qui peut se faire sur la base de données statistiques et prévisionnelles, et l’instant présent, qui nécessite de pouvoir s’adapter en temps réel à une circonstance imprévue (intempéries, accident, panne, etc.). Les deux cas nécessitent de traiter des quantités massives d’informations.

Des solutions à la fois réglementaires et techniques

La question de l’hétérogénéité trouve sa résolution dans un nouveau cadre réglementaire. Pour que tous les opérateurs parlent la même langue et permettre la mise en place de nouveaux cas d’usage de la donnée, l’Etat a imposé un modèle Open Data unique auquel les fichiers partagés doivent se conformer. Concernant la localisation et le traitement, c’est cette fois une réponse technologique qu’il convient d’apporter. Pour analyser des données aussi dispersées, il est nécessaire de rapprocher la capacité de calcul de la source de la donnée. Autrement dit : embarquer des ressources informatiques directement dans les moyens de transport, au côté même des capteurs, afin de réduire au minimum les temps de latence et d’éviter les coûts importants générés par les transferts de données. Cette manière de distribuer les infrastructures en périphérie du réseau est ce qu’on appelle l’Edge Computing.  Pour les équipes IT, cela implique de déployer des gateways, ou passerelles, capables de connecter des capteurs très divers, de stocker de l’information, d’avoir une capacité de calcul intrinsèque, de communiquer vers l’extérieur et d’être pilotées et gérées à distance.

Éviter les embouteillages dans les infrastructures

Pour pouvoir répondre aux deux échelles de temps, les infrastructures Edge et centrales doivent pouvoir prendre en charge très rapidement de très grandes quantités de données. Pour qu’aucun goulet d’étranglement ne vienne ralentir les flux d’informations, calcul, stockage et interfaces de communication doivent tous trois afficher un haut niveau de performance. Les derniers processeurs Intel Xeon sont taillés pour les grands volumes et les workloads analytiques temps réel. En matière le stockage, les supports SSD sont aujourd’hui des composants incontournables pour éviter les embouteillages à la sortie du processeur. Mais pour en tirer pleinement partie, ils doivent être accompagnés d’une connectivité NMVe capables de transférer les données à la vitesse du flash.

Ces réponses permettent donc de traiter rapidement des flux massifs de données hétérogènes et dispersées. L’objectif étant qu’en bout de chaîne, les usagers puissent obtenir un maximum de visibilité pour non seulement choisir la meilleure offre de transport possible en fonction de leurs critères, mais également trouver immédiatement des alternatives durant leur trajet en cas de besoin.

Pour aller plus loin, je vous invite à écouter l’épisode dédié aux transports du futur du podcast Tech 15’ de Vivatech, réalisé en partenariat avec Intel. Avec Bertrand Piccard, explorateur, psychiatre, fondateur et Président de la Fondation Solar Impulse nous revenons sur ce que sera la mobilité de demain. À écouter sur :

Nicolas Jumel

About the Author: Nicolas Jumel

Nicolas Jumel est Director PreSales France Public Area de Dell Technologies.