Grégoire Perret (Chronopost) : « nous transportons des colis et de l’information »
Par Bertrand Lemaire | Le | Gouvernance
Spécialiste de la livraison express de colis, Chronopost a une architecture on premise mais doit absorber des pics importants. Grégoire Perret, son DSI, explique ici les choix opérés.
Pouvez-vous nous rappeler ce qu’est aujourd’hui Chronopost ?
Chronopost est la filiale française de Geopost, la branche colis de La Poste. Historiquement, nous sommes la première filiale de droit privé de La Poste.
Notre chiffre d’affaires est de 1,7 milliard d’euros (2022) et nous comptons environ 5000 collaborateurs (dont 200 à l’IT) sur une centaine de sites, agences et hubs.
Nous traitons 220 millions de colis par an, chiffre qui ne cesse de croître. Notre coeur d’activité demeure la livraison express mais nous avons maintenant des filiales spécialisées comme Chronofresh pour la distribution alimentaire et Chronopost Healthcare pour le transport médical. Dans ces deux cas, c’est du transport sous température dirigée.
Comment est organisée votre IT ? Est-elle liée à celle de La Poste ?
Nous disposons de notre propre SI. Chaque filiale a le sien même si nous veillons à une forte interopérabilité. Par exemple, l’étiquette sur les colis est la même. Nous avons beaucoup de développements propres et nous avons réalisé un choix stratégique, le on-premise.
Cela dit, sur les fonctions supports, nous avons bien sûr des outils du marché. Nous n’avons pas d’ERP global mais une succession d’outils comme oar exemple Itesoft pour la facturation, Salesforce pour le CRM, etc. Et nous avons également un important recours à l’open-source.
D’un point de vue IT, qu’implique le transit et le transport d’un colis ?
Nous transportons des colis et également de l’information. Notre capacité d’intégration est fondamentale pour traiter l’information au plus vite. En temps normal, nous traitons environ 800 000 colis par jour et les pics peuvent atteindre 1,4 million. Et, par colis, il peut y avoir entre 10 et 30 évènements selon les cas, avec une moyenne de 16. De ce fait, nous gérons 20 000 à 70 000 événements/minute. Les pics correspondent à des moments précis de la journée, par exemple le moment où les chauffeurs quittent les entrepôts.
Quand nous assurons un transport en température dirigée, nous avons bien sûr des capteurs en IoT pour remonter les données. Le capteur est, selon les cas, dans le véhicule ou dans une glacière. Nous devons donc mobiliser des ressources de calcul pour définir la température du colis à partir de cette information.
Dans la nuit, le premier flux de données sur les colis du jour, c’est ce que nous nommons l’annonce-colis : nos clients expéditeurs en masse nous envoient les informations sur les colis qu’ils vont nous remettre. Ensuite, l’information suit le colis. Le dernier flashage concerne bien sûr la livraison au destinataire final, juste après l’envoi d’un SMS à ce dernier pour l’informer de l’arrivée du livreur.
Quelles infrastructures mettez-vous en œuvre ?
Tout est on premise comme je l’ai indiqué. Nos datacenters sont prévus pour absorber les pics.
Dès le début de l’été, nous nous préparons pour l’hiver suivant et le pic de Noël. Nous appliquons ainsi des corrections pour prévenir les alertes ou les incidents connus l’année précédente (par exemple : nous augmentons les capacités de stockage ou le nombre de nœuds). Nous menons également nos projets d’infrastructures et de réseaux afin d’absorber la croissance attendue. Nous planifions également les campagnes de reboots : pour fiabiliser le fonctionnement des serveurs, nous les redémarrons sans attendre un incident. Enfin, comme nous avons beaucoup de développement interne, nous menons les projets d’optimisation et d’évolution du code. En général, la puissance rendue nécessaire par un pic est maintenue ensuite à cause de la croissance de l’activité.
Notre infrastructure repose sur plusieurs grands choix technologiques. Par exemple, pour nos bases de données NoSQL, nous avons choisi Cassandra qui est en mode peer-to-peer, donc sans noeud-maître et, de ce fait, facile à reconfigurer. De même, cette architecture permet une réplication pour la résilience du SI.
Pour nos 600 serveurs virtuels, nous avons choisi une virtualisation VMware. En termes de middleware, nous utilisons Apache Kafka et l’EAI de Tibco. Cette partie de notre architecture est critique : nous échangeons beaucoup de données avec nos clients, sous forme de webservices et d’EDI pour certains gros. Chaque typologie de clients bénéficie des outils les plus adaptés à leurs besoins. De notre côté, cela implique des applications qui vont d’un simple Prestashop à du développement propre.
Chez nous, le business démarre avec une étiquette. Ensuite, tout repose sur le suivi de cette étiquette.
Puisque le pic de Noël 2023 est désormais bien derrière nous, quelles leçons en tirez-vous cette année ?
Comme les années antérieures, le pic s’est bien passé. Les technologies en place permettre d’accroître notre volumétrie sans incident notable. Nous sommes plutôt satisfaits des technologies employées et des performances de nos systèmes. En particulier, Kafka permet d’injecter beaucoup de données et nous en sommes très satisfaits. Mais, en 2024, nous avons prévu de mener des mises à jour de nos actifs.
De ce fait, quels sont vos prochains défis ? Les Jeux Olympiques, par exemple, sont-ils une potentielle source de problèmes ?
D’un point de vue IT, les Jeux Olympiques ne nous poserons pas de problèmes directs. Par contre, il y aura un défi opérationnel pour livrer près de zones où se déroulent des compétitions.
Comme tout le monde, nous avons évidemment des ambitions en matière d’IA et d’IAG. De même, la transformation data fait partie de nos perspectives. Nous avons adopté la plateforme Snowflake et nous avons besoin d’adapter notre décisionnel.
Enfin, bien sûr, la cybersécurité de toutes nos applications reste un défi important.