Michel Lutz (TotalEnergies) : « l’effet waouh est rapide, la vraie valeur de l’IA beaucoup moins »
Par Bertrand Lemaire | Le | Gouvernance
Cet article est référencé dans notre dossier : Nuit de la Data et de l'IA 2024 : retours sur la célébration des innovations data/IA
Issu des énergies fossiles, TotalEnergies se développe avec l’électricité et les énergies renouvelables. La data a un grand rôle à jouer dans cette transition comme l’explique Michel Lutz, group chief data officer de TotalEnergies et responsable data de la Digital Factory. La data sert notamment à réduire l’empreinte CO² de toutes les énergies. Par ailleurs, l’IA est un domaine important des travaux actuels de la Digital Factory du groupe.
Aujourd’hui que le pétrolier Total est devenu l’énergéticien TotalEnergies, comment peut-on décrire le groupe ?
Les trois branches traditionnelles existent toujours : exploration-production, raffinage-chimie et marketing-services. Désormais, nous avons également une branche gaz-énergies renouvelables-électricité à laquelle est rattachée, outre la production d’électricité, le trading électrique, la distribution B2B/B2C (comme l’ex-Direct Energie en France) et la fabrication de batteries industrielles (issue du rachat de Saft). Seule la marque TotalEnergies est aujourd’hui utilisée pour toutes nos activités.
A ces branches s’ajoutent des branches transverses : OneTech (qui regroupe les 3 400 ingénieurs, techniciens et chercheurs de la compagnie) et TGS (TotalEnergies Global Services) qui regroupe nos services partagés, notamment l’IT. La Digital Factory est également transverse.
Le groupe dispose de plus de 101 000 collaborateurs et génère plus de 263 milliards d’euros de chiffre d’affaires.
Quel est votre périmètre ?
D’une part, je suis le chief data officer pour l’ensemble du groupe depuis huit ans. Dans ce cadre, je pilote l’amélioration continue du data management, la transformation des systèmes techniques en collaboration avec la DSI ainsi que l’acculturation et le développement des compétences data.
D’autre part, je suis responsable de l’équipe data de la Digital Factory (la TDF, TotalEnergies Digital Factory) qui a été créée en 2020 à partir de zéro. La TDF compte aujourd’hui environ 300 personnes, essentiellement dans le domaine technique, avec d’un côté l’équipe data d’une quarantaine de personnes et de l’autre les équipes techniques IT (data ingénierie incluse) sous la direction du CTO de la Digital Factory.
L’équipe data s’occupe de data sciences, de data analytics… et couvre toute la chaîne de valeur jusqu’au déploiement et à l’industrialisation. Cette équipe est polyvalente techniquement et couvre ainsi aussi bien les statistiques, le machine learning, la recherche opérationnelle, l’IA, le MLOps…
Bien sûr, nous travaillons en écosystème avec la recherche et développement, OneTech, etc. Le supercalculateur reste à part. Historiquement, ce supercalculateur sert à la simulation numérique des gisements, mais, de plus en plus, également à la simulation du stockage CO² ainsi qu’à la production d’énergies renouvelables et au machine learning haute performance.
Sur quels types de données travaille TotalEnergies ?
Historiquement, ce sont avant tout les données de géosciences (50 Po de données sismiques !) et d’opérations industrielles. Il y a ainsi, par exemple, jusqu’à 500 000 capteurs dans chaque raffinerie et 2 000 points de mesure sur un site solaire qui, tous, génèrent des données.
Ensuite, bien évidemment, nous avons les datas d’approvisionnement, de logistique, de commerce (avec le CRM)… ainsi que les données corporate classiques de toutes les entreprises. Nous avons douze millions de clients, 4,5 millions de cartes professionnelles pour acheter du carburant, à terme (en 2025) 150 000 points de rechargement électrique et un million de factures par an.
Nous avons également de nombreuses données de référence autour des produits et services (définition des produits, emplacements des bornes de recharge…).
Nous intégrons également des données externes. La météo, par exemple est utilisée pour l’optimisation des panneaux solaires.
Quels usages faites-vous de ces données ?
Les données opérationnelles industrielles sont d’abord là pour faire tourner l’entreprise au quotidien et ont donc un usage direct sur leur lieu de production. Nous avons la volonté de rendre l’accès aux données le plus aisé possible par tous. Un des leviers de transformation est justement le développement du self service et des usages directs.
Cela dit, dans certains cas, il y a besoin d’algorithmes plus complexes et d’usages plus avancés, par exemple en recherche et développement. La Digital Factory est là pour mettre en place l’aide à la décision et intégrer les modèles déployés en production dans des logiciels complets destinés à tous les métiers. Nous devons faire de bons produits destinés à servir au mieux les utilisateurs. Nous avons ainsi actuellement 400 modèles en production et c’est un nombre en forte croissance.
Nous ne sommes pas là pour créer des produits afin de nous faire plaisir mais nous pouvons nous faire plaisir en créant des produits.
Nous ne sommes pas là pour créer des produits afin de nous faire plaisir mais nous pouvons nous faire plaisir en créant des produits utiles aux métiers. Dans le groupe, il y a un Digital Transformation Officer par branche qui porte une feuille de route de la transformation. Une partie de cette feuille de route est réalisée concrètement par la Digital Factory mais ce sont les Digital Transformation Officers qui sont garants de la valeur justifiée et mesurée de chaque projet. Je rappelle que notre direction générale attend 1,5 milliard de dollars de création de valeur par an grâce au digital à partir de 2025. Pour ce faire, il y a deux composantes principales : l’excellence opérationnelle des activités (y compris la minimisation de l’empreinte CO²) d’une part, l’accompagnement du développement de TotalEnergies sur les marchés du renouvelable et de l’électricité, y compris dans le stockage d’électricité via les batteries de Saft
Retrouvez Michel Lutz à la Nuit de la Data
Michel Lutz fait partie du jury des Trophées de la Nuit de la Data. Il a donc assisté aux présentations des candidats ayant déposé un dossier le 18 janvier 2024 et vous le retrouverez à la cérémonie de la Nuit de la Data le 5 février 2024.
Quelles technologies sont employées pour tout cela ?
Nous travaillons surtout dans les clouds d’Azure et d’AWS avec du Databricks chez l’un ou l’autre. Mais, au sein de TotalEnergies, les technologies on premise restant utilisées pour certains usages.
Quel est aujourd’hui le rôle de l’IA ?
Déjà, il faut savoir ce que l’on entend par IA… J’essaie toujours d’éviter ce terme d’« intelligence artificielle » précisément parce que l’on ne sait jamais ce que son interlocuteur entend ou comprend par là. Mais le Machine Learning, l’optimisation sous contraintes, la vision artificielle, etc. sont des outils qui relèvent de l’IA et nous utilisons beaucoup ces outils.
Nous commençons à intégrer les LLM (Large Language Models) et l’IAG (Intelligence Artificielle Générative) pour, par exemple, créer des assistants pour générer des feuilles de gestion de risques à partir de la documentation technique. De la même façon, l’IAG est utile pour synthétiser une veille sur Internet. L’équipe Search chez OneTech travaille sur l’usage du LLM pour faire évoluer nos moteurs de recherche en moteurs de questions/réponses à partir de la grande quantité de documentations que nous possédons.
Le futur est très prometteur pour tous ces outils et leurs usages mais nous sommes face à une difficulté : l’effet waouh est rapide mais la vraie valeur de l’IA beaucoup moins car, dans un contexte industriel, c’est très compliqué, la valeur se crée dans le temps. Il faut du travail pour obtenir des résultats robustes. Beaucoup d’éléments restent à inventer.
En matière d’IAG, notamment, nous avons beaucoup à apprendre même si nous avons de très bons cas d’usages. Mais on doit malgré tout aller vite et il nous faut donc débloquer ce qu’il faut tout en garantissant la sécurité des données et la fiabilité des réponses. Pour y parvenir, nous avons créé, au sein de la Compagnie, une task force commune que je pilote. Celle-ci rassemble des collaborateurs de la Digital Factory mais aussi de notre branche OneTech, des services IT, de la direction juridique, ainsi que des Digital Transformation Officers.
TotalEnergies a l’ambition de la neutralité carbone en 2050 et a de forts engagements pour une énergie la plus « verte » possible. Quel est le rôle de la data dans cette ambition ?
Dans les métiers traditionnels liés aux hydrocarbures, beaucoup de choses sont basées sur la data, à commencer par la connaissance du sous-sol mais aussi l’optimisation des processus de raffinage par exemples. La culture data est donc traditionnelle dans la compagnie. La data peut ainsi servir à réduire l’empreinte CO² en optimisant les processus industriels pour avoir plus avec moins d’empreinte. Et il ne s’agit pas de greenwashing mais bien de vrais gains. Chez OneTech, une équipe travaille sur la modélisation du CCS (Carbon Capture and Storage, collecte de CO² et stockage dans des réservoirs souterrains qui contenaient jadis du gaz naturel qui a été exploité). Le CCS fait partie des stratégies de compensation.
La data est aussi au service de la production électrique renouvelable (éolien, solaire…) et de la distribution. L’optimisation de cette production et de la distribution se développe très vite.
Malgré tout, supercalculateur, IA, cloud… est-ce vraiment « green » ou le CDO doit-il apprendre aussi à se réfréner un peu pour être sobre ?
Aider le business à se décarboner sans être sensible aux externalités négatives, ce n’est pas possible. Si nous avons structuré notre data management, c’est aussi pour optimiser la consommation de nos ressources numériques, par exemples en optimisant le stockage, en ayant une stratégie formelle sur la rétention des données, etc. Bien sûr, on peut toujours mieux faire mais nous avons de vrais savoir-faire dans ce domaine.
A titre personnel, je n’ai jamais été un partisan du Big Data à outrance, avec des volumes toujours plus importants, genre « on stocke tout, on traite tout et on verra ce qu’on en sort ». Il est souvent beaucoup plus pertinent de travailler sur de petits jeux de données bien calés avec des méthodes classiques plutôt que de multiplier les volumes et de recourir au deeplearning. Savoir utiliser le bon outil pour la bonne finalité dans la panoplie d’outils disponibles, c’est aussi le métier du data scientist ! En général, il faut savoir combiner plusieurs outils.
Les équipes support de la DSI nous mettent d’ailleurs à disposition des outils de mesure de la consommation de ressources.
Cela dit, je dois admettre qu’avec le grand boum de l’IAG, la sobriété est moins à la mode. Mais c’est aussi de notre responsabilité de ne pas utiliser les technologies disponibles pour faire n’importe quoi. Je constate cependant que l’état de l’art s’oriente vers la sobriété, et on va en parler de plus en plus.
Pour terminer, quels sont vos défis à court/moyen terme ?
En 2024, nous voudrions mettre l’accent sur le self-service et la démocratisation des outils maintenant que les dits outils sont déployés industriellement maintenant que nous savons bien gérer le digital en mode développement de projets.
Concernant l’IA classique, nous avons à relever le défi du passage à l’échelle. Nous mettons en place des outils de contrôle et de suivi de notre patrimoine de modèles car leur nombre s’accroît sérieusement.
Nous devons également veiller à demeurer conforme aux exigences réglementaires (comme le futur AI Act) mais je suis confiant à ce sujet : il s’agit pour l’essentiel, pour le data scientist, de faire correctement son travail.
Enfin, nous devons continuer à développer les bons cas d’usage de l’IA générative. D’une part, il nous faut veiller à rester sérieux et modestes en dépassant le buzz. Il ne s’agit pas d’une révolution, et il convient avant tout de travailler sur les fondamentaux techniques pour gérer les modèles en production. D’autre part, un des bénéfices très directs de l’IA générative sera probablement « l’empowerment » individuel, avec des outils de type « compagnon de brainstorming » ou assistant pour tous, qui permettront de travailler plus vite et plus simplement dans des applications du quotidien, mais seulement à la condition de comprendre les implications et les potentiels de l’IA dans nos vies.
Podcast - Des outils d’IA pour la transition énergétique de TotalEnergies
Michel Lutz est group chief data officer de TotalEnergies et responsable data de la Digital Factory. Il commence par présenter TotalEnergies et son évolution au-delà des énergies traditionnelles. Le groupe veut en effet atteindre la neutralité carbone en 2050 et être un acteur majeur de la transition énergétique. Michel Lutz n’aime pas utiliser l’expression « intelligence artificielle » car, derrière celle-ci, c’est toute une panoplie d’outils qui existe. Et TotalEnergies en utilise beaucoup de sortes comme il l’explique pour accompagner la réduction de l’empreinte environnementale des activités traditionnelles et le développement des nouvelles énergies. Au-delà de l’IA, l’enjeu est aussi, chez TotalEnergies une démocratisation de l’accès à la data.