Henri Rufin (Radiall) : « le data driven n’est pas une question technique mais culturelle »
Par Bertrand Lemaire | Le | Data
Lors de sa réunion du 15 février 2023, le CPI-B2B a abordé la question de l’entreprise data driven pour en examiner les conditions et modalités.
L’expression « data driven » (piloté(e) par les données) s’est popularisée. Un peu comme les méthodes agiles, aucun DSI n’oserait aller à l’encontre de cette tendance. Or, avec la popularité, le terme s’est galvaudé. Lors de la réunion du 15 février 2023, les participants du CPI-B2B (Club de la Presse Informatique B2B) ont donc commencé par remettre les pendules à l’heure. Bien entendu, le data driven implique que les décisions soient prises à partir de faits objectifs définis par les données. Mais c’est insuffisant. Pour y parvenir de manière efficace, il faut que le système d’information soit organisé autour des données : des référentiels de données au centre et les applications autour. « Le data driven suppose qu’il n’y ait qu’une seule vérité, une seule version d’une donnée, et que l’on sache exactement d’où vient cette donnée » a insisté Henri Rufin, responsable data et analytics chez Radiall, un fabricant français de connecteurs et de composants électroniques pour l’industrie.
Un fait, une donnée : c’est un début. Il faut que la donnée soit utile et utilisée, c’est à dire qu’elle implique des décisions et des actions. Pour Edouard Beaucourt, directeur général France chez Snowflake, « les collaborateurs doivent agir ou réagir en fonction d’un fait, pas d’une sensation. » Si, comme l’a rappelé Sébastien Calais, directeur Industry Solutions chez O9 Solutions, le but est bien de prendre des décisions à partir des données collectées, encore faut-il que les données soient assemblées et traitées pour devenir des informations pertinentes. Même si, pour Julia Cames, directeur marketing chez HubSpot, « la vraie difficulté est de capter la donnée au départ avant de l’amener au bon moment au bon collaborateur ».
De la donnée à l’usage de la donnée
Techniquement, les outils disponibles sur le marché répondent à tous les besoins. Le problème n’est pas là. « Le data driven n’est pas une question technique mais culturelle » a martelé Henri Rufin. Pour lui, « certains collaborateurs adoptent assez naturellement le data driven, d’autres non. Nous mesurons les usages des outils que nous mettons à disposition et, parfois, nous avons des surprises. » Henri Rufin n’est pas issu de l’informatique : il était contrôleur de gestion. C’est par son métier du contrôle de gestion qu’il a été amené à se préoccuper des données et à mettre en place les outils dont il avait besoin.
Cependant, centrer le système d’information sur la donnée ne signifie pas centrer nécessairement le stockage et le traitement de cette donnée. « Centraliser les données commence à être une attitude du passé » a souligné Sébastien Verger, directeur technique chez Dell Technologies. Pour lui, « la tendance est plutôt de revenir à une certaine décentralisation, via le edge computing. Il ne s’agit évidemment pas de revenir aux silos de jadis mais d’exploiter localement la donnée, en temps réel, avant de rapatrier tout ou partie de la data en central pour de l’analyse, en différé. » Cette approche est confirmée par Henri Rufin : « l’analytique opérationnelle en temps réel suppose un usage de données locales, toutes les données locales étant remontées pour être croisées, associées, retraitées, dans un analytique régalien. Mais en aucun cas il ne faut que chacun ait ses données dans son coin : la data est orchestrée globalement. » Et cette remontée des données, pour être efficace, doit évidemment être au maximum automatisée.
Les tendances à la mode ne sont pas toujours pertinentes
Chez Radiall, la data reste au service du business et rien n’est fait pour être à la mode techniquement. « Nous avons développé 160 applications en cinq ans mais nous n’avons pas besoin de data scientist ou de je ne sais quoi » a indiqué Henri Rufin. Pour lui, l’intelligence artificielle est trop souvent galvaudée, sans maîtrise du jeu de données source des réponses données par les algorithmes. Pour lui, « les IA sont souvent des boîtes noires dans lesquelles personne ne peut avoir confiance parce que les données sources ne sont pas maîtrisées ». Il est vrai qu’il y a une sorte de vénération magique pour l’IA dans certaines entreprises, tendance « c’est l’ordinateur qui le dit »… Des automatisations sont souvent peu pertinentes. Par exemple, relancer un client qui n’a pas encore été livré est absurde. Il faut donc que l’automatisme « relance client » soit subordonné à la bonne réception du produit.
Plusieurs exemples ont été donnés d’usages intéressants ou innovants. Ainsi, un fabricant d’enceintes a une approche omnicanale qui l’amène à connaître les goûts musicaux et la playlist de ses clients. Lorsque ceux-ci arrivent en magasin, ils entendent leur playlist… Chez un agrumier espagnol, des capteurs mesurent la taille, la forme et la couleur de citrons afin de les trier par un traitement local (edge) de la donnée mais ces données sont ensuite remontées pour l’analyse qualité et la facturation des clients selon cette qualité.
Le métier est responsable (donc potentiellement coupable)
Historiquement, les outils de traitement des données étaient choisis par la DSI. Or celle-ci n’a pas nécessairement tous les éléments en main pour comprendre la réalité et les besoins des métiers. Surtout, la DSI n’est pas forcément en mesure de comprendre la donnée, ce qu’elle signifie et comment elle peut constituer ou pas une information. Henri Rufin a rappelé : « chez Radiall, la data appartient au métier et même la solution technique (Qlik en l’occurrence) a été choisie par le métier, le contrôle de gestion. Dans l’équipe data, nous embauchons d’abord des gens avec un parcours fonctionnel. La DSI nous avait bien mis à disposition un datawarehouse mais sans y adjoindre un ETL. Nous avons donc fini par utiliser l’ETL inclus dans Qlik pour combler les manques dans les outils fournis par la DSI. Les métiers ont aujourd’hui une appétence technique qui n’existait pas avant. » « Pour disposer des bons outils, il faut éviter la multiplication des couches de décision et autres intermédiaires : métier, assistance maîtrise d’ouvrage, assistance maîtrise d’oeuvre, DSI, prestataire… » a confirmé Edouard Beaucourt, directeur général France chez Snowflake.
Reste la question du coût des projets data. « Je suis incapable de dire ce que rapporte effectivement un projet data, même si je peux constater que chaque cadre gagne en productivité l’équivalent de deux à trois jours par mois mais la question est plutôt : combien coûte le fait de ne pas faire ? » a jugé Henri Rufin. Disposer de données complètes permettant d’analyser les coûts à la ligne de facture est ainsi un moyen de pointer les problèmes procéduraux et les erreurs de devis impliquant des ventes à perte. Henri Rufin s’est souvenu : « historiquement, nous avions des chiffres incohérents issus de cubes Cognos multiples et non-maîtrisés. J’ai téléchargé le client Qlik, j’ai pris un jeu de données et sorti, en démonstrateurs, des tableaux clairs. La direction générale a fait le choix des fonctionnalités. »
Le CPI-B2B (Club de la Presse Informatique B2B) s’est réuni le 15 février 2023 pour écouter les interventions de : (de gauche à droite sur la photo)
- Sophie Pietremont, directrice marketing EMEA Sud chez Zendesk ;
- Sébastien Calais, directeur Industry Solutions chez O9 Solutions ;
- Sébastien Verger, directeur technique chez Dell Technologies ;
- José Diz, animateur ;
- Henri Rufin, responsable data et analytics chez Radiall (fabricant français de connecteurs et de composants électroniques pour l’industrie, client de Qlik) ;
- Edouard Beaucourt, directeur général France chez Snowflake ;
- Julia Cames, directeur marketing chez HubSpot.