Républik Data & IA : une dizaine d’ateliers pour débattre entre pairs
Par Bertrand Lemaire | Le | Contenu sponsorisé - Data
Cet article est référencé dans notre dossier : Retours sur le Républik Data & IA 2024
Les 24 et 25 juin 2024, Républik organise deux jours de réflexions sur la data et l’intelligence artificielle à Deauville.
Pour la quatrième fois, Républik organise deux jours d’intelligence collective autour de la data et de l’intelligence artificielle : Républik Data & IA. Cette manifestation aura lieu au Royal Barrière à Deauville, privatisé pour l’occasion, les 24 et 25 juin 2024. Bien sûr, cet événement intègre des séances plénières. Outre la plénière d’ouverture, nous aurons cette fois l’honneur d’une intervention du professeur Jean-Gabriel Ganascia. Spécialiste de l’intelligence artificielle, il a obtenu deux doctorats à l’université Paris-Saclay, l’un sur les systèmes à base de connaissance (1983), l’autre sur l’apprentissage symbolique (1987). Professeur d’informatique à la faculté des sciences de Sorbonne Université depuis 1988, il a eu parmi ses élèves Luc Julia. Il interviendra sur les sujets des deep-fakes (les Canadiens parlent d’hypertrucage), de l’éthique computationnelle et des usages éthiques de l’IAG.
Comme à chaque édition, les participants pourront toujours rencontrer fournisseurs et prestataires de leur choix pour progresser dans leurs projets. Mais le cœur de l’événement, ce sont bien les ateliers, des lieux de débats confidentiels (aucun compte-rendu) entre pairs. Neuf ateliers seront organisés cette fois-ci, se répartissant sur les deux jours de Républik Data. Le programme des ateliers a été défini en concertation avec le comité de pilotage composé de personnalités de la communauté.
De l’organisation à la gouvernance data
Atelier 1 : « Comment justifier la valeur de la fonction data, ses investissements et son organisation ? »
Si l’IT peut disposer de KPI claires pour démontrer sa performance, c’est bien moins simple pour la direction data. Résultat : à la moindre secousse budgétaire, le Chief Data Officer est très fortement challengé. A cela s’ajoute la difficulté pour les métiers comme pour la direction générale de comprendre les différents rôles (data scientist, data stewart, etc.).
Il faut donc savoir expliquer et démontrer la valeur de la data avec des KPI pertinents et mesurables face au ComEx comme face aux directions métiers. Le CDO doit aussi expliquer comment il pilote les KPI et les faire comprendre au métier.
Cela signifie qu’il faut pouvoir démontrer la valeur incrémentale de la fonction data via des cas d’usages dans la création de valeur de l’entreprise. Bref, il faut savoir justifier les budgets consacrés à la data, expliquer la création de valeur en la basant sur des KPI compréhensibles et enfin détailler les rôles.
Atelier 2 : « Data quality : c’est grave, docteur ? »
La demande de données fiables n’a jamais été aussi forte, d’autant que l’IA, pour être fiable, exige des données de référence de qualité. Tous les décideurs réclament dans toutes les enquêtes une forte qualité des données.
Malgré tout, accroître la qualité de la donnée a un coût. Il faut donc savoir démontrer la valeur de cette mise en qualité. Peut-on accepter un certain taux d’erreur au coût marginal négligeable ? Quel niveau d’exigence doit-on avoir en matière de qualité en fonction des besoins ? Comment calculer le retour sur investissement de la mise en qualité ?
Atelier 3 : « Entreprise data driven : trouver la bonne organisation pour la transformation data »
Les entreprises data driven sont celles qui éclairent leurs décisions par les données et l’analytique. Mais les données sont issues de multiples sources partout dans l’entreprise. Le modèle du Data Mesh peut alors s’imposer pour déployer une approche à la fois distribuée et fédérée.
C’est une véritable transformation qui engage toute l’entreprise dans l’ensemble de ses métiers. La complémentarité du binôme Data Office / IT est essentielle à la réussite de cette transformation. Quelle organisation adopter pour réussir cette approche ? Et quelle est la position de ce binôme dans l’organisation ?
Atelier 4 : « La Data marketplace et le self-service data sont-ils les clés de la Data démocratisation ? »
Pour qu’une entreprise soit réellement pilotée par les données, « data driven », il faut que chaque décideur, à quelque niveau hiérarchique qu’il soit, puisse accéder à ces données pour prendre des décisions. Or, au-delà de l’acculturation, il faut que, concrètement, chaque décideur puisse disposer des données dont il a besoin, sans délai, sans lourdeur inutile, sans devoir attendre le bon vouloir du service informatique. Le self-service data est, de ce point de vue, une approche intéressante.
Mais encore faut-il que les données soient convenablement mises à disposition en tenant compte de toutes les contraintes (restrictions de droits d’accès, qualité…). Bien entendu, il ne faut pas négliger que les décideurs doivent savoir utiliser ces jeux de données dont ils se retrouvent destinataires et disposent des outils nécessaires. Quelles sont, en pratique, les meilleures approches et pratiques ?
IA Générative : grandeur et décadence !
Atelier 5 : « IAG : quel socle méthodologique et technologique pour déployer tout son potentiel ? »
L’intelligence artificielle générative (GenAI ou IAG) se répand de plus en plus rapidement dans tous les domaines d’application via des fonctionnalités intégrées aux outils habituels. Cela signifie que les choix technologiques devront désormais anticiper l’augmentation probable des opérations utilisant l’IAG tout en gérant les problèmes majeurs inhérents à sa mise en œuvre que sont la sécurité, l’éthique et les ressources humaines.
Les entreprises devront disposer d’un environnement technique permettant à l’IA de déployer tout son potentiel. Parmi les prérequis, le passage au cloud et la mise en place d’une gestion rigoureuse des données sont des priorités. L’arrivée des IAG nécessite aussi de nouvelles compétences, à la fois pour développer de nouvelles solutions et pour les utiliser judicieusement
Atelier 6 : « IAG : quels sont les cas d’usage les plus probants ? »
Cet atelier visera à permettre aux participants d’échanger sur leurs propres cas d’usage.
Atelier 7 : « Du partage de données a l’open-data : quelles pratiques pour quelle performance ? »
Il serait réducteur de considérer l’Open Data comme une simple production du service public destinée à répondre à un besoin de transparence. Dans les faits, le partage de données entre organisations, en mode ouvert (Open-Data) ou non (consortiums comme Software Républik, chaînes logistiques…), peut être un véritable levier de performance pour les entreprises.
Mais, pour échanger des données, il faut savoir s’accorder sur des normes. De la DSN à Gaia-X, les modalités de fixation de ces normes sont très variables. De la réglementation aux nécessités sectorielles, les motivations aussi peuvent être variables. Les apports du partage sont parfois évidents mais, à l’inverse, dans d’autres cas, le secret des affaires (réel ou fantasmé) peut empêcher une telle approche.
Un peu de RH
Atelier 8 : « Nouveaux métiers, nouveaux talents : quels impacts pour la gouvernance de la data ? »
La pénurie des talents est une tarte à la crème classique des métiers de la data. Mais, comme cela ne suffisait, de nouveaux problèmes surgissent. Ainsi, de nouveaux métiers apparaissent : LegalOps (savoir traduire techniquement des contraintes légales), ambassadeurs data / business partners, etc. Le recours aux indépendants s’est généralisé.
Or si une ESN peut être contrôlée, est-ce possible pour des indépendants très demandés ? Peut-on interdire à ceux-là de travailler demain pour un concurrent ? Enfin, le développement de l’IA et de l’IAG remplace les profils juniors pour les tâches simples. Mais, dans ce cas, comment aura-t-on demain des seniors si toutes les tâches des juniors ne sont plus entre les mains d’humains ?
Data et green : un beau mariage
Atelier 9 : « Frugalité : n’oubliez pas le cycle de vie de la data ! »
Certes, il faut veiller à sauvegarder les données utiles. Mais les données nécessitent des ressources pour être stockées. La politique RSE comme les contraintes budgétaires et réglementaires (RGPD…) poussent à la frugalité donc à purger les données inutiles, obsolètes ou devant être oubliées. A l’inverse, de multiples réglementations imposent de conserver des données durant des années voire des dizaines d’années.
Quelles pratiques adopter pour les sauvegardes, l’archivage et les purges ? Quel arbitrage entre tout garder et faire le ménage ? Comment mesure son impact carbone ? Une fois la politique définie, comment en assurer l’exécution et par qui ? Les contraintes budgétaires sont parfois, en matière de frugalité, des motivations plus puissantes que la sauvegarde de la planète.