Pascal Martinez (AG2R La Mondiale) : « nous vectorisons nos datas pour utiliser les IAG publiques »
Par Bertrand Lemaire | Le | Cas d’usage
AG2R La Mondiale a mis en œuvre une solution d’IA générative baptisée Almia (AG2R La Mondiale intelligence artificielle) qui vise à sécuriser les données (notamment les documents internes) tout en utilisant les LLM publics. Pascal Martinez, membre du comité de Direction Groupe en charge des systèmes d’information et du digital, explique cette approche.
Pouvez-vous nous rappeler ce qu’est AG2R La Mondiale ?
Comme je vous l’expliquais lors de ma dernière interview, AG2R La Mondiale est un spécialiste de la protection sociale et patrimoniale en France et le groupe est doté d’une gouvernance paritaire et mutualiste. Nous assurons les particuliers, les entreprises et les branches, pour protéger la santé, sécuriser le patrimoine et les revenus, prémunir contre les accidents de la vie et préparer la retraite.
En 2023, nous avons collecté 22 milliards d’euros de cotisations en retraite complémentaire et le chiffre d’affaires de la SGAM AG2R La Mondiale a été de 11,6 milliards d’euros. Nous disposons de 128 milliards d’euros d’actifs sous gestion.
Pourquoi AG2R La Mondiale s’est-elle intéressée à l’IA et plus particulièrement à l’IAG (intelligence artificielle générative) ?
Depuis plusieurs années nous faisions de l’IA sans forcément la nommer ainsi… En effet, nous avons recours à des applications de reconnaissance de documents, de l’automatisation, de la détection de comportements suspects…
Et puis, comme tout le monde, nous avons vu arriver fin 2022 ChatGPT. En très peu de temps, ce service a eu un très grand nombre d’utilisateurs, ce qui est un indicateur d’une rupture technologique majeure. Nous nous y sommes donc intéressés.
Cette technologie est très simple à utiliser grâce à l’emploi du langage naturel. Il est aisé de lui donner des documents à utiliser (RAG) et on peut, en retour, obtenir des réponses issues de ceux-ci sans apprentissage préalable. Nous avons tout de suite compris l’intérêt d’utiliser une telle technologie pour faire, par exemple, des synthèses de documents.
Avez-vous constaté l’existence de shadow IA ?
Chez AG2R La Mondiale, nous avons fait le choix de bloquer l’accès aux sites type ChatGPT pour maîtriser nos données. Les conditions d’usage de ces services en ligne rendent publiques les données soumises. Cependant, nous avons su percevoir le bénéfice d’une telle technologie : un tel outil pouvait permettre aux collaborateurs de se concentrer sur des missions à forte valeur ajoutée, au service notamment de l’amélioration de l’expérience client.
Comment avez-vous réagi ?
Nous avons mené quelques tests avec un groupe pilote.
Surtout, nous avons défini des règles de conduite : garantir la cybersécurité et la confidentialité, aucun outil d’IAG en frontal direct avec un client et une vision comme aide aux collaborateurs, pour accroître leur performance, pas pour les remplacer.
Nous avons donc construit Almia. Il s’agit d’une interface pour interroger les LLM du marché de manière sécurisée. Nous avons aussi la capacité à connecter des SLM. Par exemple, en se basant sur des modèles réutilisables, Almia aide à créer de la communication commerciale.
Via API, nous pouvons aussi l’utiliser dans des process métier. Pour prendre un exemple, nous avons 100 000 verbatims clients par an à analyser. Un autre cas d’usage est de réaliser des comptes-rendus de réunion. On peut aussi citer la lecture préalable des appels d’offres afin de trouver facilement les éléments qui vont nous aider à décider si oui ou non il est intéressant de répondre. Pour le développement, nous avons un assistant pour gérer, optimiser et documenter le code.
Nous voulions utiliser l’IA et l’IAG au bénéfice des clients et des collaborateurs.
Comment avez-vous mené le déploiement ?
Nous nous sommes appuyés sur une communauté de « Champions de l’IA ». Ainsi, des collaborateurs de chaque direction ont pu tester et développer des applications concrètes servant aux différents métiers avant de former leurs collègues. Aujourd’hui, il y a environ un millier d’utilisateurs et ils devraient être deux mille en fin d’année. À terme, nous estimons qu’il devrait y avoir environ 3000 utilisateurs.
Certains usages ont été découverts par la pratique des collaborateurs : ce n’est pas une technologie qui peut toujours être déployée en mode top-down et les utilisateurs sont souvent les mieux placés pour détecter les meilleurs cas d’usage.
Quels outils avez-vous connectés à Almia ?
Aujourd’hui, nous avons OpenAI ChatGPT, Google Gemini et PALM dans différentes versions avec la possibilité d’intégrer facilement de nouveaux LLM.
Nous suivons les dépenses en mode FinOps afin d’optimiser les coûts : les écarts peuvent aller jusqu’à un ratio de 1 à 30.
Nous ne sommes pas dans une démarche de partenariat exclusif car il y a une forte évolutivité des technologies et des produits et il faut pouvoir s’adapter aux évolutions de l’offre. Il s’agit de toujours disposer du juste moteur au juste prix, y compris en choisissant entre LLM et SLM.
Les utilisateurs peuvent interroger des versions plus ou moins chères selon leurs habilitations et leurs usages. Par exemple, la dernière version du LLM d’OpenAI qui se tient à jour des dernières publications web est plus onéreuse que la version de base.
Vous utilisez donc des outils SaaS du marché tout en leur soumettant des données sensibles. Comment garantissez-vous la sécurité et la confidentialité des données ?
Evidemment, il s’agit de sécuriser les documents soumis de telle sorte qu’ils ne puissent pas être réutilisés pour des usages non-maîtrisés ou non-désirés. Nous avons donc opté pour la vectorisation / tokenisation des données soumises à des IA/IAG externes.
Almia est un développement interne réalisé depuis mars 2024. Il permet de ne soumettre que des documents vectorisés qui, du coup, ne peuvent en aucun cas être réutilisés. Les documents d’origine restent en local. Mais, en retour, l’IAG, elle, répond bien en langage intelligible.
En quoi consiste cette technique exactement ?
Il faut se souvenir que les LLM (et donc les IAG) fonctionnent sur une base statistique à partir d’un langage qui lui est propre. La vectorisation consiste à découper le texte en petites unités pour le rendre intelligible au LLM. En fait, nous lui prémâchons le travail. Cette manière de travailler est en effet son mode de fonctionnement. Mais, comme le texte d’origine n’est pas envoyé, celui-ci reste protégé.
Quels défis vous reste-t-il à relever ?
Nous devons nous assurer de conserver la sécurité et la confidentialité des données.
Nous travaillons également autour de la question des talents car, dans notre secteur d’activité, il ne suffit pas de maîtriser l’IA/IAG ou les autres technologies : il faut aussi comprendre et connaître les métiers de l’assurance. Il nous faut sensibiliser les collaborateurs tant aux usages qu’aux limites de l’IA/IAG.
Nous avons à adopter une incubation permanente : il faut savoir faire évoluer, développer, expérimenter… Il est également important que nous surveillions la descente de la hype. L’IAG fonctionnant sur un modèle statistique, à une question similaire, nous aurons une réponse similaire à celle de nos concurrents.
En fait, il faut se focaliser sur les usages générant de la valeur. Mais le risque est aussi de trop réfléchir et de ne pas assez agir. D’un côté, il ne faut pas prendre de retard mais, de l’autre, il ne faut pas non plus négliger les impacts et les conséquences indésirées. Et quand on pose la question de son rôle à l’IAG, celle-ci peut se donner beaucoup d’importance…