Les projets d’IA de Metlife France bloqués en justice
Par référé, le CSE de l’assureur Metlife France a obtenu le gel du déploiement de cinq projets d’intelligence artificielle. Retour sur les enjeux.

A force de se focaliser sur les progrès techniques de l’intelligence artificielle et ses apports théoriques, n’oublierait-on pas de tenir compte des êtres humains ? Fin 2024, la CFE-CGC a appelé à une régulation en entreprises et, un mois plus tard, un collectif de syndicats rappelait la nécessité d’un dialogue social autour des déploiements d’IA. Deux coups de semonce qui annonçaient peut-être cette actualité. Pour la première fois, ce sont cinq déploiements de projets autour de l’intelligence artificielle chez l’assureur Metlife France qui viennent d’être bloqués par une ordonnance de référé du Tribunal Judiciaire de Nanterre rendue le 14 février 2025, ce jusqu’à achèvement de la procédure d’information du CSE (Comité Social et Economique) sous astreinte quotidienne de mille euros par infraction.
Fondé en 1868, le groupe MetLife a son siège à New York. C’est un acteur international dans l’assurance vie et en prévoyance salariés, avec près de 100 millions de clients à travers 50 pays. Spécialisé en assurance emprunteur et en prévoyance, Metlife France a son siège à Paris La Défense et compte environ 300 salariés. Au cours des derniers mois, Metlife France a commencé à déployer cinq outils d’intelligence artificielle : Finovox (lutte contre la fraude documentaire), Synthesia (IAG vidéo), Notify AI (IA CRM), Semji (IAG textes et images) et MetIQ (un ChatGPT interne). L’entreprise a précisé que ces débuts de déploiement correspondaient à des phases pilotes et qu’aucun de ces outils n’était considéré en production. Pourtant, comme relevé par le CSE (Comité Social et Economique) de l’entreprise, l’usage de Finovox a été proposé à tous les subordonnés du directeur des opérations le 20 novembre 2024 et une formation à Synthesia des équipes du service communication a été évoquée en octobre 2024.
Des inquiétudes réelles sur les déploiements d’outils IA
Comme admis par le tribunal, même s’il s’agissait toujours d’une phase pilote, ce sont donc de nombreux salariés qui ont été amenés à utiliser ces outils. Le CSE (Comité Social et Economique) d’une entreprise a comme mission de suivre les projets et de donner un avis après une information complète. Si son avis n’est jamais bloquant, le CSE peut être amené à démontrer que l’employeur ne respecte pas son obligation de prévention, fixée par l’article L4121-1 du Code du Travail. Il s’agit d’une obligation de moyen renforcée pour garantir la santé et la sécurité des salariés. Maître Juliette Renault, qui défendait le CSE, précise : « les textes sont très clairs et exigent une consultation du CSE pour toute mise en œuvre de nouvelle technologie ».
Premier problème : le déploiement des outils s’est opéré sans consultation complète du CSE. A fortiori, le CSE n’a reçu aucune information suffisante sur le fonctionnement et la fiabilité des outils. Aucune information n’a été donnée au CSE sur l’éventuel impact sur la charge de travail des collaborateurs. Enfin, aucune information n’a été donnée au CSE sur les éventuels impacts en matière de santé (y compris le stress) et de sécurité.
Des inquiétudes à prendre en compte
Au-delà du problème formel de non-consultation effective préalable du CSE, plusieurs inquiétudes de fond ont motivé l’action en justice. « Faute d’information, le CSE s’interroge sur l’éventuel accroissement de la charge de travail mais aussi, évidemment, sur des risques de suppression de postes si les outils permettent d’accroître la productivité » relève Maître Juliette Renault. Si un outil à base d’IA ne fonctionne pas correctement, le contrôle humain représente une charge de travail additionnelle. A l’inverse, si l’outil fonctionne bien, le risque est que l’employeur augmente le nombre de tâches confiées aux salariés ou ses exigences de productivité. Maître Juliette Renault prend comme exemple : « Finovox est réputé détecter beaucoup de fraudes, ce qui risque de donner de ce fait plus de travail aux salariés en charge du traitement de celles-ci, y compris sur les faux-positifs. »
Certes, il ne s’agit là que d’une ordonnance de référé, donc statuant sur une urgence, et de première instance. La jurisprudence a donc un poids relativement faible. Mais cette première jurisprudence doit servir d’avertissement à tous les responsables IT d’entreprises. Un projet de déploiement d’IA constitue une évolution majeure et la gestion du changement doit être faite correctement, y compris par la consultation des instances représentatives du personnel. Le sujet sera d’ailleurs abordé sur le prochain Digital Workplace Summit, les 14 et 15 mai 2025 à Deauville.
La société Metlife France ne donne aucun moyen de la contacter autrement qu’en rapport avec ses offres commerciales et Maître Pierre-Alexis Dumont, son avocat, n’a pas répondu à notre sollicitation.