Décideurs it

Université AFCDP : le DPO face à l’IA et aux autres révolutions de la data

Par Bertrand Lemaire | Le | Gouvernance

L’AFCDP, association professionnelle des DPO, a tenu son université annuelle les 6 et 7 février 2025 à La Maison de la Chimie à Paris.

L’Université AFCDP a été ouverte le 6 février par Paul-Olivier Gibert, président de l’association.  - © Républik IT / B.L.
L’Université AFCDP a été ouverte le 6 février par Paul-Olivier Gibert, président de l’association. - © Républik IT / B.L.

« Les données personnelles sont devenues un enjeu stratégique car leur protection est un élément essentiel pour la confiance des citoyens et des consommateurs dans les organisations » a relevé Paul-Olivier Gibert, président de l’AFCDP (Association Française des Correspondants aux Données Personnelles) en ouvrant la dix-neuvième université annuelle de cette association professionnelle des DPO. Celle-ci s’est déroulée les 6 et 7 février 2025 à la Maison de la Chimie à Paris avec, en complément, cinq sessions numériques en parcours d’apprentissage continu au fil de l’année. L’université, au-delà des plénières, est composée de nombreux ateliers de travail.

Le rôle du DPO a évolué depuis dix ans et la naissance du RGPD : au-delà de la seule conformité, il s’agit de travailler pour la stratégie de l’entreprise. Il lui faut aussi garantir le RGPD tout en intégrant de nouvelles réglementations comme l’IA Act. Pour accompagner cette évolution, l’AFCDP poursuit son développement avec un budget de 1,4 millions d’euros, plus de 6000 membres, 150 réunions par an… Paul-Olivier Gibert a rappelé que le Conseil d’Administration serait prochainement renouvelé et a lancé un appel à candidatures.

L’ANSSI face aux évolutions des menaces et des obligations

Emmanuel Naegelen, directeur général adjoint de l’ANSSI, a pris la suite, comme la tradition l’exige. Il a regretté qu’il existe des réunions aussi massives de DPO et de leur écosystème mais pas d’équivalent pour les RSSI, oubliant la Cyber Night qui en réunit un millier chaque année. Pour lui, la grande question actuelle pour les DPO est double : l’évolution des technologies (IA…) d’une part, la cohérence des différentes réglementations (RGPD, NIS 2, IA Act…) d’autre part. NIS2 accroît considérablement le nombre d’entités devant être régulées par l’ANSSI et constitue un chantier très complexe, ce qui n’est pas neutre pour l’agence. C’était d’ailleurs le sujet de la dernière Place de la Républik Cyber. Si, pour le RGPD, l’autorité de régulation d’un seul pays (la CNIL en France) peut prendre la responsabilité d’un dossier à l’échelle européenne, rien de similaire n’est actuellement fixé concernant NIS2 et l’autorité de régulation concernée (l’ANSSI en France). Même la simple notification d’incidents suit des procédures différentes selon les pays ! L’ANSSI travaille actuellement sur une amélioration à ce niveau avec ses homologues européens.

Emmanuel Naegelen, directeur général adjoint de l’ANSSI - © Républik IT / B.L.
Emmanuel Naegelen, directeur général adjoint de l’ANSSI - © Républik IT / B.L.

Les enjeux pesant sur les données, selon le « Panorama de la Menace » de l’ANSSI (l’édition 2025 paraîtra le 11 mars prochain), évoluent. Au-delà de la classique extorsion financière, le vol de données a aussi d’autres objectifs comme la déstabilisation de la victime ou l’atteinte à son image. Le vol peut d’ailleurs être non-avéré ou exagéré. Mais la publicité de la revendication peut suffire à atteindre les objectifs des attaquants. Une autre menace est la faille chez un prestataire technique, notamment SaaS, pour attaquer des entreprises matures en cybersécurité. Un mode d’action est l’attaque de l’hyperviseur d’un prestataire Cloud pour accéder en une fois, de manière discrète, à un grand nombre d’organisations. Avec l’émergence de l’IA, de nouveaux risques sont identifiés par l’ANSSI. Avec l’IA, la donnée façonne et est façonnée par son contenant. La donnée peut donc être corrompue pour empoissonner l’IA et l’IA elle-même peut aussi être attaquée. Inversement, la souveraineté des données n’est pas une préoccupation directe de l’ANSSI, le sujet étant surtout juridique et politique, mais l’agence ne peut pas totalement ignorer ce thème.

La menace informationnelle s’accroît

Créé en juillet 2021, Viginum (Service de Vigilance et de Protection contre les Ingérences Numériques Etrangères) est un service de l’État visant à éviter la manipulation du débat public par la désinformation issue d’acteurs étrangers. Lors d’une intervention à l’université de l’AFCDP, il a été présenté par Marc-Antoine Brillant, son chef de service. Le besoin de créer Viginum s’est fait sentir récemment, avec l’élection présidentielle de 2017, la crise des Gilets Jaunes, la crise sanitaire Covid-19… Des campagnes de haine sont aussi constatées, par exemple face au rappel des principes de la Laïcité, campagnes qui ont joué un rôle dans l’assassinat de Samuel Paty. Deux critères sont classiquement retenus : contenus générés de façons automatisées et/ou massives d’une part, contenus trompeurs ou faux d’autre part. Deux autres critères sont ajoutés par Viginum pour qualifier l’ingérence numérique étrangère : l’implication d’une entité étrangère et la volonté d’atteinte aux intérêts nationaux.

De gauche à droite : Jean-Luc Sauron et Antoine Brillant, Viginum - © Républik IT / B.L.
De gauche à droite : Jean-Luc Sauron et Antoine Brillant, Viginum - © Républik IT / B.L.

En décembre 2021, un deuxième décret a créé un traitement de données personnelles pour aider aux missions. Un comité éthique et scientifique, présidé par Jean-Luc Sauron, est là pour vérifier le respect des libertés publiques (notamment la liberté d’expression, largement invoquée par les manipulateurs) afin d’éviter toute critique envers l’action de Viginum. La menace informationnelle était jadis liée aux seules élections. Mais, désormais, tout événement peut être exploité. Au-delà de la création de fausse information, les attaquants manipulent le vrai pour attenter à l’ordre public. Les modes opératoires se sophistiquent, non seulement par le recours à l’IA (deep fakes…) mais aussi par les méthodes (coordination entre réseaux sociaux, manipulation des algorithmes…). La data est donc au coeur de cette menace. Jean-Luc Sauron a relevé que l’analyse de la crise liée à la récente élection présidentielle roumaine est particulièrement intéressante même si les manipulations précédentes (Brexit, élections en Moldavie ou en Slovénie…) annonçaient une telle crise.

Auditer l’IA : une nécessité d’une grande complexité

Benoît Rottembourg, chercheur à l’INRIA, a conclu la première matinée sur le thème de l’audit de systèmes IA. Après avoir construit de nombreux algorithmes, notamment d’IA, l’INRIA s’est intéressée à l’audit de ces algorithmes pour en contrôler la qualité. En début de carrière, il a eu à s’occuper d’un algorithme gérant des plannings d’un centre d’appels. Et les personnes aux noms en fin d’ordre alphabétique étaient défavorisées à cause d’une erreur dans l’algorithme, erreur tout à fait involontaire corrigée en une seule ligne de code. Avec l’évolution de la technologie, de tels problèmes se sont multipliés et l’IA les aggrave. Avec l’IA Act, les traitements à hauts risques doivent être particulièrement surveillés (traitements à base de données personnelles, scoring de crédit…).

Benoît Rottembourg, chercheur à l’INRIA - © Républik IT / B.L.
Benoît Rottembourg, chercheur à l’INRIA - © Républik IT / B.L.

L’injustice vis-à-vis de groupes de personnes (groupes ethniques, religieux… ou aux noms en fin d’ordre alphabétique !) est particulièrement recherchée. Il est très délicat de démontrer qu’une femme à la peau sombre a les mêmes chances, en scoring de crédit ou en détection d’un cancer de la peau par exemple, qu’un homme caucasien, le « toutes choses égales par ailleurs » étant compliqué à garantir. Certaines données sensibles (comme l’âge ou le sexe) peuvent, en plus, être des critères pertinents et non des biais (par exemple l’âge et le sexe sont statistiquement signifiants sur le délai de paiement en cas d’impayé d’une facture d’un opérateur télécom). Mais on peut appliquer l’algorithme à divers cas (fictifs ou non) pour le vérifier (audit comportemental). Certes, on pourrait exiger une conception conforme aux attentes mais c’est déjà trop tard pour Benoît Rottembourg, tant les IA non-explicables sont déjà partout.