IA responsable : une exigence des collaborateurs
Par Bertrand Lemaire | Le | Data
Impact AI a publié un « Observatoire de l’IA Responsable » qui montre l’attachement des collaborateurs à l’IA mais pas n’importe comment.
L’intelligence artificielle (IA) et plus particulièrement l’intelligence artificielle générative ont pris une place considérable dans les entreprises en très peu de temps. Mais quelle est la perception de cette irruption soudaine par les collaborateurs des mêmes entreprises ? Quelles sont leurs attentes ? Et, en plus, une approche responsable d’une technologie particulièrement gourmande en ressources est-elle désirée ? Pour répondre à ces questions, Impact AI a réalisé un « Observatoire de l’IA Responsable » basé sur une enquête menée auprès de salariés français.
52 % des répondants estiment que l’IA est nécessaire au rayonnement d’un pays et le chiffre monte à 74 % parmi les utilisateurs de l’IA. Mais cette approbation n’est pas un blanc-seing. Ainsi, 37 % des salariés et 85 % des salariés utilisateurs d’IA considèrent qu’une régulation est nécessaire. Innovation, sécurité et responsabilité doivent être équilibrées dans les projets IA des entreprises selon 36 % des répondants, seulement 10 % privilégiant l’innovation.
Des risques à maîtriser
Le premier risque pris en considération par les répondants est l’impact sur les emplois (41 %), devant les risques liés à la confidentialité des données (33 %), une dépendance excessive à l’IA (31 %), la non-conformité aux réglementations (24 %), le manque de transparence quant aux tâches réalisées par l’IA (23 %), l’amplification de stéréotypes liés à la présence de biais dans les algorithmes (17 %), les risques d’uniformisation du travail (17 %) et l’impact environnemental (11 %). Ce dernier est donc peu identifié alors que la consommation de ressources par l’IA est considérable.
En menant l’enquête, la définition de l’« IA responsable » suivante a été communiquée aux personnes interrogées : « une intelligence artificielle responsable est conçue pour respecter des principes éthiques, garantir la transparence et minimiser les risques potentiels, y compris les biais dans ses algorithmes. Elle favorise l’inclusion sociale et la protection des données, tout en étant capable de choix explicables. De plus, elle vise à améliorer le bien-être humain sans causer de dommages sociaux, environnementaux ou de santé. » 63 % des répondants jugent que l’IA responsable est « souhaitable ou indispensable » (25 % l’estiment indispensable), le chiffre montant à 83 % chez les utilisateurs d’IA.
Une IA vraiment responsable
Au sein des critères posés, tous ne sont pas mis en avant de la même façon par les répondants. 36 % citent d’abord la protection des données personnelles et sensibles, devant le respect des droits fondamentaux (27 %), l’amélioration du bien-être humain (25 %), le respect de l’humain et de sa singularité (24 %), le respect des principes éthiques (22 %), la garantie de la transparence (21 %), le respect de la santé humaine (20 %), l’impact environnemental (17 %), l’explicabilité des choix (13 %), la réduction des biais dans les algorithmes (11 %), l’inclusion sociale (9 %). L’impact environnemental est, une nouvelle fois, très bas dans le classement.
La majorité des répondants juge leur organisation très immature dans la mise en place d’une IA responsable. Mais, cependant, la plupart estime que tout ce qui est nécessaire pour atteindre cette maturité est bien présent. 28 % jugent ainsi que les compétences internes suffisent, 22 % que la sensibilisation aux enjeux liés à l’IA et la politique de formation a bien été faite, 20 % que les salariés sont suffisamment motivés, 14 % que le budget IA responsable suffit… Malgré tout, des freins existent : le manque de compétences internes, cité par 30 % des salariés, la complexité technique de l’IA (26 %), les coûts élevés de sa mise en oeuvre (24 %), la résistance au changement (22 %) ou le manque d’engagement de la direction.
A propos de l’étude
L’Observatoire de l’IA Responsable est une étude réalisée par le think tank Impact AI en partenariat avec KPMG en France et BNP Paribas. Cet observatoire est destiné à être réédité. La première édition est basée sur une enquête menée par Viavoice et le centre de prospective GCF, en ligne, du 15 au 25 novembre 2024 auprès d’un échantillon de 1 000 salariés du secteur privé, issu d’un échantillon représentatif de la population salariée résidant en France métropolitaine, âgée de 18 ans et plus. La représentativité de l’échantillon a été assurée par la méthode des quotas (sexe, âge, catégorie socio-professionnelle, région, secteur et taille de l’entreprise).