Les juristes modérément intéressés par l’IAG
Par Bertrand Lemaire | Le | Data
L’European Legal Technology Association (ELTA) a publié une étude mondiale sur l’intelligence artificielle générative (IAG) telle que perçue par les juristes.
Les métiers doivent s’emparer de l’IA en général et de l’intelligence artificielle générative en particulier, ce que même l’État a fait en France. Mais, pour les juristes dont le travail requiert une particulière rigueur, cet usage n’est pas simple. Deux avocats de New-York, piégés par les hallucinations de ChatGPT, en ont fait la douloureuse expérience : l’IAG inventait les jurisprudences invoquées. L’European Legal Technology Association (ELTA) a interrogé des juristes pour connaître leur opinion sur le sujet. Se voulant lieu de débat réunissant technologie et droit, cette association regroupe, dans 35 pays, 300 entreprises ayant une activité juridique (cabinets d’avocats, etc.). Pour l’étude « Generative AI Global Report 2023 », quatre catégories différentes de professionnels du droit (cabinets d’avocats, services juridiques internes, prestataires de services juridiques alternatifs, et secteur universitaire et public) ont été interrogées.
73 % des professionnels du droit interrogés utilisent ainsi ChatGPT contre 13 % d’autres technologies. Mais cet usage n’est guère professionnel : 29 % l’utilisent par curiosité, 25 % pour générer des textes non juridiques et 14 % pour résumer des documents. 44 % l’utilisent au moins une fois par semaine et 24 % au moins une fois par jour. Selon les cas, les utilisateurs juristes attribuent une note sur 10 de 6,3 à 7,7 à l’expérience utilisateurs des applications d’IAG. 77 % considèrent que l’IAG constitue une aide précieuse tandis que 14 % jugent plutôt celle-ci comme un danger pour l’emploi dans leur métier. A terme, 62 % jugent que les professions juridiques commencent à être fortement impactées par l’IAG, 23 % estimant que les grands changements vont avoir lieu dans les toutes prochaines années. Comme principales préoccupations, les juristes citent la protection de la vie privée et la sécurité des données, suivies par la partialité algorithmique, puis par les questions de responsabilité et d’imputabilité.