Lionel Lemoine (Adobe) : « l’IA ne peut pas nous dire quoi faire mais nous dit où regarder »
Par Bertrand Lemaire | Le | Logiciel
Adobe utilise l’intelligence artificielle depuis des années notamment pour ses solutions marketing et lance en ce moment l’IA générative Firefly pour aider les créateurs. Mais pas les remplacer.
Pouvez-vous nous présenter Adobe ?
Adobe édite des solutions dans trois grands domaines. Tout d’abord la création de contenus (Créative Cloud, Photoshop…), ensuite les métiers de l’« expérience » (marketing automation, web analytics, CMS, e-commerce…) et enfin la gestion de documents (Document Cloud, PDF, signature électronique…).
Nous sommes très présents en France, y compris d’un point de vue ingénierie, car nous avons, au fil des années, racheté plusieurs entreprises importantes et les équipes de développement sont toujours ici. Ainsi, Fotolia est devenu Adobe Stock. Néolane a donné naissance à Adobe Campaign. Et, plus récemment, nous avons racheté une pépite auvergnate, Allegorithmic, qui nous a permis de créer Substance 3D. La technologie d’Allegorithmic permet de créer par algorithmes (et non par plaquage de photographies) des textures 3D photoréalistes. Cette technologie est non seulement incontournable dans les jeux vidéos ou les films mais aussi très utile combinée à l’intelligence artificielle générative (IAG).
Justement, Adobe utilise l’IA depuis longtemps…
Effectivement, même si nous parlions plus d’algorithmes que d’intelligence artificielle, elle nous permet déjà d’utiliser, pour le marketing, la data en temps réel, par exemple pour du suivi comportemental, pour faciliter la segmentation et la personnalisation des messages.
Pour ce dernier point, l’intelligence artificielle générative (IAG) amène fond et forme à l’humain.
Qu’apporte l’IA et l’IAG dans votre contexte ?
Nos outils nécessitent souvent des compétences avancées. Disposer de guides conversationnels pour, par exemple, décider de canaux pertinents et d’objets pertinents pour une campagne appropriée (segmentation, copilote de l’analyse…). Comme vous le savez, en imagerie médicale, l’IA permet de repérer des détails difficiles à repérer lorsque l’humain est seul face à l’image. En marketing, c’est la même chose : les datas sont tellement riches, volumineuses et complexes que l’IA va nous inciter à regarder au bon endroit.
Dans les outils destinés à l’interaction avec des clients, les technologies d’IAG vont permettre d’adopter une conversation ou de fabriquer un texte avec le bon ton, tenant compte du contexte, de variations culturelles ou socio-économiques.
Mais l’IA permet de fabriquer du faux plus vrai que le vrai sans oublier qu’elle peut aussi se tromper, être victime d’hallucinations. Ces problèmes ne sont-ils pas gênants ?
C’est un sujet très large et que l’on doit aborder différemment selon que l’on parle de texte ou d’image.
Quand on a des hallucinations visuelles, nous avons des mécanismes qui permettent de prendre du recul. C’est vrai aussi pour les faux, les fameuses deepfakes. Nous sommes à l’origine au consortium CAI (Content Authenticity Initiative), créé lorsque sont apparues les premières deepfakes, qui vise à mettre au point des outils, des méthodes et des technologies pour distinguer le retouché ou le fabriqué par l’IA et l’authentique. Quand on dit « fabriqué par l’IA », c’est aussi dire à partir de quoi. Par exemple, nous avons des métadonnées associées aux photographies qui vont être altérées en cas de modifications. Nous avons fédéré plus de mille acteurs qui y participent à présent.
Avec du texte, le problème est plus subtile. En effet, la forme est si bien structurée qu’on peut oublier de prendre du recul sur le fond. Le risque est que les gens prennent ce qu’ils reçoivent pour argent comptant. Il faut donc les éduquer à avoir l’esprit suffisamment critique.
Et il ne faut pas oublier que l’IA est un assistant qui se base sur le passé avec des retours très itératifs. Or un créatif va chercher l’originalité. Cependant, l’IA peut donner des idées, à partir de tout ce qui a été créé auparavant, et auquel tel créatif n’aurait pas pensé. Mais ça va se limiter très vite.
D’une manière générale, l’IA ne peut pas nous dire quoi faire mais nous dit où regarder.
Comme vous l’avez mentionné, l’IAG se base sur de l’existant, en principe soumis à droit d’auteur. Comment traiter ce qui pourrait être considéré comme de la contrefaçon ?
Jusqu’à ce que Firefly, notre IAG graphique, arrive, ce point était en effet très anxiogène pour les utilisateurs d’IAG. La force de Firefly, au-delà de ses capacités d’IAG, c’est sa base d’entraînement. Jusqu’à présent, l’IA était beaucoup utilisée pour analyser et indexer les photos et les autres images (repérer s’il y a un bateau, une voiture, etc.).
Clairement, Adobe n’a pas été le premier à sortir une IAG. Nous voulions en effet prendre le temps de réfléchir à ce genre de problèmes, éthiques ou juridiques. La version béta de Firefly, sortie récemment, a été entraînée sur sur la base Adobe Stock, plus exactement les images de qualité placées en licence gratuite. Bientôt, nous allons sortir une version pouvant utiliser des contenus premiums et qui entraînera des rétributions des créatifs initiaux.
Lorsque Fotolia (l’origine d’Adobe Stock) a été lancé, il a apporté une rétribution originale aux photographes, notamment pour leurs invendus. Avec Firefly, nous comptons là aussi apporter une réponse intelligente à un problème, celui de rémunérer les sources servant l’IAG. Même si certains créateurs ne seront sans doute pas intéressés par notre modèle de licence et garderont toujours la capacité à refuser de voir leurs œuvres intégrées à Firefly.
Un autre problème de beaucoup d’IAG graphiques est une génération d’images construites sur un patchwork mais ensuite difficiles à modifier. Avec l’intégration de Firefly à Photoshop, on peut générer un calque sur une zone (par exemple un fond ou un élément de décor), calque évidemment modifiable.
Je vois deux types différents d’usage de Firefly : d’un côté la création d’images peu originales (un prompt, une image, étant donnée que la nature des réponses en IAG se ressemblent beaucoup avec une demande similaire), de l’autre un usage d’assistant à la création pour ceux dont c’est le métier de créer (par exemple : création du fond ou d’un élément).
Notons aussi que Firefly Enterprise va pouvoir être utilisée avec une base d’entraînement qui ne soit que les actifs d’une entreprise. Là, pas de soucis de droit d’auteur : ce sont des actifs qui appartiennent à l’entreprise. Mais, avec ce modèle, la génération de contenus se fera dans l’esprit de la marque.
L’IAG peut-elle jouer un rôle dans la demande croissante de contenus ?
Il y a de nombreuses questions sur l’évolution des métiers en lien avec l’émergence de l’IA. Mais il y a une chose de sure : l’emploi dans les métiers de la créations sont victimes d’un problème de demande, pas d’offre. Il y a une telle explosion de la demande en création de contenus que les entreprises ne peuvent pas suivre : soit c’est trop cher de faire, soit il n’y a pas assez de créatifs.
A cause de la personnalisation croissante, on estime que la demande a doublé sur les deux dernières années et qu’elle sera multipliée par cinq dans les prochaines années. Il y a cinq ans, une entreprise adaptait ses contenus en fonction de quatre ou cinq personas. Aujourd’hui, l’idée est de disposer d’une véritable personnalisation individuelle. A chaque individu son contenu adapté !
Pour l’anecdote, quand Adobe a basculé son modèle de la licence perpétuelle à la souscription, son chiffre d’affaires sur les outils de création de contenus était de 2,5 milliards de dollars. Aujourd’hui, il dépasse 10. La demande ne cesse d’exploser.
Et l’intelligence artificielle va pouvoir assurer les modifications à faible valeur ajoutée. Par exemple, changer un arrière plan à un produit pour le placer dans le bon contexte, l’IA peut le faire. Et le créatif humain va garder la main sur la vraie création et les sources d’inspiration.
Quels sont les prochains défis en rapport avec l’IA ?
Sans doute l’engouement extrêmement fort pour l’IAG et l’explosion des usages va constituer notre premier défi. Nous ne sommes qu’au début de l’histoire de ce copilotage entre l’homme et l’IA. Nous avons annoncé un partenariat avec Google pour intégrer Firefly à Bard. L’IAG sera sans aucun doute largement démocratisée dans les années à venir.
Avec Firefly Beta, on peut non seulement créer des images mais aussi, par exemple, de la typographie avec enluminures. Et, demain, ne doutons pas que la 3D et les textures algorithmiques seront révolutionnées par l’IAG. Une vidéo, ce n’est qu’une succession de vingt-cinq images par seconde. Avoir une IAG pour créer des contenus animés, ce n’est donc pas de la science-fiction.
Je suis persuadé que l’IAG va être un facteur majeur de la création demain si elle est bien structurée, avec des algorithmes solides, et si sont traitées correctement toutes les questions connexes, notamment celle des droits d’auteurs.
Podcast - Gérer la propriété intellectuelle des sources de l’IA générative
L’éditeur américain Adobe est très présent, y compris pour l’ingénierie, en France : il a en effet au fil des années acheté Fotolia (devenu Adobe Stock), Néolane (devenu Adobe Campaign) et Allegorithmic. Le sujet du moment est l’IAG (intelligence artificielle générative) et Adobe ne pouvait y échapper. L’éditeur a ainsi lancé Firefly mais avec des particularités que Lionel Lemoine, Head of Solution Consulting Western EMEA chez Adobe, dévoile ici. Outre le respect des droits d’auteurs, le produit permet aussi aux entreprises de développer des contenus à leur image.