Assistant IA personnalisé, les premiers enseignements pour délivrer une réelle valeur ajoutée.
Si la simplicité d’usage et d’expérience apportée par l’IA générative n’est plus à démontrer, du travail reste à opérer pour délivrer de la valeur et de l’efficacité sur les réponses apportées par les assistants personnalisés.
Les éditeurs de solutions basées sur les LLM sont de plus en plus nombreux à proposer des outils pour créer ses propres assistants personnalisés. Les cas d’usage sont multiples : créer des réponses personnalisées à ses employés dans un cadre RH, interroger une base documentaire dans un cadre projet, créer un support utilisateur le tout à la fois sur une application web en ligne interne ou externe. Ils poursuivent tous le même objectif, délivrer des contenus personnalisés liés à un contexte dédié.
Au même titre qu’une simplicité d’usage démontrée, la mise en œuvre de ces assistants est facilitée par les grands éditeurs avec des produits sur étagère pour la plupart favorisant une approche low code (Copilot Studio, Google Vertex AI, Chat GPT 4, …). D’autres éditeurs l’ont bien compris à une échelle industrielle en proposant désormais nativement un assistant basé sur ces mêmes solutions (Joule pour SAP, Copilot Einstein pour Salesforce, …) ou encore des solutions personnalisées aux métiers comme Copilot Studio Finance.
Nos premières expérimentations dans un contexte de recherche documentaire, nous démontrent la nécessité en amont de :
#1 Préparer et structurer ses contenus/data : pour favoriser la qualité des résultats d’un LLM associé à une base de connaissance, il est nécessaire de labelliser et structurer au maximum les contenus de votre base de connaissances afin de les rendre plus facilement accessibles. Les formats et la taille des documents doivent être au maximum standardisé pour faciliter le traitement, l’analyse et la retranscription des données. On s’aperçoit également sur un niveau plus fin de l’importance de la sémantique utilisée.
#2 Cadrer et orienter l’utilisateur : Il est également important de définir des arbres de décision classiques en complément du LLM afin que l’assistant puisse cadrer le contexte des demandes et les réorienter afin de favoriser des réponses pertinentes.
#3 Sécurité et éthique des données : informer sur la base de connaissance, sa composition, le cadre d’utilisation des données, la façon dont les LLM prennent leur décision est fondamental pour garantir la confiance des utilisateurs.
#4 Science du prompting : La qualité du prompt est essentielle pour obtenir des résultats satisfaisants et éviter de perdre son temps à reformuler pour des résultats approximatifs. Accompagner les utilisateurs à rédiger des prompts dans le cadre et contexte précis de l’assistant mis à disposition est clé.
#5 Gérer le cycle de vie de votre base de connaissances. Les assistants personnalisés ne sont pas encore en mesure de sélectionner la version définitive d’un document par rapport à ses versions provisoires, d’identifier les informations erronées dans vos documents, de déceler les données obsolètes. Pour un fonctionnement pérenne de l’assistant personnalisé, il est donc nécessaire de mettre en place une gouvernance des données.
Lorsqu’on touche à de la donnée métier, les utilisateurs sont très attentifs et exigeants aux réponses apportées par l’assistant personnalisé. Nous voyons bien ici que les LLM ne peuvent tout faire seuls malgré les fortes attentes et les belles démonstrations dans la presse. Il est nécessaire en amont d’avoir une donnée de qualité et correctement contextualisée, de bien connaître les différentes solutions selon l’usage souhaité et le corpus de données mis à disposition. Un des enjeux principaux en 2024 pour la mise à disposition d’assistant personnalisé sera celui de la gouvernance de la donnée (qualité, sécurité et éthique de la donnée, framework solution, organisation et acculturation).
Julien Samarcq, Directeur BU DIGITAL DATA, Axys