Vidéo
Webinar | Créez votre agent conversationnel LLM personnalisé avec Hubi.ai
Jusqu’à fin 2022, lorsque l’on parlait des chatbots, on pensait à un fonctionnement simple et souvent verticalisé : 1 chatbot = 1 fonction (Ressources Humaines ou Support avec débordement vers une personne compétente si besoin.)
Les Langages de Modélisation de Langage (LLM) sont venus rebattre les cartes. Ces modèles d'intelligence artificielle sont conçus pour comprendre et générer du langage naturel de manière avancée.
Plusieurs LLM existent déjà tels que ChatGPT, BERT... Les avantages de déployer un assistant conversationnel LLM sont nombreux, mais les points de vigilance le sont aussi.
Quels sont les nouveaux usages impulsés par les LLM ?
- Rédaction de contenu : blog, réseaux sociaux, présentation de produit, e-commerce... Problématique de communication / marketing, etc.
- Assistance avancée : meilleure compréhension des problématiques des utilisateurs et donc génération de réponses plus précises.
- Création artistique : point de départ narratif pour un scenario, génération d'images, introduction musicale, etc.
Mais, toute innovation amène aussi des questionnements :
- Véracité des informations
- Biais des données d'entrainement
- Introduction à des contenus malveillants
Comment fonctionnent les LLM ?
Les LLM ont besoin d’une volume important d’entrainement.
Qu’est-ce que cela permet ?
- Contextualisation dynamique : les LLM prennent en compte les relations entre les mots plutôt qu'une analyse linéaire mot à mot.
- Prédiction du mot suivant : le but des IA génératives est la prédiction de texte.
- Possibilité de réentrainement : il est possible d'intégrer les informations concernant son organisation pour des réponses plus pertinents.
Grâce à cela, on peut instaurer une vraie dimension conversationnelle avec le chatbot qui prend en compte l’ensemble des éléments mentionnés précédemment pour affiner sa réponse et faire évoluer le contenu qui est fourni.
Quels sont les points de vigilance lors de l’association d’un LLM sur son chatbot ?
Problème #1 : la qualité des réponses
En entreprise, on met l'accent sur la connaissance qualifiée avec une base de connaissances pour une maitrise des formulations et des données retranscrites. La réponse est rédigée par les métiers. On peut avoir plusieurs questions et une réponse spécifique.
A côté, on a une réponse générée par ChatGPT, non standardisée. Elle est rédigée de manière différente selon la question posée car l'algorithme travaille en même temps qu'il écrit.
Il est important de rappeler que la réponse générée par un LLM n'est pas toujours vraie. Alors, comment améliorer la qualité des réponses ? La réponse réside dans l'entrainement.
Problème #2 : améliorer les données d'entrainement
Un algorithme est propriétaire de ses données et la maitrise de la restitution de l'information et de l'interprétation des données qui y sont intégrées est difficile. Le modèle de données va dépendre de la qualité des données d'entrainement.
Lorsque l’on exploite un LLM en entreprise, il faut penser au cloisonnement entre ses données et les données publiques qu'on intègre avec un LLM externe. Tout cela pour éviter toute interprétation dérivée.
Hubi.ai et LLM, comment ça se passe ?
Hubi.ai est un agent conversationnel multi-usages pour Microsoft 365, la Digital Workplace et le Web. La solution permet de réduire le temps passé sur les tâches à faible valeur ajoutée, simplifier l’accès aux ressources internes et se connecter avec les multiples outils d’une organisation.
Intégrer un LLM à Hubi.ai apporte une gestion avancée des connaissances. Hubi.ai permet une gestion des bases de connaissance avec une saisie manuelle des réponses à apporter. L’effort de rédaction des réponses initialement porté par les métiers est, par exemple, délégué à ChatGPT pour générer rapidement des formulations complémentaires. Attention cependant à bien contrôler le contenu produit.
Lorsque que le chatbot n’a pas la réponse, le LLM peut alors prendre le relai et répondre directement à la question. Hubi.ai intègrera d’ailleurs prochainement une mention lors d’un débordement de réponse vers ChatGPT.
L'importance d'un partenaire à toutes les étapes du projet
Que vous disposiez déjà d’un chatbot ou non au sein de votre organisation, il est essentiel de vous faire accompagner. Plusieurs éléments sont à prendre en compte : sécurité (hébergement, éthique), maturité, canal de communication utilisé (Teams, SharePoint...)
Un partenaire est là pour valider si vos données sont suffisantes ou non, si les ressources sont à jour, si vous disposez d’une GED suffisante, d’un corpus de texte et surtout, dans notre cas, est-ce qu’étendre vers un LLM est intéressant.
Pour commencer, il est tout à fait envisageable d’avoir un chatbot et glisser vers des bases de connaissances plus étendues avec un meta-bot par la suite.
Comment l’équipe MOCA by ASI vous accompagne-t-elle ?
- Analyse du besoin, compréhension des enjeux, précision des attentes de l’entreprises et de l’intérêt pour ses utilisateurs.
- Réalisation d’un panorama de choix de LLM avec une matrice de risque et de faille. Le LLM devienne un atout et non un risque !
- Intégration, configuration du chatbot et définition des rôles.
- Test de la solution et évolution avant lancement. La base de connaissances parfaite n’existe pas, il faut donc tester pour éduquer le bot et sélectionner / ajuster les bonnes réponses, valider le lexique et la terminologie.
- Formation des utilisateurs, ambassadeurs et administrateurs pour garantir l’adoption.
- Ultime point, et pas des moindres, pensez à l’évolution de votre outil et à son amélioration continue en vous basant sur les retours d’expérience et les changements au sein de vos bases de connaissances.
Besoin d’une nouvelle fonctionnalité ? La relation privilégiée entre MOCA by ASI et Hubi.ai vous permet d’être au plus près des administrateurs de la solution et de contribuer à son développement ! Et si vous testiez ?