En 2024, nous avons eu l'opportunité de développer un chatbot pour Proximus, leader des télécoms belges. Notre démarche d'innovation visait à explorer si l'état de l'art des technologies actuelles permet de répondre à une problématique essentielle.
Voici nos résultats.
Voilà la promesse.
Le partage des connaissances est une problématique ancestrale des entreprises qui reste d'actualité.
Nombreux sont les dirigeants rêvant d'une solution permettant à chaque collaborateur d'obtenir instantanément l'information recherchée sur des données en interne.
Depuis de nombreuses années, les entreprises tentaient d'automatiser les réponses aux questions de leurs clients avec des solutions basées sur des règles.
Ces bots fonctionnaient essentiellement avec de simples conditions imbriquées.
Exemple :
L'actuel service de support « automatisé » d'Ameli fonctionne encore sur ce principe aujourd'hui.
C’était une façon, avec les outils de l’époque, de répondre aux questions les plus simples et de soulager le personnel en charge de ces réponses. Néanmoins, nous avons tous été confrontés à ces outils, et nous savons à quel point leurs réponses sont limitées.
Avec l'essor des LLM (GPT, Claude, Llama, Mistral, pour n'en citer que quelques-uns), les contraintes techniques ont été considérablement repoussées !
Désormais, le bot possède une compréhension plus fine du langage et peut tenter d'apporter des réponses pertinentes à l'utilisateur, qu'il s'agisse d'un client ou d'un collaborateur interne.
Néanmoins, bien que les LLMs soient entraînés sur des centaines de Go de données, ils ne sont pas censés connaître les documents confidentiels internes à l'entreprise.
Pour résoudre ce problème, deux solutions s'offrent à nous :
La première option était très coûteuse par le passé, désormais les LLM ont grandement simplifié la tâche. Elle consiste à ré-entrainer le LLM pour changer certaines logiques de raisonnement ou de comportement.
La seconde étaient purement impossible avant l’arrivée des LLM. Un RAG est un système faisant le pont entre un modèle de langage et une base de données définie, comme un wiki d’entreprise par exemple, ou une base de données de textes de loi.
Je vous invite à consulter cet article pour en apprendre davantage sur son fonctionnement général.
En résumé : les RAGs permettent d'apporter un contexte métier, ce qui les rend particulièrement intéressants pour notre solution.
Après les premiers essais et une fois l'effet « waouh » dissipé, nous avons rapidement constaté que les résultats atteignaient un plafond de verre. Le bot était sensiblement meilleur qu’un Use Case Bot, mais il était impératif d'améliorer considérablement la solution pour envisager son déploiement en production.
C'est à partir de ce constat que nous allons plonger dans l'état de l'art en 2024…
Avec l'amélioration plus lente des modèles LLM génériques, une manière de faire, tirée du développement logiciel traditionnel, est apparue : les agents.
Imaginez un bot avec un rôle spécifique, excellent dans son domaine. Un exemple ? Un agent spécialisé dans la recherche des directives de la marque.
C'est l'application du principe de séparation des préoccupations : chaque composant de la solution gère une problématique simple, permettant ainsi de résoudre un problème complexe une fois tous les éléments assemblés.
Les architectures en agent se sont récemment démocratisées, le CPO d’OpenAI estime même que ces derniers auront beaucoup d’impact en 2025.
Avoir une armée d'agents capables de réfléchir et d'agir pour accomplir une tâche assignée, c'est bien ; savoir les coordonner, c'est encore mieux.
L'orchestrateur est lui-même un agent, mais avec un comportement particulier :
Jusqu'à présent, nous avons principalement abordé le fonctionnement interne de la solution. Du point de vue de l'utilisateur final, notre chatbot peut s'intégrer à diverses interfaces familières :
Nous sommes particulièrement fiers de présenter les résultats en tête de cet article.
Bien qu'il reste de nombreuses pistes d'amélioration, la solution tient déjà sa promesse : elle répond avec précision aux questions des utilisateurs en s'appuyant sur une base de connaissances personnalisable et non structurée.
Si vous souhaitez construire des solutions innovantes avec nous, vous pouvez nous contacter sur notre site web, Linkedin ou par mail.
2 articles par mois sur l'innovation au coeur de votre entreprise : Tech, IA, Automatisation.