Construire une IA de partage de la connaissance pour Proximus

Quentin Marc
Ingénieur & Co-fondateur Loop Crew

En 2024, nous avons eu l'opportunité de développer un chatbot pour Proximus, leader des télécoms belges. Notre démarche d'innovation visait à explorer si l'état de l'art des technologies actuelles permet de répondre à une problématique essentielle.

Voici nos résultats.

Partage de connaissances par simple réponse aux questions

Voilà la promesse.

Le partage des connaissances est une problématique ancestrale des entreprises qui reste d'actualité.

Nombreux sont les dirigeants rêvant d'une solution permettant à chaque collaborateur d'obtenir instantanément l'information recherchée sur des données en interne.

Ex pour des informations de branding des filiales de Proximus

Comment c'était avant : les rule-based chatbots

Depuis de nombreuses années, les entreprises tentaient d'automatiser les réponses aux questions de leurs clients avec des solutions basées sur des règles.

Ces bots fonctionnaient essentiellement avec de simples conditions imbriquées.

Exemple :

  • si la demande contient le mot “logo”, le bot sort l’explication sur l’usage des logos en interne.
  • si la demande contient les mots “Télévision” et “Ne s’allume pas”, le bot préconise de changer les piles de la télécommande.

L'actuel service de support « automatisé » d'Ameli fonctionne encore sur ce principe aujourd'hui.

C’était une façon, avec les outils de l’époque, de répondre aux questions les plus simples et de soulager le personnel en charge de ces réponses. Néanmoins, nous avons tous été confrontés à ces outils, et nous savons à quel point leurs réponses sont limitées.

L’arrivée des LLM et premiers résultats

Avec l'essor des LLM (GPT, Claude, Llama, Mistral, pour n'en citer que quelques-uns), les contraintes techniques ont été considérablement repoussées !

Désormais, le bot possède une compréhension plus fine du langage et peut tenter d'apporter des réponses pertinentes à l'utilisateur, qu'il s'agisse d'un client ou d'un collaborateur interne.

Néanmoins, bien que les LLMs soient entraînés sur des centaines de Go de données, ils ne sont pas censés connaître les documents confidentiels internes à l'entreprise.

Pour résoudre ce problème, deux solutions s'offrent à nous :

  • Le fine-tuning
  • Le RAG

La première option était très coûteuse par le passé, désormais les LLM ont grandement simplifié la tâche. Elle consiste à ré-entrainer le LLM pour changer certaines logiques de raisonnement ou de comportement.

La seconde étaient purement impossible avant l’arrivée des LLM. Un RAG est un système faisant le pont entre un modèle de langage et une base de données définie, comme un wiki d’entreprise par exemple, ou une base de données de textes de loi.

Je vous invite à consulter cet article pour en apprendre davantage sur son fonctionnement général.

En résumé : les RAGs permettent d'apporter un contexte métier, ce qui les rend particulièrement intéressants pour notre solution.

Après les premiers essais et une fois l'effet « waouh » dissipé, nous avons rapidement constaté que les résultats atteignaient un plafond de verre. Le bot était sensiblement meilleur qu’un Use Case Bot, mais il était impératif d'améliorer considérablement la solution pour envisager son déploiement en production.

C'est à partir de ce constat que nous allons plonger dans l'état de l'art en 2024…

Nouvelle architecture : Agentic Rag

Avec l'amélioration plus lente des modèles LLM génériques, une manière de faire, tirée du développement logiciel traditionnel, est apparue : les agents.

Qu'est-ce qu'un agent ?

Imaginez un bot avec un rôle spécifique, excellent dans son domaine. Un exemple ? Un agent spécialisé dans la recherche des directives de la marque.

C'est l'application du principe de séparation des préoccupations : chaque composant de la solution gère une problématique simple, permettant ainsi de résoudre un problème complexe une fois tous les éléments assemblés.

Les architectures en agent se sont récemment démocratisées, le CPO d’OpenAI estime même que ces derniers auront beaucoup d’impact en 2025.

L’orchestration

Avoir une armée d'agents capables de réfléchir et d'agir pour accomplir une tâche assignée, c'est bien ; savoir les coordonner, c'est encore mieux.

L'orchestrateur est lui-même un agent, mais avec un comportement particulier :

  • Il reçoit d'abord la question de l'utilisateur
  • Il fait appel à l'agent approprié
  • Chaque agent lui renvoie les informations nécessaires
  • Il sollicite d'autres agents si besoin
  • Ce processus se répète jusqu'à ce qu'il fournisse une réponse complète à l'utilisateur
Source : langchain-ai.github.io/langgraph/tutorials/multi_agent/agent_supervisor/

Connexion aux outils de l’entreprise

Jusqu'à présent, nous avons principalement abordé le fonctionnement interne de la solution. Du point de vue de l'utilisateur final, notre chatbot peut s'intégrer à diverses interfaces familières :

  • Interface web : les utilisateurs externes peuvent échanger avec un chatbot depuis votre site web.
  • Messageries d'entreprise : Interaction avec le bot via Slack ou Teams.
  • Système de tickets internes : une demande est reçue dans un outil de ticketing. Le bot ajoute sa réponse. Si elle est bonne, l’opérateur l’envoie, sinon il rédige sa réponse. C’est une façon de libérer du temps sans perdre en qualité de réponse.

Résultats

Nous sommes particulièrement fiers de présenter les résultats en tête de cet article.

Bien qu'il reste de nombreuses pistes d'amélioration, la solution tient déjà sa promesse : elle répond avec précision aux questions des utilisateurs en s'appuyant sur une base de connaissances personnalisable et non structurée.

Si vous souhaitez construire des solutions innovantes avec nous, vous pouvez nous contacter sur notre site web, Linkedin ou par mail.

Recevez les nouveaux articles par mail

2 articles par mois sur l'innovation au coeur de votre entreprise : Tech, IA, Automatisation.

En vous inscrivant, vous confirmez être d'accord avec nos CGU.
Merci, votre inscription a été enregistrée.
Oops! Une erreur est survenue, veuillez réessayer.