Un bon chatbot de support ne se contente pas de répondre : il résout, il transfère, il apprend. Voici l'architecture qui a fait ses preuves sur 3 déploiements SunderDev.

Les composants

  1. Base de connaissance : docs produit, FAQ, historique de tickets résolus.
  2. RAG : récupération des passages pertinents à chaque question.
  3. LLM principal : Claude Sonnet pour le bon compromis qualité/coût.
  4. Guardrail d'escalation : détection des cas à transférer à un humain.
  5. Logging + eval : chaque conversation loguée et scorée.

Le system prompt (le plus important)

Tu es l'assistant support de {COMPANY}.

Tu as accès à la documentation officielle via RAG.

Règles absolues :
1. Si la réponse n'est pas dans les chunks fournis, dis
   "Je ne trouve pas cette information, je transmets à un conseiller."
   puis appelle le tool escalate_to_human.
2. Ne jamais inventer de fonctionnalité, de tarif, ou de procédure.
3. Sur les demandes d'annulation, remboursement, ou plainte juridique :
   escalade humaine immédiate.
4. Réponds en 3 paragraphes max, ton professionnel mais chaleureux.

Base de connaissance pertinente :
<chunks>{RAG_RESULTS}</chunks>

Tools essentiels

  • search_knowledge_base(query) : déclenche un nouveau RAG quand le contexte initial est insuffisant.
  • escalate_to_human(reason, summary) : ouvre un ticket et transfère la conversation.
  • get_order_status(order_id) : données structurées depuis la DB.
  • create_support_ticket(priority, category) : pour les demandes qui nécessitent un suivi asynchrone.

Les règles d'escalation

Un chatbot qui refuse de transférer irrite. Un qui transfère tout est inutile. Mes règles empiriques :

  • Après 2 tours sans avancer → escalade proposée.
  • Mot-clé "remboursement", "annulation", "plainte" → escalade immédiate.
  • Détection d'émotion négative forte (via un classifier léger) → escalade.
  • Demande sortant clairement du scope produit → escalade.

La mesure de qualité

3 métriques qui comptent :

  1. Taux de résolution sans humain (cible : 40-60 % en support B2C, 20-30 % en B2B complexe).
  2. CSAT post-conversation : un simple "utile ? 👍/👎". En dessous de 70 % positif, le prompt ou les données sont à corriger.
  3. Taux d'hallucination détecté : revue manuelle de 20 conversations par semaine sur les 3 premiers mois.

Déploiement progressif

Règle d'or : commencez par un déploiement interne (équipe support). Pendant 2 semaines, l'agent génère des réponses, mais l'humain les valide avant envoi. Vous récoltez des corrections qui affinent le prompt. Puis déploiement externe quand > 80 % des réponses sont validées telles quelles.

Intégrations

Côté SAV, j'intègre souvent avec : Intercom, Zendesk, Crisp, ou un widget maison branché sur une API custom.

Coûts

Une conversation moyenne (5-10 tours) coûte 0,02-0,08 € en 2026 avec Claude Sonnet. Pour un support qui traitait 500 conversations/jour à 5 € l'une en coût humain, l'économie est claire.

Vous voulez un chatbot de support livré en 3 semaines ? C'est une spécialité SunderDev.