Exploitation et Annotation des échanges de service client

--

Le service client d’un grand e-commerce peut quotidiennement générer plusieurs centaines d’interactions client-conseiller.

Cela reste bien loin des problématiques de big data. Mais dès lors que l’on veut assister ces interactions en catégorisant les demandes client, on se confronte à la bête noire de l’apprentissage supervisé : l’annotation de données.

À Hubware nous n’avons pas choisi la force brute en annotant beaucoup de données, parce que le degré de spécialisation de nos modèles est trop important. De plus, ces annotations sont rarement transférables, c’est-à-dire ré-utilisables chez un autre service client.

Chacun de nos modèles est construit sur les catégories spécifiques au service client d’une entreprise. Cela permet de reconnaître les catégories des plus fréquentes comme “Où est mon colis ?” aux moins fréquentes, comme par exemple “Comment sont emballées les articles ?”.

Nous avons donc plutôt choisi un principe de small data car le service client nous offre une information essentielle pour annoter des données : la réponse du conseiller. Cette réponse est très étroitement liée à la demande du client, ce que l’on exploite selon un principe très simple :

Deux emails entrants qui reçoivent une réponse similaire expriment probablement un problème similaire. De plus cette réponse est souvent un Modèle standardisé.

Un modèle de réponse standardisée, que nous appelons Template, est spécialisé pour répondre au plus vite à un problème précis. Si en ayant fait quelques dizaines d’annotations on s’aperçoit que parmi les messages répondus avec un Template T, une majorité fait partie de la question fréquente de Catégorie C, on peut raisonnablement considérer tous les messages recevant le Template T comme faisant partie de la Catégorie C.

Toutes les réponses qui utilisent le modèle “C’est possible, nous annulons votre commande” correspondent à un email entrant exprimant la demande “Pouvez-vous annuler ma commande ?”

Dans certains cas, ces Templates ne nous sont pas accessibles, ou sont peu/mal utilisés. Dans ce cas, nous pouvons quand même émuler le comportement précédent en construisant des groupes de réponses similaires (on parle de clustering de texte). Cela permet même d’avoir un grain plus fin que le modèle de réponse, qui sont parfois modifiés ou complétés : par exemple, une même modèle peut être régulièrement ré-écrit par les conseillers pour répondre à un sous-problème légèrement différent. Ce qui va donner un nouveau cluster, probablement associé à une nouvelle catégorie, qui une fois annotée sur suffisamment de messages, sera propagée sur le reste de ce cluster.

Enfin, ces différentes structures, en plus de réduire le nombre d’annotations nécessaires, ont aussi l’énorme avantage de nous aider à choisir quels messages annoter. Dans un cluster par exemple, il suffit en effet de choisir un échantillon de messages centraux pour avoir une bonne idée des catégories qui y sont représentées.

Nous vous donnons plus de détails sur pourquoi et comment ça marche ici :

Notre secret : une interface d’annotation

A Hubware nous avons choisi de concevoir une interface d’annotation très simple et performante, qui nous permet de parcourir très précisément et rapidement les messages que nous voulons annoter. Le service client utilise un nouveau template ? Notre interface en sélectionne un échantillon pour annotation. Un même template est utilisé pour répondre à deux besoins différents ? On annote alors des représentants de clusters de réponses proches de ce template. Une catégorie nous échappe pour laquelle aucun template n’existe ? Une simple recherche par mot clé sur les messages permet de trouver des candidats à l’annotation.

Illustrations de nos interfaces

L’intelligence artificielle appliquée, c’est avant tout de la data. Comprendre et tirer pleinement parti de la data dont on dispose, c’est 90% du travail. Et grâce à nos techniques d’annotation, chaque problème que l’on rencontre dans cette exploitation optimale de la data trouve rapidement une solution.

--

--