08/04/2026

16 mn

Didier Lambert échange avec Mefteh Werghemmi autour d’Heedify AIR, l'IA conversationnelle vocale intégrée à l'environnement Microsoft Teams. L’entretien explore le positionnement de cette solution, ses cas d’usage en relation client, ses capacités (routage, CRM, multilingue), ainsi que son intégration sans rupture dans l’écosystème Teams. Sont également abordés les enjeux de déploiement, de supervision, de tarification et de souveraineté des données.

Les Entretiens Experts HubTic

Agent conversationnel et Accueil Client : la solution Heedify AIR

Pour ne pas manquer les prochains entretiens ou découvrir les précédents,
suivez HubTic sur :
Tous les jeudis,
complétez votre
veille du secteur

HubTic, c’est aussi une lettre de veille hebdomadaire à destination des experts des domaines ToIP, Coms unifiées, collab, visio, centre de contact et expérience client (CX) 

Transcription de la vidéo

DL : Bonjour, je suis Didier Lambert, le fondateur de la plateforme HubTic, une plateforme de veille et d’information dans le domaine des communications unifiées, de la collaboration et de l’expérience client. Aujourd’hui, j’ai le plaisir d’échanger avec Mefteh Werghemmi qui est le cofondateur de la société Heedify, un éditeur spécialisé sur les POPC, centre de contact dédié à l’environnement Microsoft Teams. Bonjour Mefteh, comment vas-tu ?

MW : Bonjour Didier, très bien, merci beaucoup.

DL : Merci de me consacrer un petit peu de temps. Je me suis permis de revenir vers toi parce que tu as communiqué il y a pas longtemps sur une nouvelle offre liée à ta plateforme qui est une IA conversationnelle vocale si j’ai bien compris. On va discuter de ça pendant une dizaine de minutes si tu veux bien. Par contre, auparavant, peux-tu en quelques mots nous rappeler qui est Heedify et comment ça se positionne notamment sur le marché français ?

MW : Oui, bien sûr. Heedify, nous sommes éditeur français, nous sommes ISV qui édite une solution qui complète Microsoft Teams. On s’adresse à des clients, des entreprises qui utilisent Teams comme plateforme de collaboration ou de communication. Notre mission, c’est de compléter Microsoft Teams pour pouvoir gérer sa relation client directement dans ce même outil qui est très bien pour la collaboration, mais un peu moins bien pour la relation client. Nous sommes partenaires certifiés Microsoft, et on vient d’ailleurs d’être certifiés il y a quelques mois pour un nouveau modèle d’intégration qui s’appelle Unified. Parmi les toutes premières solutions qui ont été certifiées, voilà, on baigne dans cet écosystème-là.

DL : OK. Alors on va rentrer dans le vif du sujet. IA conversationnelle, c’est un mot à la mode. Est-ce que tu peux nous présenter en quelques mots ce que c’est que l’IA conversationnelle à la sauce Heedify ? Comment ça se positionne, qui ça adresse, quelles sont ses fonctionnalités principales, voire les éléments différenciants par rapport aux offres qu’on a sur le marché. Voilà un petit peu l’objectif.

MW : Tout à fait. En fait, l’IA conversationnelle ainsi de suite, c’est un peu à la mode mais c’est aussi une réalité, c’est aussi une opportunité parce que ça peut permettre de considérablement améliorer la relation client. Pourquoi on se positionne sur l’IA conversationnelle ? C’est pas parce que c’est la mode, c’est parce que nous adressons des clients qui ont choisi Teams comme plateforme de communication. S’ils sont nos clients, ça veut dire qu’ils ont un besoin de compléter Teams, soit avec une solution de gestion de standard téléphonique — le POPC qu’on connaît —, soit avec une solution de centre de contact au-dessus de Teams. L’idée c’est d’être aussi complet que possible pour avoir l’offre la plus complète pour ces clients-là. Il y a un certain nombre d’entreprises qui sont encore un peu hésitantes, mais il y en a qui voient le potentiel : soit elles veulent tester à petite échelle, soit industrialiser complètement la gestion de la relation client. Pour nos clients existants et pour nos prospects, le sujet d’exploiter l’IA dans la relation client quand on a choisi Teams comme solution de téléphonie est un tout petit peu complexe parce qu’il y a beaucoup d’offres sur le marché, mais l’idée c’est pas de multiplier des solutions, c’est de rester sur un même écosystème qui est Microsoft Teams. C’est pour ça qu’on se positionne : parce qu’il y a de la demande et parce qu’on veut avoir une offre aussi complète que possible. Le positionnement, il est toujours dans la même logique, c’est de rester dans Teams. Nous sommes partenaires certifiés par Microsoft, et notre solution qui s’appelle Heedify AI Réceptionniste — Heedify AI — permet de faire la réception téléphonique, orientée voix pour l’instant, et reste complètement dans un écosystème Microsoft. Ça veut dire quoi concrètement ? Ça veut dire que les clients vont toujours avoir la possibilité d’administrer cette solution via les outils Teams. Le numéro de téléphone qui arrive sur Teams, il y a pas de nouvelle intégration au sens téléphonique. On va bénéficier de tout l’investissement en sécurité, toute la formation qu’ils ont faite — le client n’a plus de formation Teams à faire, tout le monde sait l’utiliser, que ce soit du point de vue IT ou du point de vue utilisateur. On reste complètement sur ce domaine-là. On introduit une nouvelle technologie sans rien casser, sans gros projet. Très simplement, on ajoute une petite brique à quelque chose qui est déjà existant. C’est le positionnement, et c’est Heedify AI qui va compléter notre solution existante dans le sens où c’est un agent qui va faire la réception d’appel, qui peut traiter ce qui est possible, et surtout qui peut faire un handover, escalader vers des agents humains qui seraient gérés par notre solution de centre de contact au sein de Teams.

DL : D’accord. En général, quand on arrive à ce niveau-là d’accueil client virtuel de type voix, se pose la question de sur quelle base elle fonctionne, quelles sont les sécurités qu’on peut avoir sur les réponses qu’elle donne. Comment ça fonctionne sur Heedify AI, s’il te plaît ?

MW : Oui, bien sûr. Techniquement, c’est une solution qui reste dans Teams. On reste sur une stack téléphonie purement Teams. Un agent IA, c’est un cerveau. Dans notre cas, pour l’instant, c’est OpenAI Real Time qu’on utilise dans Azure. On reste dans un système que le client a choisi et qu’il maîtrise. L’agent a un cerveau, et il a besoin de bras pour faire des actions. On lui donne des outils qu’on appelle des compétences dans notre jargon : elle peut chercher une personne dans un annuaire, elle peut voir sa disponibilité, elle peut transférer un appel, elle peut transmettre un message, elle peut envoyer un appel dans une file d’attente. Ce sont des actions qui sont maîtrisées, et on ajoute des règles que le client définit. Par exemple, on va pas communiquer la présence ou la disponibilité du chef de l’entreprise, ou si quelqu’un appelle plusieurs fois et demande la disponibilité de plusieurs personnes. On ajoute ces règles qui permettent de cadrer l’utilisation de l’IA. On lui donne des outils mais elle peut pas les utiliser à volonté. C’est avec ces règles-là qu’on va essayer de cadrer son action face au client. On donne aussi des outils au client pour surveiller ce qui se passe : accès aux transcripts, accès aux KPI. C’est dans la continuité de la solution — on voit qu’un appel est arrivé, l’agent a discuté, il a fait tel ou tel appel d’API, voilà ses réponses, et à la fin il a fait une escalade vers une file d’attente où des agents humains ont traité. On donne de la visibilité, et en amont on donne des règles que l’agent va appliquer.

DL : D’accord. Ça veut dire que la revue qu’on peut faire sur les KPI, les transcripts dont tu parles, on a moyen de corriger le tir si à un moment donné on constate qu’il y a des choses qui sont pas exactement comme on les attend. La question c’est : quelle est la réelle autonomie de l’agent pour aller chercher et construire ses réponses par rapport à la base de données qui est mise à sa disposition, et aux éventuelles consignes correctives que pourraient faire les utilisateurs humains en post-production ?

MW : En fait, ces outils qui permettent d’auditer le fonctionnement de l’IA, ils servent à deux moments. Le premier, c’est que l’IA c’est nouveau, les clients ne connaissent pas ça, ils ne savent pas comment leur base de clients va réagir. Ça permet pendant les premières semaines, les premiers mois, de voir en fin de journée comment ça se passe, ce qu’a répondu l’agent, de voir vraiment le contenu de ces réponses, et ça permet d’ajuster soit les règles, soit les outils qu’on donne à l’IA. C’est le premier volet. Le deuxième volet, c’est de voir, par exemple avec l’analyse de sentiments des utilisateurs, si j’ai par exemple beaucoup de discussions avec un temps d’appel qui n’est pas ce que je souhaite, ou avec une satisfaction qui descend. Ça permet de voir — c’est une alerte — et d’aller creuser un peu plus dans les détails la performance de l’agent, et ça permet d’ajuster. C’est comme ce qu’on faisait avec des agents humains, mais pour un agent IA.

DL : D’accord. Alors juste pour recentrer sur cet agent virtuel qui vient compléter les équipes humaines, ou en tout cas sur des tâches répétitives pas forcément à forte valeur ajoutée — aujourd’hui les fonctionnalités, il y a le routage intelligent, le fait d’aller chercher des calendriers, de faire de la prise de rendez-vous, la transcription si j’ai bien compris également. Est-ce qu’il y a d’autres fonctionnalités un peu différenciantes dont on peut parler ? Dans quelle langue d’ailleurs elle peut s’exprimer ? On n’en a pas parlé.

MW : Elle a une langue par défaut qu’on peut configurer, mais dès que l’agent détecte la langue avec laquelle parle le client, elle switch, elle change automatiquement. Elle supporte autant de langues que ce que supporte OpenAI, c’est-à-dire beaucoup plus que ce qu’on aurait besoin, je pense. Elle peut consulter une API ou un CRM, ce qui permet d’enrichir la réponse ou de donner des éléments de réponse — un statut de dossier ou quelque chose comme ça. C’est quelque chose qu’elle peut traiter seule. Après, ça permet d’escalader vers des humains. L’idée c’est de faire très bien ce qu’elle est en mesure de faire, et après d’escalader.

DL : OK. Le temps passe vite. On a déjà un aperçu de ce qu’il y a derrière le libellé Heedify AI. L’offre est récente, on va pas forcément parler de cas client, c’est peut-être un peu tôt. Par contre, en termes de déploiement, ça m’intéresse : une fonctionnalité comme celle-là, ça nécessite quoi pour être mise en place chez un client qui est déjà sur la plateforme Heedify ? Ça se fait rapidement ? Ça peut se faire en direct entre le client et vous, ou ça passe par un intégrateur ou un spécialiste de ce type de déploiement ?

MW : Les deux modes sont possibles : directement avec nous, ou via l’un de nos partenaires intégrateurs. On préfère passer par l’intégrateur parce que le gros du temps qu’on va passer, c’est plutôt de comprendre l’existant et le traduire à un agent. La mise en place est très rapide pour la plateforme Heedify globalement, c’est assez standard, ça se plug sur Microsoft Teams — en quelques heures on a une solution qui tourne, et ça inclut l’agent IA. On a essayé de continuer sur la même logique d’apporter des briques très simplement intégrées à l’existant Teams. C’est une offre récente, effectivement, mais il y avait pas de solution sur le marché jusqu’aujourd’hui qui fonctionne avec Teams. Si on voulait faire de l’IA avec sa téléphonie sur Teams, il fallait aller sur un autre silo, un projet à côté. On a eu beaucoup de demandes, il y a eu beaucoup d’essais. Il y a pas mal de projets qui sont très prochainement en production, mais voilà, c’est récent — c’est à étudier, en tout cas à connaître.

DL : Alors peut-être avant qu’on termine cet échange, il y a un point que je peux pas éviter : quel est le modèle tarifaire de ce type d’offre ? Comment ça fonctionne ? On fonctionne au nombre d’appels, au token — il y a différents modèles possibles. Qu’est-ce qu’Heedify a choisi ?

MW : On a essayé de simplifier parce qu’au final l’unité c’est le token, mais on a simplifié : on ramène ça à la minute. Ce sont des pools de minutes qu’on achète. Évidemment, plus on passe du temps, plus on peut avoir des prix intéressants. Le modèle tarifaire est assez simple : c’est à la minute passée au téléphone avec l’agent.

DL : Je pense à une petite question subsidiaire par rapport à ce que tu disais tout à l’heure sur le fait de pouvoir dialoguer avec les CRM. Voir le contexte d’un appel c’est toujours utile. J’ai compris que l’agent pouvait aller chercher, par rapport à un client identifié, le contexte nécessaire pour lui répondre proprement. Cette connexion avec les CRM, ce sont des connecteurs natifs liés notamment à l’offre centre de contact que vous avez déjà, ou ce sont des connecteurs spécifiques qui ont éventuellement un coût en option ?

MW : Non, il y a pas de coût, absolument pas de coût par rapport au connecteur. C’est une stack qu’on avait déjà, c’est la façon dont on connecte notre solution de centre de contact au CRM avant. Soit le client a une API qui est exploitable et on peut utiliser cette API-là, c’est assez flexible. Soit, si c’est une solution du marché — les CRM du marché qu’on connaît —, en général on s’oriente vers une solution qui s’appelle Power Automate de Microsoft. Nos clients sont plutôt Microsoft, et en général ça leur parle, cet outil no code qui facilement permet de faire la connexion et qui est très bien fait d’un point de vue sécurité. Le client gère la connexion à sa base de données, et on fait le lien en quelques minutes avec la plateforme.

DL : Peut-être une dernière question, dans ces temps un peu troublés de souveraineté et cetera. Est-ce qu’il y a des éléments qui permettent de positionner Heedify pour rassurer les utilisateurs quant à ces questions de souveraineté, de RGPD ?

MW : Aujourd’hui, on essaie de rassurer sur plusieurs aspects. Le premier, c’est d’héberger les données : même si c’est une plateforme Teams — c’est américain — nos données du centre de contact sont hébergées en France. Aujourd’hui on utilise OpenAI, on essaie d’avoir d’autres modèles, et je pense qu’on va les avoir dans les prochains mois — d’autres modèles qui seraient disponibles pour le cerveau de cet agent. Il y a un effort qui est fait par Microsoft pour rassurer ses clients qui ont une sensibilité à ce sujet, avec l’offre Bleu — qui est entre Capgemini et Orange. Nous sommes en train de discuter avec l’entreprise Bleu pour que notre solution soit compatible et certifiée pour cette offre-là. Ce serait Microsoft en version souveraine, et ce serait Heedify couplé à cette offre souveraine de Microsoft.

DL : Bon, j’ai plein de questions, mais on va arrêter là sinon je vais exploser le compteur. En tout cas, on a déjà un aperçu assez concret de ce que Heedify AI est capable de faire. Merci beaucoup Mefteh de m’avoir consacré ces quelques minutes d’échange, et j’espère qu’on aura l’occasion de se croiser dans la vraie vie avant l’année prochaine — que le temps passe vite.

MW : C’est vrai. Merci beaucoup. Bonne journée.

DL : Au revoir.

De nombreux autres entretiens sont disponibles

Afficher la liste complète des entretiens disponibles.

Formulaire de contact