Mise en œuvre d’une intelligence artificielle (IA) interprétable : 3 questions aux professeurs Coussement et De Caigny
Partage
De plus en plus, les entreprises se tournent vers l’intelligence artificielle (IA). Les résultats récents d’une enquête mondiale menée par McKinsey & Company, montrent, par exemple, que la moitié des personnes interrogées ont déclaré que leur organisation avait adopté l’IA dans, au moins, une fonction (marketing, finance, etc.). Certaines entreprises « prévoient même d’investir encore plus dans l’IA » en réponse à la « pandémie COVID-19 et à son accélération de tout ce qui est numérique ».
Kristof COUSSEMENT, enseignant-chercheur à l’IÉSEG School of Management et directeur du centre d’excellence en Marketing analytique (ICMA), et Arno DE CAIGNY, également enseignant-chercheur à l’IÉSEG, sont des experts de l’analyse des big data et de l’application des modèles d’IA dans les organisations. Ils présentent ci-dessous leurs recherches sur le développement de l’IA interprétable (c’est-à-dire l’IA qui peut être utilisée pour fournir et expliquer des informations pratiques afin d’améliorer la prise de décisions des entreprises) et donnent aux organisations des conseils concrets sur sa mise en œuvre.
Qu’est que l’intelligence artificielle interprétable et pourquoi est-elle importante ?
Kristof COUSSEMENT : L’IA et la science des données ne cessent de prendre de l’importance. Elles sont désormais déployées dans de nombreuses fonctions de l’entreprise, notamment le marketing (par exemple avec la gestion de la relation client et le marketing direct) mais aussi la finance pour le risque de crédit ou la détection des fraudes, ou encore les Ressources Humaines pour améliorer le recrutement ou détecter les burn-out. Plusieurs éléments-clés doivent être pris en compte pour réussir la mise en œuvre de l’IA : les données sous leurs différentes formes, y compris les données numériques et les données non structurées telles que le texte, l’audio et les images, par exemple ; les différentes méthodologies d’IA utilisées pour traiter ces données (y compris le machine learning et le deep learning) ; et enfin les idées et les connaissances générées par celles-ci pour les organisations afin d’ajouter de la valeur à leurs activités. Ce sont les trois principaux piliers du processus d’IA.
Nous constatons que de nombreuses organisations se concentrent aujourd’hui sur le côté ‘algorithmique’ de l’IA en essayant de mettre en œuvre les algorithmes les plus efficaces et les plus performants. Nous pensons que c’est certainement important, mais que les entreprises ne devraient pas se contenter de s’intéresser aux algorithmes eux-mêmes, mais devraient s’attacher à comprendre comment ils fonctionnent et ce qu’ils produisent afin de produire des informations et des connaissances efficaces pour améliorer la prise de décision. C’est là que l’IA interprétable entre en jeu : elle fait référence à la possibilité pour les professionnels de comprendre et d’expliquer le modèle de science des données utilisé et de capitaliser sur les connaissances.
Elle relie donc le côté technologique et méthodologique de la science des données avec les connaissances commerciales qui existent au sein d’une organisation. Il est crucial que ces éléments aillent de pair pour instaurer la confiance au sein d’une organisation. Si vous ne gagnez pas la confiance des personnes qui utilisent vos algorithmes, ils ne seront jamais mis en œuvre efficacement. Enfin, cette compréhension des algorithmes permet aux managers d’agir sur ces données et de mettre en place des plans d’action concrets et d’éviter potentiellement tout biais qui pourrait être développé via un algorithme.
Pouvez-vous expliquer les résultats de vos récentes recherches ?
Arno DE CAIGNY : Nous avons publié un certain nombre d’articles dans ce domaine, mais j’aimerais mettre en avant un article en particulier, publié fin 2018, qui porte sur l’IA interprétable dans le domaine de la gestion de la relation client*. Cette recherche se concentre spécifiquement sur la prédiction du taux de perte des clients, appelé ‘churn‘ en anglais, et l’un des principaux piliers de la gestion de la relation client. Pour faire simple, le churn désigne le taux de perte de clients, par exemple lorsqu’ils cessent d’acheter des produits ou des services. Notre article figure parmi les publications les plus citées depuis 2018 dans le European Journal of Operation Research (CNRS Catégorie 1), ce qui démontre l’importance de ce sujet dans le contexte économique et académique.
Nous nous sommes concentrés sur le développement d’un nouvel outil prédictif qui peut être utilisé pour aider les managers à réduire cette perte de clients. Il y a deux composantes importantes pour de tels outils. La première est la performance prédictive – identifier les clients qui sont susceptibles de partir. La seconde est l’interprétabilité – comprendre les facteurs pour lesquels les clients partent. Ainsi, l’organisation pourra mettre en place les meilleures mesures pour fidéliser ces clients.
Notre modèle (le modèle logit leaf) combine ces deux éléments : la performance prédictive et l’interprétabilité des idées. Il crée différents segments de clients, ce qui améliore la performance prédictive et permet d’interpréter les facteurs impactant le churn par segment de clients plutôt que sur l’ensemble de la base de clients.
Imaginez par exemple que vous ayez deux types différents de clients qui partent – ceux qui partent à cause des facteurs prix/coût et ceux qui partent par exemple à cause d’un mauvais service client. Les entreprises pourraient donc avoir intérêt à cibler ces différents types de clients avec des incitations différentes pour les fidéliser. Le modèle logit leaf permet aux entreprises d’atteindre cet objectif en segmentant et en séparant les groupes de clients alors que les modèles traditionnels ont généralement adopté une approche globale pour analyser ce problème.
Quels sont les principaux messages que les entreprises devraient garder à l’esprit lorsqu’elles développent ou mettent en œuvre des algorithmes pour améliorer la gestion de la relation client ?
Kristof COUSSEMENT et Arno DE CAIGNY : Il y a plusieurs messages que nous donnerions aux entreprises concernant l’IA interprétable.
1) Le premier concerne la richesse et la qualité des données. Il s’agit d’un élément-clé et la première étape de la mise en œuvre réussie de l’IA interprétable dans une organisation. Si vous traitez des données de mauvaise qualité, vous obtiendrez des résultats et des informations de très mauvaise qualité. Ce n’est pas seulement une question de quantité, il est important d’avoir une richesse ou une diversité de données ; pas seulement des données chiffrées mais des données provenant potentiellement de centres d’appels, de médias sociaux, etc.
2) Le deuxième concerne le choix de l’algorithme. Les data scientists font souvent référence à des solutions de type « boîte noire » et « boîte blanche ». Dans le premier cas, il s’agit vraiment d’introduire les données et la boîte noire analyse les informations sans connaissance approfondie du processus. Bien qu’elles soient généralement bonnes pour la performance prédictive, les « boites noires » ne fournissent pas d’informations interprétables comme peuvent le faire les « boîtes blanches » (les solutions d’IA interprétables). Il est donc important que les organisations évaluent soigneusement le choix de leurs modèles algorithmiques. Bien sûr, le choix du modèle dépend réellement de la maturité des entreprises en termes d’analyse de données. Par exemple, si l’on considère les start-ups ou les jeunes entreprises qui ne travaillent peut-être pas avec l’analyse de données, des modèles plus interprétatifs seront probablement plus utiles pour convaincre les utilisateurs professionnels de leur utilité.
3) La présentation des résultats est cruciale. Par conséquent, tout ce qui concerne la visualisation des données est essentiel. Les résultats doivent être facilement compréhensibles et explicables pour les responsables de l’organisation.
4) L’IA interprétable doit être exploitable. Les résultats de l’IA doivent fournir des indications sur les activités qui peuvent être mises en place. Par exemple, en ce qui concerne les programmes de fidélisation des clients, les modèles peuvent fournir des indications claires sur les groupes de clients qui devraient potentiellement être transférés dans un programme plus ou moins gratifiant pour stimuler l’engagement.
Enfin, l’IA interprétable nécessite d’apporter une touche « humaine » au domaine technologique et méthodologique de la science des données. Au cours des dernières années, divers profils dans le domaine de la science des données ont été ajoutés aux traditionnels data scientists, data engineers ou data analysts. De nombreuses organisations engagent désormais des « stratèges de données » qui font le lien entre les équipes business et les équipes en charge de la data. Ces data strategists possèdent à la fois les compétences techniques et méthodologiques en IA et la compréhension approfondie de la stratégie et de la vision de l’entreprise.
ICMA
L’ICMA est le Centre d’excellence en Marketing analytique de l’IÉSEG School of Management. Ce centre de connaissances regroupe des experts académiques dans les domaines de l’analyse marketing, la relation client (CRM) et les sciences des données. Il vise à soutenir l’enseignement, la recherche et les projets d’entreprise.
*De Caigny, A., Coussement, K., & De Bock, K. W. (2018). A new hybrid classification algorithm for customer churn prediction based on logistic regression and decision trees. European Journal of Operational Research, 269(2), 760–772.