Déconfinement : Comment accroître la lisibilité de vos modèles prédictifs ?
A minima, dans cette période de reprise, il apparaît nécessaire de rejouer l’apprentissage des modèles. Cela signifie vérifier les principes de classification et redéterminer les tendances et courbes d’évolution.
Alors que la crise sanitaire bouleverse nos modes de consommation, de travail, de déplacement, d’approvisionnement…, les modèles prédictifs restent fondés sur les historiques avant le déconfinement, voire avant le confinement. Les algorithmes ne sont pas infaillibles et cette rupture brutale d’activité introduit des biais dans les résultats, nécessitant des changements parfois profonds.
La plupart des algorithmes de prévision d’activité sont fondés sur des méthodes de segmentation supervisée / non supervisée et de série temporelle.
En 2 mots, la méthode de segmentation, souvent non supervisée, permet de regrouper des activités, des produits, des clients, des périodes… ayant les mêmes comportements et tendances. Par exemple, la ménagère de moins de 50 ans. Les séries temporelles interviennent dans un second temps sur chaque segment. Elles permettent de modéliser une courbe d’évolution à partir des données passées et de la poursuivre sur les périodes à venir. Si la consommation constatée des ménagères de moins de 50 ans est en augmentation régulière, l’algorithme prévoit une augmentation régulière sur les périodes à venir.
A minima, dans cette période de reprise, il apparaît donc nécessaire de rejouer l’apprentissage des modèles. Cela signifie vérifier les principes de classification et redéterminer les tendances et courbes d’évolution. Les data scientists seront alors confrontés à la difficulté de trouver des données suffisantes pour réactualiser leurs modèles. Il faudra donc prendre soin de bien analyser les signaux faibles et surtout à mesurer régulièrement les biais et rajuster les modèles. Ce n’est pas une peine perdue car il existe déjà des algorithmes capables d’apprendre avec un faible volume de données.
L’actualisation des modèles ne sera pas suffisante
Les prévisions macro-économiques ne prévoient, en effet, pas de retour à la normale avant fin 2021. Cela signifie que certains facteurs influençant les modèles prédictifs (variables) sont plus prépondérants ou nouveaux. Les contraintes logistiques, les règles de distanciation… imposent en effet des limitations à intégrer aux modèles. L’évolution des comportements des consommateurs se traduit également par de nouvelles pondérations des facteurs / variables. Les data scientists devront donc aussi remonter un peu plus en amont dans la conception des algorithmes pour s’assurer de la pertinence des variables.
A l’autre bout de la chaîne, les équipes métier exploitent les résultats des algorithmes. L’acheteur ajuste les approvisionnements en fonction des prévisions d’activité. Le marketing construit des offres personnalisées et cible les clients à activer. L’opérationnel adapte sa capacité de production… Ces équipes doivent pouvoir apprécier le niveau d’incertitude des résultats et aussi comprendre comment il a été construit. Souvent, nos clients nous demandent d’expliquer les algorithmes et les facteurs ayant conduit à tel ou tel résultat. Dans cette période où les marges d’erreur et le contexte évoluent ce besoin de lisibilité est encore plus prégnant.
Les équipes métier doivent également adapter les mécanismes plus ou moins automatiques en fonction de l’évolution du contexte. Nul doute que les acheteurs essayeront de diversifier leurs fournisseurs sur plusieurs plaques géographiques, que le marketing proposera des offres plus green. Dans un environnement changeant, les équipes métier avanceront surement à pas feutrés et feront des boucles de test & learn.
Ajustement des algorithmes ou adaptation des mécanismes d’activation : améliorer la lisibilité des résultats
Des indicateurs simples, et facilement accessibles avec un outil de dataviz, permettent de comprendre les facteurs importants, les caractéristiques des segmentations, les marges d’erreur des résultats des algorithmes, l’impact de telle ou telle décision métier. Construire de tels tableaux de bord ne prend bien souvent que quelques jours et permet de prendre des décisions métier éclairées, mettre en avant les changements de comportement, et identifier les algorithmes sur lesquels intervenir en priorité. Ces tableaux de bord sont également un investissement sur le long terme car une fois la crise passée ils seront toujours riches en enseignements.
L’adaptation et évolution des modélisations requièrent de se plonger dans le code de ces boites noires pour identifier les variables, comprendre les traitements et algorithmes standards utilisés. Les data scientists seront à vos côtés pour réaliser ces travaux. Leur rôle sera aussi d’identifier de nouvelles sources de données pour réaliser les optimisations et tenir compte des nouvelles variables. Ils s’appuieront sur les data analystes qui avec les plateformes data permettent de réaliser rapidement des collectes, retraitements et analyses de variables…
Enfin, à l’occasion de l’évaluation de la pertinence et de la précision des algorithmes, reposez-vous quelques questions simples : que cherche-t-on à connaitre ? à quelles fins ?… Car parfois les algorithmes apportent des résultats qui ne correspondent pas aux besoins des opérationnels ou dont les résultats ne peuvent être mis en œuvre.
Chronique de Jean-Marc Guidicelli pour le Journal du Net