La grand-messe des entreprises du Big Data se tenait la semaine dernière, les 7 et 8 Mars, au palais des congrès à Paris. En parallèle des exposants, des conférences et retours d’expérience autour du sujet avaient lieu.

Je vous partage mon retour d’expérience du salon et mes convictions pour vous aider à mieux piloter les différentes étapes de la réalisation d’un projet de datascience.

Améliorer le cadrage   

Un large spectre d’opinion des potentiels clients sur les sujets de datascience est observé. Dans certains cas, un fort scepticisme sur le réel impact des algorithmes, et une réticence à la data science sont observés. Cela peut s’expliquer par les nombreux Proof-Of-Concept qui ne sont jamais passés en production. Dans d’autres cas, il y a un optimisme démesuré sur les potentiels effets d’un algorithme de machine learning. Un algorithme peut être capable de capter des signaux faibles, d’améliorer la qualité des prédictions d’un expert métier, automatiser cette prédiction à haute fréquence, mais il lui est impossible de prédire l’imprédictible.

La conviction que nous partageons au sein de notre datalab est que le verre n’est probablement ni vide, ni plein. Pour éviter les mésaventures, il est souhaitable de démarrer par des chantiers simples pour obtenir au plus vite un premier retour sur investissement. Pour obtenir ces victoires rapides, les chefs de projet doivent identifier les leviers business que la solution vise à améliorer et pouvoir les mesurer une fois le déploiement effectué. Il est ensuite possible d’itérer progressivement pour réaliser sa transformation data avec des problématiques plus ambitieuses.

Développer un compromis entre la « Black-box » et la « white-box »

Le développement d’un algorithme prédictif nécessite de pouvoir expliquer le comportement et les prédictions des algorithmes conçus. Les futurs utilisateurs de la solution doivent posséder les clés de compréhension du modèle prédictif pour avoir confiance en celui-ci et pouvoir s’en servir de façon optimale.

Exemple : Pour un cas d’usage de « churn », prévision de résiliation à un service, le modèle prédictif permet d’identifier les clients à risque. Mais c’est un conseiller qui va contacter par appel téléphonique ces clients risqués. Il va se servir du modèle prédictif comme d’un outil d’aide à la décision. Convaincre le conseiller de la pertinence du modèle prédictif lui permettra d’améliorer la qualité de son argumentaire.

Plusieurs stratégies sont possibles pour cela :

  • Coupler un modèle simple explicatif à un modèle complexe prédictif
  • Expliquer le fonctionnement du modèle dans son ensemble
  • Expliquer individuellement les prédictions

Nous partageons ce constat au sein dans notre datalab, et c’est pour cette raison que nous développons un outil qui permet d’expliquer l’impact individuel des variables les plus importantes pour la prédiction souhaitée.

Déployer et monitorer les modèles prédictifs 

Il est impératif de contrôler le fonctionnement des modèles prédictifs lorsqu’ils sont mis en production. L’environnement avec lequel un modèle interagit peut « dériver » au cours du temps. Le modèle peut aussi influer sur l’environnement dans lequel il évolue.

Par conséquent, il est nécessaire de pouvoir surveiller les performances de celui-ci pour détecter au plus tôt une dégradation des performances liée au changement de l’environnement. Les projets de datascience doivent s’intégrer dans une démarche d’amélioration continue.

Exemple : La conception d’un algorithme de maintenance prédictive dans une usine permettra de détecter en amont les pannes actuellement observées. Des incidents sur la chaîne de production seront ainsi évités. Néanmoins, la prévention de ces pannes engendrera probablement de nouvelles pannes. Le modèle devra donc s’adapter.

Newsletter

Recevez notre newsletter bi-mensuelle

Commenter