Partager, , Google Plus, Pinterest,

Print

Posted in:

Quand DATA MINING rime avec big data et open source

Le data mining amorce un virage technologique majeur avec l’arrivée de solutions open source qui challengent le leadership de SAS, IBM et autres SAP. Quant à son usage, il connaît un second souffle avec le lancement des premiers projets big data dans les banques françaises. Objectif ? Mieux comprendre le comportement client.

Même si leur organisation reste très conservatrice, les banques françaises entament depuis peu une réflexion de fond sur la valeur ajoutée qu’elles apportent à leurs clients, suivant en cela l’exemple des banques américaines, britanniques et scandinaves qui ont déjà défriché le terrain. Les banques françaises ont pris conscience du fait que la maîtrise des données ne pouvait souffrir aucun retard, sous peine d’« ubérisation » de la profession par les ténors du Gafa, Google, Apple, Facebook ou Amazon, tout aussi capables d’apporter des solutions de coffres-forts ou de moyens de paie-ment grâce à la directive DSP2. Cette crainte nourrit les motivations de toute une profession si l’on en juge par le propos récent de Francisco González Rodríguez, président de BBVA, affirmant que sa banque voulait devenir « le Google du secteur » avec une stratégie fondée sur le « knowledge banking ».

CAP SUR LA CONNAISSANCE CLIENT

C’est dans ce contexte que les banques françaises se lancent elles aussi dans des projets de big data, une véritable bouffée d’oxygène pour le datamining, maillon technologique essentiel pour proposer des recommandations opérationnelles aux services marketing. « Alors que les données sont vues comme « un nouvel or noir », le big data s’impose logiquement comme un levier de croissance » précise Didier Gaultier, directeur de l’offre connaissance client de business et décision et professeur de data sciences appliquées au marketing à l’EPF et à l’ESCP-Europe. Selon lui, nous assistons depuis peu à une prise de conscience de l’importance des méthodes statistiques et prédictives dans l’analyse des données. Ce sujet était porté jusqu’à présent par les seuls connaisseurs des techniques du datamining. L’effet big data leur donne raison, même si on est loin de l’informatique presse-bouton. En pleine évolution, cet ensemble d’outils connu sous l’appellation data mining – et dont les algorithmes datent parfois de plus de quarante ans – est regroupé désormais sous le vocable de datascience, parfois de data analytics. La finalité des projets qui se concoctent dans le plus grand secret est claire : « Face aux changements rapides et profonds de l’environ-nement économique, le secteur bancaire est amené à faire évoluer ses méthodes pour mieux connaître ses clients et interagir au bon moment » explique Abdessatar Hammedi, practice manager chez Maltem Consulting Group. Envahies par un déluge de données sur leurs clients, les banques ont compris que le moment était venu de trouver de nouveaux leviers de compétitivité pour améliorer la relation avec leurs clients mais aussi améliorer leurs marges. « Mais, ne nous y trompons pas » prévient Guillaume Bourdon, cofondateur de la société Quinten, spécialisée dans le datamining. « Il y a une véritable bulle dans le big data, sujet que nombre de prestataires enfourchent dans un but purement commercial alors que l’exploitation des données par des techniques de datascience reste un métier pointu qui exige des compétences avancées en mathématiques et en statistiques ». Ce postulat acquis, ces projets révèlent un changement majeur de paradigme pour les banques : « malgré un cadre réglementaire contraignant, l’utilisation de solutions de datamining dans la connaissance client constitue une tendance de fond dans le secteur de la banque et de l’assurance » précise Didier Gaultier. Le credo est simple : mieux comprendre le parcours client et améliorer son expérience. Tous les projets big data lancés par les grandes banques de détail de la place ont une composante datascience. Ils sont pour la plupart en phase de gestation car ils nécessitent de longues analyses destinées à traiter des problématiques telles que l’origine des données, leur signification, leur qualité ainsi que leur évolution dans le temps. Il s’agit pour le moment de projets pilotes de type POC (Proof of Concept) ou POT (Proof of Technology). Ils sont prévus pour une période d’environ six mois afin de mesurer les promesses en termes de ROI. Leur déploiement dans un second temps prendra au minimum18 mois. Sur ce terrain, la société Quinten s’est fait une spécialité dans l’analyse des facteurs de performance des agences bancaires. Il intègre dans les données traitées par les moulinettes du data mining les données issues du géomarketing, de la concurrence, de l’agencement des lieux, des transactions ainsi que des campagnes marketing. « Les algorithmes que nous utilisons vont chercher les combinaisons de variables qui caractérisent les performances hors normes »

explique Guillaume Bourdon. La société dispose à cet effet de sa propre R&D ainsi que d’une technologie propriétaire, ce qui ne l’empêche pas d’utiliser si nécessaire les solutions de datamining du marché. L’optimisation des agences bancaires doit tenir compte du fait que si les clients y viennent moins fréquemment, ils deviennent beaucoup plus exigeants lorsqu’ils ont enfin décidé de s’y rendre, n’hésitant pas à jouer la concurrence. « L’alliance du big data et du data mining va aider le conseiller à répondre de manière plus précise aux attentes du client exigeant » estime Didier Gaultier.

Dans cette nouvelle organisation, l’expert en data mining doit comprendre le métier du client

TIRER PARTI DE TOUTES LES DONNÉES

« Le secteur bancaire détient le plus grand volume de données après les réseaux sociaux, Google, la grande distribution et autres champions du web » précise Abdessatar Hammedi. On y trouve des données structurées (paiement par carte, retrait d’argent aux distributeurs, consultation du compte via smart-phone), des données semi-structurées (message mail, log de parcours sur le web) ainsi que des données non structurées (centre d’appels, point téléphonique avec les conseillers). L’échantillonnage sur des données structurées, qui ne représentent que 20% de l’ensemble des données, n’a que trop survécu jusque-là. Il a permis aux marketeurs des banques de tailler des produits pour les jeunes, pour les plus de 50 ans, etc. Ce marketing atteint toutefois ses limites. Aujourd’hui, les banques peuvent exploiter et croiser tous types de données structurées ou non-structurées et ainsi mieux surveiller la qualité de service et identifier les raisons de l’attrition client. C’est du moins la théorie car sur le terrain, ces données sont éparpillées un peu partout et pas nécessairement structurées dans un format propice à leur exploitation. En outre, elles peuvent aussi devenir rapidement obsolètes. Le big data alimenté avec les bonnes données permet d’anticiper les évolutions rapides du marché et éviter que les clients n’aillent à la concurrence, du moins si les données passent entre les mains d’experts du datamining pour les « faire parler ». Stocker les données dans un entrepôt n’a jamais fait un modèle d’analyse pertinent préviennent les spécialistes.

Pour Didier Gaultier, « ce volume déjà pharamineux de données va connaître une véritable explosion avec l’arrivée des objets connectés que les banques s’empressent d’intégrer à leurs offres de services mobiles ». Il faudra extraire de ces données en quasi temps réel une compréhension exacte du comportement d’un client qui effectue une demande de prêt sur le site Internet de la banque. Jusque là, les services de marketing n’exploitaient pas de telles données. Désormais, grâce à l’analyse par le datamining des réponses que le client fera sur un questionnaire de demande de prêt, il sera possible de le faire appeler par le meilleur conseiller avec le bon produit. D’où la perspective de nouvelles offres et de nouveaux clients à l’heure où les banques doivent fidéliser leurs clients. Rappelons que les français restent les champions de la multibancarisation. Et pour cause : les banques françaises n’accordent aucun avantage à la fidélité de leurs clients. C’est pourquoi 40 % ont un compte dans au moins deux banques et un tiers dans plus de deux selon une étude du cabinet Compass MC. « Aller d’une banque à l’autre sans en quitter aucune pourrait bien être devenu l’un des passe-temps favoris des Français » constate Guillaume Almeras, animateur du site d’analyse Score Advisor. Ajoutons que selon un récent sondage, deux clients sur cinq se disent prêts à quitter carrément leur banque.

« Les banques n’ont d’autre choix que de mieux fidéliser leurs clients, notamment les meilleurs » conclut Didier Gaultier. Résultat ? « Big data et datas-cience sont les moteurs de la transformation digitale des banques » conclut Stanislas de Roys, Responsable du secteur banque chez Capgemini Consulting. Cette transformation marque l’arrivée dans l’organisation des banques du chief data officer, alias CDO, un poste que l’on voit fleurir dans de grandes banques comme la Société Générale ou BNP Paribas. Il se trouve à la frontière de plusieurs compétences comme l’IT, la finance, le risque, la conformité, le business et l’innovation. « La difficulté du rôle de CDO est sans doute son caractère transversal » explique Stanislas de Roys, conscient que l’organisation en silos des systèmes d’information tout comme les habitudes de communication des départements des banques n’est pas un facteur favorable. « Le défi à terme du CDO sera de passer d’une logique de la qualité des données à une logique de la valeur et orchestrer le mouvement sur les deux axes » ajoute Stanislas de Roys. Dans cette nouvelle organisation, l’expert en data mining doit comprendre le métier du client. « Son rôle est de nourrir la réflexion de l’expert métier » précise Guillaume Bourdon.

Les algorithmes au service de la connaissance client

Les algorithmes de data mining peuvent désormais s’adapter au big data et restituer une vision de la connaissance du client interprétable et utilisable, véritable cartographie du comportement client. Qu’en est-il sur le terrain ? « Il y a en fait deux approches assez complémentaires, les algorithmes d’intelligence artificielle d’un côté, et les algorithmes statistiques de l’autre » explique Didier Gaultier. L’intelligence artificielle a été conçue par des spécialistes de la programmation alors que les logiciels statistiques ont été conçus par des mathématiciens et des statisticiens.

Ces deux approches sont véritablement complémentaires. La première offre l’avantage de constituer des algorithmes « auto apprenants » peu gourmands en paramétrage initial et fonctionnant malgré une qualité des données moindre. Leur capacité d’interprétation est limitée. La seconde nécessite l’intervention d’un ou plusieurs spécialistes de datascience pour établir un modèle initial, démarche qui nécessite des données de bonne qualité. Cette approche explique plus précisément le comportement d’une vaste majorité de clients. Pour qu’un modèle soit considéré comme « exploitable » pour les métiers, il doit expliquer au moins 70 % des comportements.

L’ARRIVÉE DES SOLUTIONS OPEN SOURCE

Au-delà de l’impact organisationnel et managérial des projets big data, la question des infrastructures techniques se pose autant que celle des outils techniques du datamining proposés par des éditeurs bien établis dans ce secteur comme SAS, IBM, SAP ou Coheris. La raison ? « Il y a dans la banque une véritable prise de conscience des bénéfices apportés par les nouvelles solutions Open Source » affirme Guillaume Bourdon. ROI oblige, de nombreux projets de big data dans les banques s’orientent vers des architectures comme Hadoop ou le système de gestion de bases de données de documents Mango DB avec, à la clé, l’utilisation de l’environnement R pour le volet Datamining. Il s’agit précisément d’un logiciel libre de traitement des données et d’analyses statistiques issu du langage de programmation S. D’autres outils de data mining rencontrent un certain écho, comme Knime ou Python. « Complémentaire de R, Knime est un programme spécialisé dans l’analyse et l’extraction des connaissances à partir des données informatisées. Il comporte des connecteurs vers les solutions de big data » explique Didier Gaultier. Il aide l’expert à trouver des motifs remarquables et intéressants. Pour sa part, Python est un langage de programmation objet qui se situe dans la lignée de langages comme Perl ou Smalltalk. Multi-paradigme et multiplates-formes, il favorise la programmation impérative structurée, fonctionnelle et orientée objet. Le recours aux langages classiques comme C++ n’est pas exclu. « Nous développons des applications pour les banques en partant des besoins métier et en structurant les données à cet effet. Nous faisons appel à C++ et Python, ce qui permet des développements rapides et à faible coût » explique Guillaume Bourdon. Bien sûr, de tels choix obligent les banques à trouver des ressources humaines et techniques spécialisées dans ces nouveaux environnements. Les compétences adéquates, internes ou externes, sont indispensables. Ces nouveaux outils exigent de former et de recruter les meilleurs profils afin de pouvoir tirer le meilleur parti du big data et parler aux experts métiers. Toujours du point de vue technique, la nécessité d’exploiter les données en temps réel va de pair avec les attentes des clients habitués aux technologies digitales, ce qui ouvre la perspective d’une gestion de l’offre bancaire en temps réel et peut rendre obsolètes bien des données. La stratégie en matière de données doit être repensée dans cette perspective estime en substance Abdessatar Hammedi, qu’il s’agisse du stockage répété de la même donnée, de la modélisation dans un entrepôt ou de l’ajout d’une couche d’agrégation. C’est à ce prix que les banques pourront déployer des services répondant mieux aux besoins des clients afin de les fidéliser.

Associé au big data, le data mining n’a pas pour seule vocation de décrypter en temps réel le comportement du client, même s’il permet à terme d’optimiser l’efficacité des campagnes marketing. Il offre de nombreux autres usages potentiels comme par exemple d’identifier tout comportement anormal afin de prévenir l’utilisation frauduleuse de cartes bancaires ou de virements en s’appuyant sur des données de géolocalisation. Il apporte des gains substantiels en termes de temps de traitements afin que les experts du data-mining fassent plus fréquemment des recommandations aux experts métier. La conformité est aussi un terrain d’utilisation dans la mesure où le big data permet de limiter les risques de piratage des données. Face à l’impuissance croissante des campagnes de marketing traditionnel, le marketing prédictif constitue aussi un important levier de compétitivité. L’analyse poussée du comportement à travers la consommation bancaire et non bancaire, permet d’établir des tendances fortes qui permettent d’anticiper les actions du client avec des analyses prévisionnelles suffisamment précises pour anticiper les comportements.

Source : Publinet

Laisser un commentaire