Blog

Les 3 paradigmes du décisionnel temps réel qu'il faut refuser pour être efficient

Posted by Jean-Luc Bernard on 18/11/13 10:30

En l’occurrence être efficient veut dire apporter un niveau de valeur ajoutée qui ne soit pas disqualifié par le niveau des investissements à consentir et des coûts d’exploitation à subir.

 

Et en matière de Décisionnel Temps Réel, soyons honnêtes, l’environnement Big Data a très vite fait de faire exploser vos investissements d’infrastructure et de soft et de faire voler en éclats vos certitudes sur vos coûts d’exploitations informatiques. La volumétrie qui est la principale caractéristique du Big Data est source d’une inflation sans vraie limite…

 

Et c’est justement ce premier paradigme qu’il faut refuser immédiatement.

 

Refuser la dictature du volume

 

 

Plutôt que d’étudier des centaines de milliers d’invidus pour en connaître un, il est beaucoup plus productif de se concentrer sur cet individu en question et l’étudier, lui.

L’étude de la masse ne permet de produire que des probabilités comportementales sur des groupes de plusieurs milliers d’individus et pas la plausibilité de comportement sur un individu donné qu’impose le 1to1.

Pour produire cette plausibilité, il ne sert de rien de recueillir l’ensemble des données disponibles sur lui à la recherche d’un PPDC, obligatoirement réducteur, qui le rattacherait à un segment.

Mieux vaut s’attacher à identifier les signaux faibles – ceux qui signifient quelque chose à l’instant T puisqu’il s’agit bien de Temps réel, qui le distinguent justement des autres. Cela permet d’échapper au stockage d’immenses bases de données souvent aussi coûteuses qu’obsolètes dès que constituées.

Tirer des conclusions de ses comportements passés d’individu marié pour prévoir les futurs comportements d’une personne alors qu’elle vient de divorcer, des ses comportements passés de consommateur – chômeur alors qu’elle vient de retrouver un job de cadre, est de surcroît particulièrement improductif et relève plus de la croyance que de la rationalité. Sans compter que nous vivons à l’époque de la fugacité et que ces vérités de toujours le sont encore plus aujourd’hui.

 

Disqualifier la modélisation a priori.

 

Soyons brutaux : celle-ci est toujours limitée par la capacité d’observation et l’imagination de celui qui modélise.

Et ces/ses limites, au regard de la fragmentation des comportements qui caractérise, chaque jour un peu plus, la consommation, sont très rapidement atteintes…

Pour produire du sens et définir la meilleure interaction possible, nul n’a besoin de modéliser en amont.

Il faut « se contenter » de regarder si dans sa mémoire il existe des individus présentant les mêmes signaux faibles que celui avec lequel on veut interagir, d’observer ce qu’ont fait ces individus – la stratégie gagnante- et de le reproduire sur l’individu concerné. Le tout en temps réel. Comme le vendeur en magasin.

Du point de vue de l’efficience c’est infiniment plus productif et pertinent que de penser que sa modélisation répondra à tous les cas de figure et qu’elle sera aussi éternelle que les âmes.

 

 

Enfin, en troisième lieu, loin d’être obsédés par la certitude, il faut privilégier la célérité.

 

Il faut préférer injecter un input approximatif -qui peut d’ailleurs être partiellement erroné - et développer, là encore comme le vendeur en magasin, sa capacité à interpréter sa réaction en temps réel pour affiner sa compréhension et corriger l’input suivant.

 

 

Ce sont ces 3 refus qui nous ont permis de définir l’Analyse Situationnelle Réflexe, technologie sur laquelle repose notre plateforme de RT Recommending WebSAles Booster. Ils nous ont permis de définir une nouvelle génération de processeurs d’intelligence artificielle qui reproduisent les principaux mécanismes du cerveau humain :

 

- sélectivité de l’information,

- traitement inductif,

- célérité,

- utilisation de l’erreur comme processus itératif d’acquisition de pertinence,

- et même capacité d’oubli sans laquelle nos cerveaux seraient dans l’incapacité de fonctionner dans la durée.

 

 

Le vendeur en magasin ne vous connaît pas, il ne détient aucune donnée à caractère personnel sur vous, lui. Il ne vous rapproche pas de centaines de milliers d’individus, non. Pas plus qu’il ne scrute pas en vous le plus petit dénominateur commun qui lui permettrait de vous raccrocher au segment XYZ 243 et déclencher un scénario pré établi des mois avant par un marketeur même talentueux.

Il n’a ni le temps, ni la mémoire, ni la vitesse de travail qu’il faut pour cela.

Et pourtant il arrive à comprendre votre besoin et à vendre !

Sans Base de données …. Sans datamining …. Sans segmentation …. Sans modélisation préalable….

 

Il se contente d’observer les signaux faibles qui vous distinguent des autres, cherche dans sa mémoire la plus récente s’il a vécu des situations semblables, applique la stratégie qui a marché dans ces cas, observe votre réaction, corrige sa compréhension, affine sa stratégie et … vend.

 

Cà coûte mois cher… et çà marche. C’est ce que font nos processeurs et nos algorithmes.

Topics: Big Data, E-marketing, E-commerce, Recommandation