• Accueil
  • Blog
  • Tech
  • Pour tirer le meilleur parti des données exogènes, pensez Analytics-as-a-Service

Pour tirer le meilleur parti des données exogènes, pensez Analytics-as-a-Service

Tech

Paul Sinaï

Pour tirer le meilleur parti des données exogènes, pensez Analytics-as-a-Service

Exogènes, externes, tierces : quel que soit leur qualificatif, les données qui viennent de l’autre côté du mur (pas celui de Game of Thrones, mais celui qui délimite le patrimoine informationnel de l’entreprise) sont désormais indispensables. Les entreprises vont peu à peu les exploiter aussi naturellement que les individus les utilisent pour raisonner. Ce « mix data » entre données internes et externes est précieux pour ne pas rester centré sur soi et ouvrir le champ des possibles.

De fait, sans ce mix, il s’avère bien difficile d’apprécier de façon fine la performance d’entreprises et/ou d’ajuster ou de nourrir des modèles prédictifs.

Sur un chantier, les conditions météo rendent les chemins boueux, ralentissent les rotations des camions et tirent vers le haut la consommation d’énergie.

Dans des salles de cinéma, les avis postés, le calendrier des vacances scolaires, la météo bien sûr (encore elle !) influencent le remplissage. Nous pourrions multiplier les exemples, tous pointeraient vers les mêmes défis à relever pour tirer le meilleur parti des données exogènes.

#1 Assimiler la data au plus vite
Par nature, les données exogènes sont essaimées, fragmentées et techniquement variées. Quant à leur apport, il demeure théorique tant qu’aucun test n’a été mené. Voilà pourquoi il importe d’être en mesure d’assimiler ces données en maîtrisant les coûts et de les tester dans des délais courts. Le maître mot ici est : agilité.

Monter rapidement un environnement de test, capturer ces données selon les modalités disponibles (import, API…), les nettoyer pour mieux les ingérer, les stocker dans un modèle qui correspond à leur nature pour pouvoir enfin les manipuler… Dans un environnement classique – comprenez dans lequel aucun déploiement n’est possible sans l’émission préalable de spécifications détaillées – l’empilement de ces tâches conduit vite à un effet tunnel. Seule une démarche Analytics-as-a-Service peut resserrer la ligne de temps pour donner au plus vite les moyens de dénicher des corrélations. Ces démarches reposent sur des méthodes agiles, mais aussi sur des plateformes Modern Analytics – ForePaaS en est un digne représentant – fortement automatisées. Objectif : épargner à l’utilisateur la complexité de l’assemblage de la stack (les composants logiciels requis) afin qu’il se concentre sur l’essentiel : l’interprétation métier de ces données.

#2 Faire circuler la data exogène
Justement : comment évaluer l’intérêt de l’apport de ces données exogènes ? La réponse est simple : en assurant leur bonne circulation. Il s’avère en effet difficile de s’en tenir à un seul point de vue lorsqu’on ne sait pas exactement ce que l’on cherche. D’autant que la pertinence d’une donnée peut se révéler à une échelle locale. Un acteur de la grande distribution qui cherche à optimiser ses rayons sur la base de nouvelles données externes pourra difficilement se passer du feedback des chefs de rayon…

L’expérience le prouve, c’est du terrain qu’émergent des exploitations inattendues. Une donnée externe bien exploitée est donc d’abord une donnée qui circule, ce qui suppose de ne pas considérer la démocratisation de la data comme un simple concept. Dans la pratique, la décentralisation de la data fait partie intégrante d’une démarche Analytics-as-a-Service.

Cette bonne intention peut toutefois se heurter à la nature même du modèle des plateformes Modern Analytics quand celles-ci facturent en fonction du nombre d’utilisateurs. Voilà l’une des raisons pour lesquelles nous n’avons pas retenu ce modèle qui nous semble contre-nature : la valeur des projets data s’accroît en y associant les bons utilisateurs. Il s’agit donc de faciliter cette association et non de la brider.

#3 Restituer ces données sous forme de service / valeur
La donnée externe, plus encore quand il s’agit « d’open data », ne peut être perçue comme un « cadeau ». Il s’agit d’un service rendu qui en appelle un autre en retour. L’objectif n’est donc pas seulement d’être transparent sur l’origine de cette donnée, mais de s’engager sur la valeur du service qui en découle.

Un assureur qui collecte des données de santé auprès de ses assurés se doit d’expliquer son projet, à quel nouveau service (pour le client) cette donnée va contribuer. Et pas seulement pour des raisons réglementaires et pour obtenir un consentement digne de ce nom. Expliquer la finalité d’une telle collecte, c’est aussi se donner de meilleures chances d’obtenir une donnée de qualité. Sur les marchés BtoC comme BtoB, c’est la question clé : comment rendre ces données à leurs émetteurs sous forme de service ?

Réussir cette transformation suppose – nous l’avons vu – d’assimiler et de corréler ces données avec d’autres, mais aussi de pouvoir les exposer ou de les embarquer aisément dans des applications. C’est d’ailleurs l’évolution naturelle des applications data : enrichir au fil du temps leur mix entre données internes et externes pour gagner en pertinence. Pas besoin d’ailleurs de consulter les oracles pour comprendre qu’il deviendra de plus en plus difficile à l’avenir de distinguer les unes des autres. À l’ère de l’Analytics-as-a-Service, les frontières de la data tendent à s’estomper.

En savoir plus