Gouverner c’est prévoir

Big Data Jeudi 21 janvier 2016 Un commentaire

2014-digital-workplace-trends

Big Data VS Datawarehouses

Un Datawarehouse classique fournit une vue sur le passé de l’activité de l’entreprise, le Big Data est utilisé afin de mener des prédictions et prévoir le futur. La BI traditionnelle souffre de quelques limites :

  • 70% des datawarehouses sont techniquement contraints (stockage et/ou performance)
  • Les utilisateurs reprochent un manque d’agilité
  • Le ratio coût/valeur est important
  • Un datawarehouse permet d’avoir une vue de l’entreprise dans le rétro-viseur

 

 

Le Big Data, késako ?

Le Big Data est défini par au moins une de ces 3 caractéristiques :

  • Volumétrie (la quantité de données générées par des entreprises ou des personnes)
  • Variété (très grande diversité des types de données au-delà des données transactionnelles traditionnelles : capteurs, réseaux sociaux, open data, fichiers INSEE, …)
  • Vélocité (fréquence à laquelle les données sont générées, capturées et partagées)

 

… et à quoi ça sert ?

L’objectif du Big Data est d’aider à obtenir une meilleure représentation de l’interaction des tiers (clients, fournisseurs, veille sur les concurrents, …) avec l’entreprise. Il s’agit donc d’un super calculateur à la portée « de tous ».

 

Sa mission : mieux « écouter »

Dans le cadre d’une analyse qualitative des conversations, tchat, tweets, .. ; il convient bien choisir ce que l’entreprise doit ‘écouter’ : les réseaux sociaux, mais également tous points de contacts du client avec l’entreprise (service client, SAV, ….).

Les solutions Big Data aident à collecter les informations, les trier, donner des axes d’analyse, …. mais ne remplacent pas l’humain et son interprétation :

  • Par exemple, le message « Pars-Lyon en 4 heures : merci la SNCF ! » peut être considéré comme avis positif par un outil, alors qu’il s’agit d’un avis négatif ; l’outil ne sachant pas manier l’ironie.

Pour mieux ‘écouter’, il est nécessaire d’identifier les influenceurs, c’est à dire les personnes qui ont de l’audience et qui parlent beaucoup du sujet écouté, mais également ceux qui suivent ces premiers sur les réseaux sociaux.

Garder à l’esprit que le besoin de « temps réel » pour une entreprise est de l’ordre d’une heure, voire 1 journée. Mieux vaut avoir une donnée juste et fiable dans une heure, qu’une donnée fausse tout de suite.

Le raffinage de données

La complexité réside dans le ‘raffinage’ des données. Une fois raffinées (via du machine learning par exemple) voire consolidées, il est possible de les requêter via un outil de reporting. Un des enjeux est de bien adapter la data visualization.

Plus les données collectées sont nombreuses et plus les analyses sont fiables (plus l’échantillon est grand, plus l’analyse gagne en pertinence car l’apprentissage statistique des outils est plus efficace). Il faut avoir conscience qu’une stratégie qui consiste à stocker les données brutes puis en chercher de la valeur est vouée à l’échec.

Ses données sont stockées dans un Data Lake, qui est l’équivalent Big Data de l’ODS d’un projet BI classique. Son alimentation doit être la plus ouverte possible, la complexité réside à en sortir les bonnes données.

A la limite, tout le monde peut alimenter un Data Lake : les salariés comme les partenaires de l’entreprise. Le data lake n’est qu’une partie de la chaîne de traitement dans un projet Big Data. La structure de la donnée se trouve dans le traitement de cette donnée, et non pas dans le data lake. En effet dans un data lake il faut dé-corréler les données de leur stockage.

Les SGBDR peuvent stocker un Data Lake. Microsoft propose l’offre cloud « MS Azure Data Lake » compatible avec hadoop et SPARK (équivalent Hadoop du monde libre).

 

BI et Big Data réconciliés ?

Les architectures traditionnelles et le Big Data vont coexister car :

  • L’entreprise a besoin de BI
  • L’entreprise a besoin de données structurées
  • Les outils de requêtage sont mûrs
  • Les coûts de possession par To est plus faible dans le Cloud qu’en interne.
  • Les capacités techniques du Big Data sont simples et scalables
  • Le Big Data offre de nouveaux champs d’application

 

Le Big Data ne remplacera pas la BI , même si l’environnement analytique du Big Data est plus agile et que le coût du stockage (sur Haddop par exemple) peut coûter moins cher que dans l’entreprise, la puissance de calcul du Big Data est exploitée quitte à laisser des données sources (et les données cibles) dans le datawarehouse de l’entreprise.

 

Le décisionnel en entreprise

Passé Présent Futur
Information Que s’est-il passé ?Reporting(BI traditionnelle) Que se passe t-il ?Tableau de bord(Performance Management) Que va-t-il se passer ?Extrapolation(Prédictive Softwares)
Connaissance Comment et pourquoi s’est arrivé ?Modélisation(Visual Analytics et Data Mining) Quelle serait la prochaine bonne action ?Plans d’action alignés(Balanced Scorecards) Que pourrait-il arriver de pire/meilleur ?Simulation et Budget(Business Plan, Budget, Reforecast)

 

Conclusion :  » Gouverner c’est prévoir « 

Objectif de l’entreprise c’est relier les 3 P pour avoir une vue complète de l’activité de l’entreprise et pouvoir anticiper le marché.

Une donnée a de la valeur. Il faut que les outils soient simples d’utilisation pour que tout le monde dans l’entreprise puisse avoir accès aux données.

La réflexion doit être menée par scénarios pour savoir quelles données lire, comment le faire et dans quel but.

 

 Frédéric Vicente, Consultant Business Intelligence.

Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn