What are you looking for ?
Advertise with us
RAIDON

Le nouveau concept de Big Data

Tribune de Romain Chaumais d'Ysance

Ci-dessous se trouve un article de de Romain Chaumais, co-fondateur d’Ysance et responsable du pôle Business Intelligence, sur le thème du Big Data, pour doper la BI traditionnelle. Que recouvre ce nouveau concept ? Quelles sont les opportunités ? Les enjeux ? Les évolutions de la BI ?
 
ysance_big_data
 
Face à la démultiplication des systèmes produisant de la donnée – réseaux sociaux, tablettes, mobiles, applications, capteurs électroniques, etc. – le volume d’informations fabriquées au quotidien croît de façon exponentielle. Parallèlement, les entreprises perçoivent désormais la valeur économique des informations comportementales détaillées. Complémentaire des plateformes décisionnelles, le Big Data cherche à naviguer dans cette avalanche de données afin d’y identifier en temps réel des informations pertinentes et utiles sur un mode, avant tout, exploratoire et peu structuré.
 
Après le Cloud Computing, voici le Big Data. Même phénomène de mode, même saupoudrage marketing et au fond, même incompréhension. Que recouvre donc ce nouveau concept?
En réalité, le Big Data est né de la convergence de deux phénomènes majeurs: l’explosion des données générées (Data Deluge) et la prise de conscience de la valeur des données brutes (Raw Data).

La volumétrie des données à la disposition des entreprises croît exponentiellement depuis plusieurs années. Dans tous les domaines de l’économie (industrie, domotique, transport, etc.), l’essor des technologies machine-to-machine et autres capteurs connectés permet à des objets dits ‘intelligents’ de communiquer sans intervention humaine avec un système d’information centralisé. En résulte une démultiplication des informations à conserver sur chaque interaction. Du côté du web, les technologies sont passées au fil des ans d’une approche site centric (un objet analysé) à une logique user centric (plusieurs milliers ou centaines milliers d’individus analysés). Plus récemment, l’essor des réseaux sociaux et de la mobilité a imposé un modèle d’analyse de type social centric (plusieurs millions d’individus et d’interactions avec leur environnement à analyser). Si Facebook compte pas moins de 6 milliards de photos partagées et 22 milliards de commentaires publiés chaque mois, de nombreuses entreprises beaucoup plus petites brassent chaque jour des centaines de millions de transactions et/ou d’événements et stockent plusieurs téraoctets de données chaque année.

Par ailleurs, les entreprises perçoivent désormais que la moindre donnée comportementale, le moindre log, aussi isolés soient-ils, recèlent une valeur économique. Il en va de l’individualisation du marketing, de l’optimisation des processus, de la traçabilité des transactions ou encore de la pertinence des alertes. Auparavant noyée dans des approches ensemblistes forcément réductrices, chaque aberration devient dès lors riche d’enseignements. Résultat: chaque donnée brute doit être stockée.

Le voilà donc, le rôle du Big Data. Dans un environnement foisonnant d’une masse sans cesse plus dense d’informations brutes, il consiste à collecter, à stocker, puis à interroger en quasi temps réel un puits de données directement exploitables et orientées ‘usage’. Une nécessité rendue possible par la concomitance d’innovations techniques: Cloud Computing, base de données nouvelle génération (bases de données en colonnes notamment), architecture de type MapReduce, etc.

Cette montée en puissance du Big Data marque une (r)évolution majeure dans l’informatique décisionnelle. A la différence des solutions décisionnelles traditionnelles, celui-ci apporte une donnée ‘chaude’, certes moins structurée, mais avec un niveau de détail tel qu’il permet d’isoler et d’analyser, au cas par cas, chaque transaction et événement.

L’analyse au fil de l’eau des grands flux d’information sur les produits et services, les acheteurs ou les fournisseurs, ou encore les préférences des consommateurs apporte ainsi souplesse et réactivité à des outils décisionnels certes robustes, mais structurellement trop figés.

Cette nouveauté n’est pas anodine pour les directions générales. Par son mode exploratoire, le Big Data offre une capacité d’observation pointue de nature à analyser les réussites comme les échecs, voire remettre en question l’activité et l’organisation de l’entreprise.

En somme, le Big Data dope les systèmes décisionnels traditionnels, auxquels il ajoute une dimension inédite: pouvoir exploiter d’immenses volumes de données au niveau de détail le plus fin. Le Big Data ne s’oppose donc pas à la Business Intelligence, mais la complète en lui apportant un degré de précision et une souplesse jusqu’ici inédites. Ainsi, l’informatique décisionnelle offre des outils industrialisés, pré-formatés pour répondre à des questions précises. En revanche, le Big Data permet d’explorer un dédale de données interdépendantes et de faire émerger des phénomènes significatifs pour identifier de nouvelles informations pertinentes.

Cette complémentarité doit logiquement se répercuter sur la conception des systèmes d’information décisionnels. D’un point de vue technique, une approche Big Data en amont des solutions de BI traditionnelles permet de simplifier l’architecture décisionnelle et d’optimiser les outils de pilotage. Déjà révolutionnée par l’essor du Saas, l’informatique décisionnelle est donc loin d’avoir achevé sa mue.

Articles_bottom
ExaGrid
AIC
ATTOtarget="_blank"
OPEN-E