Blog

Ce qu'est réellement le Big Data.

Posted by Jean-Pierre Malle on 28/11/12 17:40

Derrière le terme « big data » se cache un réel changement de paradigme que beaucoup des acteurs technologiques ne remarqueront que tardivement. A chaque apparition d’une nouvelle notion, les mêmes étapes se déroulent.

 

 

La phase d’émergence, marquée comme souvent par le sceau du Gartner Group, est révolue.

 

Actuellement nous en sommes à la phase de ralliement. Chaque acteur technologique cherche à se glisser dans le flux porté par le buzz. Que sa solution soit big-data ou pas, il s’arrange avec les termes, il monte des compromis pour ne pas être exclu du mouvement. J’appelle aussi cette phase pour cela « la phase opaque ».

 

Ensuite viendra la phase de mutation qui verra naitre des solutions technologiques dérivées de solutions existantes mais disposant d’une vraie valeur ajoutée par rapport à la notion nouvelle, intégrant son « ADN ».

 

 

Puis la phase de construction succédera, avec l’apparition de pure-players mettant sur le marché des solutions et des services que l’on ne peut même pas imaginer à ce stade.

 

 

Dans le cadre de cette phase de ralliement, les acteurs technologiques ont tendance à considérer le « big-data » comme « un peu plus de data » et présentent les extensions de leurs systèmes de stockage ou d’analyse en y intégrant quelques outils permettant de multiplier les accès et accélérer les traitements et les échanges (noSQL, etc…). Ces systèmes sont très bien et constituent une avancée significative mais ils n’intègrent pas l’ADN du Big Data.

 

Pour toucher du doigt le nouveau paradigme du Big Data il faut prendre la mesure de la situation. En cette fin d’année 2012 ce sont : plus de 6 zettabytes[1] d’information rendus disponibles sur nos réseaux. Cela représente :

 

  • 10 milliards de disques durs de 600Go en moyenne.

 

  • Imprimé sur des feuilles A4 en tous petits caractères cela représente une pile de plus de 500 fois la distance terre-soleil.

 

  • Avec la capacité actuelle d’un géant comme Google il faudrait plus de 1000 ans pour traiter le stock disponible dans son intégralité.

 

Et la quantité double tous les deux ans. L’ouverture des données des institutions et des entreprises dans le cadre de « l’Open Data » renforce encore ce phénomène.

 

Le Big Data marque une rupture par le fait que la courbe de croissance des données disponibles et celle des moyens pour les traiter s’éloignent irrémédiablement. Il n’est plus possible d’imaginer que l’on puisse « courir après cette exponentielle ».

 

Pour entrer dans l’ère du Big Data il faut lâcher prise et accepter de travailler avec des données, parcellaires, disponibles ou facilement accessibles, ne pas chercher à les conserver, les considérer comme du consommable périssable, les transformer pour un nouvel usage.

 

Une industrie est née, à l’image de l’industrie pétrolière, les datas constituent l’énergie de demain, selon Jacques Segondy dans le Nouvel Economiste.fr en février 2012[2]. De nombreuses entreprises vont naitre pour extraire et transformer ces données et naturellement en produire d’autres.

 

Jean Pierre MALLE, Directeur Scientifique Netwave

 


[1] 1 zetta = 10+21 soit mille milliard de milliard

[2] Repris dans plusieurs articles sous le titre « Big Data le pétrole du 21eme siècle »

Topics: Big Data