La demande des grands groupes pour de plus grandes capacités de stockage et des systèmes informatiques de plus en plus performants est en train de nous mener à ce qu’on appelle désormais la « Troisième phase » de la révolution du Big Data.
De la demande naît la révolution
Dès les prémices d’Internet, l’une des premières problématiques des concepteurs et des professionnels a été de réussir à sauvegarder et stocker les informations. Mais certaines données ou regroupements de données sont si lourds qu’ils demeurent impossibles à déplacer sur le cloud. Et certaines des entreprises les plus importantes et les plus à la pointe de la technologie se retrouvent aujourd’hui encore contraintes de déplacer leurs systèmes de stockage d’un point A à un point B afin de procéder à un partage de données. Une situation intenable pour les grands groupes, dont la demande pour une meilleure gestion de données, de plus en plus pressante, est en train d’engendrer une véritable révolution dans l’univers du Big Data.
« Troisième phase »
La première phase a été l’avènement de logiciels capables de gérer d’importantes quantités de données (tels que Hadoop ou NoSQ). Première phase qui est d’ailleurs toujours en cours de traitement et d’amélioration. La deuxième phase de la révolution du Big data s’est amorcée avec la prolifération de capteurs fiables permettant la « récolte » de data réelles : et la création d’applications servant à exploiter d’analyser tous les types de data possibles et imaginables. Au sein de cette évolution progressive, la « troisième phase » se présente comme étant celle de l’architecture. Une architecture nouvelle permettant de gérer, trier, archiver l’incroyable quantité de données trouvées et analysées par les deux premières phases d’innovation. Des centres de tri et de stockage de données à grande échelle : voilà ce qui attend le Big Data demain.
Nouveaux outils, nouveaux objectifs
Pour parvenir à cette troisième phase, de nouveaux outils sont et doivent être créés. De nouveaux logiciels, hardware, réseaux interconnectés ou encore de nouvelles infrastructures vont progressivement émerger pour répondre à cette demande en matière de gestion de Big Data. Et à l’ère où 20 à 50% des données sont encore perdues car le processeur ne peut atteindre les données assez vite, le fer de lance de cette révolution sera la rapidité. Aujourd’hui le traitement des données constitue l’une des principales clés du succès des entreprises. Et savoir que certaines entreprises perdent encore des millions dues à des transactions ou des traitements de données trop lents apparaît comme de plus en plus inenvisageable.
Les apports du Big Data offrent déjà une richesse inestimable en terme de connaissance du monde et de ses acteurs, mais nécessite en amont un travail et une véritable révolution technologique à l’échelle de cette richesse.