(DM x DA x BW) / L² : la théorie de la gravité des données

Spread the love
  • Yum

(DM x DA x BW) / L² : la théorie de la gravité des données

Plus on exploite de la donnée, plus on crée de la donnée. C’est le problème de la gravité des données que l’étrange formule qui titre cet article tente de mesurer. En faisant le rapprochement entre le volume des données stockées, leur mouvement, la capacité de bande passante, cela rapporté au temps de latence, il est possible d’estimer un index qui reflète la « Data Gravity » de votre organisation. C’est le travail de conceptualisation qui appartient au groupe Digital Realty, maison mère d’Interxion, restitué dans son étude Data Gravity Index.

 

publicité

1 information + 1 information = 3 informations

« Le concept de gravité des données n’est pas nouveau mais nous constatons aujourd’hui qu’il prend une toute autre ampleur, alors que les entreprises cherchent de plus en plus à tirer parti de tout le potentiel associé à leurs données », explique Fabrice Coquio, président d’Interxion France. Les organisations rendent en effet plus accessibles leurs jeux de données, afin de permettre à un plus grand nombre d’utilisateurs internes ou de partenaires de les visualiser, les agréger, les enrichir, pour in fine, mettre au jour de nouvelles opportunités business. Tous ces nouveaux échanges de données vont donc contribuer à améliorer les data sets, et donc à générer de l’intelligence business. Et c’est ainsi la transformation digitale différencie les entreprises les unes des autres : +9% de chiffre d’affaires et +26% de profits pour les plus engagées.

D’après les résultats du Data Gravity Index, d’ici 2024, les entreprises du classement Forbes Global 2000 vont avoir besoin de près de 30 pétaFLOPS de puissance de calcul supplémentaire pour traiter les nouveaux flux de données, soit une augmentation de 40 % par rapport à 2020. « La question qui se pose désormais aux entreprises est celle de la localisation des données, poursuit Fabrice Coquio. Où les entreposer pour échanger et agréger une multitude de sources différentes de la manière la plus efficace possible ? La réponse est en réalité assez simple : à l’endroit même où elles sont consommées ». Comme évoqué en préambule, la latence est un des facteurs clés de la formule de la gravité : la qualité de l’expérience utilisateur, et donc la capacité des professionnels à exploiter la donnée en dépend. Alors que les entreprises manipulent des pétaoctets de données, impossible de demander à un utilisateur de patienter plusieurs jours avant que le data set dont il a besoin ne soit transféré jusqu’à lui.

Leave a Reply

%d bloggers like this: