Fast Data: la nouvelle idée des bases de données

big data o fast data

Le débat big data versus fast data n’est pas simple. Les organisations qui réussissent ont besoin d’une combinaison des deux approches.

Notre monde fonctionne actuellement sur le big data. Avec une quantité de données volumineuses créées atteignant 64,2 zettaoctets en 2020 (près de 30 zettaoctets de plus que les projections précédentes) et l’on s’attend à ce qu’elle atteigne plus de 180 zettaoctets d’ici 2025, elle ne montre aucun signe d’arrêt.

Mais, avec 68% de toutes les données collectées non exploitées, il existe une énorme opportunité de transformer les données brutes en quelque chose qui crée une valeur commerciale immédiate. La méthodologie actuelle consistant à tout stocker et à espérer le meilleur n’est pas un modèle évolutif, comme le réalisent actuellement de nombreuses organisations noyées dans les données mais sans véritable moyen d’agir. Pour réussir dans le paysage commercial moderne, il faut briser le moule de la réflexion sur les bases de données.

Big Data

L’analyse des mégadonnées existe depuis longtemps, la première expression réelle de l’expression ayant eu lieu en 2005 par Roger Mougalas à peu près au même moment où Hadoop a été créé. De toute évidence, nous avons parcouru un long chemin depuis lors en termes de prouesses technologiques et de quantité de données créées, mais le processus est intrinsèquement le même avec les données ingérées et stockées pour une analyse future.

Cette approche a et continuera de très bien fonctionner dans les situations où les données ont quelque chose d’intéressant à dire et peuvent être analysées par des algorithmes AI/ML pour trouver des modèles et des tendances (telles que des informations historiques sur les marchés financiers). Mais lorsqu’un capteur crache les mêmes informations 99% du temps, il n’est pas nécessaire de stocker toutes ces données. Cependant, l’analyse doit toujours être effectuée pour s’assurer que rien n’est manqué, et c’est là que les données rapides peuvent prendre les rênes.

Données rapides

Les données rapides contrastent avec les données volumineuses en ce sens qu’au lieu de collecter autant de données que possible, elles se concentrent sur la transformation des données brutes en streaming en événements immédiatement exploitables. Cette méthode d’analyse des données est largement supérieure au stockage de tout dans une base de données lorsque vous travaillez avec des capteurs et des appareils IoT qui créent constamment de nouvelles données. Seuls les points de données anormaux importants doivent être traités tandis que tout le reste peut être supprimé.

En utilisant l’informatique de pointe pour effectuer un pré-filtrage/traitement sur les données en streaming à la source, les entreprises peuvent évoluer beaucoup plus rapidement en évitant de tout déplacer vers le cloud. Seules les données utiles pour une analyse future sont conservées. Une approche rapide des données utilisant l’informatique de périphérie offre également les avantages du traitement distribué (en déplaçant la puissance de calcul plus près ou sur les périphériques de périphérie eux-mêmes), permettant des réductions massives de la latence et de la bande passante.

Le meilleur des deux mondes

Bien sûr, comme pour la plupart des choses dans la vie, le débat big data versus fast data n’est pas complètement tranché. Pour que les organisations réussissent à l’ère moderne, une combinaison des deux approches est nécessaire. Les mégadonnées sont extrêmement utiles pour trouver des tendances cachées dans les données après coup, tandis que les données rapides sont mieux adaptées pour répondre aux événements au fur et à mesure qu’ils se produisent. En fait, les modèles et les modèles d’IA entraînés que l’analyse des mégadonnées est capable de découvrir peuvent être exécutés par des modèles de données rapides afin qu’ils soient utilisés de manière pertinente sur le plan opérationnel.

En combinant ces deux approches, les organisations sont mieux équipées pour faire évoluer leurs applications et leurs processus aux conditions de marché en constante évolution, à la fois au fur et à mesure que les situations se déroulent et après coup.

Profitez de l’informatique distribuée

En migrant les opérations commerciales de l’exécution uniquement dans un centre de données ou dans le cloud à l’analyse, au filtrage et à l’action sur les données à la périphérie, beaucoup plus de valeur/d’informations peuvent être extraites des données de streaming brutes. Malheureusement, c’est beaucoup plus facile à dire qu’à faire avec de nombreuses organisations qui ont du mal à gérer leurs opérations à la périphérie.

Mais il existe un moyen plus simple, comme l’explique le vétéran de l’industrie technologique et CTO de Vantiq, Paul Butterworth, dans le livre blanc Distribution et fédération dans les applications commerciales événementielles en temps réel. Rejoignez Paul pour discuter du besoin croissant d’informatique de périphérie, de ce qu’est un modèle distribué et de la manière de gérer l’exécution de vos opérations en périphérie.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.