Big Data & Stratégies de stockage

Pendant que le Big Data se formalise dans les sociétés, et que les entreprises accumulent de plus grands volumes de données, de nombreux DSI souhaitent revoir leurs stratégies en matière de technologie et de stockage.

 

 

big-data

 

 

Au cœur des activités liées à l’exploitation des données (la BI, le Big Data, le Datamining …), il existe une nécessité de développer des stratégies de stockage plus rapides et plus agiles. En effet, les environnements évoluent rapidement, et il devient crucial, pour les organisations, de s’adapter.

Au-delà des problèmes de volumétrie, un des points que les DSI ont tendance à négliger depuis plusieurs années, est la capacité à traiter différents types de données.

En plus, des bases de données transactionnelles, il existe une multitude de sources de données, qui augmente de manière exponentielle, grâce aux évolutions technologiques…

Les données sont issues de capteurs, d’objets connectés, de logs, de la journalisation, des réseaux sociaux, de l’audio, des vidéos et bien plus encore. Ces données sont traitées et agrégées sur des milliards d’enregistrements. Il devient alors difficile de manipuler ces informations, afin d’en tirer le véritable patrimoine informationnel.

 

 

Repenser ses stratégies de stockage
 

Pour la gestion optimale des grands volumes de données, il n’est plus à prouver qu’optimiser les systèmes transactionnels, autour de données monolithiques, est inutile…

Le Big Data connaît une forte demande sur le marché, pour des utilisations variées au sein des entreprises. Les DSI s’ouvrent peu à peu vers des solutions innovantes, qui rompent avec les standards de l’IT. Néanmoins, dans ce contexte particulier, il est difficile d’appréhender les impacts de ces infrastructures sur l’efficacité de la production, les gains économiques ou la performance du SI.

 

Pour débuter, le premier point à prendre en compte, est la plateforme de stockage. Elle doit être modulaire et en capacité de traiter de grands volumes de données.

De plus, l’un des besoins récurrent, est de disposer d’une architecture à la fois hybride et flexible, capable de s’interfacer avec le SI, notamment avec les anciennes et les nouvelles bases de données.

Certaines organisations optent pour l’achat de matériels basiques, produits en série, et qui se reposent sur des infrastructures « shared-nothing ». Aujourd’hui, ce type d’infrastructure, idéale pour le Big Data, est devenu accessible à toutes les entreprises. Le stockage y est géré localement dans chaque « cluster », et par chacun des nœuds. C’est une architecture complètement décentralisée, qui garantit l’indépendance de chacun des « clusters ».

Les données sont stockées et dupliquées, dans les différentes grappes de serveurs, assurant ainsi les points de sauvegardes et une optimisation du stockage. Cela permet aussi de conserver une bonne performance dans la gestion de la volumétrie, l’efficacité des traitements et la rapidité d’exécution des processus.

Les solutions, clé en main, sont particulièrement appropriées, lorsque les temps d’implémentation deviennent critiques. En effet, les « Appliances shared-nothing» permettent une utilisation rapide des systèmes, tout en maîtrisant la complexité et les coûts additionnels.

 

En revanche, pour les infrastructures personnalisées, il faudra évaluer avec rigueur le ROI et le TCO des solutions.

 

Concernant la flexibilité, deux conditions sont nécessaires :

  • Le stockage doit être suffisamment « scalable »
  • L’élasticité du SI doit être garantie, notamment pour l’ajout de nœuds, tel que les « DataNode », dans l’univers Hadoop

Ces deux points sont essentiels pour répondre aux besoins de vitesse d’exécution des traitements, d’accès à l’information, de gestion de volumétrie, etc.

 

D’autres technologies peuvent aider à accroître les performances, comme l’utilisation de disques SSD ou la mise en place d’« Appliance In-Memory ».

En outre, il est important de s’assurer, que la technologie sélectionnée soit en mesure de garantir des points de sauvegardes, ainsi qu’un plan de continuité des activités et de reprise après sinistre.

Dans l’optique d’une réduction des coûts, il est possible d’externaliser le stockage et la maintenance des infrastructures, avec l’utilisation d’offres Cloud, de solutions de Virtualisation, etc.

Plusieurs grands nom de l’IT proposent ce types de services, tels que, Windows Azure, Amazon ou encore IBM.

 

 

Définir vos objectifs
 

En conclusion, les meilleures stratégies de stockage Big Data résultent de questions basiques auxquelles il faut avoir préalablement réfléchies.

– Qu’essayons-nous d’accomplir à court, moyen et long termes ?

– Comment intégrer mes stratégies de stockage ?

– Quel est le niveau de flexibilité de mon SI ?

– Comment garantir une performance technique et économique durable ?

 

 

social-strategy

 

Pour chaque organisation, il est important de bien évaluer les besoins et les exigences, avant de démarrer le design des systèmes, de l’architecture et des interfaces.

 

Newsletter

Recevez notre newsletter bi-mensuelle

Commenter