Technologies

La consolidation des serveurs a vampirisé la virtualisation du stockage

La consolidation des serveurs a vampirisé la virtualisation du stockage

Le stockage a certainement été le premier domaine à industrialiser la virtualisation, après les les développeurs. Pourtant, virtualisation semble vouloir désormais rimer avec serveur, avant d'envahir le poste de travail. Ce passage au second plan signifie-t-il que la technologie n'est plus d'actualité dans le stockage ?

Publicité« La virtualisation du stockage faisait partie d'autres grands sujets qui étaient présents avant que le serveur ne vampirise la technologie. Les acteurs du marché se retrouvent dans l'obligation de réintroduire la virtualisation et ses avantages, accompagnés par l'arrivée de start-ups et de nouveaux domaines », constate Philippe Nicolas, Président et fondateur de SNIA France, au 'board' des directeurs de SNIAn (Storage Networking Industry Association) EMEA. Qu'elles ont les évolutions du stockage constatées aujourd'hui ? « Après le SAN, on s'est orienté vers les blocs en suivant les attentes des utilisateurs, mais cette approche a été peu implémentée. L'autre tendance porte sur le stockage orienté fichiers. De même, on constate des besoins verticaux, qui cependant ont tous des contraintes particulières en matière d'applications, de performances, ou encore de disponibilité. Tout cela nous impose de rendre nos technologies ouvertes, en particulier vers les solutions les plus propriétaires. » « La nouveauté, c'est le SAN FS, généralement basé sur Linux, mais qui supporte également Unix, Windows ou Mac, avec cependant des problèmes de royalties. Les systèmes de fichiers clusterisés sont destinés aux applications dites parallèles, comme les moteurs de bases de données à plusieurs instances. L'accueil est favorable, tant du marché que de ses acteurs. » La virtualisation du stockage procède cependant de la même démarche que la consolidation des serveurs. Une solution n'est-elle pas également basée sur des serveurs qui embarquent des environnements hétérogènes et de plus en plus de données non structurées? « En effet, l'agrégation NAS et serveurs de fichiers est également poussée par la multiplication des fichiers non structurés sur des serveurs de fichiers via la standardisation des protocoles qui permet d'utiliser le serveur pour plein d'autres choses, comme l'hébergement de données, la sauvegarde, l'archivage. » La tendance est donc vers de nouvelles configurations de serveurs de fichiers, accessibles via un protocole standard et une couche de virtualisation. Et les données sont stockées sur un serveur standard. Et un phénomène de concentration autour des grands acteurs, comme le constate Philippe Nicolas : « Avec quatre acteurs sur cinq des serveurs de fichiers qui ont été rachetés, la philosophie inband/outband va se développer. » Autre tendance aujourd'hui constatée, le collaboratif qui s'appuie sur un protocole partagé. Philippe Nicolas évoque ainsi "l'intelligence de la virtualisation" qui s'impose par des applications nouvelles, comme la déduplication, l'indexation des contenus par des moteurs ou plus de chiffrement. Pourtant, « Le lien IT et business n'est pas là, il a échoué par l'intermédire de l'ILM. C'est pourquoi on attend beaucoup de la nouvelle génération des outils collaboratifs. » Reste que deux des principaux domaines évoqués par les DSI que nous avons rencontré sont la sécurité et la gouvernance, qu'il s'agisse de mettre en place des stratégies protection, duplication et sauvegarde des données, ou encore des PRA (plan de reprise d'activité). « La sécurité ? C'est un mot qui regroupe tellement de choses ! Qui accède à quoi ? Qui a la permission ? Qui fait une opération ? La garantie vient des fonctions de vérification et de la copie à distance, de la persistance de l'information, du contrôle et de l'accès. De plus en plus de serveurs sont redondants, et c'est avec le 'tout en un' que nous sommes gagnants. » « La gouvernance ? Avec l'EXAM (Extended Access Method), les contraintes sont sur la donnée archivée, avec un accès universel mais intégré aux solutions propriétaires. Quelqu'un qui génère des données sur une base pourra l'afficher sur une autre base. » Cette technologie pourrait bien aboutir à la démocratisation du stockage virtuel par un chemin qui semble cependant plus complexe, la métadonnée. « Un autre élément important c'est l'autodesciption des données pour enrichir les métadatas de données. il s'agit de ne pas toucher à la donnée, à la base de l'indexation du contenu, mais de l'envelopper d'une couche universelle. » Cette technologie est planifiée pour la fin 2008 ou le début 2009. Mais les projets qui émergeront dans la foulée seront complexes est nécessiteront une certification... pas avant 2010 ! « D'ici là nous devrions certainement assister à son implémentation dans le matériel », nous confie Philippe Nicolas.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis

    La question du moment
    Utilisez-vous le cloud public (IaaS ou PaaS) pour héberger des applications métiers en production ?