Article mis à jour le 10/10/2017
Quel informaticien n’a jamais entendu parler de virtualisation ? Très peu, tant le concept de virtualisation dans le cloud est ancré dans les pratiques du secteur de l’IT.
Par contre, combien de personnes connaissent réellement la finalité de la virtualisation ? C’est ce que nous allons vous expliquer dans cet article.
Depuis quelques décennies maintenant, l’informatique n’a cessé d’occuper une place de plus en plus prédominante dans l’entreprise avec des utilisateurs ayant toujours besoin de plus d’espace de stockage, de rapidité de traitement de l’information et de services. Qui dit besoin de performance, dit ressources informatiques et plus particulièrement ressources matérielles. La virtualisation n’étant finalement que le procédé d’exploitation et d’optimisation des ressources matérielles venant juste après.
De la sous-exploitation d’un serveur vers sa virtualisation
L’avènement des produits Windows n’a fait qu’amplifier ce phénomène en rendant l’informatique « accessible à tous ». Un phénomène a été constaté au sein de l’entreprise : la multiplication des serveurs et des postes de travail avec ce que cela peut entraîner en termes de maintenance, de problèmes divers, mais également en termes de besoins de ressources électriques et de refroidissement.
Bien que la solution « Achetons un gros serveur pour tout faire ! » puisse sembler séduisante, elle pose cependant un problème de taille : celui des applications. En effet, il est coutume, pour des raisons de sécurité et de compatibilité, de compter à l’unité : une application possède son propre système d’exploitation et son propre serveur physique. De plus, le couple [système d’exploitation – serveur physique] était jusque-là indissociable car le système d’exploitation a nécessairement besoin de « voir » le matériel pour fonctionner.
Bien sûr, tout ceci est quelque peu caricatural car heureusement nous parvenons à faire fonctionner plusieurs applications sur un seul système d’exploitation. Mais pour un serveur bien exploité, combien en existent-ils de sous-exploités ?
Par ailleurs, la multiplication des cœurs dans le processeur et les quantités de mémoires vives ne cessant de croître, la tendance s’oriente vers une sous-utilisation généralisée des serveurs. Il est estimé que l’utilisation moyenne des ressources physiques d’un serveur se fait à hauteur de 15% de ses capacités. Oui, vous avez bien compris, 15%. Ce qui signifie qu’un serveur n’exploite pas 85% de ses capacités informatiques le reste de son temps. C’est là que la virtualisation entre en jeu.
La virtualisation pour les nuls
Pour se représenter le concept, la virtualisation pourrait être assimilé au covoiturage dans l’automobile. En comparant le système d’exploitation à un passager et le serveur à la voiture, il est aisé d’imaginer qu’un monospace avec 4 passagers est bien mieux utilisé que 4 citadines avec son seul conducteur. Il consommera certes un peu plus, mais toujours moins que 4 automobiles. Sans compter que globalement, cela occupera moins de place sur la route. Considérons ici que la virtualisation soit grossièrement la même chose : pouvoir faire fonctionner plusieurs systèmes d’exploitation en même temps sur un seul serveur physique, en faisant « croire » au système d’exploitation qu’il possède son propre matériel : la fameuse machine virtuelle (VM).
Certains pourraient alors demander : « Super, à quoi ça sert ? ». Ce à quoi je répondrais : « Comme pour les voitures : on optimise l’espace, la consommation, la puissance ! En bref : on optimise son utilisation pour ne plus exploiter le serveur à 15% mais plutôt à 85% de ses capacités ! »
Parallèlement aux économies de coûts réalisées sur la consommation des ressources physiques, à l’optimisation du matériel utilisé et à l’un impact écologique mieux maîtrisé, la virtualisation de serveur présente d’autres avantages non négligeables.
- L’administration centralisée permet de gérer des parcs de machines virtuelles pouvant aller jusqu’à plusieurs milliers d’unités. La supervision des serveurs, des salles serveurs ou des datacenters hébergeant le matériel physique (et virtuel) offre une vue plus précise à l’administrateur et lui permet de monitorer en temps réel l’ensemble des infrastructures. La détection d’incidents (troubleshooting) et les réponses apportées peuvent être ainsi faites plus rapidement et plus facilement par l’administrateur.
- La disponibilité d’un service hébergé sur une machine virtuelle, comparativement à un service reposant uniquement sur des ressources physiques, est moins soumis à des risques de pannes ou d’interruption pouvant entraver le fonctionnement d’une application, d’un service web, etc. Si un serveur physique est amené à s’arrêter, le redémarrage de la machine virtuelle sur un autre serveur se fait sans interruption de service et donc en toute transparence pour l’utilisateur final. Il est donc possible d’arrêter dès qu’on le souhaite un serveur physique sans interrompre les machines virtuelles hébergées dessus.
- La répartition de la charge de travail, liée à la consommation des ressources physiques et à la bande passante utilisée pour que les utilisateurs puissent accéder aux applications hébergées, est gérée de façon automatique entre les serveurs physiques.
Dans le domaine de la virtualisation, VMWare a su convaincre par son expertise et occuper un rôle important en fournissant des outils performant (vSphere, vCenter) dédiés à l’installation de machine virtuelle. Bien entendu, plusieurs acteurs connus (Microsoft, Citrix, Oracle) se sont joints à la partie avec des produits plutôt efficaces comme HyperV ou Xen, mais en net retrait du point de vue des fonctionnalités. VMWare a su proposer les bons outils qui nous permettent à nous, administrateurs, de nous sentir plus sereins face à des utilisateurs qui en veulent toujours plus.
Enfin, bien que la virtualisation semble être le paradis de l’administrateur système, il n’en reste pas moins qu’elle présente comme beaucoup de nouvelles technologies, des contraintes. Je pense entre autre à la sur-multiplication des machines virtuelles et à la gestion de plus en plus complexe que cela peut entraîner. C’est pour cela que de nouveaux produits émergent pour pouvoir répondre à la complexité des infrastructures comme la suite vRealize ou pour faciliter la scalabilité (VSAN (Virtual SAN) pour le stockage ou NSX pour le réseau et la sécurité).
Besoin de virtualiser ? Consultez les possibilités du Cloud Cyrès