mercredi 2 décembre 2009

Cloud computing : la virtualisation à l'échelle planétaire

La virtualisation n'est pas nouvelle dans le monde informatique. Machines, processeurs, stockage, applications... Autant de domaines d'applications variés où ces techniques ont été mises en œuvre dès le début de l'histoire de l'informatique, à une époque où les ressources étaient rares et leur allocation dispensée avec parcimonie. Mais si, aujourd'hui pour des raisons différentes, on virtualise encore et que les techniques ont évolué, le principe reste identique : on introduit une couche logicielle dans le système, qui « voit de plus haut » les ressources de façon à les utiliser avec plus d'efficience. En ce qui concerne la virtualisation des systèmes d'exploitation, un nouveau concept émerge : celui d'hyperviseur. Ce dernier pourrait se substituer aux systèmes d'exploitation « classiques », en interfaçant le hardware (processeur, CPU) et les systèmes d'exploitation, voire directement des applicatifs. Dans la première catégorie, on trouve les offres VMWare ou Xen ; dans la seconde, LiquidVM (BEA).
Plus généralement, si l'essor de la virtualisation semble s'accélérer dans les entreprises, c'est parce que jusqu'à présent, le concept était surtout appliqué sur les machines de développement et de test, plus rarement sur les serveurs de production. Si le marché a gagné en maturité, la pression reste cependant forte sur les besoins de consolidation et de rentabilisation, et se posent de plus en plus crûment des questions liées à la facture énergétique ou à des préoccupations d'ordre écologique. Profitant de ce contexte, le marché envoie un signal puissant aux clients, avec des mots-clés qui marquent : simplicité, fiabilité, économie...
Bien entendu, la complexité accrue des systèmes accélère le besoin de virtualisation. Elle augmente également le poids des conséquences d'une panne qu'on ne peut jamais écarter. Autre point rarement évoqué : le surcoût « machine » nécessaire au bon fonctionnement de la virtualisation (overhead) un surcoût non négligeable.
C'est dans ce contexte qu'on évoque aujourd'hui une virtualisation à l'échelle de la planète : le « cloud computing ». Ce dernier (qu'on assimile parfois abusivement à l'utility computing) reprend l'image habituellement utilisée du nuage (cloud) pour représenter l'Internet. Ensemble indéterminé de machines reliées entre elles et accessibles par l'Internet, le cloud computing s'appuie techniquement sur le Grid computing. Celui-ci permet d'automatiser nombre de tâches de gestion de clustering, de faire exécuter une application sur des machines différentes (type d'architectures CPU, cycles etc.), ou de « découper » une application en plusieurs sous-ensembles traités par le « nuage ». Google, l'un des promoteurs importants de ce concept, est suivi par d'autres acteurs majeurs des TIC, IBM, Microsoft ou Amazon... Tous pratiquent déjà le cloud computing pour leur propre compte.

Aucun commentaire:

Enregistrer un commentaire