L'Informaticien

EN ROUTE VERS LE TOUT VIRTUALISÉ route vers le tout virtuAlisé

La virtualisa­tion des serveurs, du stockage et des réseaux, augmentée d’une couche d’automatisa­tion doit permettre aux entreprise­s d’être aussi réactives que les start-up.

- YANN SERRA

Après une année 2015 finalement plus expériment­ale que prévue, les technologi­es Software Defined devraient être à l’honneur dans les entreprise­s en 2016. L’appellatio­n Software Defined regroupe tout l’outillage logiciel qui consiste à virtualise­r des ressources matérielle­s, qu’il s’agisse des serveurs, du stockage ou du réseau. L’enjeu technique est double. Il y a d’abord la perspectiv­e d’acheter en interne des machines génériques pour constituer un réservoir de ressources, lequel sera disponible à la découpe à chaque fois que les métiers auront un nouveau projet à lancer. Il y a ensuite la promesse qu’une applicatio­n finale soit si indépendan­te des spécificit­és de l’infrastruc­ture sous-jacente qu’on puisse tantôt la tester sur le datacenter interne, tantôt la mettre en production dans un Cloud externe – ou l’inverse – et, ce, sans effectuer aucune modificati­on, sans perdre le temps de s’adapter aux choix techniques de part et d’autre. Pour les entreprise­s, il s’agit de parvenir en 2016 à mettre le plus rapidement possible de nouvelles applicatio­ns en production, pour rester compétitiv­es face à des startup extrêmemen­t réactives.

des mAchines virtuelles trAnsportA­bles

En ce qui concerne la puissance de calcul, ou Software Defined Datacenter (SDDC) les entreprise­s vont devoir tester en 2016 deux choses : l’opportunit­é de remplacer les machines virtuelles par des containers, d’une part, et un environnem­ent d’automatisa­tion dit « DevOps », d’autre part, qui ajoute de l’automatisa­tion aux suites de virtualisa­tion habituelle­s (vSphere de VMware, Hyper-V de Microsoft, KVM, etc.). Conçus comme des machines virtuelles allégées, sans système d’exploitati­on propre mais faisant appel à un OS père sur une VM externe, ce qui permet d’en exécuter entre 10 et 100 fois plus sur un même cluster de serveurs x86, les containers sont en train de se standardis­er autour du nouveau format OCF, censé agir comme une couche d’abstractio­n vis-à-vis de l’infrastruc­ture sous-jacente. Avec un container OCF, il deviendrai­t ainsi possible d’exécuter une applicatio­n Windows dans un Cloud où les machines virtuelles fonctionne­nt sous Linux, et vice-versa. L’abstractio­n entre des applicatio­ns Windows et un OS Linux, ou l’inverse, sera assurée par la récente mise en Open Source des rouages de .NET par Microsoft. Des solutions commercial­es de containers OCF devraient sortir dès le premier trimestre 2016, notamment chez Red Hat, et elles fonctionne­ront soit par-dessus des solutions de virtualisa­tion classiques, soit directemen­t sur des serveurs physiques. En ce qui concerne les environnem­ents DevOps, en revanche, trop d’options coexistent pour qu’il s’en dégage à coup sûr une seule en 2016. Les solutions d’automatisa­tion historique­s de VMware, Microsoft, HP et IBM nécessiten­t encore d’être manipulées par les équipes de l’IT. OpenStack tarde à murir (lire L’Informatic­ien n°141). Pivotal, Red Hat ou encore CA lancent des portails clés en main, qui permettent véritablem­ent aux développeu­rs d’appuyer sur un bouton pour mettre leurs applicatio­ns en production avec toutes les ressources nécessaire­s, mais ces solutions doivent encore faire leurs preuves.

l'essor du stockAge objet

Dans le domaine du stockage, ou Software Defined Storage (SDS), deux tendances se dégagent. D’abord, c’est un succès, le principe de simuler une baie de stockage à partir des disques durs présents dans des serveurs x86 s’est popularisé (voir l’article dédié aux infrastruc­tures hyperconve­rgées de ce même dossier), au point que des baies de stockage dites SDS, deux fois moins chères que des baies SAN convention­nelles, devraient déferler sur le marché dès les premières semaines de 2016. Ce sera très économique à l’achat pour constituer un réservoir de stockage interne, mais cela ne résoudra en rien la problémati­que de portabilit­é des applicatio­ns du datacenter interne à un Cloud externe. D’autant que, en l’état, les baies SDS ne savent pas synchronis­er leur contenu entre deux sites distants. L’autre pan du SDS est le stockage objet. C’est la technologi­e que les entreprise­s vont devoir adopter sur leurs baies de stockage pour

permettre à leurs applicatio­ns d’aller chercher leurs données via l’URL d’un domaine, une méthode qui résume la domiciliat­ion en interne ou en externe à une simple reconfigur­ation de DNS. Problème n°1, encore faut-il que les baies de stockage acceptent le mode objet. Les rares qui le font, comme les HP 3PAR, ne fonctionne­nt pas en cluster, ce qui limite la quantité de données possibles à la capacité d’une seule baie. Il faut donc passer par un logiciel externe, capable de chapeauter plusieurs baies en mode objet. À date, ViPR d’EMC semble bien plus opérationn­el qu’OpenStack, mais bien plus lié aux tarifs et au devenir d’un seul fournisseu­r aussi. Problème n°2, il existe plusieurs protocoles objet. La communauté OpenStack voudrait que son module Swift fasse office de standard, aussi bien sur les baies internes (ViPR est compatible, ouf !) que chez les hébergeurs de Cloud. Mais ni Amazon S3, ni Windows Azure ne le supportent. Ne pas passer par du SDS de type objet imposerait aux entreprise­s de fixer les données de leurs applicatio­ns sur un site unique, accessible en période de test comme de production, ce qui reste une possibilit­é.

Les compétence­s en pLace guident Le choix du sdn

Dans le domaine du Software Defined Network (SDN), deux modèles de fonctionne­ment continuero­nt de batailler en 2016. Dans tous les cas, le but consiste à maintenir des sous-réseaux de machines virtuelles réparties sur plusieurs serveurs physiques, soit pour des questions d’équilibrag­e des charges en interne, soit parce que les applicatio­ns hébergées dans les VM sont opérationn­elles sur plusieurs sites. Chez VMware, le SDN porté par le logiciel NSX consiste à accoler une table de routage sur chaque hyperviseu­r. L’intérêt est que l’équipe en charge des serveurs peut administre­r des groupes de VM entiers avec des règles d’accès – qui voit qui – définies pour les applicatio­ns. L’inconvénie­nt est que cela ne fonctionne que sur les sites où NSX est déployé. Chez les fabricants d’équipement réseau, on préfère intégrer cette fonction dans les routeurs et les commutateu­rs au travers du protocole standard VXLAN. Par rapport à NSX, VXLAN apporte en plus la qualité de service et permet de dépasser la limite standard de 4 000 VLAN. En revanche, une équipe d’administra­teurs réseau redevient obligatoir­e. Et chaque constructe­ur a sa manière bien à lui d’indiquer à VXLAN comment reconnaîtr­e les machines virtuelles. Chez Cisco, par exemple, le SDN ACI a la possibilit­é de lire les attributs des VM en interrogea­nt vSphere et sa dernière version présente l’avantage exclusif de savoir reconnaîtr­e des containers au format Docker, l’ancêtre d’OCF. Dans les entreprise­s, le choix d’un SDN particulie­r ne semble pas se faire sur des aspects techniques mais humain : la solution adoptée in fine est celle que les équipes en place sont le plus susceptibl­es de savoir administre­r.

 ??  ??

Newspapers in French

Newspapers from France