Serveur : embellie ou embolie ?
Sur les trois premiers trimestres 2013, selon les chiffres de cabinets d’analystes très réputés, le marché des serveurs était en berne. Si certains constructeurs font la grimace, d’autres néanmoins sont plutôt confiants. Différents éléments permettent d’expliquer cette situation : nouveaux usages et nouveaux besoins dans les centres de données, nouvelles architectures et, plus que tout, des budgets qui restent à la traîne.
Si les chiffres du dernier trimestre 2013 ne sont pas encore connus, ceux des trois premiers trimestres de l’année dernière n’ont rien d’encourageants. Le marché semble s’installer durablement dans une tendance de baisse à la fois en revenus et en volumes. C’est principalement sur les prix que s’exercent la pression. Elle est la conséquence d’une standardisation autour des serveurs x86 de commodités. Plus besoin d’avoir des serveurs puissants sous Unix ou d’autres systèmes propriétaires pour avoir à la fois puissance et fiabilité. Un ensemble de serveurs d’entrée de gamme sous x86 permettent d’avoir les mêmes performances ou fonctionnalités. Ce sont donc principalement les serveurs sous Unix ou les serveurs haut de gamme qui souffrent. Pendant longtemps, l’idée était que les utilisateurs allaient avoir besoin de serveurs plus puissants pour supporter un nombre croissant de machines virtuelles pour consolider leur infrastructure dans les centres de données, mais ce calcul s’est révélé faux ! Une pléiade de serveurs de base ont rempli cet office et on a pu se passer de machines haut de gamme. Cela n’a pas fait cependant le bonheur de certains acteurs, comme Quanta ou Supermicro, qui fournissent des marchés de très hauts volumes et de faibles marges comme les hébergeurs ou les fournisseurs de solutions sous formes d’appliances. Ces derniers conçoivent et font exécuter la fabrication de ces machines sur des séries longues au prix le plus bas pour assurer leurs marges. En conséquence, les leaders du marché IBM et HP connaissent des résultats décevants dans le secteur, même si HP semble relever la tête en misant sur de nouvelles architectures et de nouveaux modèles, ainsi le « moonshot », pour répondre à des besoins spécifiques de leurs clients.
De nouvelles architectures
Ce serveur d’HP est un exemple de l’évolution des serveurs pour répondre aux nouvelles charges de travail avec des solutions modulaires sous formes de cartouches dédiées à certains usages, des accélérateurs GPU pour traiter le graphisme, de la mémoire pour traiter plus rapidement les données suivant les usages. Certains constructeurs réfléchissent même à l’idée de « désintégrer » le serveur en déportant le traitement des entrées/sorties vers des composants autres que le serveur.
L’idée est toujours de fournir la puissance de calcul nécessaire mais de réaliser une optimisation opérationnelle des serveurs en utilisant des composants dédiés pour permettre une exploitation moins onéreuse en termes de consommation électrique ou de climatisation, tout en réduisant l’espace utilisé dans les centres de données. D’où la réflexion autour des serveurs ARM. Tous les constructeurs en ont dans leurs cartons mais l’adaptation du code en 64 bits se fait attendre.
La convergence comme tendance générale
Pour les usages classiques, la tendance est paradoxalement inverse avec des composants standards sous x86 mais regroupant dans un même châssis, les possibilités de calcul, de stockage et de commutation. La convergence est là pour répondre aux demandes des clients afin de mettre en place des infrastructures de type cloud, et principalement privé. Cette tendance vise surtout le segment intermédiaire du marché, plus sensible à des offres déjà packagées car ayant moins de ressources pour gérer les différents aspects pris en charge par ce type de serveurs. Dans les entreprises plus grandes, l’intégration de ces serveurs regroupant de multiples fonctions peut poser un problème organisationnel et demande soit plus de dialogue entre les différents responsables des éléments présents dans les serveurs ou une globalisation du suivi et de la gestion de ces machines avec des administrateurs à la fois compétents sur les systèmes mais aussi sur le stockage ou le réseau interne de l’entreprise. Une pile logicielle d’administration qui grossit. Cette question organisationnelle a pour conséquence de faire monter en puissance les suites de monitoring liées aux serveurs qui deviennent un véritable différenciateur, si ce n’est un élément de critères de choix pour les clients. Devant la multiplicité des tâches à accomplir pour l’administrateur, les suites de supervision doivent à la fois jouer sur la simplicité de l’interface, l’automatisation des tâches à réaliser avec une grande finesse de remontée d’informations pour les tableaux de bords et autoriser un reporting ou des analyses efficaces pour un maintien optimal en condition opérationnelle des matériels. Au bilan, pour la première fois les inquiétudes ne se situent pas sur les questions de performances des serveurs, mais bien sur les possibilités apportées d’exploitation à faible coût (consommation, rapport prix/performances…) et l’augmentation de la densité pour faire face à de nouvelles charges.