La haute performance n’est plus une option !
Les internautes sont de plus en plus sensibles au temps d’affichage des pages web. Les propriétaires de sites web réclament donc des infrastructures performantes et une gestion sans faille des pics de charge. Pour y répondre, les hébergeurs misent sur la standardisation des CMS, le Cloud et une collaboration étroite avec les développeurs web.
«Les internautes ne sont plus du tout patients. Si votre site est trop lent, ils partent et ne reviennent que rarement. » Voilà le résumé de la situation donné par Sébastien Baert, directeur associé de Runiso. Un avis partagé pour tous les autres principaux hébergeurs français que nous avons interrogés. Une récente étude américaine illustre cette tendance en chiffres. Une seconde de plus pour afficher la page d’accueil d’Amazon revient à faire chuter son chiffre d’affaires annuel de 1,6 milliard de dollars. Autre chiffre, toujours concernant Amazon, une latence de +100 ms implique une perte de plus de 1 % des ventes. Chez Yahoo, 400 ms de trop lui font perdre 7 à 9 % du trafic. En moyenne, un acheteur en ligne s’attend à ce que les pages web se chargent en deux secondes maximum. Au-delà de trois secondes, jusqu’à 40 % des cyberconsommateurs quittent le site. Ce chiffre grimpe à 74 % lorsque le temps d’attente dépasse cinq secondes. « Une fois ces visiteurs partis, il est très difficile de les faire revenir : 88 % des consommateurs en ligne sont moins susceptibles de consulter à nouveau un site sur lequel ils n’ont pas eu une bonne expérience » , conclut l’étude. Un site trop lent est donc fortement sanctionné par les internautes. Mais il l’est également par Google qui dégrade son référencement dans son moteur de recherche. Le géant du Web intègre ainsi des critères de vitesse de chargement dans son référencement de pages web. Il a même divisé le Web en deux catégories : les sites rapides, qui chargent en moins de 1,5 seconde, et les sites lents, qui dépassent la seconde et demie. Face à cette situation, les propriétaires de sites web exigent de plus en plus de leur hébergeur d’être capables de proposer un haut niveau de performance. Pour répondre à cette demande, les hébergeurs déploient différents outils d’optimisation au niveau de leur architecture dont la très classique mise en cache des contenus statiques (images, scripts javascript, feuilles de styles). Mais la tendance est surtout de « rapprocher » l’internaute du serveur web afin de réduire le temps de latence entre le site et l’infrastructure. Le principe est d’augmenter le maillage réseau afin que l’internaute se connecte à un serveur géographiquement assez proche. En 2012, OVH a ainsi renforcé son infrastructure internationale dans 21 villes, notamment Hong-Kong, Singapour, Tokyo, San Jose, Los Angeles ou Dallas. Il n’y a pas déployé des datacenters complets, mais simplement des serveurs hébergés chez des partenaires locaux, qui accélèrent le trafic à l’international. En 2012, OVH a également installé un centre de donnée complet à proximité de Montréal au Québec. « Ce maillage international de notre infrastructure permet d’améliorer les performances des sites partout dans le monde » , explique Octave Klaba.
Spécialisation autour des principaux CMS
Si elle peut encore légèrement progresser, l’optimisation de l’infrastructure commence à atteindre ses limites, expliquent bon nombre d’hébergeurs. En revanche, il reste une belle marge de progression dans l’optimisation du software. Si le codage du site web n’est pas réellement du ressort de l’hébergeur, il peut en revanche apporter des conseils au niveau du système de gestion de contenu ou CMS (Content Management System), qui est à la base du site web. Et dans ce domaine, la grande tendance est d’opter pour des plates-formes « ouvertes » telles que Prestashop, Majento, Drupal ou encore Joomla. Elles permettent de créer un site à partir de briques existantes. Comme ces briques sont connues, l’hébergeur peut optimiser une partie de son infrastructure pour tel ou tel CMS. Cela est bien entendu plus simple que d’optimiser des serveurs spécifiquement pour chaque site web. Depuis plusieurs mois, OVH travaille ainsi avec les équipes de Prestashop pour proposer une offre packagée et optimisée pour ce CMS, attendue pour ce mois d’avril. Depuis la fin 2012, Nuxit propose des serveurs optimisés Majento. De son côté, Ikoula a obtenu la certification Prestashop en septembre 2012. « Pour un hébergeur, cette certification est un vrai argument commercial. Depuis notre certification, plus de deux cents clients ont optés pour ce type d’hébergement spécialisé Prestashop » , explique Réda Belouizdad, son directeur marketing. Un avis partagé par Éric Sansonny d’Aruba IT pour qui : « Prestashop est aujourd’hui l’acteur le plus dynamique sur ce marché. » Enfin, Claranet, qui s’est notamment spécialisé autour de Drupal, souligne que la plupart des clients ayant le choix d’un CMS propriétaire sont tous en train d’évoluer vers ces plates-formes ouvertes. « Cette standardisation des CMS représente l’une des grandes tendances actuelles de l’optimisation des performances » , assure Olivier Beaudet, son PDG.
Une collaboration incontournable avec les développeurs web
De plus en plus d’hébergeurs emploient aujourd’hui des ingénieurs web capables de travailler avec les équipes des SSII et autres web agency qui développent les sites. Cette étroite collaboration est de plus en plus rependue, expliquent les hébergeurs : « Il faut établir un partenariat fort avec les développeurs du site et organiser régulièrement de comités de pilotage » , indique ainsi Sébastien Barte, chez Runiso. Même son de cloches chez Nuxit. « Lorsque l’on travaille sur un site évolué, notamment un site e-commerce, il y a une relation indispensable entre l’hébergeur, le client et l’équipe qui a développé le site. On ne peut travailler l’un sans l’autre » , indique son dirigeant Mathieu Chouteau. Côté SSII, on confirme cette nécessaire collaboration. « Le travail avec l’hébergeur est désormais primordial » , indique Nicolas Grué de GFI Informatique. Surtout que dans la majorité des cas, c’est l’hébergeur qui est appelé en premier en cas de panne ou de ralentissement. « Comme nous sommes en bout de chaîne, nous sommes appelés en premier. Cela fait désormais partie de notre métier de pouvoir identifier la cause d’un ralentissement, même au niveau du CMS » , indique Christophe Le Jeune, chez Claranet.
Une nouvelle solution aux pics de charges
Les pics de charge sont l’une des principales raisons de ralentissement d’un site web. Les hébergeurs sont cependant à même d’adapter de mieux en mieux les ressources pour éviter qu’un site ne ralentisse sous le poids des requêtes. Tous les hébergeurs expliquent que le plus important dans ce domaine est d’anticiper ses pics avec leur client. « Nous avons mis en place de nombreuses techniques de tests de charge qui simulent le comportement de l’internaute afin de savoir quelle capacité nécessitera le site dans telle ou telle situation » , explique ainsi Sébastien Barte, chez Runiso. « C’est ce que nous faisons pour le site du Sidaction, qui est une opération ponctuelle nécessitant un très large renfort de ressources. » Côté infrastructure, la problématique des pics de charge trouvent désormais une nouvelle réponse : le Cloud Computing. « L’hébergement web est un très bon candidat pour le Cloud Computing, car cette technologie offre une grande élasticité des ressources et une consommation à la demande » , explique Raphaël Tordjma, manager chez Solucom, cabinet de conseil en management et système d’information. En proposant une infrastructure modulable selon les besoins, le Cloud paraît totalement adapté à un site dont l’audience est variable. Boris Lecoeur, business manager chez Amazon Web Services, donne ainsi l’exemple de son client Lamborghini. « Ce constructeur automobile a lancé en 2012 un nouveau modèle, Aventador. Il était assez difficile d’anticiper quelle audience allait avoir ce lancement sur son site web. Notre client a donc opté pour une offre cloud facturée à la demande et dont les ressources étaient très extensibles. Finalement nous avons supporté un pic de trafic de 250 % supérieur à la normale » , explique le responsable. Chez 1&1, on confirme l’intérêt grandissant des clients pour les offres cloud. « Ces solutions à la demande prennent tout leur sens auprès des PME dont les besoins peuvent varier selon les pics d’activité qu’elles enregistrent tout au long de l’année » , souligne Cécile Esch, PR Manager France. Mais l’hébergeur allemand note encore un déficit de popularité de l’informatique dans les nuages auprès des PME. « Le développement de ce type de solutions reste tributaire de notre capacité à sensibiliser les chefs d’entreprise des PME françaises qui, à l’heure actuelle, ont encore trop peu de connaissance concernant le Cloud computing. » Un manque de connaissances confirmé par François Barreau, chef de produit Computing chez Orange Business Services. « Les PME/TPE utilisent encore peu de services cloud car elles manifestent de grandes réticences à changer le type d’hébergement de leur site. Elles préfèrent le plus souvent prolonger leur solution existante. Un deuxième frein reste les faibles enjeux perçus par eux en termes de flexibilité du dimensionnement de leur hébergement. Les clients à potentiel pour le Cloud sont donc ceux qui mesurent une forte croissance de leur activité sur le Web, avec des projets d’évolution régulier de leur site » , conclut le responsable.
Le Cloud ne séduit pas tout le monde
Les gros acteurs de l’e-commerce ne sont pas encore tous passés du côté de l’informatique dans les nuages. C’est le cas par exemple de voyage-SNCF.com, numéro un français de l’ecommerce, qui table plutôt sur la bonne vieille solution de surdimensionner l’infrastructure d’hébergement pour supporter les éventuels pics de charge. L’agence de voyage en ligne a ainsi opté pour des ressources quatre fois supérieures à la charge quotidienne normale d’environ 500 000 internautes. Cela lui permet par exemple de supporter le pic du mois d’octobre lorsque les billets de train pour les congés de Noël sont mis en vente. Le site reçoit alors 1,5 million de visiteurs par jour et Voyages-sncf.com vend jusqu’à vingt billets par seconde. « Nous utilisons 48 serveurs stockés pour moitié dans les locaux de la SNCF et pour l’autre moitié chez d’IBM qui est notre partenaire depuis maintenant deux ans » , précise Philippe Martin, directeur technique chez Voyages-sncf.com. Ce principe de l’infrastructure surdimensionnée a également été retenu par Meetic. « Notre infrastructure est prévue pour supporter deux fois plus que la charge nominale, avec par exemple des pics de 100 000 connexions simultanées le soir » , explique Olivier Siegwart, CIO/directeur des systèmes d’information de Meetic Group. Le spécialiste des sites de rencontres mise sur une infrastructure gérée par Colt qui comprend 600 serveurs dont 400 physiques et 200 virtuels.