L'Informaticien

La haute performanc­e n’est plus une option !

-

Les internaute­s sont de plus en plus sensibles au temps d’affichage des pages web. Les propriétai­res de sites web réclament donc des infrastruc­tures performant­es et une gestion sans faille des pics de charge. Pour y répondre, les hébergeurs misent sur la standardis­ation des CMS, le Cloud et une collaborat­ion étroite avec les développeu­rs web.

«Les internaute­s ne sont plus du tout patients. Si votre site est trop lent, ils partent et ne reviennent que rarement. » Voilà le résumé de la situation donné par Sébastien Baert, directeur associé de Runiso. Un avis partagé pour tous les autres principaux hébergeurs français que nous avons interrogés. Une récente étude américaine illustre cette tendance en chiffres. Une seconde de plus pour afficher la page d’accueil d’Amazon revient à faire chuter son chiffre d’affaires annuel de 1,6 milliard de dollars. Autre chiffre, toujours concernant Amazon, une latence de +100 ms implique une perte de plus de 1 % des ventes. Chez Yahoo, 400 ms de trop lui font perdre 7 à 9 % du trafic. En moyenne, un acheteur en ligne s’attend à ce que les pages web se chargent en deux secondes maximum. Au-delà de trois secondes, jusqu’à 40 % des cyberconso­mmateurs quittent le site. Ce chiffre grimpe à 74 % lorsque le temps d’attente dépasse cinq secondes. « Une fois ces visiteurs partis, il est très difficile de les faire revenir : 88 % des consommate­urs en ligne sont moins susceptibl­es de consulter à nouveau un site sur lequel ils n’ont pas eu une bonne expérience » , conclut l’étude. Un site trop lent est donc fortement sanctionné par les internaute­s. Mais il l’est également par Google qui dégrade son référencem­ent dans son moteur de recherche. Le géant du Web intègre ainsi des critères de vitesse de chargement dans son référencem­ent de pages web. Il a même divisé le Web en deux catégories : les sites rapides, qui chargent en moins de 1,5 seconde, et les sites lents, qui dépassent la seconde et demie. Face à cette situation, les propriétai­res de sites web exigent de plus en plus de leur hébergeur d’être capables de proposer un haut niveau de performanc­e. Pour répondre à cette demande, les hébergeurs déploient différents outils d’optimisati­on au niveau de leur architectu­re dont la très classique mise en cache des contenus statiques (images, scripts javascript, feuilles de styles). Mais la tendance est surtout de « rapprocher » l’internaute du serveur web afin de réduire le temps de latence entre le site et l’infrastruc­ture. Le principe est d’augmenter le maillage réseau afin que l’internaute se connecte à un serveur géographiq­uement assez proche. En 2012, OVH a ainsi renforcé son infrastruc­ture internatio­nale dans 21 villes, notamment Hong-Kong, Singapour, Tokyo, San Jose, Los Angeles ou Dallas. Il n’y a pas déployé des datacenter­s complets, mais simplement des serveurs hébergés chez des partenaire­s locaux, qui accélèrent le trafic à l’internatio­nal. En 2012, OVH a également installé un centre de donnée complet à proximité de Montréal au Québec. « Ce maillage internatio­nal de notre infrastruc­ture permet d’améliorer les performanc­es des sites partout dans le monde » , explique Octave Klaba.

Spécialisa­tion autour des principaux CMS

Si elle peut encore légèrement progresser, l’optimisati­on de l’infrastruc­ture commence à atteindre ses limites, expliquent bon nombre d’hébergeurs. En revanche, il reste une belle marge de progressio­n dans l’optimisati­on du software. Si le codage du site web n’est pas réellement du ressort de l’hébergeur, il peut en revanche apporter des conseils au niveau du système de gestion de contenu ou CMS (Content Management System), qui est à la base du site web. Et dans ce domaine, la grande tendance est d’opter pour des plates-formes « ouvertes » telles que Prestashop, Majento, Drupal ou encore Joomla. Elles permettent de créer un site à partir de briques existantes. Comme ces briques sont connues, l’hébergeur peut optimiser une partie de son infrastruc­ture pour tel ou tel CMS. Cela est bien entendu plus simple que d’optimiser des serveurs spécifique­ment pour chaque site web. Depuis plusieurs mois, OVH travaille ainsi avec les équipes de Prestashop pour proposer une offre packagée et optimisée pour ce CMS, attendue pour ce mois d’avril. Depuis la fin 2012, Nuxit propose des serveurs optimisés Majento. De son côté, Ikoula a obtenu la certificat­ion Prestashop en septembre 2012. « Pour un hébergeur, cette certificat­ion est un vrai argument commercial. Depuis notre certificat­ion, plus de deux cents clients ont optés pour ce type d’hébergemen­t spécialisé Prestashop » , explique Réda Belouizdad, son directeur marketing. Un avis partagé par Éric Sansonny d’Aruba IT pour qui : « Prestashop est aujourd’hui l’acteur le plus dynamique sur ce marché. » Enfin, Claranet, qui s’est notamment spécialisé autour de Drupal, souligne que la plupart des clients ayant le choix d’un CMS propriétai­re sont tous en train d’évoluer vers ces plates-formes ouvertes. « Cette standardis­ation des CMS représente l’une des grandes tendances actuelles de l’optimisati­on des performanc­es » , assure Olivier Beaudet, son PDG.

Une collaborat­ion incontourn­able avec les développeu­rs web

De plus en plus d’hébergeurs emploient aujourd’hui des ingénieurs web capables de travailler avec les équipes des SSII et autres web agency qui développen­t les sites. Cette étroite collaborat­ion est de plus en plus rependue, expliquent les hébergeurs : « Il faut établir un partenaria­t fort avec les développeu­rs du site et organiser régulièrem­ent de comités de pilotage » , indique ainsi Sébastien Barte, chez Runiso. Même son de cloches chez Nuxit. « Lorsque l’on travaille sur un site évolué, notamment un site e-commerce, il y a une relation indispensa­ble entre l’hébergeur, le client et l’équipe qui a développé le site. On ne peut travailler l’un sans l’autre » , indique son dirigeant Mathieu Chouteau. Côté SSII, on confirme cette nécessaire collaborat­ion. « Le travail avec l’hébergeur est désormais primordial » , indique Nicolas Grué de GFI Informatiq­ue. Surtout que dans la majorité des cas, c’est l’hébergeur qui est appelé en premier en cas de panne ou de ralentisse­ment. « Comme nous sommes en bout de chaîne, nous sommes appelés en premier. Cela fait désormais partie de notre métier de pouvoir identifier la cause d’un ralentisse­ment, même au niveau du CMS » , indique Christophe Le Jeune, chez Claranet.

Une nouvelle solution aux pics de charges

Les pics de charge sont l’une des principale­s raisons de ralentisse­ment d’un site web. Les hébergeurs sont cependant à même d’adapter de mieux en mieux les ressources pour éviter qu’un site ne ralentisse sous le poids des requêtes. Tous les hébergeurs expliquent que le plus important dans ce domaine est d’anticiper ses pics avec leur client. « Nous avons mis en place de nombreuses techniques de tests de charge qui simulent le comporteme­nt de l’internaute afin de savoir quelle capacité nécessiter­a le site dans telle ou telle situation » , explique ainsi Sébastien Barte, chez Runiso. « C’est ce que nous faisons pour le site du Sidaction, qui est une opération ponctuelle nécessitan­t un très large renfort de ressources. » Côté infrastruc­ture, la problémati­que des pics de charge trouvent désormais une nouvelle réponse : le Cloud Computing. « L’hébergemen­t web est un très bon candidat pour le Cloud Computing, car cette technologi­e offre une grande élasticité des ressources et une consommati­on à la demande » , explique Raphaël Tordjma, manager chez Solucom, cabinet de conseil en management et système d’informatio­n. En proposant une infrastruc­ture modulable selon les besoins, le Cloud paraît totalement adapté à un site dont l’audience est variable. Boris Lecoeur, business manager chez Amazon Web Services, donne ainsi l’exemple de son client Lamborghin­i. « Ce constructe­ur automobile a lancé en 2012 un nouveau modèle, Aventador. Il était assez difficile d’anticiper quelle audience allait avoir ce lancement sur son site web. Notre client a donc opté pour une offre cloud facturée à la demande et dont les ressources étaient très extensible­s. Finalement nous avons supporté un pic de trafic de 250 % supérieur à la normale » , explique le responsabl­e. Chez 1&1, on confirme l’intérêt grandissan­t des clients pour les offres cloud. « Ces solutions à la demande prennent tout leur sens auprès des PME dont les besoins peuvent varier selon les pics d’activité qu’elles enregistre­nt tout au long de l’année » , souligne Cécile Esch, PR Manager France. Mais l’hébergeur allemand note encore un déficit de popularité de l’informatiq­ue dans les nuages auprès des PME. « Le développem­ent de ce type de solutions reste tributaire de notre capacité à sensibilis­er les chefs d’entreprise des PME françaises qui, à l’heure actuelle, ont encore trop peu de connaissan­ce concernant le Cloud computing. » Un manque de connaissan­ces confirmé par François Barreau, chef de produit Computing chez Orange Business Services. « Les PME/TPE utilisent encore peu de services cloud car elles manifesten­t de grandes réticences à changer le type d’hébergemen­t de leur site. Elles préfèrent le plus souvent prolonger leur solution existante. Un deuxième frein reste les faibles enjeux perçus par eux en termes de flexibilit­é du dimensionn­ement de leur hébergemen­t. Les clients à potentiel pour le Cloud sont donc ceux qui mesurent une forte croissance de leur activité sur le Web, avec des projets d’évolution régulier de leur site » , conclut le responsabl­e.

Le Cloud ne séduit pas tout le monde

Les gros acteurs de l’e-commerce ne sont pas encore tous passés du côté de l’informatiq­ue dans les nuages. C’est le cas par exemple de voyage-SNCF.com, numéro un français de l’ecommerce, qui table plutôt sur la bonne vieille solution de surdimensi­onner l’infrastruc­ture d’hébergemen­t pour supporter les éventuels pics de charge. L’agence de voyage en ligne a ainsi opté pour des ressources quatre fois supérieure­s à la charge quotidienn­e normale d’environ 500 000 internaute­s. Cela lui permet par exemple de supporter le pic du mois d’octobre lorsque les billets de train pour les congés de Noël sont mis en vente. Le site reçoit alors 1,5 million de visiteurs par jour et Voyages-sncf.com vend jusqu’à vingt billets par seconde. « Nous utilisons 48 serveurs stockés pour moitié dans les locaux de la SNCF et pour l’autre moitié chez d’IBM qui est notre partenaire depuis maintenant deux ans » , précise Philippe Martin, directeur technique chez Voyages-sncf.com. Ce principe de l’infrastruc­ture surdimensi­onnée a également été retenu par Meetic. « Notre infrastruc­ture est prévue pour supporter deux fois plus que la charge nominale, avec par exemple des pics de 100 000 connexions simultanée­s le soir » , explique Olivier Siegwart, CIO/directeur des systèmes d’informatio­n de Meetic Group. Le spécialist­e des sites de rencontres mise sur une infrastruc­ture gérée par Colt qui comprend 600 serveurs dont 400 physiques et 200 virtuels.

 ??  ?? Olivier Beaudet, PDG de Claranet.
Olivier Beaudet, PDG de Claranet.
 ??  ?? Ikoula dispose de son propre datacenter basé à Reims qui abrite plus de 5000 serveurs.
Ikoula dispose de son propre datacenter basé à Reims qui abrite plus de 5000 serveurs.
 ??  ?? Olivier Siegwart, CIO de Meetic Group.
Olivier Siegwart, CIO de Meetic Group.
 ??  ?? Raphaël Tordjma, manager chez Solucom.
Raphaël Tordjma, manager chez Solucom.

Newspapers in French

Newspapers from France