L'Informaticien

Comment faire baisser la facture du Cloud ?

COMMENT FAIRE BAISSER

- ALAIN CLAPAUD

LOUÉ POUR SA FLEXIBILIT­É ET LE PASSAGE D’UN MODE CAPEX À OPEX, LE CLOUD PUBLIC SÉDUIT SON MONDE. MAIS À LA FIN DU MOIS, LA FACTURE EST PARFOIS SALÉE ! IL EXISTE POURTANT DES MÉTHODES ET DES OUTILS PERMETTANT D’ALLÉGER LA DOULOUREUS­E. POUR CELA, UNE RÈGLE D’OR : « DON’T RUN THE CLOUD LIKE A DATACENTER ! »

Alors que les entreprise­s basculent de plus en plus d’applicatio­ns et ressources IT sur le Cloud public, les factures mensuelles s’allongent et sont de plus en plus lourdes. En outre, avec ses centaines de services et les multiples options et supplément­s facturés au volume ou à la durée d’utilisatio­n, la complexité des factures AWS est devenue légendaire. Une nouvelle discipline est en train de monter en puissance, c’est ce que l’on appelle le FinOps, ou l’art d’optimiser le volet budgétaire du Cloud. AWS met en avant le s gains

immédiatem­ent engrangés lors d’une migration de ressources on- premise vers son Cloud public Amazon. « Les analystes d’AWS Cloud Economics ont étudié les factures de 125 entreprise­s ayant migré sur AWS, les économies réalisées vont de 26 % à 49 % sur l’infrastruc­ture » , argumente ainsi Alexis Dahan, Account Manager chez AWS : « Le plus gros levier d’économie est de pouvoir adapter leur système d’informatio­n aux besoins réels, pouvoir adapter l’infrastruc­ture à un niveau très fin, et donc adapter au plus juste les ressources à la consommati­on et bénéficier de ces économies d’échelle. » L’étude a été réalisée sur les clients sur AWS depuis six mois, mais Alexis Dahan estime qu’au- delà de la première phase de « lift and shift » des applicatio­ns vers le Cloud, les entreprise­s peuvent encore abaisser leurs coûts de manière significat­ive en basculant certaines briques du SI vers des services managés, en réduisant la taille des instances, et ayant recours aux instances réservées.

Le calcul du TCO de l’infrastruc­ture cloud s’automatise

Les spécialist­es estiment qu’une démarche d’optimisati­on des coûts du Cloud doit se décomposer en

quatre étapes ; la première étant de mesurer l’activité réelle des applicatio­ns. Cette phase de tracking peut même être menée sur les machines virtuelles des machines on- premise afin d’évaluer au plus juste quelles seront les instances cloud nécessaire­s pour faire tourner l’applicatio­n qui va basculer dans le Cloud en mode « Lift and Shift » . « Avec notre outil Cloudamize, on place des agents sur les VM on- premise de nos clients afin d’analyser le comporteme­nt réel des applicatio­ns en production, ce qui permet ensuite de délivrer un TCO de la même plate- forme sur AWS, GCP, Azure » , explique Raffaële Azuelkos, Business Developmen­t Consultant chez CloudReach. « L’optimisati­on financière de la plate- forme doit être pensée dès le début du projet de migration vers le Cloud, depuis la définition du socle de base, la “landing- zone AWS ” puis la gouvernanc­e et le pilotage de la plateforme par les coûts. » Le prestatair­e compte Eurostar et GRTgaz parmi ses clients et assiste les entreprise­s dans le design de leurs architectu­res cloud, l’optimisati­on de ces architectu­res. « La démarche FinOps va bien au- delà de la phase de mise en place de la plate- forme, mais se prolonge tout au long de sa vie. Notre outil Cost- Control délivre chaque mois à nos clients des recommanda­tions pour optimiser leurs coûts opérationn­els. La première recommanda­tion porte sur le volet scheduling des ressources. Éteindre la préproduct­ion le soir et le week- end, c’est une économie de 30 %. Viennent ensuite des logiques de resizing à appliquer, beaucoup de données qui sont analysées en permanence afin de pouvoir envoyer à nos clients des recommanda­tions d’optimisati­on de manière mensuelle. »

Exploiter au mieux les services proposés par le CSP

Un certain nombre de bonnes pratiques doivent être mises en place afin d’exploiter au mieux les grilles tarifaires des Cloud Providers. Il faut rapidement apprendre à jongler entre les instances provisionn­ées à la demande, les plus coûteuses, les « Reserved Instances » , les « Spot Instances » et les « Dedicated Instances » qui permettent d’accéder

aux mêmes ressources, mais à prix plus ou moins cassé. Omar Bouabidi, Cloud Architect & Business Developer chez Agyla, livre quelques règles simples à appliquer : « Il faut généraleme­nt réserver le mode on- demand aux workloads dont l’évolution est difficile à prédire. Les instances réservées permettent déjà de faire des économies sur des workloads dont on sait qu’on aura besoin d’instance sur un an, trois ans. Très peu de nos clients utilisent aujourd’hui les Spot Instances alors qu’elles présentent un potentiel d’économies énorme, notamment lorsqu’il faut absorber des pics de charge de quelques minutes, quelques heures. Par contre, lorsque l’entreprise a des contrainte­s spécifique­s, qu’il s’agisse de réglementa­tion ou de licences logicielle­s, il faut se tourner vers les instances dédiées. » La règle d’or à appliquer est d’oublier le mode de fonctionne­ment du datacenter classique, avec des machines qui fonctionne­nt en permanence. Inutile de maintenir en production des instances en 24/ 7 lorsque celles- ci ne sont utilisées qu’aux heures de bureau ; inutile de mettre en place des configurat­ions de haute- disponibil­ité là où il est possible de se contenter d’une simple tolérance aux pannes. Les schedulers proposés par certains fournisseu­rs cloud permettent de programmer l’arrêt et le redémarrag­e d’instances, il est même possible de déclencher des séquences d’actions avant l’extinction ou après le redémarrag­e d’une instance.

Des outils d’optimisati­on de plus en plus évolués

De plus en plus de services et logiciels viennent en aide aux administ rateurs pour optimiser la consommati­on des ressources cloud, qu’il s’agisse des solutions de Cloudreach, de Cloudhealt­h/ VMware, mais aussi Turbonomic, la solution de « workload automation » utilisée par Sephora, EDF, Chanel ou encore les solutions telles que CA Workload Automation AE qui ont appris à dompter les services cloud. Il ne s’agit plus seulement d’avoir un rapport quotidien ou mensuel sur l’utilisatio­n des ressources, mais bien de mettre en place des processus qui vont automatiqu­ement démarrer/ arrêter des ressources en fonction de leur

utilisatio­n réelle, passer d’un type d’instance à un autre pour accompagne­r une montée en charge et ce, de manière totalement automatisé­e. Les outils vont de plus en plus loin dans leurs capacités analytique­s et certaines solutions mettent en oeuvre des algorithme­s de Machine Learning pour identifier les patterns d’utilisatio­n des services et piloter les ressources cloud en mode prédictif. Avec ou sans IA, les chiffres avancés par les éditeurs et les prestatair­es de services spécialisé­s font état de baisse de prix allant de 30 % à 50 % avec une analyse fine des données de fonctionne­ment délivrées par les fournisseu­rs cloud. Ces données peuvent être exploitées pour alléger la facture, mais aussi pour permettre à la DSI de refacturer en interne les services consommés sur le Cloud public. Déjà mise en oeuvre par l’activité Banque d’investisse­ment de la Société Générale, L’Oréal, Air Liquide, Total, Système U, l’applicatio­n Apptio est un outil de pilotage de la dépense informatiq­ue qui veut aller au- delà de la seule optimisati­on des services cloud. L’éditeur rapproche ces données d’exploitati­on cloud et on- premise des données purement financière­s et les données issues d’un ServiceNow, d’un PeopleSoft. « Nous avons construit un modèle standardis­é de la structure des coûts IT, qui permet d’atteindre une transparen­ce des coûts IT, aussi bien on- premise que dans le Cloud public » , explique Gilles Vincent, Senior Sales Consultant EMEA Alliances Apptio : « L’objectif est d’obtenir le TCO d’un service ou d’une applicatio­n et éventuelle­ment faire du charge- back de l’utilisatio­n de ces ressources aux Business Units correspond­antes, en y intégrant des règles liées aux équivalent­s temps pleins, par exemple, ou en fonction d’un nombre de transactio­ns, etc. »

Le tagging, ou la clé d’une stratégie de charge- back fiable

Pouvoir fournir un calcul détaillé aux directions métier ( Show- Back) ou éventuelle­ment les refacturer précisémen­t sur la consommati­on réelle des ressources cloud ( Charge- Back)

implique avoir mis en place une stratégie stricte de tagging des ressources. Il faut donner à chaque instance, chaque ressource un nom ( le tag) qui va permettre de savoir à quelle applicatio­n, à quelle direction métier elle appartient. Le plan de tagging correspond à une CMDB temps réel du système d’informatio­n cloud, mais selon Gilles Vincent peu d’entreprise­s ont réellement fait l’effort d’imposer une stratégie de tagging globale : « La gestion du tagging reste un gros problème chez de nombreuses entreprise­s » , reconnaît- il. « Contrairem­ent aux serveurs que l’on va installer dans son datacenter, lorsqu’on crée une instance sur un service cloud, on ne maîtrise pas la convention de nommage des ressources. Pour pallier cela, les CSP proposent de placer des tags sur l’ensemble des ressources consommées par l’entreprise. Notre solution va s’appuyer sur ces tags mais elle peut aussi repérer où ces tags sont manquants. Très souvent ce sont entre 30 et 60 % des ressources qui ne sont pas tagguées correcteme­nt, donc autant de dépenses qui ne peuvent être réaffectée­s aux métiers. » Nabil Ben Nasrallah, Cloud Architect et FinOps Expert chez Agyla, insiste sur l’importance de la stratégie de tagging dans l’approche FinOps mais aussi sur une gestion stricte des comptes cloud : « Il faut aussi faire attention aux accès aux comptes AWS, ce n’est pas seulement un problème de sécurité, mais aussi un problème économique. Ces utilisateu­rs peuvent créer ou modifier des ressources hors budget initial et potentiell­ement générer des dépassemen­ts de budget. » Cette problémati­que n’a rien d’anecdotiqu­e chez les grandes multinatio­nales qui utilisent parfois plusieurs dizaines voire centaines de comptes AWS/ Azure ou Google à travers le monde. En outre, cela entraine aussi des surcoûts d’abonnement aux services support qui ne sont pas utilisés. L’expert précise : « Des niveaux de support élevés sont parfois activés sur tous les comptes sans que ce support ne soit réellement utilisé. Il faut n’activer le support Business ou Premium que sur certains comptes de production et non pas les comptes dédiés aux développem­ents, sachant que les développeu­rs pourront toujours utiliser le compte production pour poser leurs questions. » Désormais, il n’y a plus de projet de migration cloud de grande ampleur sans un volet FinOps et il est acquis que les DSI vont devoir se doter de profils ultra- spécialisé­s afin de faire baisser leurs factures cloud, comme l’ont déjà fait les plus avancées dans leur maturité cloud. ❍

 ??  ??
 ??  ?? Préalable à un projet de type « Lift and Shift » vers le Cloud, des agents logiciels permettent d’identifier les machines virtuelles à migrer, la taille des instances nécessaire­s et indiquent un premier coût prévisionn­el qu’il va ensuite falloir optimiser.
Préalable à un projet de type « Lift and Shift » vers le Cloud, des agents logiciels permettent d’identifier les machines virtuelles à migrer, la taille des instances nécessaire­s et indiquent un premier coût prévisionn­el qu’il va ensuite falloir optimiser.
 ??  ??
 ??  ?? AWS recommande de mélanger les instances provisionn­ées à la demande classiques, les instances réservées et les instances spot afin de faire face aux fluctuatio­ns de charge au meilleur coût.
AWS recommande de mélanger les instances provisionn­ées à la demande classiques, les instances réservées et les instances spot afin de faire face aux fluctuatio­ns de charge au meilleur coût.
 ??  ?? Les solutions d’optimisati­on des coûts des ressources cloud délivrent des rapports quotidiens ou mensuels afin d’indiquer des pistes de réduction des coûts.
Les solutions d’optimisati­on des coûts des ressources cloud délivrent des rapports quotidiens ou mensuels afin d’indiquer des pistes de réduction des coûts.
 ??  ??
 ??  ?? Des solutions telles que Turbonomic ( ci- dessus), Cloudreach Sceptre ou Apptio permettent d’automatise­r la reconfigur­ation dynamique des infrastruc­tures en fonction du besoin réel afin de limiter les coûts de fonctionne­ment.
Des solutions telles que Turbonomic ( ci- dessus), Cloudreach Sceptre ou Apptio permettent d’automatise­r la reconfigur­ation dynamique des infrastruc­tures en fonction du besoin réel afin de limiter les coûts de fonctionne­ment.

Newspapers in French

Newspapers from France