Plateforme
Simplifier l’usage de Kubernetes
Dans sa quête sans fin de rendre Kubernetes plus simple et résilient à utiliser en production et pour des applications critiques, la CNCF doit aussi faire face à l’essor constant de nouveaux cas d’usage et projets. Heureusement, en renforçant les racines, la fondation et ses acteurs arrivent à faciliter le déploiement des ramifications.
Vers des environnements Kubernetes toujours plus simples à gérer ? Cheval de bataille de la Cloud Native Computing Foundation ( CNCF) depuis la création de l’orchestrateur de container, la simplicité d’utilisation progresse, mais reste encore un axe d’amélioration, d’autant plus que l’ajout constant de nouvelles fonctionnalités ne facilite pas la tâche. « On arrive aujourd’hui à un certain niveau de maturité pour les utilisateurs qui souhaitent s’appuyer sur Kubernetes comme un socle d’architecture standard pour L’IT » , note David Szegedi, CTO EMEA de Red Hat, qui intervenait lors de la Kubecon qui s’est tenue fin mars à Paris. La généralisation des approches plateformes et managées, à l’inverse du best of breed, y est pour beaucoup.
« Aujourd’hui, la plupart des entreprises qui viennent nous voir ont des approches Kubernetes- as- a- Service. Notre enjeu est donc d’apporter une plateforme qui est capable de répondre à l’ensemble de leurs usages » , explique David Szegedi. Pour Openshift, la plateforme de Red Hat basée sur Kubernetes, cela implique toujours plus d’intégrations et d’opérateurs pour fonctionner, par exemple sur le Edge ou les diverses offres Cloud des acteurs du secteur. Rendre les plateformes Kubernetes le plus agnostique possible est donc un des principaux enjeux de la simplification.
L’orchestration mère de complexité
« L’idée est d’arriver à des offres de containers en serverless » , note Shaun O’meara, CTO de Mirantis. « On s’appuie massivement sur Cluster API pour la gestion des déploiements sur toutes les infrastructures et les standards que nous souhaitons mettre en place avec K0smotron pour la gestion du cycle de vie des control planes tout au long de l’utilisation du cluster » , image le directeur technique qui met également en avant l’usage accru D’API pour pouvoir adresser les autres problématiques liées à l’infrastructure. « Pour être vertueuse, l’approche plateforme doit répondre à deux principaux enjeux. D’abord être capable de faire fonctionner simplement n’importe quelle distribution de Kubernetes, et assurer une intégration
optimale avec l’ensemble de l’écosystème de la Cloud Native Computing Foundation » , résume Christophe Jauffret, Principal Solution Architect, Nutanix.
Reste que si la base est aujourd’hui simple à utiliser, chaque nouvel usage ou nouvelle brique s’accompagne d’une nouvelle complexité. « Il faut accepter que nous sommes encore loin d’avoir une solution complète sur étagère » , rappelle ainsi Cédric Gégout, VP Product Management chez Canonical. Pour lui, l’accumulation de couches d’orchestration et d’opérateurs ajoute constamment de la complexité à Kubernetes. « Il faut aussi que les utilisateurs acceptent que Kubernetes n’est pas la réponse à toutes les problématiques. Nous voyons aujourd’hui des gens essayer de le faire entrer au chausse- pied pour des cas d’usage qui ne sont pas adaptés. Ils créent encore plus de complexité » , ajoute le vice — président. Pour les entreprises souhaitant rester à la pointe des avancées de la CNCF, cela implique d’avoir une politique à deux vitesses. D’une part, d’avoir un socle en production basé sur des versions bénéficiant d’un support à long terme et étant intégrée de manière optimale avec le reste de l’écosystème. D’autre part, d’avoir des solutions upstreams plus expérimentales demandant un investissement technique plus conséquent.
Des data services toujours plus complets
Au- delà des plateformes faisant tourner les containers et Kubernetes, la question du stockage a également apporté son lot de problématiques qu’il a fallu résoudre, notamment en matière de data services. « Aujourd’hui, il faut accepter que les applications critiques sur Kubernetes ont besoin d’un stockage stateful capable de répondre simplement à l’ensemble des besoins des utilisateurs, y compris en matière de base de données » , tranche Murli Thirumale, General Manager pour Portworx, la plateforme de stockage dédiée à Kubernetes récemment passée dans le giron de Pure Storage. Ainsi, en s’appuyant sur CSI et ses propres opérateurs, la plateforme entend fournir aux clusters de container la même expérience que sur des environnements de VM. « Nous sommes aujourd’hui capables d’adresser les problématiques de réplication et de déduplication pour Kubernetes sur n’importe quel environnement via la virtualisation des ressources de stockage, tout en gérant automatiquement différentes classes ainsi que les QOS » , explique le dirigeant.
Chez Netapp, les arguments sont les mêmes. « Nous devons être capables d’avoir les mêmes data services sur Kubernetes que sur des environnements de machines virtuelles traditionnels » , explique Eric Han, VP Product Management du fabricant. Pour y arriver, Netapp a fait le
choix d’une approche bottom up. « CSI ne permettant pas de faire tout ce que nous voulions, il a fallu développer tout un set D’API et d’opérateurs capables d’appeler toutes les fonctions de la plateforme de stockage. Le gros enjeu est ensuite de pouvoir orchestrer simplement toutes ces API à partir du control plan » , détaille le Product Manager. Pour lui, l’étape suivante est de pouvoir assurer une mobilité des workloads la plus fluide possible entre les différentes classes de stockage.
Intégrer la gestion du cycle de vie des bases de données
Toujours dans une logique d’avoir des applications stateful, la gestion native des bases de données est également une demande récurrente des utilisateurs kubernetes. « Le problème, c’est que Kubernetes ne sait pas comment fonctionne une base de données. C’est un véritable casse- tête de lui faire comprendre comment gérer son cycle de vie » , détaille Kuasi Mensah, Directeur Product Management chez Oracle. L’éditeur a ainsi développé deux contrôleurs Kubernetes pour adresser autant de types de déploiements : d’un côté une base unique et de l’autre, un cluster de base de données. « L’objectif est de pouvoir automatiser la gestion du cycle de vie des bases de données depuis le control plan du cluster Kubernetes » , précise le dirigeant. D’autres acteurs, aussi bien du côté des bases de données que des infrastructures proposent également des intégrations similaires.
En somme, si l’ensemble de l’écosystème CNCF s’affère à rendre Kubernetes plus simple à utiliser, l’ajout constant de nouveaux cas d’usage, fonctionnalités et outils rend la tâche de plus en plus ardue. « À chaque fois que nous arrivons à automatiser et à standardiser un aspect de Kubernetes, nous avons trois ou quatre autres nouveaux cas d’usages à prendre en charge. Mais notre mission restera toujours de les rendre le plus simple d’usage possible » , résume ainsi Cédric Gégout.