Article

Managed Kubernetes

Présentation #

Créez, gérez et utilisez des clusters Kubernetes avec VMware Cloud Director Container Service Extension (CSE). Le plug-in pour VMware Cloud Director (VCD) qui apporte un service de Kubernetes-as-a-Service (KaaS).

Kubernetes-as-a-Service (KaaS) avec VMware Cloud Director est une offre gérée permettant de créer votre propre cluster d’hôtes de calcul sur lequel vous pouvez déployer et gérer des applications conteneurisées sur Cloud XPR. En combinant une expérience utilisateur intuitive, une sécurité et une isolation intégrées et des outils avancés pour sécuriser, gérer et surveiller les charges de travail de votre cluster, vous pouvez rapidement fournir des applications conteneurisées hautement disponibles et sécurisées dans votre environnement de Cloud Privé.

L’un des principaux avantages de l’architecture KaaS avec VMware Cloud Director est sa capacité à garantir une haute disponibilité et une tolérance aux pannes. La plate-forme offre des fonctionnalités robustes telles que le provisionnement automatisé de clusters, les mises à jour progressives et les capacités d’auto-réparation, qui améliorent la fiabilité et la résilience des déploiements Kubernetes. Cela permet aux organisations de proposer une offre KaaS hautement disponible à leurs clients, garantissant des temps d’arrêt minimaux et des performances optimales.

La sécurité est un autre aspect critique de l’architecture KaaS, et VMware Cloud Director fournit des fonctionnalités essentielles pour répondre à cette préoccupation. Grâce à ses capacités multi-tenant, les organisations peuvent créer des environnements isolés pour chaque client, garantissant ainsi la séparation et la confidentialité des données. De plus, VMware Cloud Director s’intègre aux outils et politiques de sécurité existants, permettant aux organisations d’appliquer des contrôles d’accès granulaires et de mettre en œuvre des mesures de sécurité complètes dans l’ensemble de l’infrastructure Kubernetes.

L’intégration de VMware Cloud Director à l’écosystème VMware plus large constitue un autre avantage important. Les organisations peuvent tirer parti de leur infrastructure VMware existante, telle que vSphere, NSX et vSAN, pour créer une plate-forme unifiée permettant d’exécuter à la fois des machines virtuelles et des charges de travail conteneurisées. Cette intégration simplifie les opérations, maximise l’utilisation des ressources et permet aux organisations de tirer parti de leurs investissements existants.

De plus, VMware Cloud Director offre une interface conviviale et des capacités de gestion robustes. Les fournisseurs de services peuvent facilement intégrer des clients, provisionner des clusters Kubernetes et surveiller leurs performances via un portail de gestion centralisé. Cela rationalise les opérations et permet aux organisations d’offrir une expérience KaaS supérieure à leurs clients.

En conclusion, l’architecture d’une offre Kubernetes-as-a-Service avec VMware Cloud Director offre aux organisations une solution puissante et complète. En tirant parti des capacités de la plateforme, les organisations peuvent simplifier le déploiement et la gestion de Kubernetes, améliorer la sécurité et s’intégrer à leur infrastructure VMware existante. En fin de compte, cela permet aux organisations de proposer à leurs clients une offre KaaS évolutive, fiable et sécurisée, stimulant ainsi l’innovation et accélérant leur parcours de transformation numérique.

Schéma d’organisation des clusters Kubernetes:

Outils #

Les clusters Kubernetes déployés sont livrés avec les packages principaux de Tanzu, mais les développeurs peuvent améliorer la gestion des clusters en installant des packages Tanzu supplémentaires tels que :

  • Contour – Fournit un contrôle d’entrée de couche 7 aux applications HTTP(S) déployées.
  • Fluent Bit – Collecte des données et des journaux provenant de différentes sources, les unifie et les envoie à plusieurs destinations
  • Prometheus – Fournit une surveillance de l’état des clusters Kubernetes. L’implémentation Tanzu Kubernetes Grid de Prometheus inclut un gestionnaire d’alertes. Vous pouvez configurer Alert Manager pour vous avertir lorsque certains événements se produisent.
  • Grafana – Fournit des tableaux de bord de surveillance pour afficher les mesures de santé clés des clusters Kubernetes.
  • Harbor Image Registry – Fournit un emplacement centralisé pour pousser, extraire, stocker et analyser les images de conteneurs utilisées dans les charges de travail Kubernetes. Il prend en charge le stockage d’artefacts tels que les graphiques Helm et inclut des fonctionnalités de niveau entreprise telles que RBAC, des politiques de rétention, un nettoyage automatisé des déchets et un proxy Docker Hub.

Dimensionnement des noeuds #

Pour éviter les erreurs de limite de ressources dans les clusters, des stratégies de dimensionnement pour les master et les worker nodes ont été créées par défaut. Les stratégies de dimensionnement de machine virtuelle Tanzu Kubernetes Grid sont automatiquement affichées au cours du processus de création des Clusters Kubernetes.

Une stratégie de dimensionnement de machine virtuelle définit l’allocation des ressources de calcul pour les masters et workers node au sein d’un Cluster Kubernetes. L’allocation des ressources de calcul inclut l’allocation de CPU et de mémoire.

Les clusters Tanzu Kubernetes Grid possèdent les stratégies de dimensionnement suivantes :

Stratégie de dimensionnementDescriptionValeurs
TKG smallStratégie de dimensionnement de petite machine virtuelle pour un nœud de cluster Kubernetes2 vCPU, 4 Go de mémoire
TKG mediumStratégie de dimensionnement de machine virtuelle moyenne pour un nœud de cluster Kubernetes2 vCPU, 8 Go de mémoire
TKG largeStratégie de dimensionnement de machine virtuelle volumineuse pour un nœud de cluster Kubernetes4 vCPU, 16 Go de mémoire
TKG extra-largeStratégie de dimensionnement de machine virtuelle très volumineuse pour un nœud de cluster Kubernetes8 vCPU, 32 Go de mémoire

Auto-scaling #

Avec Horizontal Pod Autoscaler – un projet Kubernetes piloté par la communauté – La mise à l’échelle automatique répond efficacement aux besoins et aux demandes des entreprises. Cela garantit qu’il y a suffisamment de ressources pour que les applications fonctionnent de manière optimale. Cela permet une plus grande disponibilité et, par conséquent, une meilleure résilience. Exécuter une application de manière optimale signifie utiliser des ressources optimales, de sorte que le système puisse gérer efficacement les pics et les creux de la demande des applications, ce qui garantit non seulement la disponibilité des ressources, mais également une utilisation optimale des ressources, donc une optimalité des coûts.

Paramètres de débogage #

Les Clients peuvent activer des fonctionnalités de récupération pour permettre un meilleur maintien en condition opérationnel de leurs applications.

FonctionnalitéDescription
Auto Repair on Errors
Réparation automatique des erreurs
Cette option s’applique aux pannes qui se produisent lors du processus de création du cluster. Si vous activez cette option, le service VMware Cloud Director Container Service Extension tente de recréer les clusters qui sont en état d’erreur pendant le processus de création.
Node Health Check
Vérification de l’intégrité du nœud
Contrairement à la réparation automatique des erreurs, pour laquelle le processus de correction est applicable uniquement lors de la création du cluster, la vérification de l’intégrité du nœud commence lorsque le cluster atteint un état disponible. Si l’un des nœuds devient défectueux pendant la durée de vie du cluster, la vérification de l’intégrité du nœud le détecte et le corrige.








#

Qu'avez vous pensé de cet article ?