Blog ENI : Toute la veille numérique !
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
💥 1 livre papier acheté 
= la version en ligne automatiquement offerte. Cliquez ici
  1. Livres et vidéos
  2. Kubernetes - Gérez la plateforme de déploiement de vos applications conteneurisées (3e édition)

Kubernetes Gérez la plateforme de déploiement de vos applications conteneurisées (3e édition)

Informations

Livraison possible dès le 13 décembre 2024
  • Livraison à partir de 0,01 €
  • Version en ligne offerte pendant 1 an
Livres rédigés par des auteurs francophones et imprimés à Nantes

Caractéristiques

  • Livre (broché) - 17 x 21 cm
  • ISBN : 978-2-409-04734-3
  • EAN : 9782409047343
  • Ref. ENI : EI3KUB

Informations

  • Consultable en ligne immédiatement après validation du paiement et pour une durée de 10 ans.
  • Version HTML
Livres rédigés par des auteurs francophones et imprimés à Nantes

Caractéristiques

  • HTML
  • ISBN : 978-2-409-04735-0
  • EAN : 9782409047350
  • Ref. ENI : LNEI3KUB
Ce livre s’adresse aux administrateurs système qui souhaitent maîtriser le déploiement de Kubernetes et comprendre en quoi il répond aux nouveaux enjeux informatiques liés à l’arrivée des conteneurs. Le lecteur découvre ainsi les différentes fonctionnalités de Kubernetes qui lui permettront de gérer des conteneurs et leur cycle de vie et de mettre en place toutes les briques indis­pensables à un cluster de production. Pour appréhender au mieux la lecture de ce livre, des notions sur...
Consulter des extraits du livre en ligne Aperçu du livre papier
  • Niveau Confirmé à Expert
  • Nombre de pages 926 pages
  • Parution décembre 2024
  • Niveau Confirmé à Expert
  • Parution décembre 2024
Ce livre s’adresse aux administrateurs système qui souhaitent maîtriser le déploiement de Kubernetes et comprendre en quoi il répond aux nouveaux enjeux informatiques liés à l’arrivée des conteneurs. Le lecteur découvre ainsi les différentes fonctionnalités de Kubernetes qui lui permettront de gérer des conteneurs et leur cycle de vie et de mettre en place toutes les briques indis­pensables à un cluster de production.

Pour appréhender au mieux la lecture de ce livre, des notions sur l’adminis­tration d’un système Linux, sur le principe de fonctionnement des couches réseau, sur l’utilisation de Git ainsi que la connaissance d’un environnement Cloud sont recommandées. Tout au long du livre, l’auteur s’appuie sur des exemples concrets pour aider le lecteur dans sa découverte de Kubernetes et dans l’assimilation des concepts étudiés.

Après l’installation de l’environnement et des outils indispensables pour suivre les exemples du livre, l’auteur familiarise le lecteur avec les concepts propres à Kubernetes tels que le cycle de vie d’un conteneur, les pods, les services ou le tableau de bord. Au fur et à mesure, le lecteur découvre des concepts plus avancés comme la persistance des données, l’hébergement d’applications en cluster, la mise en place de réplications entre plusieurs pods, la mise en place d’outils de sécurité, l’utilisation de règles de haute dis­ponibilité, la gestion des briques internes de Kubernetes ou le gestionnaire de paquets Helm.

Puis l’auteur présente comment installer et configurer Kubernetes afin d’ai­der le lecteur à mettre en place un cluster, dans le cloud ou sur des machines classiques, avant de détailler l’exposition d’une application sur Internet, les polices réseau, la sécurisation SSL, les montées en charge, le choix des ma­chines dans le cloud, la surveillance applicative ou encore la mise en place de règles d’hébergement. Pour finir, le lecteur trouve dans les derniers chapitres une introduction au maillage de services avec Istio, ainsi que des informations sur la gestion des droits d’accès, sur la notion d’opérateur ou encore sur la gestion de l’application dans un système d’intégration continue.
Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.

Téléchargements

Avant-propos
  1. Présentation de Kubernetes
    1. 1. Un peu d’histoire
    2. 2. Qu’est-ce qu’un conteneur ?
    3. 3. Les conteneurs avant Docker
    4. 4. Pourquoi utiliser des conteneurs ?
    5. 5. Problèmes introduits avec les conteneurs
    6. 6. À quoi va servir Kubernetes ?
    7. 7. Ressources externes
  2. Un mot sur l’application
    1. 1. Rien ne sert de courir
    2. 2. Les douze facteurs applicatifs
    3. 3. Microservices vs Monolithes
Introduction
  1. Cibles et objectifs de l’ouvrage
  2. Prérequis techniques et ressources documentaires
    1. 1. Prérequis techniques
    2. 2. Ressources documentaires
    3. 3. Récupération des fichiers d’exemples
  3. Présentation générale
    1. 1. Prérequis
    2. 2. Utilisation de Kubernetes
    3. 3. Installation et configuration de Kubernetes
    4. 4. Extension du cluster Kubernetes et notions avancées
    5. 5. Déploiement et intégration continue
    6. 6. Conventions utilisées
Installation de l’environnement Kubernetes
  1. Objectifs du chapitre et prérequis
  2. Alternative à l’installation en local
    1. 1. Pourquoi ces alternatives ?
    2. 2. Utilisation d’un service managé
    3. 3. Service Killercoda
  3. Mise en place de la commande kubectl
    1. 1. À quoi sert kubectl ?
    2. 2. Installation de kubectl
      1. a. Installation sous Debian/Ubuntu
      2. b. Installation sous CentOS/RHEL ou Fedora
      3. c. Installation à l’aide d’Arkade
    3. 3. Vérification de l’installation
    4. 4. Configuration de l’autocomplétion
      1. a. Présentation du mécanisme d’autocomplétion
      2. b. Fichier profile à modifier
      3. c. Autocomplétion sur kubectl
      4. d. Utilisation de la variable SHELL
      5. e. Mise en place d’un alias
  4. Mise en place de Minikube
    1. 1. Pourquoi faire appel à Minikube ?
    2. 2. Téléchargement et installation deMinikube
    3. 3. Vérification de l’installation de Minikube
    4. 4. Mise en place de l’autocomplétion
  5. Installation du cluster Kubernetes avec Minikube
    1. 1. Options de lancement
    2. 2. Installation de Docker
      1. a. Installation de Docker Community Edition sur Ubuntu
      2. b. Installation alternative
      3. c. Configuration des accès à Docker
      4. d. Vérification de l’installation deDocker
    3. 3. Installation de l’hyperviseur VirtualBox
    4. 4. Installation de l’hyperviseur KVM/libvirt
    5. 5. Configuration de l’utilisateur courant
    6. 6. Déploiement du cluster avec Minikube
      1. a. Création de la machine Minikube
      2. b. Arrêt/démarrage de la machineMinikube
      3. c. Choix du conteneur runtime
      4. d. Extensions de Minikube
      5. e. Suppression de la machine Minikube
  6. Quelques notions sur le format YAML
    1. 1. Déclaration de couples clés/valeurs
    2. 2. Les tableaux en YAML
    3. 3. Les structures clé/valeur ou tablede hachage
    4. 4. Tableau de table de hachage
Tableau de bord et ligne de commande
  1. Objectifs du chapitre et prérequis
  2. Préambule
    1. 1. Origine du nom et du logo
    2. 2. Pourquoi utiliser Kubernetes ?
    3. 3. Origine de Kubernetes
    4. 4. Fondation CNCF
    5. 5. Les orchestrateurs du marché
  3. Le tableau de bord de Kubernetes (dashboard)
    1. 1. Présentation
    2. 2. Tableau de bord Kubernetes sur service managé
    3. 3. Déploiement du dashboard sur Minikube
    4. 4. Accès au dashboard sur Minikube
    5. 5. Structure du tableau de bord
    6. 6. Création d’un déploiement
      1. a. Un petit mot sur Mailpit
      2. b. Lancement du déploiement
    7. 7. État d’un déploiement
      1. a. Consultation de l’état du déploiement
      2. b. Consultation du gestionnaire de réplicas
      3. c. Consultation de l’état d’unpod
      4. d. Journal d’activité du conteneur
      5. e. Scalabilité
      6. f. Mise à jour de l’application
      7. g. Pour résumer
  4. Présentation de l’outil kubectl
    1. 1. Préambule
    2. 2. Consultation des éléments
    3. 3. Liste des pods
    4. 4. Liste des machines d’un cluster
      1. a. Connexion à la machine Minikube
      2. b. Liste des nœuds d’un cluster
      3. c. Affichage des caractéristiques étendues
  5. Le moteur Containerd de Minikube
    1. 1. Initialisation de l’environnement
    2. 2. Les conteneurs associés aux pods
Automatisation et publication d’une application
  1. Objectifs du chapitre et prérequis
  2. Gestion par kubectl d’une application
    1. 1. Suppression d’un déploiement
    2. 2. Création d’un déploiement
    3. 3. État du déploiement
    4. 4. Mécanisme des réplicas
      1. a. Consultation des réplicas
      2. b. Description des réplicas
    5. 5. État du pod
      1. a. Liste des pods
      2. b. Détails de l’état d’unpod
    6. 6. Accès aux logs des conteneurs
    7. 7. Accès à l’application Mailpit
  3. Exposition de services
    1. 1. Pourquoi utiliser un service ?
    2. 2. Exposition d’un déploiement viaun service
    3. 3. Vérification du service mailpit
    4. 4. Que faire en cas d’absence de shell ?
      1. a. Contexte
      2. b. Utilisation d’un pod éphémère
      3. c. Lancement d’un pod de test
    5. 5. Résilience et scalabilité
      1. a. Origine du besoin
      2. b. Scalabilité manuelle
      3. c. Nombre de pods associés à un déploiement
      4. d. Arrêter temporairement une application
  4. Automatisation de déploiement par fichier YAML
    1. 1. Mécanisme de création et mise à jour
    2. 2. Structure YAML d’un déploiement
      1. a. Quelques rappels
      2. b. Récupération d’une structureau format YAML
      3. c. Édition d’un déploiement
      4. d. Squelette pour un déploiement
      5. e. Création d’un déploiement à l’aided’un fichier
      6. f. Suppression des éléments d’unfichier
      7. g. Gestion de l’idempotence et de la réentrance
    3. 3. Création du service
      1. a. Définition du service
      2. b. Application de la définition du service
      3. c. Gestion de la réentrance
    4. 4. Mécanisme de sélecteur et labels
    5. 5. Regroupement de la création des éléments
      1. a. Création d’un groupe d’objets
      2. b. Consultation de l’état d’ungroupe d’objets
    6. 6. Structure des objets
      1. a. Interrogation de Kubernetes avec kubectl
      2. b. Référence de l’API en ligne
  5. Ingress et reverse proxy
    1. 1. Origine du besoin
    2. 2. Rôle d’un proxy inverse
    3. 3. Activation du contrôleur Ingress dans Minikube
    4. 4. Déclaration d’une règleIngress
    5. 5. Consultation des règles Ingress
    6. 6. Hôte virtuel et nip.io
      1. a. Hôte virtuel par défaut
      2. b. Présentation du mécanisme de nip.io
      3. c. Configuration du serveur DNS
      4. d. Création d’un hôte virtuelpour Mailpit
Cycle de vie d’un conteneur dans Kubernetes
  1. Objectifs du chapitre et prérequis
  2. Gestion des crashs d’application
    1. 1. Consultation de l’état des pods
    2. 2. Connexion au pod
    3. 3. Conteneur associé à Mailpit
    4. 4. Comportement en cas de crash
    5. 5. État du conteneur après redémarragedu pod
    6. 6. Container vu depuis Containerd (Minikube)
    7. 7. Attention au nettoyage
  3. État d’un conteneur
    1. 1. Pourquoi scruter l’état d’unconteneur ?
    2. 2. Readiness vs Liveness
    3. 3. Utilisation et bonne pratique
    4. 4. Structure des champs de surveillance
    5. 5. Vérification de la présence d’unport
      1. a. Définition de la surveillance
      2. b. Test d’indisponibilité sur un podnon prêt
      3. c. État des pods en cas d’indisponibilité
      4. d. Test d’indisponibilité sur un poden mauvaise santé
      5. e. État des pods en cas de problèmesur un pod
      6. f. Attention à la consistance des tests
      7. g. Uniformisation des tests
    6. 6. Surveillance HTTP
      1. a. Pourquoi privilégier ce type de surveillance ?
      2. b. Surveillance de l’application Mailpit
    7. 7. Point d’entrée de surveillance HTTPd’une application
      1. a. Un mot sur les frameworks modernes
      2. b. Présentation de l’application Flask
      3. c. Exemple de déclaration
      4. d. Déploiement de l’application Flask
      5. e. Consultation de l’état de l’application
    8. 8. Lancement d’un shell
      1. a. Principe de fonctionnement
      2. b. Exemple de surveillance d’une base Postgres
      3. c. Déclaration de la commande
  4. Définition de la capacité d’un pod
    1. 1. Pourquoi définir une capacité ?
    2. 2. Réservation et surallocation
    3. 3. Allocation de ressources à un conteneur
    4. 4. Allocation de ressources à l’applicationMailpit
    5. 5. Comportement en cas de saturation des ressources
      1. a. Demande trop importante de CPU
      2. b. Dépassement de la mémoire allouée
    6. 6. Priorité d’un pod
      1. a. Présentation du mécanisme
      2. b. Consultation des types par défaut
      3. c. Consultation des priorités des pods
      4. d. Création d’une classe de priorité
      5. e. Affectation d’une classe de priorité personnalisée
      6. f. Remarque sur les classes de priorité pardéfaut
Persistance des données
  1. Objectifs du chapitre et prérequis
  2. Persistance des données
    1. 1. Origine du besoin
    2. 2. Utilisation d’un volume persistant externe
    3. 3. Volumes persistants
      1. a. Structure du volume persistant
      2. b. Création du volume persistant
    4. 4. Persistance de données avec Mailpit
      1. a. Opérations à réaliser
      2. b. Déclaration de l’objet PersistentVolumeClaim
      3. c. État des objets de volume persistant
      4. d. État de la demande de volume persistant
      5. e. Déclaration du point de montage
      6. f. Ajout d’un point de montage sur le conteneur
      7. g. Options de lancement de Mailpit
      8. h. Déclaration entière suite aux modifications
    5. 5. Test de la persistance
      1. a. Utilisation de Mailpit pour l’envoi d’e-mail
      2. b. Ouverture de la communication avec le port SMTP
      3. c. Envoi d’un mail
      4. d. Réduction des droits d’exécutionet initialisation
      5. e. Gestion des droits du répertoire de persistance
      6. f. Consultation de l’interface de Mailpit
      7. g. Suppression des pods
      8. h. Vérification du fonctionnement de la persistance
  3. Classes de stockage
    1. 1. Origine du besoin
    2. 2. Liste des classes de stockage
    3. 3. Détail d’une classe de stockage
    4. 4. Classe de stockage par défaut
    5. 5. Les différentes classes de stockage
      1. a. Les différentes familles
      2. b. Origine de ces familles
    6. 6. Caractéristiques des classes de stockage
      1. a. Modes d’accès
      2. b. Caractéristiques de certains pilotes
      3. c. Liste des pilotes chargés
    7. 7. Déclaration d’une classe de stockage
      1. a. Structure de la déclaration
      2. b. Exemple de déclaration
    8. 8. Test de création automatique d’unvolume persistant
Hébergement d’application en cluster
  1. Objectifs du chapitre et prérequis
  2. Déploiement d’une base de données MariaDB
    1. 1. Origine du besoin
    2. 2. Déploiement
      1. a. Choix de l’image Docker
      2. b. Version initiale du fichier de déploiement
      3. c. Gestion de la réentrance
    3. 3. Volume persistant
      1. a. Demande de volume persistant
      2. b. État de la demande de volume persistant
      3. c. Ajout d’une persistance sur le conteneurde MariaDB
      4. d. Consultation de l’état du déploiement
    4. 4. Configuration de la base de données
    5. 5. Consultation de l’état du pod
      1. a. Liste des pods
      2. b. Connexion au conteneur
      3. c. Création de l’entrée deservice
    6. 6. Surveillance de la base de données
      1. a. Définition des commandes de surveillance
      2. b. Application de la modification
      3. c. Vérification du déploiement
    7. 7. Mécanisme de déploiement
  3. Mise en place d’un StatefulSet
    1. 1. Augmentation du nombre de pods associés audéploiement
    2. 2. Présentation du type StatefulSet
      1. a. Caractéristiques
      2. b. Limitations
    3. 3. Déclaration du premier objet StatefulSet
      1. a. Purge de l’ancien déploiement
      2. b. Modifications à réaliser
      3. c. Création du StatefulSet
      4. d. État des volumes persistants
      5. e. Suppression des anciens objets PV/PVC
    4. 4. Scalabilité de l’objet StatefulSet
    5. 5. Pods et volumes persistants d’un objet StatefulSet
    6. 6. Réduction de la taille du StatefulSet
  4. Base et compte de test
    1. 1. Variables d’environnement du conteneur
    2. 2. ConfigMap et secret
      1. a. Pourquoi y faire appel ?
      2. b. Structure d’un objet ConfigMap
      3. c. Déclaration d’un objet Secret
      4. d. Rattachement au conteneur
Mise en place d’une réplication entre pods
  1. Objectifs du chapitre et prérequis
  2. Synchronisation des pods MariaDB
    1. 1. Exposition de la problématique
    2. 2. Principe de fonctionnement de la synchronisation
      1. a. Opérations à réaliser
      2. b. Nombre de réplicas
    3. 3. Identifiants des serveurs
      1. a. Connexion aux pods
      2. b. Connexion à la base de données
      3. c. Identifiants des serveurs
      4. d. ID du maître
      5. e. Création du compte de réplicationsur le maître
      6. f. Configuration de l’esclave
    4. 4. Activation de la synchronisation
      1. a. Activer les journaux pour la réplication
      2. b. Commande docker-entrypoint.sh
      3. c. Consultation de l’état du maître
      4. d. Configuration de l’esclave
    5. 5. Test de la réplication
      1. a. Connexion au maître
      2. b. Création d’une table
      3. c. Connexion à l’esclave
  3. Automatisation de la synchronisation
    1. 1. Scripts de démarrage et synchronisation
      1. a. Script de démarrage
      2. b. Configuration de la synchronisation
      3. c. Scripts SQL additionnels
      4. d. Script d’arrêt de la base
    2. 2. Scripts et objet ConfigMap
    3. 3. Création du ConfigMap
    4. 4. Montage du ConfigMap
      1. a. Référencement du ConfigMap dansla liste des volumes
      2. b. Point de montage du ConfigMap
    5. 5. Démarrage et arrêt du conteneur
      1. a. Commande de démarrage
      2. b. Commande d’arrêt de la base
    6. 6. Résumé des modifications
    7. 7. État du déploiement
      1. a. État des pods
      2. b. Journaux d’activité du pod esclave
      3. c. Test de la synchronisation
      4. d. Vérification du fonctionnement de la synchronisation
Gestion des briques internes de Kubernetes
  1. Objectifs du chapitre et prérequis
  2. Espace de noms kube-system
    1. 1. Pods présents dans l’espace de nomskube-system
    2. 2. CoreDNS
    3. 3. etcd
    4. 4. Le gestionnaire de réseau Kindnet
    5. 5. Le gestionnaire d’extensions de Minikube
    6. 6. Le serveur d’API
    7. 7. Le proxy Kubernetes (kube-proxy)
    8. 8. Le gestionnaire de tâches (scheduler)
    9. 9. Le gestionnaire de contrôle (controller manager)
    10. 10. Kubelet
  3. Configuration des serveurs maîtres
    1. 1. Principe de lancement des pods système
    2. 2. Contenu du répertoire /etc/kubernetes/manifests
    3. 3. Contenu des fichiers
    4. 4. Désactivation d’un pod système
    5. 5. Réactivation du pod système
  4. Monitoring des conteneurs du cluster avec Glances
    1. 1. Origine du besoin
    2. 2. Consultation des DaemonSets
    3. 3. Présentation de Glances
    4. 4. Définition du DaemonSet
      1. a. Structure de la déclaration
      2. b. Champ volumes
      3. c. Champ containers
    5. 5. Création du DaemonSet
      1. a. Déclaration complète
      2. b. Création du DaemonSet
      3. c. Consultation des pods
    6. 6. Annotations de tolérance
      1. a. Présentation du mécanisme
      2. b. Récupération des annotations taints
      3. c. Tolérances de lancement
      4. d. Modification du DaemonSet
    7. 7. Arrêt d’un DaemonSet
    8. 8. Connexion à Glances
Helm - Gestionnaire de package
  1. Objectifs du chapitre et prérequis
  2. Présentation de Helm
    1. 1. Pourquoi faire appel à Helm ?
    2. 2. Principe de fonctionnement
  3. Déploiement de Helm
    1. 1. Installation du client Helm
      1. a. Installation à l’aide d’Arkade
      2. b. Installation manuelle
    2. 2. Consultation de la version de Helm
    3. 3. Configuration du client Helm
  4. Déploiement d’une application avec Helm
    1. 1. Déterminer le package à déployer
      1. a. Recherche d’un chart Helm
      2. b. Gestion des sources de charts Helm
      3. c. Recherche et gestion du cache de Helm
    2. 2. Installation du package WordPress
      1. a. Un peu de vocabulaire
      2. b. Lancement de l’installation
      3. c. Installation sans accès direct
    3. 3. Corrections de l’installation
      1. a. Quelques remarques
      2. b. Spécification du nom et espace de noms
      3. c. Lancement de l’installation
      4. d. Mise à jour et réentrance
      5. e. Généralisation des options d’installation
    4. 4. Éléments déployésavec Helm
    5. 5. Suppression d’un déploiement
    6. 6. Annulation de la suppression
    7. 7. Purge d’un chart Helm
  5. Cycle de vie d’une application déployée avec Helm
    1. 1. Ouverture du port vers WordPress
    2. 2. Connexion à WordPress
    3. 3. Configuration d’un chart Helm
      1. a. Consultation des options d’un chart
      2. b. Configuration de la publication (Minikube)
    4. 4. Historique de déploiement
    5. 5. Visualisation des différences avant installation
      1. a. Origine du besoin
      2. b. Installation de l’extension diff pour Helm
      3. c. Visualisation des modifications dans l’historique
      4. d. Visualisation des modifications avant installation
    6. 6. Retour arrière
    7. 7. Helm Dashboard
    8. 8. Portail Artifact Hub
Contextes et outils tiers Kubernetes
  1. Objectifs du chapitre et prérequis
  2. Gestion des contextes avec kubectl
    1. 1. Origine du besoin
    2. 2. Lister les contextes
    3. 3. Variable d’environnement KUBECONFIG
      1. a. Spécifier l’emplacement du fichier
      2. b. Spécifier plusieurs fichiers
    4. 4. Changement de contexte
    5. 5. Créer un contexte
    6. 6. Supprimer un contexte
    7. 7. Outils de gestion de contexte
      1. a. Présentation de kubectx et kubens
      2. b. Installation de kubectx et kubens
      3. c. Mise en place de l’autocomplétion
      4. d. Test des commandes
    8. 8. Contexte dans le prompt utilisateur
      1. a. Pourquoi afficher le contexte ?
      2. b. Activation à l’aide de oh-my-zsh
      3. c. Activation avec bash
      4. d. Exemple d’affichage
    9. 9. Changement des couleurs du terminal
      1. a. Principe de fonctionnement
      2. b. Création de la fonction
      3. c. Ajout de l’appel dans l’invite decommandes
  3. Utilitaires Kubernetes
    1. 1. Krew : gestionnaire d’extensions
      1. a. Présentation du mécanisme d’extensions
      2. b. Installation de Krew
      3. c. Test de l’extension
    2. 2. node-shell : lancer une session sur un nœuddu cluster
      1. a. Contexte
      2. b. Installation de node-shell
      3. c. Utilisation de node-shell
    3. 3. k9s : interface texte de suivi
      1. a. Contexte
      2. b. Installation de k9s
      3. c. Lancement de k9s
      4. d. Personnalisation de k9s
    4. 4. Kubespy : espionnage de l’activité
      1. a. Présentation de Kubespy
      2. b. Installation de Kubespy
      3. c. Observation d’un déploiement avecKubespy
    5. 5. Sniff : capture du trafic réseaud’un pod
      1. a. Principe de fonctionnement
      2. b. Installation de Sniff et Wireshark
      3. c. Lancement d’une séance de capture
Analyse et sécurisation d’un cluster
  1. Objectifs du chapitre et prérequis
  2. Trivy : analyse de failles de sécurité
    1. 1. Trivy : outil d’analyse du cluster
      1. a. Présentation de Trivy
      2. b. Installation de Trivy
      3. c. Lancement de l’analyse
      4. d. Automatisation du lancement de l’analyse
      5. e. Résultat de l’analyse
      6. f. Lancement à intervalles réguliers
    2. 2. Mise en place de l’opérateur Trivy
      1. a. Problèmes liés au rapport généré parTrivy
      2. b. Installation de l’opérateur
      3. c. Utilisation des nouveaux types de l’opérateurTrivy
  3. OPA (Open Policy Agent) Gatekeeper : le gardien du cluster
    1. 1. Présentation d’OPA Gatekeeper
    2. 2. Installation de Gatekeeper
    3. 3. Principe de fonctionnement
    4. 4. Création d’une règle OPA
    5. 5. Ressources à disposition de la communauté
Services managés Kubernetes
  1. Objectifs du chapitre et prérequis
  2. Service managé de Google : GKE
    1. 1. Présentation du service Google
    2. 2. Administration depuis la console Google
    3. 3. Installation de la commande gcloud en local
      1. a. Installation sur Debian/Ubuntu
      2. b. Mise en place de l’autocomplétion
    4. 4. Configuration de l’environnement
      1. a. Authentification auprès de Google Cloud
      2. b. Projet associé avec le contexte courant
      3. c. Activation de l’API
    5. 5. Gestion du cluster GKE
      1. a. Consultation de la liste des clusters
      2. b. Versions et régions disponibles
    6. 6. Création d’un cluster
      1. a. Options de création
      2. b. Lancement de la création du cluster
      3. c. Récupération du fichier d’accèsau cluster
    7. 7. Consultation du cluster
      1. a. Liste des nœuds
      2. b. Services démarrés
    8. 8. Délégation des droits d’accès
      1. a. Configuration des accès
      2. b. Principe du mécanisme sous-jacent
    9. 9. Suppression d’un cluster GKE
  3. Service managé Microsoft Azure : AKS
    1. 1. Présentation du service Azure
    2. 2. Administration depuis la console Azure
      1. a. Présentation de la console
      2. b. Consultation du tableau de bord Kubernetes
    3. 3. Installation de la commande az en local
      1. a. Installation sur Debian/Ubuntu
      2. b. Mise en place de l’autocomplétion
    4. 4. Authentification auprès du service Azure
    5. 5. Emplacement de déploiement
      1. a. Liste des emplacements
      2. b. Versions disponibles de Kubernetes
    6. 6. Création d’un cluster
      1. a. Création d’un groupe de ressources
      2. b. Lancement de la création du cluster
      3. c. Récupération du fichier de connexion
      4. d. Zone DNS par défaut
    7. 7. Consultation de la liste des clusters
    8. 8. Délégation des droits d’accès
    9. 9. Suppression d’un cluster AKS
  4. Service managé d’Amazon : EKS
    1. 1. Présentation du service Amazon AWS
    2. 2. Introduction de la commande eksctl
    3. 3. Configuration des accès Amazon
    4. 4. Installation des binaires
      1. a. Installation d’eksctl
      2. b. Installation de l’outil aws cli
      3. c. Vérification de la communication avec AWS
    5. 5. Création du cluster EKS
      1. a. Aide en ligne d’eksctl
      2. b. Options intéressantes à la créationd’un cluster
      3. c. Lancement de la création du cluster
    6. 6. Configuration des accès kubectl
    7. 7. Mécanisme de communication
    8. 8. Délégation des droits d’accès
      1. a. Configuration des accès
      2. b. Principe du mécanisme sous-jacent
    9. 9. Suppression du cluster
  5. Service Kubernetes OVHcloud
    1. 1. Présentation d’OVHcloud
    2. 2. Méthode de création du cluster etprérequis
    3. 3. Réseau des nœuds du cluster
    4. 4. Création du cluster Kubernetes
    5. 5. Suppression du cluster Kubernetes
  6. Infrastructure as Code
    1. 1. Origine du besoin
    2. 2. Installation d’OpenTofu
    3. 3. Génération des identifiants d’accèsOVH
    4. 4. Déclaration des objets dans OpenTofu/Terraform
    5. 5. Téléchargement des dépendances
    6. 6. Création de la plateforme
    7. 7. Test et utilisation du cluster
    8. 8. Destruction du cluster
  7. Accès en lecture-écriture multiple
    1. 1. Origine du besoin
    2. 2. Serveur NFS déployé dans Kubernetes
      1. a. Limitations
      2. b. Déploiement d’un serveur NFS
      3. c. Vérification du déploiement
      4. d. Test de création de volume persistant (PVC)
    3. 3. Service managé Amazon : EFS
      1. a. Consultation des instances EFS
      2. b. Création d’une instance EFS
    4. 4. Service managé Google : Filestore
      1. a. Consultation des instances Filestore
      2. b. Création d’une instance Filestore
    5. 5. Classe de stockage NFS
      1. a. Installation du chart
      2. b. Vérification de l’installation du chart
      3. c. Test de création d’une demande devolume persistant (PVC)
    6. 6. Classe de stockage Azure
Installation de Kubernetes en interne
  1. Objectifs du chapitre et prérequis
  2. Installation à l’aide de Kubespray
    1. 1. Origine du besoin
    2. 2. Pourquoi Kubespray ?
    3. 3. Principe de Kubespray
    4. 4. Prérequis des machines à administreravec Ansible
      1. a. Échange de clés SSH
      2. b. Escalade de droits sudo
    5. 5. Structure du cluster
      1. a. Architecture du cluster Kubespray
      2. b. Groupes de machines
    6. 6. Préparation des élémentsd’installation
      1. a. Clonage du dépôt Git
      2. b. Installation des prérequis
    7. 7. Préparation de l’inventaire Ansible
      1. a. Qu’est-ce qu’un inventaire ?
      2. b. Fichier d’inventaire d’exemple
      3. c. Test de la communication Ansible/SSH
    8. 8. Installation du cluster
      1. a. Configuration du cluster
      2. b. Lancement de l’installation
      3. c. Mise à jour du cluster
    9. 9. Accès au cluster
      1. a. Configuration de l’accès au cluster
      2. b. Utilisation d’un répartiteur decharge
      3. c. Vérification de la communication avec lecluster
  3. Environnement embarqué avec k3s
    1. 1. Présentation et but du projet
    2. 2. Installation de k3s
    3. 3. Communication avec le cluster
    4. 4. Ajout de nœuds au cluster
Exposition des applications sur Internet
  1. Objectifs du chapitre et prérequis
  2. Gestion des entrées DNS
    1. 1. Principe de fonctionnement
    2. 2. Prérequis
    3. 3. Retour sur le fonctionnement du domaine DNS nip.io
    4. 4. Activation du service DNS
      1. a. Console Cloud DNS Google
      2. b. Service DNS Zones d’Azure
      3. c. Service Route 53 d’AWS
    5. 5. Configuration DNS
      1. a. Opération à réaliser
      2. b. Console DNS OVH
      3. c. Vérification de la délégation
    6. 6. Gestionnaire de DNS
      1. a. Présentation de la brique external-dns
      2. b. Création du compte d’administrationDNS de Google Cloud
      3. c. Création du compte d’administrationDNS service Azure
      4. d. Création du compte d’administrationDNS Amazon (Route 53)
      5. e. Création d’un secret (Google etAzure)
      6. f. Déploiement d’external-dns
      7. g. Vérification du fonctionnement d’external-dns
  3. Exposition de services et répartition de charge
    1. 1. Présentation du mécanisme
    2. 2. Retour sur la notion de service
      1. a. Rôle d’un service
      2. b. Structure d’un service
      3. c. Type ClusterIP
      4. d. Type NodePort et LoadBalancer
      5. e. Type ExternalName
    3. 3. Service associé au proxy inverse
  4. Le contrôleur Ingress
    1. 1. Principe de fonctionnement
    2. 2. Le rôle du contrôleur Ingress
    3. 3. Structure d’une règle Ingress
    4. 4. Droits nécessaires pour un contrôleur
  5. Le contrôleur Ingress Google
    1. 1. Prérequis
    2. 2. Présentation du contrôleur GLBC
    3. 3. Déploiement de Mailpit
      1. a. Préparation de la règle Ingress
      2. b. Déploiement de l’application Mailpit
      3. c. Consultation de l’état de l’objetIngress
      4. d. Consultation du journal d’activité d’external-dns
      5. e. Consultation de Mailpit
  6. Le contrôleur Ingress Nginx
    1. 1. Pourquoi changer de contrôleur Ingress ?
    2. 2. Présentation du logiciel Nginx
    3. 3. Installation d’Ingress Nginx sur GKE (Google)
      1. a. Détermination du chart Helm à installer
      2. b. Espace de noms et configuration du chart
    4. 4. Utilisation du contrôleur
      1. a. Utilisation du champ spec.ingressClassName
      2. b. Vérification du déploiement
    5. 5. Annotations Ingress Nginx
    6. 6. Ajustement de la configuration du contrôleurNginx
      1. a. Récupération de l’originedu trafic
      2. b. Haute disponibilité et règles d’affinité/anti-affinité
      3. c. Gestion des contrôleurs Ingress
      4. d. Réservation et limitation des ressourcesdisponibles
  7. Le contrôleur Ingress Traefik
    1. 1. Présentation de Traefik
    2. 2. Installation du chart Helm
    3. 3. Utilisation du nouveau contrôleur Ingress
      1. a. Sélectionner le contrôleur IngressTraefik
      2. b. Création de la règle Ingress faisantappel à Traefik
      3. c. État des règles Ingress
    4. 4. Tableau de bord de Traefik
    5. 5. Annotations Ingress Traefik
    6. 6. Distribution de la charge et haute disponibilité
    7. 7. Réservation et limitation des ressourcesdisponibles
    8. 8. Pour aller plus loin
Sécurisation : accès aux applications
  1. Objectifs du chapitre et prérequis
  2. Mise en place de Let’s Encrypt
    1. 1. Présentation de Let’s Encrypt
    2. 2. Installation du chart Helm cert-manager
      1. a. Présentation du chart Helm
      2. b. Prérequis avant installation
    3. 3. L’émetteur de certificats (issuer)
      1. a. Principe du protocole ACME
      2. b. Structure de la déclaration d’un émetteur
      3. c. Exemple de déclaration Issuer Google
      4. d. Exemple de déclaration Issuer Azure
      5. e. Exemple de déclaration Issuer Amazon
      6. f. Limitations et certificats avec joker
    4. 4. Exemples de déclarations
      1. a. Serveur Let’s Encrypt de test
      2. b. Serveur Let’s Encrypt de production
    5. 5. Déclaration des certificats
      1. a. État des émetteurs de certificats
      2. b. Structure d’un certificat
      3. c. Certificat de test
      4. d. État du certificat
      5. e. Journal d’activité de cert-manager
      6. f. Consultation du secret
      7. g. Certificat de production
      8. h. Marche à suivre en cas de problèmes
    6. 6. Rattachement du certificat à la règleIngress
    7. 7. Automatisation de la gestion des certificats
      1. a. Certificat par défaut du contrôleurIngress Nginx
      2. b. Mécanisme d’annotations
      3. c. Émetteur de certificats par défaut
  3. Protection de l’accès aux applications
    1. 1. Origine du besoin
    2. 2. Mot de passe simple (HTTP basic)
      1. a. Principe de fonctionnement
      2. b. Création du secret à l’aidede htpasswd
      3. c. Import du secret
      4. d. Configuration de l’authentification
  4. Authentification basée sur OAuth2
    1. 1. À propos du protocole OAuth2
    2. 2. Principe de la solution
    3. 3. Création d’un identifiant GitHub
    4. 4. Déploiement du proxy
      1. a. À propos du proxy
      2. b. Configuration du chart Helm
      3. c. Déploiement du chart Helm
      4. d. État du déploiement
    5. 5. Déclaration des règles Ingress
      1. a. Description des règles Ingress
      2. b. Annotations Ingress de Mailpit
      3. c. Description Ingress du proxy OAuth
      4. d. Déclaration des règles Ingress
    6. 6. Tests de connexion
    7. 7. Restriction des accès
      1. a. Mécanisme d’autorisation
      2. b. Restriction par domaine e-mail
      3. c. Restriction par organisation GitHub
Polices réseau
  1. Objectifs du chapitre et prérequis
  2. Les polices réseau (network policies)
    1. 1. Présentation du mécanisme
    2. 2. Kubernetes Network Plugins
    3. 3. Polices réseau sur services managéset installation maison
    4. 4. Installation de Calico sur Minikube
      1. a. Activation de CNI sur Minikube
      2. b. Installation de Calico
    5. 5. Connexions entrantes
      1. a. Test de la connexion en interne
      2. b. Bloquer les accès internes
      3. c. Test de la règle
    6. 6. Connexions sortantes
      1. a. Test des connexions externes
      2. b. Restriction sur les règles sortantes
      3. c. Test de la règle
  3. Protection de l’application WordPress
    1. 1. Contexte
    2. 2. Déploiement de WordPress
    3. 3. Restriction des accès
      1. a. Référencement de l’ensembledes flux
      2. b. Restriction de tous les accès
      3. c. Autorisation de l’accès du contrôleurIngress sur WordPress
      4. d. Autorisation de l’accès entre WordPress etMariaDB
      5. e. Test des règles réseau
    4. 4. Ressources externes
Montée en charge automatique
  1. Objectifs du chapitre et prérequis
  2. Le serveur de métriques
    1. 1. Présentation de la brique metrics-server
    2. 2. Activation du serveur de métriques
      1. a. Vérification de la présence du serveurde métriques
      2. b. Activation sous Minikube
      3. c. Activation sur Amazon EKS
    3. 3. Consultation de la consommation des pods et des nœuds
      1. a. État des nœuds d’un cluster
      2. b. État des pods
  3. Activation de la montée en charge automatique
    1. 1. Test avec l’application Mailpit
    2. 2. Lancement d’un bench
      1. a. Présentation d’Apache Bench
      2. b. Installation d’Apache Bench
      3. c. Lancement du test initial
    3. 3. Gestion de la montée en charge
    4. 4. Lancement du test
      1. a. Test à froid : montée encharge des pods
      2. b. Test à chaud
      3. c. Diminution du nombre de pods
  4. Scalabilité des nœuds d’un cluster
    1. 1. Contexte
    2. 2. Présentation de l’autoscaler
    3. 3. Activation de l’autoscaler avec Google Cloud
    4. 4. Activation de l’autoscaler avec Azure AKS
    5. 5. Activation de l’autoscaler avec Amazon EKS
      1. a. Présentation du mécanisme de l’ASG
      2. b. Affichage des tags d’un groupe ASG
      3. c. Activation de l’autoscaler
      4. d. Vérification de l’activation du mécanismede l’autoscaler
    6. 6. Test de montée en charge
      1. a. Déploiement de WordPress
      2. b. Pods en attente de ressources
      3. c. État des nœuds
      4. d. Démarrage du pod
      5. e. Nettoyage des déploiements
  5. Définition de groupes de machines
    1. 1. Contexte
    2. 2. Les différents types de machines
      1. a. Les machines préemptives (Spot)
      2. b. Réservation d’instances
      3. c. Familles de machines
      4. d. Quelques exemples de familles de machines
      5. e. Utilisation d’accélérateursgraphiques (GPU)
      6. f. Quelques exemples de coûts
    3. 3. Création de groupes de machines
      1. a. Contexte
      2. b. Création d’un groupe avec Google
      3. c. Création d’un groupe avec Azure
      4. d. Création d’un groupe avec AWS EKS
      5. e. Création d’un groupe avec OVH
    4. 4. Mécanisme de tolérance et sélectionde nœuds
Surveillance à l’aide de Prometheus
  1. Objectifs du chapitre et prérequis
  2. Mise en place de Prometheus
    1. 1. À propos de Prometheus
    2. 2. Fonctionnement de Prometheus
      1. a. Architecture de Prometheus
      2. b. Le moteur Prometheus
      3. c. Les exporteurs Prometheus
    3. 3. Installation de Prometheus
      1. a. Choix du chart Prometheus
      2. b. Qu’est-ce qu’un opérateur?
      3. c. Déploiement de l’opérateurPrometheus
      4. d. Pods démarrés
      5. e. Objets déploiements
      6. f. Nouvelles ressources Prometheus
      7. g. DaemonSet : node exporter
    4. 4. Priorisation des briques de surveillance
      1. a. Problème de la surveillance
      2. b. Déclaration des classes de priorité
      3. c. Modification du déploiement de Prometheus
  3. Utilisation de Prometheus
    1. 1. Fonctionnement des métriques
      1. a. Consultation des métriques de Prometheus
      2. b. Présentation de l’interface de Prometheus
      3. c. Métriques de Kubernetes
      4. d. Déclaration des points de collecte dans Kubernetes
      5. e. Consultation des points de collecte dans Prometheus
    2. 2. Définition des alertes
      1. a. Consultation de la liste des alertes
      2. b. Structure d’une règle d’alerte
      3. c. Définition d’alertes
    3. 3. Gestionnaire d’alertes
      1. a. Rôle du gestionnaire d’alertes
      2. b. Consultation du gestionnaire d’alertes
      3. c. Configuration des alertes
      4. d. Désactivation des alertes scheduler et manager(clusters managés)
      5. e. Configuration de l’envoi des notifications
      6. f. Adresse de l’API de Slack
  4. Tableaux de bord Grafana
    1. 1. Présentation de Grafana
    2. 2. Configuration de Grafana
      1. a. Branchement au moteur Prometheus
      2. b. Définition des tableaux de bord
    3. 3. Interface Grafana
    4. 4. Sécurisation de l’accès à Grafana
  5. Suppression du chart de Prometheus
Centralisation des journaux d’activité
  1. Objectifs du chapitre et prérequis
  2. Principe de la centralisation des journaux
    1. 1. Architecture
    2. 2. Caractéristiques de l’agent déployé
    3. 3. Mécanisme de centralisation des journaux
  3. Centralisation dans le cloud
    1. 1. Centralisation à l’aide d’unservice managé
    2. 2. Google Stackdriver
      1. a. Présentation de Stackdriver
      2. b. Pod Fluent Bit (cluster GKE)
      3. c. Consultation des journaux
    3. 3. Azure Monitor
      1. a. Présentation d’Azure Monitor
      2. b. Consultation des journaux
    4. 4. Amazon Cloudwatch
      1. a. Présentation de Cloudwatch
      2. b. Activation de Cloudwatch sur le centre de contrôle
      3. c. Configuration de Cloudwatch
      4. d. Création de la police de communication avecCloudwatch
      5. e. Création d’un compte et rattachement à lapolice
      6. f. Création d’une clé d’accès
      7. g. Envoi des journaux dans Cloudwatch
      8. h. État des pods déployés
      9. i. Consultation des journaux dans Cloudwatch
  4. Centralisation des journaux avec Loki
    1. 1. Présentation de Loki
      1. a. Origine de Loki
      2. b. Loki vs Opensearch/Elasticsearch
      3. c. Conseil d’utilisation
    2. 2. Installation de Loki
    3. 3. Configuration de la source de données Grafana
    4. 4. Consultation des journaux dans Grafana
      1. a. Vérification des sources de données
      2. b. Consultation des journaux
  5. Centralisation des journaux avec Opensearch/Elasticsearch
    1. 1. Avertissements et limitations
    2. 2. À propos d’Opensearch et d’Elasticsearch
    3. 3. Déploiement des briques Opensearch/Elasticsearch
      1. a. Installation d’Opensearch
      2. b. Installation de l’agent Fluent-bit
      3. c. Installation de Kibanad/Opensearch Dashboards
    4. 4. État des différentes briques
      1. a. État du moteur Elasticsearch
      2. b. Agent Fluent-bit
  6. Gestion d’Opensearch/Elasticsearch
    1. 1. Utilisation de Kibana/Opensearch Dashboards
      1. a. Accéder à l’interface deKibana ou Opensearch Dashboards
      2. b. Création de l’index
    2. 2. Branchement sur Grafana
      1. a. Source de données Opensearch/Elasticsearch
      2. b. Création d’un objet ConfigMap
Maillage de services
  1. Objectifs du chapitre et prérequis
  2. Présentation d'Istio
    1. 1. Micro-services et mise en réseau de services
    2. 2. Présentation d’Istio
    3. 3. Principe de fonctionnement
  3. Installation d’Istio
    1. 1. Configuration d’external-dns
    2. 2. Dépôt des charts Istio
    3. 3. Installation d’istio
    4. 4. Configuration d’Istio
      1. a. Activation des tableaux de bord
      2. b. Configuration d’Istio
    5. 5. Configuration du composant Gateway Istio
      1. a. Présentation du mécanisme
      2. b. Installation du composant Gateway
      3. c. Génération du certificat
  4. Utilisation d’Istio
    1. 1. Injection de pods dans le maillage de services
      1. a. Installation d’istioctl
      2. b. Injection du sidecar à l’aide d’istioctl
      3. c. Injection du sidecar par annotation
      4. d. Désactivation du sidecar par annotation
    2. 2. Déploiement d’une application detest
      1. a. Principe de l’exposition d’applicationavec Istio
      2. b. Préparation du fichier de déploiementMailpit
      3. c. Déclaration du service Mailpit
      4. d. Création de l’objet Gateway
      5. e. Création du service virtuel (VirtualService)
    3. 3. Sécurisation des flux
      1. a. Activation de Mutual TLS (mTLS)
      2. b. Consultation des polices du service Mailpit
      3. c. Forcer l’utilisation de mTLS
  5. API Gateway
    1. 1. Origine du besoin
    2. 2. Principe de fonctionnement
    3. 3. Installation de l’API Gateway
    4. 4. Définition de l’objet Gateway
    5. 5. Définition de l’objet HTTPRoute
    6. 6. Configuration du module external-dns
    7. 7. Un mot sur les limitations actuelles
  6. Tableaux de bord
    1. 1. Présentation des différentes briques
    2. 2. Interface Kiali
    3. 3. Interface Grafana
    4. 4. Interface Jaeger
Compilation et stockage d’images Docker
  1. Objectifs du chapitre et prérequis
  2. Création d’une image Docker
    1. 1. Application d’exemple Flask HealthCheck
      1. a. Présentation de l’application
      2. b. Présentation des dépendances
      3. c. Description des dépendances
      4. d. Installation des dépendances
      5. e. Initialisation de l’application
      6. f. Fonction racine
      7. g. Lancement du programme
    2. 2. Environnement de compilation
    3. 3. Un mot sur les alternatives à Docker
    4. 4. Le fichier Dockerfile
      1. a. Présentation du format
      2. b. Création de l’image
      3. c. Compilation et tag de l’image
      4. d. Authentification sur le registre d’imagesDocker
      5. e. Pousser l’image sur le registre
  3. Image Docker multi-étape (multi-stage)
    1. 1. Origine du besoin
    2. 2. Exemple de compilation avec Maven
  4. Analyse d’images
    1. 1. Historique des commandes
    2. 2. Analyse de l’image : Dive
      1. a. Présentation de Dive
      2. b. Installation de Dive
      3. c. Consultation du contenu d’une image
  5. Analyse de failles de sécurité avec Trivy
    1. 1. Origine du besoin
    2. 2. Installation de Trivy
    3. 3. Lancement de l’analyse
    4. 4. Configuration de l’analyse
  6. Utilisation de registres Docker privés
    1. 1. Origine du besoin
    2. 2. Déploiement d’image d’unregistre privé
      1. a. Exposition de la problématique
      2. b. Création du secret
      3. c. Utilisation du secret
      4. d. Utilisation d’un compte de service
      5. e. Recopie d’un secret entre espaces de noms
    3. 3. Erreurs de récupération des images
      1. a. Détection des erreurs
      2. b. Erreur sur le nom de l’image
      3. c. Secret absent ou non spécifié
      4. d. Identifiants invalides
    4. 4. Services de registres managés
      1. a. Solutions managées
      2. b. Service Google Container Registry
      3. c. GitLab.com
Usine logicielle
  1. Objectifs du chapitre et prérequis
  2. Compilation à l’aide de GitLab
    1. 1. Application à compiler
    2. 2. Mécanisme de pipeline GitLab
    3. 3. Adresse et contenu du dépôt
    4. 4. Structure du fichier .gitlab-ci.yml
    5. 5. Exemple de fichier .gitlab-ci.yml de compilation d’image
    6. 6. Construction d’image à l’aidede Kaniko
    7. 7. Pour la suite
  3. Déploiement continu avec Jenkins
    1. 1. À propos de Jenkins
    2. 2. Installation de Jenkins
      1. a. Configuration du chart
      2. b. Vérification de l’installation
      3. c. Connexion à l’interface de Jenkins
      4. d. Installation d’extensions
  4. Pipeline de déploiement continu avec Jenkins
    1. 1. Prérequis
    2. 2. Présentation du mécanisme de déploiementcontinu
    3. 3. Stockage des identifiants Docker
    4. 4. Création de l’environnement develop
    5. 5. Création du pipeline
      1. a. Création du pod de compilation
      2. b. Squelette du pipeline de déploiement
      3. c. Récupération du code source
      4. d. Vérifications et tests
      5. e. Compilation de l’image Docker
      6. f. Connexion au registre et publication
      7. g. Mise à jour du déploiement de test
      8. h. Programme complet
    6. 6. Lancement de la compilation
      1. a. Création du job
      2. b. Lancement du build
    7. 7. Compte de service
      1. a. Opérations à réaliser
      2. b. Création d’un compte de service
      3. c. Création du rôle de mise à jour
      4. d. Affectation du rôle au compte de service
      5. e. Affectation du compte de service
      6. f. Relance de la compilation
    8. 8. Utilisation de Kaniko avec Jenkins
    9. 9. Mécanisme de Webhook
      1. a. Présentation du mécanisme
      2. b. Déclenchement du Webhook
      3. c. Création du Webhook
  5. Un mot sur Jenkins X
Packager son application avec Helm
  1. Objectifs du chapitre et prérequis
  2. Helm
    1. 1. Origine du besoin
    2. 2. Création d’un chart
    3. 3. Contenu d’un package
      1. a. Structure d’un package
      2. b. Variables .Values, .Chart et .Release
    4. 4. Adaptation à l’application Mailpit
      1. a. Résumé des travaux à réaliser
      2. b. Utilisation de l’image de Mailpit
      3. c. Correction sur les ports de service
      4. d. Ajout d’un ConfigMap
      5. e. Ajout du volume persistant
      6. f. Montage du volume dans le conteneur
      7. g. Test de déploiement
    5. 5. Dépendances
      1. a. Déclaration des dépendances
      2. b. Récupération des dépendances
      3. c. Déploiement du chart avec les dépendances
  3. Template Go
    1. 1. Principe de fonctionnement
    2. 2. Substitution du contenu d’une variable
    3. 3. Blocs conditionnels
    4. 4. Gestion des conditions
      1. a. Les valeurs de vrai ou faux
      2. b. Opérateurs de comparaison
      3. c. Conditions multiples et négation
    5. 5. Itération
      1. a. Affichage du contenu d’un tableau
      2. b. Suppression des sauts de lignes surnuméraires
      3. c. Itération sur un groupe fixe d’éléments
      4. d. Itération sur un tableau de hachage
      5. e. Accéder à une variable globale depuisune boucle
    6. 6. Filtres
    7. 7. Valeurs par défaut
    8. 8. Fonction template
      1. a. Exemple de définition de fonction
      2. b. Passage de paramètres et contexte global
    9. 9. Redéploiement sur changement de configuration
      1. a. Exposition de la problématique
      2. b. Principe de la solution
      3. c. Exemple d’implémentation
    10. 10. Génération de secret aléatoire « stable »
      1. a. Exposition de la problématique
      2. b. Principe de la solution et mise en œuvre
Restriction et délégation d’accès
  1. Objectifs du chapitre et prérequis
  2. Mise en place de quotas
    1. 1. Origine du besoin
    2. 2. Quotas par défaut sur un espace de noms
      1. a. Création d’un espace de noms
      2. b. Structure d’un objet LimitRange
      3. c. Exemple de définition de limitations
      4. d. Vérification de l’application deslimitations
      5. e. Test du mécanisme
      6. f. Analyse du problème
    3. 3. Quotas globaux sur un espace de noms
      1. a. Présentation des quotas de ressources (ResourceQuota)
      2. b. Structure d’un quota de ressources
      3. c. Exemples de restriction de consommation CPU et mémoire
      4. d. Champs pour positionner des limitations (champ hard)
      5. e. Test du mécanisme
      6. f. Nettoyage en fin d’exercice
  3. Authentification et autorisation
    1. 1. Origine du besoin
    2. 2. Prérequis
    3. 3. Activation des accès anonymes
      1. a. Activation des accès anonymes sur Minikube
      2. b. Création du fichier d’accès
      3. c. Affectation des droits en lecture
      4. d. Suppression des droits d’accès anonymes
    4. 4. Principe de l’authentification par certificat
    5. 5. Problème de la révocation des certificats
    6. 6. Génération du certificat
      1. a. Création de la clé et du certificatclient
      2. b. Emplacement de la PKI
      3. c. Signature du certificat
    7. 7. Authentification par certificat
      1. a. Récupération des informations deconnexion au cluster
      2. b. Utilisation du certificat pour l’authentification
      3. c. Test de la connexion
    8. 8. Quelques exemples d’erreurs de manipulation
      1. a. Problème d’autorité decertification
      2. b. Problème de couple clé/certificat
      3. c. Pas d’identifiant renseigné
      4. d. Utilisation de la demande de certificat à laplace du certificat
    9. 9. Attributions de droits administrateur sur le cluster
      1. a. Contexte et opérations à réaliser
      2. b. Affectation des droits administrateur à unutilisateur
      3. c. Test du nouvel administrateur
      4. d. Création de nouveaux utilisateurs
      5. e. Affectation des droits administrateur à ungroupe
      6. f. Administrateur d’un espace de noms
  4. Mécanismes d’authentification externes
    1. 1. Présentation du mécanisme
    2. 2. Communication entre le fournisseur OAuth2 et le cluster
    3. 3. Création des identifiants
    4. 4. Modification des options de démarrage (Minikube)
    5. 5. Configuration des accès clients
      1. a. Présentation de l’outil kubelogin/oidc-login
      2. b. Installation de kubelogin/oidc-login
      3. c. Génération des identifiants d’accès
      4. d. Renseignement du cluster et contexte
      5. e. Test de connexion
    6. 6. Attribution des droits d’accès
  5. Mise en place de comptes de service
    1. 1. Contexte
    2. 2. Création du compte de service
    3. 3. Attribution des droits d’administrateur aucompte de service
    4. 4. Création du fichier Kubeconfig
      1. a. Recopie des informations de connexion
      2. b. Jeton de connexion du compte de service
      3. c. Affectation de l’utilisateur
      4. d. Test de la connexion
      5. e. Révocation des accès
Les opérateurs Kubernetes
  1. Objectifs du chapitre et prérequis
  2. Utilisation des opérateurs
    1. 1. Présentation du principe
    2. 2. L’opérateur de Prometheus
      1. a. Retour sur le chart prometheus-operator
      2. b. Structure d’un objet Prometheus
    3. 3. Ressources externes sur les opérateurs existants
    4. 4. Présentation des opérateurs MySQLet MariaDB
      1. a. Choix de l’opérateur
      2. b. Déploiement de l’opérateur
    5. 5. Création d’une instance MariaDB
      1. a. Création du cluster
      2. b. Problèmes de droits sur le volume persistant
    6. 6. Objets créés au déploiementdu cluster
      1. a. Volumes persistants
      2. b. Services MariaDB
    7. 7. Test de la réplication
      1. a. Initialisation de l’environnement de test
      2. b. Connexion aux instances maître et esclave
      3. c. Création d’une table
      4. d. Alimentation de la table
      5. e. Changement du nombre de réplicas
    8. 8. Pour conclure
Annexes
  1. bash vs zsh
    1. 1. Les shells Unix
    2. 2. zsh et oh-my-zsh
    3. 3. Tester zsh et oh-my-zsh
    4. 4. Configurer zsh comme shell pour l’utilisateurcourant
  2. Déploiement du tableau de bord Kubernetes
    1. 1. Installation du tableau de bord (application dashboard)
    2. 2. Création du compte d’accès
    3. 3. Récupération du jeton de connexion
    4. 4. Décodage du contenu du jeton
    5. 5. Connexion au tableau de bord
Auteur : Yannig PERRÉ

Yannig PERRÉ

Administrateur système depuis de nombreuses années, Yannig PERRÉ est aujourd'hui spécialiste de la gestion d'applications à l'aide de conteneurs. Il associe naturellement à ce savoir-faire différents outils pour gérer les problématiques d'installation, de résilience, de scalabilité, de surveillance ainsi que de publication des applications sur Internet. Associée à sa longue expérience du monde open source, cette expertise lui permet de transmettre aux lecteurs des livres réellement efficaces sur la mise en œuvre d’Ansible, Kubernetes ou encore Prometheus et Grafana.
En savoir plus

Découvrir tous ses livres

  • Ansible Gérez la configuration de vos serveurs et le déploiement de vos applications (3e édition)
  • Prometheus et Grafana Surveillez vos applications et composants système
  • Ansible Configuration centralisée de serveurs et d'applications

Nos nouveautés

voir plus