Kubernetes et Docker : Masterclass sur les conteneurs | Cerulean Canvas | Skillshare
Recherche

Vitesse de lecture


1.0x


  • 0.5x
  • 0.75x
  • 1 x (normale)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Kubernetes et Docker : Masterclass sur les conteneurs

teacher avatar Cerulean Canvas, Learn, Express, Paint your dreams!

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Leçons de ce cours

    • 1.

      Promo CMC

      3:31

    • 2.

      Édition du cours

      1:53

    • 3.

      Comment créer une application Web ?

      4:21

    • 4.

      Démo : Application Web simple

      2:28

    • 5.

      Une forêt de VMs !

      2:08

    • 6.

      Bonjour les conteneurs !

      5:08

    • 7.

      Bonjour Docker !

      1:34

    • 8.

      Démo : Installer Docker sur Linux

      3:45

    • 9.

      Démo : Containerizing d'une application Web simple

      2:25

    • 10.

      Les étapes de conteneurisation

      0:53

    • 11.

      Comment fonctionne Docker ?

      3:51

    • 12.

      Un aperçu rapide du format Dockerfile

      2:25

    • 13.

      Démo : Instructions fondamentales de Dockerfile

      5:48

    • 14.

      Démo : Instructions de configuration de Dockerfile

      5:29

    • 15.

      Démo : Instructions d'exécution de Dockerfile

      4:31

    • 16.

      Démo : Instructions d'exposition de Dockerfile

      4:15

    • 17.

      Démo : diverses instructions de Dockerfile (partie 1)

      4:07

    • 18.

      Démo : diverses instructions de Dockerfile (partie 2)

      9:26

    • 19.

      Démo : Docker Hub dépassé

      4:06

    • 20.

      Comprendre les images d'encres

      3:01

    • 21.

      Démo : Travailler avec des images Docker | liste, Search, Push, et tagues

      11:37

    • 22.

      Démo : Connaître votre image Docker, l'inspection et l'histoire

      5:31

    • 23.

      Démo : Nettoyer les images Demo: docker

      1:48

    • 24.

      Un conteneur est né !

      1:52

    • 25.

      Cycle de vie contenant 

      2:54

    • 26.

      Démo : Révolutions pour créer des conteneurs

      2:52

    • 27.

      Démo : Travailler avec des contenants |Commons, arrêtez, Restart et renommer

      2:58

    • 28.

      Démo : Travailler avec des contenants |Attacher et Exec

      1:44

    • 29.

      Démo : inspire, et commencer le conteneur

      3:29

    • 30.

      Démo : Exposition de conteneur : Conteneurs Exposure de Container

      1:52

    • 31.

      Démo : Nettoyer le nettoyage ||Une prise et supprimer

      2:01

    • 32.

      Applications et introduction à la connexion réseau dans Docker

      2:41

    • 33.

      Modèle de réseau de conteneur, (CNM) de Docker

      2:28

    • 34.

      Les conducteurs de réseau de Docker, natifs de Docker, Native de Docker,

      4:05

    • 35.

      Démo : Créer des réseaux Docker

      1:41

    • 36.

      Démo : Travailler avec des réseaux Docker |Connecter, déconnectez, inspectez et propre

      5:01

    • 37.

      Démo : Ping un conteneur d'une autre

      4:19

    • 38.

      Ne perdez jamais un peu de vos données !

      5:26

    • 39.

      Démo : Travailler avec des volumes ||, répercuter, énumérer et supprimer

      3:33

    • 40.

      Démo : Lorsque les conteneurs rencontrent des volumes

      3:45

    • 41.

      Démo : Travailler avec des montures de liaison

      2:35

    • 42.

      Démo : Hoster des jeux Containerized 2048 !

      3:08

    • 43.

      Introduction à la composition Docker

      1:09

    • 44.

      Démo : installer des compositions docker sur Linux

      0:53

    • 45.

      Démo : Structure du fichier Docker Compose

      6:57

    • 46.

      Démo : Wordpress sur Compose

      7:20

    • 47.

      Démo : Introduction à la pose Docker Compose CLI

      2:51

    • 48.

      Introduction à l'orchestre conteneur et à l'armure Docker Swarm

      6:47

    • 49.

      Can mancher à Swarm ?

      1:31

    • 50.

      Démo : Installation VirtualBox

      1:29

    • 51.

      Démo : Installation de machine Docker

      0:37

    • 52.

      Démo : Configuration du gro Swarm Cluster

      2:22

    • 53.

      Démo : Initialiser un cluster à bras à bras

      1:54

    • 54.

      Démo : Travailler avec des nœuds Swarm nodes |et inspecter

      1:44

    • 55.

      Démo : Créer un service sur Swarm

      3:45

    • 56.

      Démo : Faire un nœud laissez votre Swarm

      2:47

    • 57.

      Démo : Mise à l'échelle et à la mise à jour avec Swarm

      3:25

    • 58.

      Que vous en avez celui le plus populaire ?

      3:30

    • 59.

      Kubernetes : Une histoire d'origine

      1:49

    • 60.

      Kubernetes : Architecture

      5:30

    • 61.

      Démo : Bootstrapping Kubernetes Cluster sur Google Cloud Platform

      19:35

    • 62.

      Qu'est-ce sont-ce que les Pods ?

      1:51

    • 63.

      Comment utiliser Kubernetes ? Impératif et déclaratif

      1:57

    • 64.

      Démo : Travailler avec des Pods : créer, analyser et supprimer (Impératif et déclaratif)

      9:41

    • 65.

      Cycle de vie d'un Pod

      1:15

    • 66.

      Démo : Gérer la durée de vie de Pod, avec des gestionnaires de cycle vie

      3:04

    • 67.

      Démo : Ajouter les commandes et les arguments du conteneur aux pods

      3:27

    • 68.

      Démo : Configurer les variables d'environnement de conteneur avec des pods

      4:33

    • 69.

      Étiquettes, sélecteurs et espaces de noms

      1:50

    • 70.

      Démo : Travailler avec Namespaces

      3:47

    • 71.

      Démo : Gestion de Pod Resource

      4:34

    • 72.

      Contrôles Kubernetes |, concepteurs et types Kubernetes

      0:54

    • 73.

      Introduction aux Replicasets

      1:08

    • 74.

      Démo : travailler avec des Replicasets

      6:41

    • 75.

      Introduction aux déploiements

      1:05

    • 76.

      Démo : travailler avec des déploiements

      4:37

    • 77.

      Introduction aux emplois

      1:15

    • 78.

      Démo : Travailler avec des emplois

      3:02

    • 79.

      Introduction aux services et types de service

      3:40

    • 80.

      Démo : Travailler avec des services ClusterIP

      3:45

    • 81.

      Démo : Travailler avec des services NodePort

      3:34

    • 82.

      Introduction au stockage dans Kubernetes

      2:33

    • 83.

      Démo : Monter le volume à un Pod

      4:47

    • 84.

      Démo : Monter le volume prévu à un Pod |Secrets

      4:01

    • 85.

      Démo : Bonne combinaison MySQL Wordpress avec Kubernetes

      7:47

    • 86.

      Étude de cas Blackrock

      1:34

    • 87.

      Éviction de node d'un Cluster Kubernetes

      2:33

    • 88.

      Démo : Rolling Updatez |Rousses, pause, vérification de statut

      3:52

    • 89.

      Introduction aux taints et Tolerations

      2:22

    • 90.

      Démo : Planifier les pods avec Taints

      8:48

    • 91.

      Démo : Autoscaling Kubernetes Cluster avec HPA

      3:33

    • 92.

      Démo : Déployer Apache Zookeeper avec Kubernetes

      18:47

    • 93.

      Étude de cas Pokemon Go

      2:40

    • 94.

      Kubernetes ou Managed Kubernetes sur Cloud ? Faites un choix !

      2:46

    • 95.

      Démo : Configuration Google Kubernetes Engine Cluster Engine Cluster

      5:39

    • 96.

      Démo : Accéder à GKE Cluster

      4:08

    • 97.

      Démo : Volume et charge Persistent sur GKE

      6:49

    • 98.

      Démo : Kubernetes sur Microsoft Azure Cloud

      11:55

    • 99.

      Démo : Extra - Docker UI avec Kitematic

      8:37

    • 100.

      Démo : Extra - Minikube série |Installation Minikube

      2:15

    • 101.

      Démo : Extra - Minikube Series |Démo, commencer avec Minikube

      10:20

    • 102.

      Introduction à Kubernetes sans Serverless

      2:42

    • 103.

      Activer l'API Cloud Run sur GCP

      3:35

    • 104.

      Votre 1st service sur Cloud Run

      5:17

    • 105.

      Conclusion

      0:50

  • --
  • Niveau débutant
  • Niveau intermédiaire
  • Niveau avancé
  • Tous niveaux

Généré par la communauté

Le niveau est déterminé par l'opinion majoritaire des apprenants qui ont évalué ce cours. La recommandation de l'enseignant est affichée jusqu'à ce qu'au moins 5 réponses d'apprenants soient collectées.

2 415

apprenants

--

projets

À propos de ce cours

Mise à jour 2021 !

  • Introduction aux plates-formes de conteneurs sans Server.
  • Démarrer avec Cloud Run et exécuter votre 1er service conteneurs sur Cloud Run.

Conteneurs

Les conteneurs sont comme ce chef qui peut nourrir une famille entière avec un bac, juste un bac, et ce n'est pas une exagération ! Les conteneurs donnent à les entreprises des entreprises à l'échelle sans crainte et gérer leurs applications Web sans blocage, sans blocs. C'est la raison principale pour laquelle les micro-entreprises sont migrantes vers Cloud. Tout cela a sans aucun doute, à une demande énorme pour les professionnels qui ont des compétences en conteneurs.

Quelles compétences avez-vous besoin ?

  1. Une plateforme pour créer, exécuter et navets pour la créer, l'un des conteneurs, comme Docker.

  2. Un outil solide pour contrôler/orchestrer vos conteneurs, comme Kubernetes !

Ce cours vous accompagne dans un merveilleux parcours d'apprentissage de contenants à l'aide de composants clés de Docker et Kubernetes. Vous avez besoin de connaissances très de base sur les principes fondamentaux de Linux comme les fichiers et les processus avec un peu de lignes de commande Linux.

Le parcours de conteneurisation avec Docker :

Ce cours de conteneur, serait une understatement. de Docker. Il est littéralement synonyme pour les contenants ! Suivre des sujets abordés dans ce cours, solidify la base logique de ce cours.

  • Vous ne pouvez que la technologie si vous savez comment cela fonctionne et c'est exactement pourquoi vous apprendrez l'architecture Docker, et comment ses composants fonctionnent.

  • Dockerfile peut sembler simplement un fichier qui décrit les spécifications d'application. C'est parce que c'est probablement le moyen le plus simple mais efficace, d'effectuer le développement d'applications à partir de rien.

  • Docker CLI est intuitif et inspiré votre système Linux CLI. S'adapter et c'est un gâteau !

  • Les images et les conteneurs Docker sont le moyen le plus portable et fiables de expédier votre micro-service ou votre application Web sans vous inquiéter sans aucune soucieuse de les questions comme « va-s'y les infrastructures ? »

  • Une fois que vous êtes assez familiarisé avec les contenants, Docker Networks et Volumes allons ouvrir un nouveau monde des opportunités. Votre conteneurisation deviendra plus fiable et commencera à servir son véritable objectif.

  • Docker Compose combinera tous les apprentissages et la fera passer au niveau supérieur avec des applications multi-container inter-dépendantes.

Une fois que vous aurez appris tout cela, vous aurez envie de savoir ce que vous pouvez avec des conteneurs et comment vous pouvez faire à la prochaine étape !

Le parcours orchestration avec Swarm et Kubernetes :

« Avec un pouvoir élevé, vous êtes une grande responsabilité ?

De même qu'une grande quantité de contenants, vient une grande quantité d'orchestration !

  • Vous voulez déployer 4 nœuds sur votre cluster, mais vous pouvez seulement avoir un nœud SSD. Et vous devez vous assurer qu'il n'accueille que des contenants qui demandent SSD explicitement le SSD. Quoi faire ?

  • Vous ne voulez pas que des conteneurs de rondelles autour de vos nœuds et ne servent même pas 10 % de leurs capacités, vous voulez également que vos clients ne touchent pas 404 lorsque le trafic n'est au somme, le culotte. Vous n'avez pas le temps ou la main, pour garder votre nombre de répliques de serveurs Web dans la vérification. Quoi faire ?

  • Vous êtes un expert Kubernetes pro-on-premise mais votre prochain projet sera hébergé sur une plateforme cloud publique comme GCP ou Azure. Vous n'avez pas faite, mais un peu poussif vous aidera beaucoup ! Quoi faire ?

Ce cours est une réponse unique à toutes ces questions. Il couvre les Kubernetes et Docker Swarm et vous assure que vous êtes confiant et capable de faire un appel lorsque le temps vient !

Même qu'un orchestre conteneur n'est pas sans conteneurs eux-mêmes, Kubernetes semble être la plus grande avancée dans le monde de DevOps. Ce cours explique Kubernetes dès le début. Non, je veux dire LITERALLY dès le début (Origin. C'est une histoire intéressante). Il couvre tous ces sujets importants avec des exemples qui ont à la fin de ce cours, vous pouvez utiliser et apprécier des contenants et nous le faisons aussi !

  • Architecture Kubernetes (Composants, membres, nodes, interactions )

  • Objets Kubernetes (Pod, Handl, Charges de travail, Contrôles, Services, Volumes)

  • Opérations (trier, configuration, programmation, étaler, dépanner, décourage, décourage, restriction)

  • Exemples d'applications (Nginx préféré nginx et main, Page d'accueil personnalisée, Logs Stdout , blog Wordpress avec MySQL, Apache zookeeper etc).

  • Kubernetes comme service (GCP, Azure)

  • Études de cas (Blackrock, Niantic)

Avec cela dit, rendez-vous dans le cours !

NOTE : Les codes du cours peuvent être téléchargés à partir de ce lien

Bon travail !

Rencontrez votre enseignant·e

Teacher Profile Image

Cerulean Canvas

Learn, Express, Paint your dreams!

Enseignant·e
Level: Beginner

Notes attribuées au cours

Les attentes sont-elles satisfaites ?
    Dépassées !
  • 0%
  • Oui
  • 0%
  • En partie
  • 0%
  • Pas vraiment
  • 0%

Pourquoi s'inscrire à Skillshare ?

Suivez des cours Skillshare Original primés

Chaque cours comprend de courtes leçons et des travaux pratiques

Votre abonnement soutient les enseignants Skillshare

Apprenez, où que vous soyez

Suivez des cours où que vous soyez avec l'application Skillshare. Suivez-les en streaming ou téléchargez-les pour les regarder dans l'avion, dans le métro ou tout autre endroit où vous aimez apprendre.

Transcription

1. Promo CMC: Salut. Bienvenue dans cette masterclass de conteneurs. Vous êtes à la recherche d'un nouvel emploi ou d'un meilleur emploi en développement ? Êtes-vous intéressé à faire une carrière à long terme en tant que Dobbs à Jinya ? Pensez-vous que les conteneurs, docker et communautés sont les meilleures compétences à acquérir ? Eh bien, nous devons dire que votre choix est génial. Les conteneurs sont l'une des avancées technologiques les plus changeantes. industries du monde entier rendent leur processus de développement et de déploiement d'applications plus rapides , moins onéreux et plus fiables. Dans le même temps, même les petites startups n'hésitent pas à se qualifier, puisque le risque financier et les ressources ont considérablement diminué. Avec une telle acceptation à grande échelle à travers le monde, les conteneurs sont véritablement devenus un mouvement. Comme vous l'avez deviné. Cela a également entraîné une augmentation significative des demandes et des opportunités pour les professionnels et les experts certifiés possédant des compétences en conteneurisation telles que docker et kubernetes. C' est pourquoi, si vous regardez les tendances de Google, vous pouvez facilement dire que ces technologies ne montrent aucun signe d'arrêt. Donc, si vous voulez apprendre des conteneurs à partir des bases et amener vos compétences à un niveau professionnel , vous êtes au bon endroit entre de bonnes mains. Nous sommes un groupe d'expériences d'éducateurs ingénieux et d'experts certifiés sur docker et les communautés, et nous avons aidé à élaborer le discours pour s'assurer qu'avec seulement des connaissances de base hors limites, vous pouvez apprendre fièrement et pacifiquement l'ensemble contenu. Parlant du contenu hors du cours, Docker est la plate-forme de stockage la plus populaire et Kubernetes est l' orchestrateur le plus populaire , il est donc logique qu'une classe de maître couvre les deux. Totalement à partir des configurations et des fichiers Dr, ce cours couvre tout, y compris les images docker, conteneurs, les réseaux, stockage, composition docker et l'essaim docker. Une fois que vous avez consolidé vos concepts de conteneurs, vous apprenez sur l'orchestration hors tension avec kubernetes sans vous précipiter du tout. Vous apprenez les communautés, l'architecture, les charges , les services, les volumes sur beaucoup de tâches d'orchestration avec des exemples intéressants. Vous ressentirez le sens de l'accomplissement lorsque vous apporterez à vos serveurs Web un bloc WordPress . Votre jeu préféré sont même un groupe de zookeeper Apache minuscules conteneurs. Vous vous sentirez connecté à l'industrie avec des études de cas vraiment sur les entreprises populaires et produits qui ont utilisé des conteneurs ces derniers temps quand tout va vers le cloud, comment peut vraiment nous contenir derrière vous apprendrez comment prendre vos connaissances sur hébergé sur des plateformes de cloud public telles que Google Cloud et Microsoft Azure. Ce n'est pas tous les biens et les quiz vous assureront que vous ne faites pas de sucrés de prés, syntaxe et de sémantique. Cheats rendra une division de commande amusant et plus rapide. Les directives de certification vous aideront à choisir les examens appropriés et à dissuader les directives de pratique minée . Nous avons également reconnu que les conteneurs sont une technologie en pleine croissance, sorte que les communautés plus sombres et les communautés sont sûres d'aider les mises à jour des fonctionnalités et de nouveaux sujets à apprendre. Nous maintiendrons ce cours à jour pour nous assurer que vous cultivez également avec des contenants. Alors qu'attendez-vous ? Commençons ou merveilleux voyage avec contenir une masterclass. 2. Édition du cours: Parlons du contour du parcours. Nous commencerons par une section d'introduction où nous aborderons les bases des applications, conteneurs et docker. Ensuite, nous allons approfondir l'architecture de Dacca et apprendre à écrire des fichiers DACA . A la fin de la session, vous recevrez votre premier tricheur T hors de ce cours. Ensuite, nous allons comprendre et travailler avec des images docker et des conteneurs en utilisant la ligne de commande docker après avoir compris le modèle de réseau de conteneur et comment les conteneurs communiquent dans différentes situations, qui implémentera différents médecins réseaux et de jouer autour d'eux. Ensuite, nous allons jeter un oeil à différents objets de stockage hors Docker et créer quelque chose en les utilisant , ce qui sera à la fois instructif et amusant. Une fois que nous sommes familiers avec la plupart des objets du médecin, nous allons les amener à l'étape suivante où nous pouvons créer plusieurs ressources à partir d'un seul fichier en utilisant docker compose. Ensuite, nous allons comprendre ce que signifie l'orchestration et faire une orchestration de base. Avec les médecins chaleureux, nous ferons une comparaison étroite entre les médecins chauds et kubernetes, et lorsque vous serez assez capable de faire votre choix entre les deux, les orchestrateurs passeront à l'architecture des communautés et comprendront comment cela fonctionne. Ensuite, nous allons jeter un oeil sur les pièces et autres charges de travail hors communautés et effectuer beaucoup d' orchestration pour différentes applications. Nous allons également jeter un oeil à l'une des études de cas les plus importantes au large de Kubernetes. Nous allons voir comment mettre en place une nouvelle, héberger des communautés sur le cloud avec des démonstrations et une étude de cas vraiment unique, et enfin conclure le cours avec un aperçu des examens de certification. Ce que ces apprentissages signifient pour vous et quel genre de perspectives professionnelles pourraient vous être ouvertes. Mais ce ne sera pas la fin. Il y aura beaucoup de mises à niveau et de bonus à venir régulièrement. Oh, et au fait, vous pouvez trouver tous les cordons comme le fichier Yamil et Dr Files dans la section Resource Is cette conférence. Avec cela à l'esprit, commençons à apprendre. 3. Comment créer une application Web ?: avant de commencer à comprendre et à travailler avec les conteneurs en général, il est utile de jeter un coup d'oeil rapide sur comment faire en sorte que les applications Web soient exploitées ? Vous pourriez même demander ce qui est au-dessus de mon application, puisque le terme est assez largement utilisé, mais il est assez superficiellement exploré. Jetez un oeil à certains de ces exemples. Des outils de productivité comme G suit, des géants des médias sociaux comme Facebook, applications de chat vidéo comme les plateformes de divertissement Skype comme les services de paiement Netflix comme PayPal ou même la plate-forme d'apprentissage Comme vous. Demi lui-même sont toutes les applications Web d'une manière ou d'une autre, qui signifie que vous utilisez l'interface d'application Web en ce moment même si nous devons la définir . Ah, Web ou application basée sur le Web est tout programme qui est accessible ou une connexion réseau en utilisant Http plutôt que existant dans une mémoire de périphériques. Bien sûr. La définition est flexible et vous pouvez choisir d'utiliser un protocole ou un autre. Mais dans une perspective plus large, il s'agit de ne pas utiliser votre appareil comme tablette PC ou mobile à des fins informatiques. Au lieu de cela, nous laissons ces services puissants coûteux et fiables faire le levage lourd, et nous avons juste accès au résultat hors sont des données demandées à partir d'une interface Web Comme http, cela a tellement d'avantages avec juste gon être négligé. abord, toutes les performances des applications ne seront pas déterminées ou limitées par le matériel sur lequel elles sont exécutées. Cela signifie également que nous pouvons presque dire adieu à ces longues listes d'exigences matérielles que nous avons utilisées pour vérifier avant d'essayer un nouveau logiciel. Les exigences sont toujours là, mais ils sont tout à fait standard, peut-être aussi améliorer la vitesse. Maintenant, vous pourriez penser que la vitesse n'est qu'un autre périmètre de performance. Mais ici, la vitesse peut se référer à des performances non Laghi, mises à jour plus rapides et une croissance globale plus rapide de l'organisation. En général, la vitesse est également représentative du cycle de développement de produits plus court. Depuis le déploiement des mises à jour sera plus rapide et les commentaires des utilisateurs peuvent être pris et traités rapidement, comme nous venons de le mentionner. Depuis l'accès aux orteils de l'exigence matérielle, ces abs sont assez générés. Comme les jouets de consommation de base et la capacité de navigation sur le Web, ces applications sont accessibles par un plus large éventail d'appareils par de plus en plus de consommateurs. En fait, de nombreux médias sociaux populaires et l'utilité APS aussi les appareils variables la politique de ne pas posséder mais accéder aux données améliore également la sécurité globale des consommateurs et des hôtes. Et tout cela conduit à une meilleure idée. Économie. Il ne s'agit pas seulement d'APS devenir moins cher après s'être levé de ses cartes. De nombreux modèles de revenus, comme Freemium être comme vous allez et ajouter la génération de revenus basée sur la génération de revenus ont considérablement augmenté. Pas seulement papa. Les transactions sont devenues plus transparentes à tous les niveaux, comme les entreprises, les consommateurs et même le gouvernement. Enfin, le cauchemar des entrepreneurs, qui les hantaient depuis des décennies, est devenu un véritable Disneyland. Oui, nous parlons de faire évoluer les entreprises ne savent pas comment investir dans le remorquage. Matériel sous-utilisé pris compétence au fur et à mesure qu'ils grandissent depuis maintenant, avons-nous une idée juste ? Quelles sont les cartes et pourquoi les utilisons-nous ? Allons directement au business. Il y a trois étapes au processus de faire Web abs en premier, faire ou le construire sur l'environnement approprié. Maladie. Enveloppez notre paquet avec le support et les instructions nécessaires pour l'expédier ou le livrer à la ligne intendant pour le consommateur et finalement loué toute votre machine ou hébergé sur votre serveur pour que d'autres y aient accès. Dans la prochaine conférence. Qui va commencer à créer des applications Web 4. Démo : Application Web simple: Installez le serveur Web Engine X sur notre machine locale, et le serveur Web suivant est l'exemple le plus vanillé d'une application Web. Pour votre information, nous sommes ouverts à 16.4 sur cette machine. Et maintenant, commençons par basculer vers les privilèges utilisateur root. Comme vous pouvez le voir, nous avons passé aux privilèges root. Maintenant, nous pouvons commencer notre installation en téléchargeant d'abord la clé PGP ou assez Good Privacy pour Engine X. Le but de ce faire est de s'assurer que lorsque nous installons en génétique, les binaires sont vérifiés. La clé a été téléchargée. Maintenant, passons à E T. C slash répertoire AP avec un moins commun, listons le contenu. Nous avons un tas de fichiers ici, mais ce qu'il nous faut c'est des sources Démarrer le fichier de liste. Donc, nous allons ouvrir la liste des points sources avec l'éditeur de texte Nano. Vous pouvez utiliser n'importe quel éditeur de texte que vous aimez, mais dans ce cours, nous allons surtout nous en tenir à Nano. Comme vous pouvez le voir, ce fichier contient beaucoup de liens hors. Ce lien nos sources pour open toe pour trouver des mises à jour à la fin du fichier basé sur les deux lignes. Ces lignes indiquent la partie de mise à jour pour l'application du moteur X lorsqu'il est installé, et nous avons mis à jour plus loin dans le futur. Il a sauvé le fichier et quitter Nano juste pour s'assurer que nous n'avons pas de pendaison dans la prochaine installation. Ensuite, l'application est supprimée et la prochaine commune. Cette commande s'assure que toutes les instances précédemment installées hors de l' installation de Engine X sont complètement supprimées. Maintenant, nous allons une application obtenir de la date pour refléter les changements que nous avons faits dans les sources. Démarrer le fichier de liste. C' est vous voyez D commander deux fois pour revenir là où nous avons commencé. Maintenant, installons Engine X en utilisant apt get install dans la commande suivante. Une fois l'installation terminée, nous pouvons le vérifier en allant navigateur Web toe. Un hôte local d'ouverture sur le Port 80 Well, l'installation a été réussie. Le moteur X gagne correctement. C' était un exemple d'installation et d'exécution du moteur d'application Web le plus simple et vanille X serveur Web 5. Une forêt de VMs !: Nous avons vu les avantages hors où les cartes et comment génial ici. Mais cela ne veut pas dire que cette pièce n'a pas de revers. Il y a tellement de robots disponibles sur les marchés. Il y a tellement de clones hors de certaines de vraiment bonnes idées, et aussi de nombreuses applications Clickbait, qui se révèlent être rien d'autre que des planches d'ajout infinies. Et malheureusement, même le marché tat ne montre aucun signe, s'arrêtant du tout. Et alors que la liberté de choisir l'APP est toujours dans la main du consommateur, tous ces abs sont hébergés, et ils génèrent du trafic, occupant la mémoire physique et le stockage dans certains hors des datacenters Tout en travaillant avec médiums. Il est assez commun orteil ont des problèmes où l'application fonctionnait en douceur sur l'environnement du développeur , mais il était une épave de train sur la machine de bureau. Pire encore, il se bloque sur la machine cliente. Puisque nous aidons la transition de l'orteil cascade agile et un doux développe des modèles, les mises à jour se déploient plus rapidement que jamais. Toi. Et si vous n'êtes pas au courant de ces modèles, demandez-vous ceci. Combien de fois avez-vous reçu des mises à jour pour le repos doux il y a 10 ans, et combien de fois un an avez-vous écorché l'application Facebook sur votre mobile. Bien que des mises à jour plus rapides soient bénéfiques pour les entreprises et les consommateurs, il apporte d'énormes responsabilités sur le système Edmunds pour s'assurer qu'aucune des mises à jour ne compromet la stabilité de l'application et de réduire autant que possible les temps d'arrêt. Nous finissons par utiliser encore plus V EMS, l' ensemble de l'application Internet activé et augmenter les données. La science génère beaucoup plus tard et remplit des milliers de serveurs tous les jours avec la base de données ou ont été tous l'utilisation hors service. Williams vient d'augmenter de manière significative. Vous faites une option à partir de leurs cartes et micro modèles de service, et, comme vous l'avez peut-être imaginé, cela n'a entraîné que des forêts hors serveurs tout autour de la boucle. 6. Bonjour les conteneurs !: sur l'abstraction à Application Layer, qui empaquète les codes dans les dépendances ensemble, nous allons une grande ville et étendre cette définition plus loin. Cadenas sur l'abstraction chez Application Leah, qui regroupe les cordons et les dépendances. Cela signifie qu'au lieu de simplement expédier les applications, conteneur expédier l'application pendant l'environnement de temps ainsi, et il a toujours réussi à rester de petite taille. Comment ? Comparons-les architecturalement avec Williams. Dans une architecture traditionnelle de William, nous avons, ah, hyper visière comme l'hyper V ou les donner sur l'infrastructure matérielle. Ceux-ci sont également appelés hyper risers de type 1, car ils n'ont pas besoin d'un système d'exploitation hôte. L' invité cheval une provision sur le dessus de hyper sage et ils acquièrent cet environnement virtuel isolé . Dans certains cas, nous obtenons un type deux hyper sage, comme la boîte de bijoux de montre d'Oracle, où nous avons besoin d'un système d'exploitation hôte, et le reste de la partie est à peu près la même. Et c'est ainsi que nous en dysfonctionnement, dans un sens très large, revenons aux conteneurs. La plus grande différence par rapport à Williams est qu'ils n'ont pas de systèmes d'exploitation devinés, conteneur et l'environnement temporel est utilisé au lieu d'hyper sage. Qu' est-ce que vous pouvez demander maintenant, Disons que c'est un logiciel qui gère et atterrit les conteneurs. Les conteneurs contiennent la cour d'application sur les dépendances, comme nous venons de le voir, Les dépendances ne signifient pas seulement des bibliothèques externes ou tierces. Cela signifie également toujours des dépendances de niveau. La logique derrière une telle mise en œuvre est que toute la variance Lennox partage le même bien Lennox, plus ou moins. Il ne sert à rien de dupliquer le même ensemble de fichiers ou et ou dans plusieurs Williams si tous les conteneurs peuvent simplement y accéder dans leur propre environnement isolé. Cela dit, qu'en est-il des fichiers, qui sont rares ou d'être de taille libre ? Les fichiers, qui sont spécifiques à l'Oise ? Les conteneurs de puits les contiendront avec l'application. Et puisque le processus de fabrication des conteneurs et de leur exécution est effectué par le même environnement de conteneur et de temps, il n'y aura pas de conflit hors environnement. Si cette information est trop soudaine pour vous, ne vous inquiétez pas. L' intention de mentionner tout cela est juste de vous faire savoir que comment les conteneurs peuvent atteindre le même niveau d'isolement que Williams, mais tout en partageant les ressources avec l'hôte toujours au lieu de les dupliquer et ce qui se passe parce que hors que les conteneurs de puits consommaient moins de stockage et de mémoire sans étirer les faits du tout. Les gigaoctets se transforment littéralement en mégaoctets. De cette façon. Les expédier est également plus facile. Nous n'expédions pas les Wiens entiers ou une longue liste d'instructions. Nous venons d'expédier des conteneurs prêts à fonctionner. Et puisque toutes les dépendances nécessaires sont également emballées avec les conteneurs, cela fonctionne-t-il sur l'environnement des développeurs ? Cela fonctionnera aussi sur votre machine, puisque nous avons réduit que la ressource est mise à l'échelle devient facile et moins cher. Même si vous avez besoin de créer 10 réplicas supplémentaires à partir d'un dos et d'un conteneur, vous voulez probablement comment dépenser de l'argent pour acheter ou louer un nouveau serveur. En fait, si vous avez besoin de déployer des mises à jour, vous pouvez continuer à fonctionner vos applications en étendant votre nombre de conteneurs répliqués , et vous pouvez atteindre zéro temps d'arrêt. Tout cela semble attrayant et révolutionnaire, mais si nous rapportons cela aux industries qui utilisent réellement des conteneurs bien, Google pionnier en utilisant des conteneurs orchestrés il y a des années quand ils ont commencé à faire face ou à la misère quantité de données. Ces jours-ci, des entreprises comme Expedia, PayPal et GlaxoSmithKline sont Wallenda re se fournir comme les références et études de cas en dehors d'eux. établissements d'enseignement comme l'Université Cornel et les géants du jeu comme Niantic, qui est devenu un énorme succès après Pokemon aller sur tous en utilisant des conteneurs, entreprises sont progressivement migrer vers des conteneurs que beaucoup hors vous pourriez déjà savoir. Drops emplois augmentent rapidement et les conteneurs sont une partie essentielle de l'ensemble développe le mouvement. Dans la prochaine conférence, nous allons enfin nous présenter avec Docker et nous commencerons à l'apprendre. 7. Bonjour Docker !: Il est temps que nous commencions avec l'acteur clé hors de notre parcours. Dr. Docker est une plate-forme ouverte pour les développeurs et les modifications kystes de construire, expédier et d'exécuter des applications conteneurisées. En d'autres termes, il s'agit d'une plate-forme de mise en conteneur. Son médecin est la seule plate-forme de son genre. Eh bien, non, certainement il y en a d'autres comme la fusée, mais le docteur est définitivement le plus important. Au moment où le discours est créé, médecin est testé et testé et c'est un premier choix de l'industrie à l'unanimité. Cela signifie que si vous voulez affiner vos compétences en matière de conteneurisation, Docker est potentiellement le meilleur choix pour diverses raisons, telles que plus d'industries l'utilisent afin qu'il puisse vous atterrir sur plus d'emplois religieux. Il est open source et bénéficie d'un énorme soutien de la communauté. Ah, beaucoup d'applications tierces sont disponibles pour prendre en charge DR. Bien qu'il soit conçu pour Lennox, il peut être utilisé sur Windows et Mac OS. Pour ceux qui n'ont tout simplement pas d'autre choix, il y a aussi d'autres aspects, mais il ne sert à rien d'inonder vos têtes cette information, laquelle vous pourriez ne pas être en mesure de vous rapporter, qui entrera dans ceux plus tard dans ce cours. Dans la prochaine conférence, nous allons installer Docker sur une machine Lennox 8. Démo : Installer Docker sur Linux: Dans cette démo, nous allons installer Docker sur open to 16.4 ou même à Zaenal. Commençons par exécuter une commande apt get update standard. Une fois que nous avons terminé avec cela, installons certains des prérequis, comme au transport https pour nous assurer que notre machine peut communiquer via les certificats d' autorité https , Go et Software Properties Common, qui contient certains des objets du Golan qui seront utilisés par Dr et l'installation est réussie. Maintenant, nous allons télécharger GP geeky pour Docker et ajouté orteil sur la machine. Et pour nous assurer que nous n'obtenons pas une longue liste des processus qui se produisent en arrière-plan , utilisons le , drapeau f s l pour garder notre réserve aussi petite que okey et cela montre OK, ce qui signifie que nous avons notre GP geeky. Vérifions cette clé en utilisant pseudo clé d'application empreinte digitale commune. Nous pouvons vérifier que nous avons bien reçu la clé correcte en cherchant les huit derniers caractères de l'empreinte digitale, qui devraient être zéro e. D. F. Cd 88 Cette information est fournie par le Dr Lui-même, ce n'est donc pas grand-chose à vous de le comprendre. Et oui, notre clé a ces caractères comme ses huit derniers chiffres. Maintenant, exécutez cet orteil de commande. Ajouter un dépôt appelé stable et au contenu hors téléchargement point docker dot com slash slash Lennar cubain à sur elle, il a aidé à condition que le drapeau ls être souligné. Lancez le tiret CS pour vous assurer que Docker fournit les fichiers corrects, ce qui signifie que les fichiers pour Urban two senior sont ouverts à 16.4 dans notre référentiel stable. Exécutons à nouveau la mise à jour pour refléter les modifications. Puis Sudo apt obtenir installer Dr C E pour enfin installer docker tiret C E signifie Community Edition, qui est l'un des deux ajouts fournis par Docker. L' autre s'appelle Enterprise Edition, ce qui n'est pas gratuit, donc nous ne l'incluerons pas. Dans ce cours. Le processus est terminé et nous avons installé avec succès Dr CE ou Docker communauté addition vérifier que notre installation est réussie en exécutant pseudo docker exécuter Hello World Command . Cela exécutera un conteneur appelé hello world, ce qui ne serait possible que si l'installation du médecin a été réussie. Vous n'avez pas à prêter beaucoup d'attention aux processus qui sont en cours parce que nous allons explorer tous les décès insuffisants dans d'autres modèles, comme il dit le sont, l'installation semble fonctionner correctement. Vous avez peut-être remarqué que nous avons toujours utilisé les privilèges root pour vous assurer que vous pouvez également exécuter Docker à partir de votre utilisateur habituel. Effectuons quelques étapes de plus. Tout d'abord, ajoutons un docker de carte de groupe en utilisant un pseudo groupe à Docker. Maintenant, nous allons ajouter notre utilisateur, qui est 22 ce groupe de stalker, et fourni des privilèges root. Non, essayons d'exécuter le conteneur hello World sans privilèges root avec juste Doctor et Hello World Command et nous obtenons les mêmes résultats. 9. Démo : Containerizing d'une application Web simple: dans la première démo, nous avions installé et exécuter le moteur X sur ouvert à 16.4 localement dans la démo. Après cela, nous avons installé Docker. Vous pourriez trouver un modèle ici, et vous auriez pu comprendre que dans cette démo, nous allons courir en génétique comme un conteneur docker. Contrairement à Hello World Container, nous allons le faire d'une manière un peu plus élaborée. Commençons par extraire une image appelée Engine X latest du référentiel Docker Hubs Engine X en exécutant la commande Docker image. Tirez le moteur X, Kahlan Dernier. Cela va télécharger ou tirer une image appelée moteur X avec la dernière attaque, qui peut plus tard être exécuté comme un conteneur. Voyons si nous aidons Dieu. Notre image sur Docker Images Command pour afficher la liste des images, et voilà. Nous avons aidé à des images. La première est Hello World, que nous avons utilisé dans la dernière démo, et la seconde est Engine X, qui utilisait dans cette démo. Les deux ont attaqué, appelé dernier et ils ont des tailles différentes. Maintenant, nous allons exécuter cette image comme un conteneur en utilisant des conteneurs docker peu commun, suivi par I T D drapeau et nom ou Cantina Web serveur moteur X avec un trait d'union b commun. Nous cartographions le port 80 80 de notre machine locale pour contenir un sport 80. Et enfin, nous mentionnons le nom de l'image et la prochaine dernière, que nous venons de tirer récemment. Ce qu'on a, c'est un conteneur que j'ai sorti du conteneur du moteur X. Je sais que toute cette terminologie semble assez nouvelle et assez abrupte, mais ne vous inquiétez pas dans cette démo, notre seul but est de courir dans la prochaine avec succès. Nous allons passer en revue toutes ces conditions avec suffisamment de détails. Quand le temps arrivera. Vérifions que tout le conteneur est en cours d'exécution en exécutant la commande docker PS tiret A. Et comme vous pouvez le voir, conteneur X du moteur de serveur Web est en cours d'exécution, qui est construit sur l'image appelée moteur. Prochaine dernière. Enfin, voyons la sortie de ce conteneur en allant dans le navigateur Web et en ouvrant notre sport hôte local 80 80 et cela fonctionne avec succès 10. Les étapes de conteneurisation: dans le modèle précédent, nous avons été introduits aux conteneurs, puis une instance hors de lui. Dans cette section, nous allons creuser plus profondément dans le processus de Contenir ization en référence à docker avant comprendre Doctor en détail, il sera efficace de visiter quelques fois. Brièvement médecin, les fichiers se construisent, images Docker sont expédiées et les conteneurs sont exécutés. Vous pouvez considérer le fichier Docker comme un Blueprint de l'image Docker si vous vous en souvenez. Eh bien, nous avons déjà rencontré Docker Image et Docker conteneur dans notre moteur X contiennent une démo. Alors maintenant que vous connaissez tous ces trois fichiers certainement pas en détail. Mais au moins Wigley Nous pouvons passer à l'architecture hors, Docteur et revenir à ces fichiers plus tard. 11. Comment fonctionne Docker ?: Non, la progression naturelle du discours serait. Comment Dr Work Docker Ecosystem a-t-il un certain nombre d'offres où certaines d'entre elles sont plus utiles que les autres ? Nous commencerons par Docker Engine, également connu sous le nom de DACA en général, et nous examinerons d'autres importants au fur et à mesure que nous avancerons dans ce cours. Jetons un coup d'oeil à l'architecture du Dr Darker et à l'ensemble du processus. La Kontinen ization s'articule autour de trois composantes principales. Docker Client, Dr Host et Docker Registry. Dr. Klein est la machine sont moyens, travers lequel nous en tant qu'utilisateurs, interagissons avec docker. Les deux moyens de base de l'interaction sont le médecin CLI avec des supports pour l'interface de ligne de commande sur Docker AP Eyes, qui représente encore une fois le programme d'application. Les commandes d'interface peuvent être directement utilisées à partir du terminal du clan, tandis que AP ice peut être utilisé pour faire certaines applications. Docteur Docteur, comme nous l'avons vu dans notre démo précédente, Dr Pull et Dockery sur nos commandes couvertes par DACA CLI, nous explorerons d'autres commandes comme une couverture pour les sujets. Dr Host Dr Host est la machine qui effectue réellement la tâche hors, contenir ization. Il exécute un programme ou un logiciel appelé Docker démon, qui écoute et effectue des actions. Interrogé par le client Docker, le Dr Niemann construit le fichier docker et le transforme en une image docker. Les fichiers médicaux et les images plus sombres peuvent communiquer directement avec le Dr Demon. Soit les images peuvent être construites à partir du fichier docker sont elles peuvent être poussées ou tirer à partir du Dr Hub. Dans tous les cas, cette tâche doit être effectuée par Dr Host en utilisant le démon Docker. Dr. Images peut également être fait sous forme de conteneurs. Les conteneurs peuvent communiquer avec Dr Demon par Dr Images. En d'autres termes, toutes les modifications apportées au conteneur sont également reflétées sur l'image docker. Temporairement bien exploser ces pièces individuellement assez tôt. Il est possible que le Dr Klein et le Dr Host soient également la même machine. Mais la fonction de Dr Klein en tant que logiciel morceau est limitée orteil passant l'entrée utilisateur et affichage de la sortie fournie par Dr Host Human Find. Docker Registry a le composant le plus simple de l'architecture de casier. Il sert de lieu de stockage des images docker et de les rendre accessibles aux autres. L' image du moteur X, que nous avons utilisée plus tôt dans notre démo, a été tirée du Dr Registry Dr Plan parle au Dr Demon Bi directionnellement où il transmet la demande et reçoit les résultats. Où est le Dr Demon et Docker Registry peut parler bi, directionnellement pousser et tirer des images. Regardons les trois composants de l'architecture Doctor. Tout d'abord, nous avons Doctor Client, qui traite les demandes par le Dr Seelye et A P IES et reçoit les résultats à afficher. 10. Nous avons entendu Dr Host, qui aussi et Stocker Demon et travaille avec des images docker et des conteneurs. Enfin, nous détenons Docker Registry, qui agit comme un accès universel place toe images docker disponibles. Maintenant, nous pouvons revenir aux 34 mois que nous avons vus plus tôt. Dr Files, Dr Images et Containers, qui représentent, construisent et exécutent respectivement lors de la prochaine conférence, examineront en détail le fonctionnement de Dr Files. 12. Un aperçu rapide du format Dockerfile: nous pouvons maintenant revenir aux 34 milles que nous avons vus plus tôt. Dr Files, Dr Images et Conteneurs, qui concernent, représentent, construisent, expédient et exécutent. Tout d'abord, nous allons nous concentrer sur le fichier docker. Il est une séquence expédiée instructions de mise en marche destinées à être traitées par Dr Demon Disponibilité de tel format remplace un tas de commandes destinées à la construction d'une image particulière. Cela aide à garder les choses organisées avec le temps. Il s'est également avéré être la principale issue, interagissant avec docker et migrer vers les conteneurs en général. En ce qui concerne le travail, instruction séquentielle hors fichier Docker est traitée individuellement, et il en résulte un fichier, qui agit comme un calque de l'image finale du médecin, qui sera construit. Une pile de ces couches de séquence gérées par un système de fichiers, devient une image docker. Le but derrière cela est de permettre l'encaissement et de faciliter le dépannage. Si pour frapper les fichiers vont utiliser la même couche à un moment donné, démon plus sombre peut justice. Il a utilisé la couche pré-créée à de telles fins. Non, regardons la structure utilisée pour écrire les dossiers du médecin. Tout d'abord, il s'agit d'un fichier sans extension du tout. Et une règle générale est de nommer le fichier comme fichier docker avec D capital et sans extension, vous pouvez utiliser n' extension, importe quel éditeur de texte pour créer le fichier. Assurez-vous juste de ne pas mettre d'extension. Le but derrière cela est de rendre le fichier compatible orteil passe pour les constructeurs automobiles utilisés par Dr Toe. Construisez les images bien que ce ne soit pas une règle de fer. Et vous pouvez également nommer le fichier docker en fonction de votre commodité, que nous examinerons dans les futures Demos. Ce que vous voyez à l'intérieur du dossier docker nos instructions, Toby a transmis les instructions peuvent généralement être divisés en trois catégories. Instructions fondamentales de configuration et d'exécution. Dans les prochaines conférences, nous allons écrire notre premier fichier docker et comprendre ces instructions une par une. 13. Démo : Instructions fondamentales de Dockerfile: Écrivons ou premier fichier Docker et comprenons ses instructions fondamentales. Voyons, quel est votre répertoire de travail actuel ? Nous sommes dans le répertoire 20, qui est le nom de l'utilisateur sur ce répertoire personnel. Il est fort probable que vous soyez également dans un endroit similaire une fois que vous aurez téléchargé le matériel fourni dans les tribunaux et les notes de cours et que vous l'aurez décompressé. Vous devriez également avoir un répertoire appelé CC souligné Docker, où C, C et D sont en capital. Nous ne cherchons qu'un niveau 3 profond dans notre répertoire actuel. Et si trois ne sont pas disponibles sur votre machine pour une raison quelconque, vous pouvez vérifier le CC. Souligner le répertoire Docker simplement en utilisant la commande L s. Passons maintenant au répertoire Docker CC Juste pour vous familiariser avec la structure du répertoire, vous trouverez un répertoire pour chaque segment ou module et des sous-répertoires pour les démos respectives . Si vous n'avez pas l'intention d'écrire les fichiers par vous-même, pourquoi apprendre que vous pouvez simplement utiliser les fichiers appropriés pour chaque démo et exécuter les résultats. Allons plus loin quant au répertoire, qui contient tous les cordons et fichiers requis pour ce segment. Nous sommes dans le S pour le moment. Enfin, naviguons vers le nom du répertoire D un et vérifions que nous sommes anti-corrects , s'il vous plaît, pour créer un fichier Docker vide, qui touche commande. Je crée ce fichier parce que je veux vous montrer étape par étape, comment écrire un fichier dr, Mais vous trouverez un prédate sur le fichier docker dans le répertoire utilisaient Nano comme éditeur de texte , Mais encore une fois, vous sont libres de choisir celui avec lequel vous pourriez être à l'aise. Et avec cela, ouvrons le fichier Docker vide et commençons à l'écrire. La première instruction que nous fournissons est l'Arche A R G R. Instruction art est utilisé pour définir les arguments utilisés par à partir de l'instruction. Bien qu'il ne soit pas nécessaire d'utiliser de l'art et ne pas l'utiliser ne cause aucun dommage à l' image résultante directement. Parfois, cela aide à garder des paramètres tels que les versions sous contrôle. Ici, nous avons défini l'argument. Bonne version de soulignement égale 16.4 ce qui signifie que nous allons utiliser quelque chose qui aura la cour aggraver 16.4 dans un assez difficile depuis. Rappelez-vous dans un sens très approximatif, vous pouvez le traiter comme une déclaration d'une directive de projet de loi dans la programmation générale telle que Macros. Mais encore une fois, cet argument ne sera pertinent que pour l'instruction from et suivant est l' instruction from est utilisée pour spécifier l'image de base pour le résultat et l'image docker que nous avons l'intention de créer dans tous les cas à partir de l'instruction doit être dans n'importe quel dossier médical, et la seule instruction qui peut être écrite avant c'est l'art que nous venons de voir généralement, est suivie d'une image du système d'exploitation ou d'une image d'application, qui est publiquement disponible sur Docker Hub. Ici, nous voulons avoir open toe comme notre image de système d'exploitation basé avec la version cour, Nos jouets version 16.4 Donc, le nom de l'image est suivi d'un Kahlan, et l'argument est mentionné dans les accolades, précédé d'un signe dollar. Comme nous l'avons déjà mentionné dans notre instruction, notre tribunal aggrave son 16.4 de sorte qu'il sera passé comme un argument, et l'image basée pour ce dossier de médecin sera considérée comme nous avons été à 16.4 pour ajouter un peu plus de substance à l'image incluaient également un set off run et des instructions CMD, mais nous explorerons leurs significations et applications dans les prochaines démonstrations. Pour l'instant, sauvegardons simplement ce fichier à nouveau. Il est important de se rappeler que nous ne devons pas donner d'extension au fichier docker et devrions surtout le nommer. En tant que fichier Docker lui-même, il est temps de construire le fichier docker et de le transformer en une image. Faisons-le avec le Dr Bill Command. L' option D de trait d'union est utilisée orteil marqué l'image ou, en d'autres termes, nommé l'image pour la rendre facilement reconnaissable. Nous allons attaquer l'image comme je suis g soulignement de. Et le point à la fin dirige docker vers le fichier docker stocké dans le répertoire de la prison. Comme vous pouvez le voir les images en cours de construction étape par étape, comprenons d'abord chacune de ces étapes, pas de stockage argument était assez simple, donc il a terminé rapidement. deuxième étape consiste à définir l'image de base, et il le fait en tirant plusieurs couches de système de fichiers à partir de Docker Hub et en les empilant dans une hiérarchie appropriée. Une fois qu'il est terminé, il passe à la troisième étape, qui est de mettre à jour les jouets, et nous avons déjà fourni la permission avec le drapeau de la femme où ? Pourquoi signifie oui, Une fois qu'il les étapes sont faites, notre image est grande. Nous pouvons très lutter pour que l'image soit construite. Pourquoi les images Docker sont-elles diffusées ? Comme vous pouvez le voir, nous avons quatre images docker parmi lesquelles je suis g soulignement est celui que nous avons créé récemment signifie il y a 11 secondes alors que d'autres sont précédemment créés ou tirés. 14. Démo : Instructions de configuration de Dockerfile: dans cette démo fera un pas en avant avec l'écriture du fichier médecin et explorera les instructions de configuration . Encore une fois, Nous sommes dans le répertoire S deux, qui contient un répertoire individuel pour chaque démo. Naviguons vers le répertoire appelé D à Là nous allons. Comme vous pouvez le voir, il y a un fichier DR déjà présent dans ce répertoire. Ouvrons ça avec Nano. Comme vous pouvez le voir, ce fichier docker a également une image de base ouverte à 16.4 mentionné à l'aide de l'instruction comme décrit dans la démo précédente. Mais cette fois, nous avons sauté en utilisant nos instructions et directement fourni le numéro de version . Maintenant, nous avons exécuté et envie, qui sont des instructions de configuration, bien qu'ils ne soient pas les seules entrées dans la liste des instructions de configuration. Mais ce sont ceux que nous couvrirons. Démo de revenu. Allons les parcourir. Un par un, John demande à Docker d'exécuter la commande mentionnée avec elle au-dessus de l'image de base, et les résultats sont validés en tant que calque séparé au-dessus du calque d'image de base. Ici, nous avons plus d'une mentionne off run, et chacun crée son propre lier séparé avec la première instruction d'exécution que nous avons fourni aux commandes toe mettre à jour le S installer Carl et nettoyer plus tard. Où est la deuxième manche ? Fait simplement un répertoire nommé Cords Under Home Directory. Ne le confondez pas avec nos machines hôtes. Home Directory Toe Ici, nous parlons d'image basée, toujours Home Directory et les tribunaux seront créés sur cette image de base, pas sur notre machine hôte. Ensuite, nous avons utilisé E NV, qui est une autre instruction de configuration. Il fait ce que son nom suggère. Il met en place des variables environnementales. Nous l'avons utilisé trois fois pour définir des variables d'environnement de shell utilisateur et de nom de journal comme la démo précédente, nous avons CMD mais nous y reviendrons plus tard. Encore une fois. Nous allons utiliser le médecin Bill Command orteil construire cette image. Mais cette fois, nous allons l'étiqueter comme je suis G souligne sur l'envie de trait d'union pour le séparer de l' image précédente. Comme vous pouvez le voir dans cette version, la première étape consiste directement à configurer l'image de base. Puisque nous avons ignoré l'utilisation abusive de nos instructions, deuxième étape exécutera toutes les commandes utilisées dans l'instruction de première exécution et exécutera les commandes hors instruction de deuxième exécution, ce qui fait une étape de répertoire 45 et six définira comme mentionné dans le fichier Docker, et la septième étape super rapide mettra notre image prête à fonctionner. Listons dehors sont des images disponibles avec Docker images Command. Ces images sont celles actuellement disponibles sur l'hôte. Notre image supérieure est que je m g souligné Exécuter, envie, image. Maintenant, allons un pas plus loin et exécutons cette image comme conteneur avec les médecins et tiret i d commande le I e. D représente le télétype interactif activé et détaché respectivement. Nous nommons que pour être en cours d'exécution conteneur comme Kant souligne Exécuter l'envie Et l'image cible est que je suis G souligné Run et nous que nous venons de créer. La commande a été couronnée de succès et nous venons de recevoir l'idée de conteneur unique fournie par Dr pour notre conteneur. Ici, nous avons deux conteneurs gagnants, parmi lesquels le premier est celui que nous courons récemment. Il est en place signifie courir pendant cinq secondes et il se termine le bash commun. Maintenant, exécutons ou conteneurs bash commande ici Le bash commun et le processus était exécution en arrière-plan en raison de l'indicateur de détachement défini lors de l'exécution des conteneurs. Maintenant, nous l'avions fait avancer. Comme vous pouvez le voir maintenant, nous sommes dans le répertoire racine d'elle. Kant souligne dans notre conteneur. Listons les répertoires ici. Oui, la structure ressemble à une instance Lennox normale. Maintenant, vérifions les variables environnementales, que nous avions définies avec Ian Reconstruction lors de l'écriture du fichier Docker. Comme vous pouvez le voir, le shell utilisateur et les variables de nom d'amour sont exactement comme nous les avions configurés. Maintenant, naviguons vers Home Directory Comme nous l'énumérons. Nous pouvons également vérifier la création du répertoire cordons, qui était censé être créé à partir de notre instruction d'exécution du fichier docker. Enfin, nous pouvons revenir à notre hôte et Weinmann en quittant le conteneur en utilisant la commande de sortie simple . 15. Démo : Instructions d'exécution de Dockerfile: nous sommes de retour dans notre répertoire S. Naviguons vers le répertoire des cinq et listons le contenu de celui-ci. Nous avons un dossier Dr pour cette démo stocké ici. Ouvrez-le dans un éditeur de texte. Plusieurs nouvelles instructions. Nous avons beaucoup utilisé CMD dans les démos précédentes, mais nous allons creuser en profondeur dans cette démo. Commençons par l'instruction la plus basique mais importante de va définir le syndic ouvert comme image de base pour ce médecin L'étiquette de l'image est une paire de valeur clé, qui ajoute l'orteil méditateur, l'image que nous avons ajoutée aux étiquettes en tant que paires de valeurs clés dans l'argument multi-ligne pour une instruction d'étiquette créer une clé a une toile civile de valeur, tandis que la clé de version a 1.0. La suivante est une instruction d'exécution, qui va un saignement de la liste des paquets de l'image de base de manière non interactive. Ensuite, nous avons le point d'entrée. Comme son nom l'indique, point d' entrée permettra à l'utilisateur de configurer le conteneur à un point de départ. En d'autres termes, point d' entrée ramènera le conteneur au point de départ chaque fois qu'un conteneur est appelé à redémarrer. Pour cette image parlante, le point d'entrée est défini sous la forme exacte, qui est également la préférence. Il exécutera Ping cinq fois lorsque le conteneur démarre en cours d'exécution. Dernier mais pas le moindre. C' est l'instruction CMD que nous avons vu jusqu'à présent que CMD fournit la commande par défaut au conteneur en cours d'exécution. Mais si le point d'entrée est mentionné dans le fichier docker, alors CMD sera toujours exécuté après le point d'entrée. Lorsque CMD est défini sous une forme exacte et ne contient pas l'exécutable, alors il sera traité comme un paramètre hors de l'instruction de point d'entrée. ne peut y avoir qu'un cm de l'instruction disponible dans le fichier docker parmi plusieurs instructions CMD seulement. La dernière instruction CMD sera en vigueur pour cette image docker. instruction CMD est une forme exacte sans exécutable, ce qui signifie qu'elle fournira l'hôte local comme paramètre pour le point d' entrée hors exécutable , ce qui est chose. Si nous résumons le point d'entrée et le CMD ici, nous avons défini ce mainteneur orteil rose l'hôte local cinq fois. Dès que le conteneur est opérationnel, sortons du fichier docker et construisons notre séquence d'images. Shelly, nous allons construire l'image Docker basée sur le fichier docker dans le répertoire courant et l'étiqueter comme je suis g underscore et trois cmd build Context est envoyé au Dr Demon et il téléchargera l'image open toe trustee du hub Docker vers notre médecin local Stockage. L' image basée maintenant a été téléchargée et elle est en cours d'exécution dans un environnement intermédiaire de conteneur toe build open toe trustee. Pour créer notre application, Steptoe créera des étiquettes pour notre image docker. La troisième étape exécutera l'instruction Theron, qui mettra à jour l'image de base du syndic ouvert et la bande dessinée. Le résultat dans une nouvelle étape de conteneur intermédiaire pour définira le point de départ du conteneur à ben barre oblique ping. Et la dernière étape est l'instruction CMD, qui fournira l'hôte local comme paramètre au point d'entrée à exécuter et à démarrer le conteneur. À la fin, tous les calques seront empilés séquentiellement par Dr Demon et une dernière image CMD d' entrée soulignée I am G sera créée avec son image i D et dernière balise. Regardons la liste des images disponibles dans notre magasin de médecin local. Quelles images de médecin Venez. Comme nous pouvons le voir, je suis g insiste entrée CMD Colin Latest a été construit et stocké sur nos histoires de médecins locaux . Il est temps d'exécuter un conteneur basé sur ce type d'image médecin run, trait d' union, nom de trait d'union, trait de soulignement et trois cmd, suivi par je suis G et trois cmd mais sa fin et ici nous allons Cantina pinging notre local comme pour le point d'entrée et les instructions CMD, et il est rose avec succès. L' hôte local pour cinq fois cinq paquets ont été transmis et reçus avec succès sans perte de paquets, ce qui signifie ou l'application gagne parfaitement. Maintenant, vérifions ce statut à l'entrée. Cmd avec le trait d'union du Dr Pierce A. Comme on peut le voir, le conteneur est sorti avec une erreur. Court zéro après avoir terminé sa tâche par défaut, ce qui signifie que l'exécution des conteneurs a été réussie. 16. Démo : Instructions d'exposition de Dockerfile: Naviguons vers le répertoire des six et listons tout le contenu de celui-ci. On a un dossier docker pour cette démo. Disponible ici. Ouvrez le fichier docker dans l'éditeur de texte. Comme nous pouvons le voir, il en contient quatre. Dr Instructions de l'instruction définira l'image de base cubaine sur Colin, 16.4 comme image de base pour cette image docker. L' instruction suivante est exécutée, qui va mettre à jour et installer dans le prochain sur open toe 16 points sur quatre image de base. Nous allons enchaîner sous-commandant hors course instruction avec logique et opérateur, ce qui signifie que pour exécuter deuxième sous-humain premier commun devrait être un succès ici. Si nous considérons la séquence apt, obtenir la mise à jour de l'image de base devrait être un succès. Afin d'installer le moteur X après l'installation du moteur X AB être supprimé. Un bras r f slash war slash lib slash liste ap slash effacera les dépôts locaux paquets récupérés. La prochaine instruction exposée est un type de documentation qui informera Dr sur la carte sur laquelle le conteneur écoute. Gardez à l'esprit qu'il ne publie pas le port, mais il comble l'écart entre le constructeur d'image du médecin et la personne qui gère le conteneur . Nous avons documenté avec des instructions exposées que ce moteur prochain conteneur écoutera sur le port 80 cm. L' instruction fera exécuter l'application du moteur X au premier plan en désactivant le moteur X en tant que processus de démon. Quittez du fichier docker. Construisez l'image Docker avec Dr Bill Command à partir du fichier doctor disponible dans le présent répertoire et balisez-la comme je suis g soulignement exposé. Le contexte de la cloche est envoyé à Dhaka Demon car nous avons déjà ouvert à 16 points dans les quatre émissions dans les histoires de médecins locaux. Le Dr Demon ne le télécharge pas à nouveau. Il est encaissé à l'étape 2. L' instruction de Jane Drunk est en cours d'exécution un par un. abord, il mettra à jour l'index du paquet à partir de l'image de base ouverte à 16 points sur quatre. Après un saignement réussi, l'image et la Gen X seront installées sur l'image de base et à la fin, rapports locaux sur les paquets de vente au détail seront effacés. La troisième étape consiste à exposer le port 80 du conteneur afin d'informer Dr que le moteur X ab écoutera sur le port 80. La dernière étape consiste à configurer la commande déformée CMD, qui définira l'application moteur x comme processus de premier plan dans ce conteneur. Notre image a été construite avec succès et marquée comme je suis g underscore exposé. Listons toutes les images dans notre magasin de médecin local. On y va. I m g underscore Expose a été créé et stocké avec succès sur DACA. Exécutons un conteneur basé sur Je suis Jay Exposted Image. Mon médecin et tiret ITV tiret bras Adam drapeau retirera automatiquement le conteneur une fois qu'il s'est arrêté. Suivez-le avec conteneur nommé avec Underscore exposé, suivi par un trait d'union p 80 80 Colin, 80. Ce qui signifie cartographier le Container Sport 80 avec le sport hôte 8080 afin d'accéder au moteur ex service et enfin vraiment donner le nom de l'image, qui est que je suis G souligner exposer presse entrée et nous avons obtenu de contenir un I D. C'est la liste sur. Tous les conteneurs en cours d'exécution et d'arrêt avec Doc apparaissent un trait d'union. Une commande ou un trait de soulignement. Exposted est en marche et fonctionne pendant sept secondes. Les conteneurs Port 80 a été mappé sur le port 80 80 de l'hôte afin que nous puissions accéder et le prochain serveur Web sur notre navigateur Web préféré. Maintenant, allez à votre navigateur Web préféré, moins chrome et tapez hôte local http appel 80 80 dans le et une presse spa entrer et nous concédons la page d'accueil par défaut de blesser prochain serveur Web. 17. Démo : diverses instructions de Dockerfile (partie 1): Nous allons avoir une réalité ou PW d vérifier. Très bien, Nous sommes dans le répertoire Demo huit et a toujours été libéré. Les composants que nous pouvons voir à Dr Files maintenant, avant que vous puissiez lever vos sourcils avec une tonne de surprises comme Pourquoi ? Pourquoi doit-on Dr Files dans un seul répertoire ? N' est-ce pas une mauvaise pratique ? Le docteur ne serait-il pas confus ? Permettez-moi d'éclaircir quelques choses ici. peut certainement y avoir plus d'un fichier médecin dans un référentiel ou un dossier, mais ils ne peuvent pas être nommés comme fichier docker. Tout d'abord, vous ne le permettrez toujours pas. y a donc pas grand-chose à argumenter. Et deuxièmement, le nommer comme fichier Docker n'a qu'un seul but. Rendre la commande de construction d'image plus petite. Utilisation de docker aide Auto Builder. Si nous avons simplement des fichiers pour des noms différents, qui sont essentiellement Dr Files, Doctor ne s'en souciera pas. Il va simplement construire le fichier que nous avons mentionné avec cela. Hors du chemin, jetons un coup d'oeil à ces fichiers que nous avons Child and Parent Docker fichier. Alors donnons le respect au parent. Henry, toi au début. Très bien, donc c'est un fichier docker et le droit en haut c'est assez simple. Nous avons juste trois instructions parmi lesquelles ne sont assez familières pour vous. La fenêtre du milieu est une nouvelle entrée sur notre Learning Co que nous avons sur l'instruction de construction. Son but est assez simple. Il nous permet de spécifier une commande qui sera transmise à l'image suivante qui utilisera cette image comme image de base semble déroutante. Bien choisi cet exemple. Nous aidons à ouvrir à 16.44 comme image de base, et nous allons créer une image à partir de ce fichier docker. Maintenant, si cette image sera utilisée comme image de base d'un autre fichier médecin, elle sera juste comme 1 à 16.4 puisque CMD peut être surécrite par CMD du fichier docker suivant ou instruction de point d' entrée. Donc, si nous voulons aider certains changements persistants tout en utilisant cette image comme image basée comme avoir un fichier appelé vœux dot txt, créé dans le dossier temporaire que nous devons utiliser sur l'instruction de facture, nous sommes un inventé la phrase Salutations de votre orteil d'image parent, TMP barre oblique salutation commencer txt et s'attendre à ce qu'il existe chaque fois que nous avons utilisé l'image créée à partir de ce fichier de médecin comme image de base avec que clair dans notre tête. Nous allons quitter ce fichier maintenant Ouvrons le fichier Docker enfant. On a juste des instructions. 1er 1 mentionne l'image de base appelée Papa Open Do dernière et lisez-la qui viennent de. Vous pouvez vous demander que c'est le nom de l'image que nous allons bientôt construire et nous exécutons Bash avec instruction CMD. Je veux vraiment que Papa Bentos salutation start txt soit visible dans cette image. Maintenant, nous allons construire l'image parent en utilisant docker build tiret F commun, suivi par le nom de Docker File Target Image nom et adopter pour indiquer le répertoire président . De même, construisons l'image de bébé ouvert orteil à partir du fichier Child Docker. Vérifiez ceci lors de la première étape de la configuration de l'image de base. Il exécute un déclencheur de facture, qui a été hérité de l'instruction de facturation hors images de base. Dossier Docker. Voyons si ses deux images sont répertoriées ou non. Oui, ils sont John, un conteneur de l'image de bébé orteil ouvert et nommez-le conteneur bébé. Lorsque nous exécutons ce conteneur, nous avions droit à la racine de ses images de base ouvert orteil nous. Naviguons vers le directeur TMP en utilisant le CD et voir si le message d'accueil commence. Txt est présent. Oui, c'est ici. Nous pouvons également le plafonner et vérifier son contenu. Ce qui semble que nous avions un tribunal là-dedans. Nous pouvons sortir de ce conteneur puisque notre démonstration sur facture est couronnée de succès. 18. Démo : diverses instructions de Dockerfile (partie 2): Bienvenue dans la section du fichier Docker de la Conférence conclusive. Dans cette conférence, nous atteindrons trois objectifs. Comprendre et mettre en œuvre la santé du conteneur Vérifier en utilisant des fichiers docker faire de même avec les instructions de signal d'arrêt , et pendant que nous sommes ajoutés, nous contiendrons également des yeux une application de flacon échantillon. Comme toujours, nous commencerons par connaître notre répertoire de travail actuel, qui est la lune neuve sous CMC. Si nous avons vérifié la liste des composants, nous avons aidé trois fichiers cette fois. fichier Apt Art by docker et les exigences démarrent TXT, qui est un fichier texte. Explorons-les un par un, en commençant par l'enlèvement. Nous sommes à la recherche d'un échantillon flasque orteils application ou familier avec la lutte sur et ont travaillé avec la fiole plus tôt trouvera ce fichier un morceau de gâteau et ceux qui n'ont pas touché sur fiole. Ne vous inquiétez pas, il n'y a rien d'incompréhensible. Flask est un framework d'interface de passerelle de serveur Web. En d'autres termes, dans le cas de fightin, il permet Spuyten application toe talkto serveurs Web dans ordpour transférer et recevoir des demandes et des réponses AP Web . Nous avons commencé notre fichier avec une instruction d'importation simple pour importer la classe flask à partir de la bibliothèque flus ou du framework. Si vous vous demandez pourquoi dans le monde. Avons-nous un cadre de flasque ou Pitre installé ? Retenez votre souffle. Ces pièces rejoindront le puzzle assez tôt aussi. Ensuite, nous créons une instance d'application à partir de la classe flask. C' est l'argument, c'est le nom. Ce nom String peut être remplacé par n'importe quel autre que vous aimez, mais il est recommandé de le garder si nous exécutons une application de modèle unique. Lorsque l'application flask est compilée, le nom est remplacé par Main, ce qui fera notre instance. L' instance principale. La ligne suivante est un décorateur, qui est un rappeur pour décrire une fonction en utilisant une autre fonction comme argument. Le but de ce décorateur est de crier les demandes entrantes pour transmettre Slash, qui est compris comme hôte local Port 5000. Ensuite, nous définissons la fonction, qui s'exécutera dans cette application Web. Instance. Il s'appelle C M. C. Et c'était simplement aider à imprimer une chaîne appelée Welcome to the Container, masterclass par toile civile comme valeur retournée. Enfin, nous indiquons à flask que si notre instance est moyenne, qu'elle est, exécutez cette application et rendez-la publiquement disponible. Quittons ce fichier Suivant. Nous avons le plus petit fichier dans l'ensemble du cours appelé point d'exigence txt. Si vous vous souvenez, lors de la théorie de l'introduction des conteneurs, nous avions mentionné que les conteneurs réduisaient une longue liste d'exigences. Témoin. Nous avons juste une entrée dans le fichier appelé point d'exigence txt, qui est la version flasque 0.12 point deux. Mais nous ne vous conseillerons pas d'installer cela à l'extérieur non plus. Après tout, les conteneurs sont isolés et une menthe, de sorte que chaque installation devrait idéalement se produire pendant l'imagerie dans le temps lui-même. Idéalement, parlant des images, nous avons besoin d'un fichier médecin orteil construire cette application. Donc, quittons ce fichier et ouvrez appuyez sur. Au départ, nous avons aidé à ouvrir l'image de base des orteils et nous effectuons une mise à jour et une installation désactivée. Mordons sur pip et appelez. Nous couvrons tout le contenu de ce répertoire hôte Toe app répertoire hors de l'image de base et le faire fonctionner Répertoire. Ensuite, nous installons le contenu répertorié dans la configuration requise. Démarrez txt. Nous aurions pu simplement mentionner flashé là, mais c'est une pratique standard pour énumérer vos exigences dans un fichier séparé et les installer en utilisant le fichier lui-même. Il rend également la lisibilité du fichier docker plus simple pour les autres développeurs maintenant que les conditions préalables sont configurées. Nous pouvons alors appliquer ne pas être blanc comme une application de pipeline. En utilisant l'instruction CMD avant CM Lido, nous avons des instructions de vérification de santé. La vérification de l'état est un moyen d'effectuer une vérification périodique définie par l'utilisateur ou définie par le développeur sur le conteneur pour déterminer si ce n'est pas la situation souhaitée. Également connu sous le nom sain ou non, cette instruction comprend trois aspects sont trois types hors arguments en double délai et viennent en défiance totale un délai après lequel le contrôle périodique de santé sera épuisé. Nous l'avons gardé 10 secondes, ce qui signifie que le contrôle de l'état sera effectué sur le conteneur en cours d'exécution toutes les 10 secondes. Temps écoulé, les petits esprits ont reculé. Si le conteneur reste défectueux, désactivation impliquerait d'effectuer un redémarrage du conteneur. Cela nous amène à une autre question. Comment ça ne nous dérange pas si le conteneur est malsain ? Dr reconnaît que chaque contenant ou application aurait des définitions différentes pour être sain. Par exemple, dans cette application flasque, fait que les ressources sont correctement allouées et que le conteneur est en cours d'exécution ne signifie pas que l'application fonctionne correctement. Que se passe-t-il si le serveur Web ne résout rien ? Que faire si nous rencontrons 401 ou 404 erreurs où la page Web souhaitée ne serait pas disponible. Il détruirait complètement le but de cette application en premier lieu. C' est pourquoi nous aidons commande ou argument CMD. L' argument exécute les commandes suivies par CMD, et les résultats définissent si le conteneur est sain ou non. Il nous appartient donc de fournir les commandes appropriées qui peuvent correctement dissuader la situation de conteneur miné . Dans ce cas, nous fournissons une commande avec notre condition logique, qui signifie que soit ceci est tapé. Notre première commande appelle l'hôte local sur le port 5000 qui afficherait le résultat hors application flask. Mais nous aidons à lui attacher un drapeau échoué, ce qui signifie que si les rencontres communes entrent 401 ou 404, il ne montrera aucune sortie. Même cette réponse par défaut telle que ce discours ne peut pas être affichée, etcetera. Dans ce cas, la deuxième commande sera exécutée qui retourne l'état de sortie. Une raison pour écrire la deuxième commande de cette manière est que l'instruction de vérification de l'état considère un état de sortie comme malsain. Donc, nous allons l'adresse de service application flasque toutes les 10 secondes, et tant qu'il ne rencontre aucune ère de résolution. Il ne sera pas écrit l'état de sortie. Celui qui signifie que le conteneur est sain et en tout cas, il ne rencontre jamais 401 ou 404 Il n'existera pas. Statut 1, ce qui signifie que le conteneur est malsain et t off. De telles modifications provoqueront un retour. Il est obligatoire d'écrire une vérification de l'état avant l'instruction CMD orteil toujours le remplacer. Suivant est le signal d'arrêt lorsque nous terminons un conteneur docker Doctor sense Sick dôme signal orteil . Le processus Lennox responsable de l'exécution du dôme malade du conteneur tue gracieusement le processus, ce qui signifie qu'il efface tout le cache et la mémoire avant de détacher le processus du parent X et de libérer les ressources à utiliser encore une fois. Mais cela peut provoquer un crash ou une boucle sans fin s'il y a une erreur fatale ou une exploitation de vulnérabilité dans l'application, ce qui signifie qu'il devient nécessaire d'utiliser SIG kill au lieu de Tom malade, ce qui tue immédiatement le processus. Le signal d'arrêt vous permet de remplacer cela avant Tom malade par le signal que vous souhaitez fournir. Dans d'autres cas, vous devrez peut-être utiliser SIG. Nous sommes un ou six top, en fonction de la nature hors de votre application ont été remplacer dôme malade par PSA tuer dans l'instruction de signal d'arrêt . Avec cela dit, Sauvegardons ce fichier et sortis. Construisons l'image et nommez-la fiole en utilisant docker. Construire commun. Le bâtiment est terminé. Maintenant, sortons le conteneur et appelons-le flasque. On y va. Non, nous allons avoir une liste des conteneurs. 1er 1 est fiole, et si vous jetez un oeil à son état, il apparaît et fonctionne avec sain, ce qui signifie que le contrôle de santé est en cours d'exécution. Si vous voulez vérifier si la vérification de l'état est correcte ou non, Hôte local sur le port 5000 et là nous allons. C' est la sortie de notre application flasque. Enfin, arrêtons l'organisateur. Quand nous listons les conteneurs à nouveau, nous pouvons voir que la fiole vient de s'arrêter récemment, mais contrairement à d'autres conteneurs, elle s'est arrêtée avec un record 137 qui, en termes de Lenox, indique que la cour de sortie du processus , terminé par l'instruction de signal malade, malade ou d'arrêt, a également fonctionné correctement. Il semble que nous ayons atteint les trois objectifs de cette conférence, alors rendez-vous dans la prochaine 19. Démo : Docker Hub dépassé: il est temps d'aller au-delà de notre petite machine d'accueil et d'apprendre à connaître la vaste communauté . Docteur. La meilleure façon de le faire est de commencer avec Docker home. Retourne sur notre web. Rosa Goto aide, Dr Dot Com et où nous atterrissons, c'est la chambre, docteur, hein ? Dr Hub est un service basé sur le cloud hébergé par Dr Lui-même, qui vous permet de créer, relier et de gérer les images de votre médecin. Il fournit également certains hors de la production de grandes fonctionnalités utiles comme la construction automatisée. Juste pour votre information, la construction automatique il que nous avons utilisé dans notre section précédente où nous n'avons pas fourni de nom hors fichier tout en passant la facture commune. Et pourtant, Dr Build the Content Off Docker fichier est également hébergé par back and service off Doctor Hub Pour accéder à ses provisions dans un premier temps, nous devons créer un compte totalement gratuit, et tout ce dont il a besoin est un ensemble générique hors données comme nom d'utilisateur, e-mail, I D et mot de passe. Une fois que nous avons ajouté cela, acceptons les termes et services et prouvons que nous ne sommes pas des robots. Après cette étape, vous devriez recevoir un e-mail sur l'idée que vous avez fournie et vous devez cliquer sur le lien d'activation. Je veux dire, c'est évident, non ? Une fois que vous avez activé votre compte, vous atterrissez sur une page. On devrait ressembler à celui-ci. C' est la carte du tableau de bord. Il affiche votre nom d'utilisateur et fournit des liens vers presque tout ce que vous pourriez vouloir faire sur Dr Hubbert. Tout d'abord, nous sommes sur la pile de référentiels où vous pouvez explorer les référentiels disponibles dans le monde entier ou en créer un seul. Vous pouvez également créer une organisation qui SOS comme une unité de gestion des personnes sur se reposaient . Il est utile si vous n'êtes pas un individu, mais que vous agissez pour une organisation ou pour le compte, souvent une organisation. Et comme nous n'avons pas encore créé de sondages, nous n'avons pas encore de départ à reposer nos contributions en général. Sur le panneau à propos de ces étapes, nous avons quelques lings. abord, ils vous emmène au tableau de bord où nous sommes déjà, donc cliquer dessus sera à peu près inutile. En cliquant sur l'option Explorer, nous obtenons un tout nouveau monde à partir des référentiels populaires créés par des particuliers et des organisations du monde entier. Pour être honnête, l' un des aspects, qui rend les médecins si populaires et aimés Parmi les ingénieux, est la contribution énorme de la communauté en si peu de temps, et le fait que Dr reconnaît son importance et fournit un seul endroit orteil accès. Tous ces rapports sont ordonnés par le nombre de séjour de traction ont reçu, et notre moteur X, qui a été utilisé dans notre conteneur de première heure de discours, est en haut de l'option d'organisation de la liste nous fournit un autre prêt à concernant les organisations et créer le menu nous fournit une liste des options où nous pouvons créer ou l'autre organisation de dépôt sur une facture automatisée. Une génération automatisée peut être créée en fournissant un contexte de nomenclature, qui est généralement un référentiel contenant le fichier docker nommé Fichier Docker sur votre machine hôte . En d'autres termes, il s'agit de la version Web de la petite facture de docker Common que nous avons utilisé dans la section précédente . Comme il s'agit de la version Web, nous devons utiliser un service de gestion de la cour et des versions comme obtenir sa poche orbitale, et enfin, nous avons une liste d'options pour notre propre profil, où nous pouvons faire une certaine personnalisation, comme ajouter plus d'informations sur nous-mêmes, changer les mots de passe, obtenir une sorte d'aide notre plus important la documentation. Dans les prochaines vidéos, nous allons comprendre Dr Images avec plus de profondeur et travailler avec eux. 20. Comprendre les images d'encres: nous avons déjà étudié et travaillé avec le Dr File. Il est temps de se concentrer sur les images docker, comme nous l'avons vu précédemment. Une image docker est une collection ou une pile de calques, qui sont créés à partir d'instructions séquentielles sur un classement de médecin. Les couches sont en lecture seule, bien qu'il y ait une exception hors de la couche la plus supérieure, qui est lu, type d' écriture. Mais nous y reviendrons plus tard. Les images du médecin peuvent être reconnues soit par leur image unique i D, qui est fourni par DR ou un nom pratique ou tag, qui exploité par nous, signifie utilisateurs. Enfin, ils peuvent être poussés ou retirés de Docker Hub, que nous venons de visiter dans la dernière démo. Si nous voulons visualiser les calques d'une image docker, ils s'empileraient comme ceci. Nous commençons par le système de fichiers de démarrage, qui est à peu près similaire au système de fichiers de démarrage de Lennox. Il s'agit d'un arrangement hors Voir le nom du groupe, espaces et la ressource, un emplacement qui sépare virtuellement l'image du reste des fichiers sur l'hôte ou le nuage . En plus de cela, nous aiderions la couche d'image basée, qui, avec les couches à ce sujet, suivra le mappage de fichiers organisé par le système de fichiers de démarrage. Leah. Ensuite, nous avons des couches telles que le répertoire de travail, les variables environnementales. Copie d'annonce exposée. CMD, etc. Parler des images intermédiaires. Voici quelques points à retenir. Tout d'abord, comme nous l'avons mentionné précédemment, images intermédiaires sont créées à partir des instructions individuelles de fichier docker, et ils agissent comme des couches hors image moyenne ou résultent en image. Toutes ces images intermédiaires sont en lecture seule. Donc, une fois l'image construite, ces calques n'accepteront aucune modification. Ils ont une idée d'image séparée de leur propre, qui peut être consulté en utilisant l'historique du médecin commande. Si vous vous demandez, pourquoi un médecin existe-t-il sur des images intermédiaires en premier lieu ? C' est pour encaisser. Par exemple, si vous créez deux images différentes à partir de la même image de base, comme Engine X et Apache sur le bout ouvert, le calque d'image de base ne sera téléchargé qu'une seule fois et sera utilisé lorsqu'il est identique . Pour simplifier cet encaissement, nous avons des images intermédiaires où chaque couche a sa propre identité significative et se sépare de toutes les autres couches en termes de facilité d'utilisation. Mais les images intermédiaires peuvent ne pas être utilisées seules, car elles ne seraient pas suffisantes pour exécuter un processus de conteneur par elles-mêmes. Par exemple, même la plus petite image consisterait en au moins une image de base, et on semble l'instruction de point d'entrée. Enfin, ils sont empilés comme une couche lâche collective en lecture seule par un U. F. S, qui est un système de fichiers d'union. 21. Démo : Travailler avec des images Docker | liste, Search, Push, et tagues: Tout d'abord, nous avons le Dr Search Command. Il est utilisé pour rechercher des images à partir de Docker Accueil juste pour clarifier, vous n'avez pas besoin d'avoir un compte d'aide médicale pour rechercher Les rapports de votre hôte sont même les tirer. C' est juste une exigence d'utiliser l'interface Web hors médecin, hein ? Ou pour pousser des référentiels dessus. En ce qui concerne la même taxe sur cette commande, la recherche du médecin de gel est suivie du nom hors de l'image. Un numéro de version optionnel After deux-points. Exécutons cette commande. Ici, nous obtenons une liste des images de combat triées par le nombre d'étoiles. Bien sûr, beaucoup d'entre eux sont des cadres construits au-dessus de fightin. Puisque beytin serait l'un des mots-clés, il y a description des images pour fournir plus bref à l'intérieur et une coche si l' image est officielle ou non. Ici, la première image a le plus d'étoiles, et c'est aussi l'image officielle. Ensuite, nous avons un cas tout à fait particulier. Doctors Search commande de registre donne l'image officielle du registre Docker du Dr Hub. Si nous ne voulons pas obtenir une si longue liste de dépôts, nous pouvons également mettre des filtres sur notre recherche ici, nous espérons mettre librement il y a tiret officiel égal vrai, qui ne nous montrera que des images officielles. On y va. Nous avons seulement une image douce, juste pour ceux qui aiment leurs résultats ont besoin en ordre. Doctor vous permet également de formater les résultats de la recherche. Ici, le format est mentionné en double virgules inversées et il commence par la table des mots clés , ce qui signifie que nous voulons un format tabulaire. Ensuite, nous sommes entrés dans les sentiments désirés que nous voulons. Les champs sont mentionnés dans les accolades doubles et ils sont séparés par la barre oblique arrière D, qui fois pour la tabulation. Quel caractère de l'espace ? Vous avez peut-être deviné maintenant que cela va créer trois colonnes, une par champ. Maintenant que les prédictions et les listes de souhaits sont terminées, il y a sous commande. Là, nous allons, sommes bondés, petite table est ici et il montre les mêmes dépôts qu'avant. Juste dans un format visuellement différent. également remarqué que nous avons seulement aidé trois champs que nous avions mentionnés dans la commande et le reste des champs sont ignorés. Passant à la recherche d'un médecin, nous avons tenu la commande d'images Docker. Il est une version plus courte des images docker, un moins commun et les deux hors d'eux font exactement la même chose qui est de lister les images sur votre hôte. Comme vous pouvez le voir, sont les images que nous avons construites lors de notre section précédente. D' un autre côté, si nous voulons lister des versions ou des instances en dehors d'un type particulier d'image, nous pouvons mentionner le nom de l'image suivi par Docker Images Command. Essayons de lister toutes nos images à bout ouvert ici. Nous pouvons également voir la taille de l'image, qui indique la taille que Dick occupe actuellement sur le stockage hors machine hôte Off cours spécifiant le numéro de version précédé d'un Kahlan réduit la liste à une seule entrée . De plus, si nous voulons voir les parties complètes des données tronquées comme l'image I d. Nous pouvons utiliser un trait d'union, un trait d' union, union, union, tronc, drapeau aussi bien. Mais soyez prudent en l'utilisant, car cela peut rendre les résultats désordonnés, vraiment désordonnés. Ensuite, nous avons tenu docker. Tirez-le, Busta a spécifié l'image du docteur huh Porte frappeur hôte. Ici, nous avons fourni le moteur X avec la dernière attaque Colin. Donc, quelle image aura la dernière balise sur les concentrateurs Docker et le prochain dépôt sera tiré. Comme vous pouvez le voir, il a téléchargé une version plus récente de Engine X, qui est la dernière à la place de la dernière version. Si nous utilisons le moteur X côlon, médecin alpin, Hubble fournir une image avec tag alpin. Maintenant, si nous obtenons une liste des images du moteur X disponibles sur notre hôte, nous obtenons trop souvent. La première est celle des Alpes, que nous venons de tirer, et la deuxième est la dernière version, comme vous pouvez les voir très majoritairement. En termes de taille off, Alpine est comme l'image minimale du moteur X, qui est plus petit en termes de taille, puisque Alpine comme base elle-même est plus petite. Enfin, si nous voulons toutes les variantes hors des images du moteur X, disons, fins de test, nous pouvons frapper la commande avec un trait d' union, union, tout drapeau fiscal, et nous recevoir les images manquantes du dépôt une fois que nous listons les images du moteur X. Maintenant, il est clairement visible que ce sont des versions différentes mais différentes tailles. On est de retour à la caisse de notre Doctor Hub. Cliquez sur créer l'option de dépôt afin que nous puissions faire un repo et pousser des images à elle sur le volet gauche. Docker est assez généreux pour répertorier les étapes de création d'un repo. abord, tous étaient censés fournir un espace de noms pour nos dépôts afin que nous n'ayons pas à rendre le nom unique à travers le monde. Généralement, l'espace de nom est le même que le nom d'utilisateur. Maintenant, nous allons nom ou dépôt. On le nomme. Tiret de rapport, moteur X. Vous pouvez le nommer. Tout ce que tu veux. La prochaine étape est la description des gens ici. Comme vous pouvez le voir, nous avons donné une brève et douce description de la piscine de la ville. Si vous souhaitez décrire votre rapport de façon beaucoup plus détaillée, vous pouvez accéder à la section de description complète de ce rapport. Et dans la dernière étape, nous pouvons définir l'autorisation de visibilité pour notre article de rapport. Dr. Offre un rapport privé gratuit Un rapport public illimité avec un médecin gratuit ont un compte. Alors faites vos choix à bon escient. Nous n'avons pas besoin de rapports privés pour l'instant, donc nous allons sélectionner la visibilité publique pour ces personnes. Maintenant, nous allons créer le rapport en appuyant sur le bouton Créer à la fin De la page, nous avons créé avec succès notre rapport Engine X, car nous pouvons voir qu'il y a quelques touches au-dessus de la courte description du repo. 1er 1 est le rapport dans quatre onglet. Il affiche les informations de base sur notre moteur de dépôt X, telles que sa visibilité, qui est publique et une courte description à ce sujet. 2ème 1, c'est les dags. Vous pouvez ajouter plusieurs images sous une seule personne séparée par des balises différentes. Si vous ne spécifiez aucune adhérence pour l'image, il achètera avant de prendre la dernière attaque. 3e 1 est des collaborateurs. Il se compose d'un utilisateur ou d'une liste hors utilisateur que le propriétaire du rapport privé veut accorder l'accès en lecture, écriture ou admin suivant, et le 4ème 1 est Web Hooks. Web Hook est une requête de post de rappel http. Il peut être utilisé pour avertir les services utilisateur ou d'autres applications de l'image nouvellement poussée dans le rapport. dernier est les paramètres du repo ici l'utilisateur peut modifier l'autorisation de visibilité hors du rapport et peut également supprimer le rapport des utilisateurs. Compte d'aide Talker en permanence maintenant. Comme vous pouvez le voir, vous pouvez extraire les images disponibles sous le référentiel Engine X. En utilisant le docker spécifique, tirez médecin commun tirer barre oblique civile Rapport tiret moteur X et stockez-les sur vos machines. Puisqu' il s'agit de votre premier référentiel créé sur Docker Hub, allons nous livrer en lui donnant une étoile. Démarrer les gens est un moyen de montrer que vous aimez le référentiel et que vous pouvez vous en souvenir pour vos futures références. Maintenant, revenons au terminal avant de pousser une image dans le registre docker. Nous devons nous connecter à nouveau à l'aide du Dr Help en utilisant Docker Log in Command Interactive Lee Ici, nous avons été invités à entrer les informations d'identification de notre hub de médecin. Nous allons entrer un nom d'utilisateur, qui est vraiment dans toile, et c'est mot de passe que nous avons réussi à vous connecter à notre compte avec un avertissement avec dit que notre médecin ont mot de passe est stocké non crypté dans le fichier de point de conflit Jason sur notre machine pour références futures ici. Ok, j'ai voté pour l'instant. Nous allons donc ignorer l'avertissement et passer à l'étape suivante. Maintenant, nous allons attaquer une image locale Engine X, Kahlan dernière dans une nouvelle image. Nous allons spécifier où nous voulons pousser cette image. Nous pouvons écrire le nom d'hôte sur lequel le registre héberge, qui est une toile civile pour nous. Maintenant, nous allons mentionner le nom de registre dans lequel nous voulons pousser l'image qui est tiret repo Engine X. Vous voulez donner votre propre personnalisé tacked à l'image, comme CC tiret moteur X, pour cet exemple sont Si vous ne mentionnez aucune balise pour l'image, elle prendra la dernière par défaut. Ce format en deux étapes est médité à Bush, une image dans un dépôt public. Maintenant, nous allons vérifier ou nouvellement étiqueter l'image en listant toutes les images sur notre machine. Papa, tu l'es. Nous avons le moteur d'origine. Suivant dernière image et nouvelle toile civile tacked Slash Report. Tiret, moteur X Colin CC moteur X image. Mais as-tu remarqué quelque chose ? Ces deux images ont la même image I d. C'est parce que le Dr Tack Common a créé un alias pour votre image comme nouveau nom de l'image afin que l'image originale soit intacte et que toutes ses modifications puissent être effectuées sur le nouveau l'image la plus ancienne. Maintenant, poussons la barre oblique civile Rapport Tiphen Engine X Colin CC moteur xto. Notre rapport Engine X en utilisant docker push commun. Nous avons déjà spécifié la pièce pour l'emplacement de destination dans le nom de l'image. Comme nous pouvons le voir, Doctor repousse chaque calque de la dernière image originale. Actus fin. D' autre part, docker démon avec empiler tous les calques séquentiellement et créer une nouvelle image avec la balise CC Engine X dans le rapport Engine X À la fin du processus, nous avons obtenu un nouveau résumé d'image. Identifiez hors de l'image push. Revenons maintenant au compte Dr Help pour vérifier que notre rapport a bien été transmis. Qui naviguera vers le rapport et le dépôt suivant Go toe tags et nous avons réussi à pousser l' image, Image tag, taille et un nom tardif sont mentionnés ici. Dans la prochaine conférence, nous allons creuser plus profondément dans l'image en l'inspectant et en regardant son histoire. 22. Démo : Connaître votre image Docker, l'inspection et l'histoire: car nous savons que Docker Images Command répertorie toutes les images docker stockées dans notre machine avec des informations de base telles que Image I D Repository, nom et image Tak Tau Identifier différentes images. Mais que se passe-t-il si nous voulons en savoir plus sur une image particulière ? Eh bien, pour cela, nous avons tenu médecin inspecter le médecin de commande, inspecter les informations de retour communes sur chaque objet de médecin qui a contribué à la création d'une image de docker particulière, qui peut être très utile au moment du débogage. Listons toutes les images à bout ouvert disponibles sur notre machine locale. Ma commande d'écriture Dr Images Open to et nous le sommes. Nous avons quatre images à bout ouvert avec différentes étiquettes d'image sous ouvert au dépôt. Examinons les dernières images de type docker Colin à bout ouvert. Commande Inspecter suivie du nom de l'image que vous souhaitez inspecter. Nous allons taper femme à Colin plus tard ici, appuyez sur Entrée, et comme vous pouvez le voir, il a affiché les informations détaillées sur la dernière femme à l'image dans Jason Terry. Ici, nous pouvons voir l'image étendue I D ouvert au dernier suivi par rapport, nom et rapport. I poitrine qui est le nombre hexadécimal 64 chiffres. Ensuite, nous aidons le conteneur à identifier. Ne le confondez pas avec les conteneurs en cours d'exécution qui veulent l'image. C' est le récipient intermédiaire que le médecin a créé lors de la construction de l'image à bout ouvert à partir de docker. Dossier. Conflit de conteneur est les détails de configuration sur le même conteneur intermédiaire, qui est stocké sous forme d'images. Meta leader pour référence. Ensuite sont les informations relatives à l'image à gratter et à son architecture, qui est utilisée comme image de base ici. Il mentionne également la taille réelle et virtuelle de l'image finale. Et enfin, nous avons Root FS identifier, qui montre digérer tout et immédiatement nous hors de cette image. Si vous souhaitez accéder à un détail spécifique d'une image, vous vous conformez à la sortie désactivée. Doctor Inspecter Type commun Doctor Inspecter, suivi de l'ancienne balise Freud Arguments pour formater l'indicateur entre les virgules inversées, rapport, taxe et le rapport. Je viens de séparer par Kahlan au dernier type docker image, nom, nom, appuyez sur Entrée et par conséquent, nous avons obtenu le rapport et le rapport que je viens de sortir femme au plus tard. Nous pouvons également voir des réserves d'inspection, souvent l'image à un fichier au format Jason pour les références futures ici. Nous voulons stocker les détails de configuration de cette image dans un fichier texte. Pour le faire. Tapez l'image Docker Inspecter le format suivi de Jason Pas de conflit dans les virgules doubles inversées et accolades qui veulent et stocker le résultat Dans inspecter le rapport de soulignement soulignement ouvrir le fichier txt point d'orteil. C' est juste un nom que nous avons donné au fichier. Vous pouvez donner n'importe quel nom que vous voulez. Dressez la liste de tous les fichiers disponibles. Inspecter le rapport. L' orteil ouvert a été créé avec succès. Regardons le contenu de ce fichier. Conflit. Les détails sur la dernière image de bout ouvert sont disponibles dans le fichier texte. Si vous vous souvenez des efforts de racine, identifiez dans l'inspection off, ouvert à la dernière image a montré que digérer tous les Leah intermédiaires dans l'image basée uniquement sur les digests. Il est difficile de déterminer comment l'image a été construite. Pour cela, nous avons une histoire plus sombre. Commande Docker History nous montrera tous les calques intermédiaires, souvent l'image. Trouvons les couches intermédiaires de ce type d'image docker image Histoire qui est allé orteil dans le terminal ? On a tous les Leah intermédiaires pour notre dernière image des orteils ouverts. Ces calques sont des chili de séquence empilés à partir de l'image de base en bas jusqu'au calque CMD en haut. Sur les résultats. Toutes les couches ont leur image associative, tailles d'ID et leur création. Il est temps de creuser plus profondément là-dedans. Laissez-nous trouver l'histoire à partir de l'image que nous avons construit sur notre hôte médecin local, qui trouvera l'histoire au large i. M g Souligner Apache Now taper l'historique de l'image docker, suivi du nom de l'image, qui est I am G Souligner Apache et appuyez sur Entrée. Vous vous demandez peut-être pourquoi certains hors de la colonne de l'image rose hors dans les réserves contenues manquantes et certains hors d'eux ont leur image. Je ds. Comme vous vous en souvenez peut-être, les idées d'images intermédiaires sont données aux calques créés par DR Five Instructions, et elles peuvent être utilisées à des fins d'encaissement par notre propre Dr Host. Mais si une image tirée de Docker Hub, tel encaissement ne se produirait pas, et comme il peut causer des affrontements environnementaux, donc nous ne sommes pas fournis des idées d'image pour intermédiaires Leah hors images tirées, Tout ce que nous pouvons savoir est ils existent. Nous avons deux types d'images intermédiaires qui sont faciles à distinguer ceux qui sont construits par un autre médecin hôte, et nous venons de l'utiliser comme image de base et ceux qui sont engagés par nos instructions . Vous pouvez également les identifier au moment où ils ont été validés l'image de base immédiatement. Les États-Unis ont 17 mois, alors que les autres sont commis il y a quelques heures. 23. Démo : Nettoyer les images Demo: docker: avoir des images inutiles se trouvant autour de notre hôte peut être tout à fait une frontière. Tout d'abord, il consomme beaucoup d'espace disque et avoir plusieurs versions sur des images similaires peut néanmoins provoquer des confusions. Listons des images ou disponibles. Jetez un oeil. La liste est déjà exhaustive. Il est temps de l'affiner un peu pour garder les choses propres et bien rangées. Tout d'abord, allons utiliser notre commande, um ou remove. Nous allons supprimer une image avec une balise de tiret alpine. Comme vous vous en souvenez peut-être, ces images ont été extraites comme une pile d'images intermédiaires en couches, sorte qu'elles seront également supprimées. De même, toutes les images intermédiaires ainsi que l'image résultante seront supprimées de notre hôte juste pour vérifier. Comment s'est passé notre commandement ? Prenons une autre liste d'images et nous ne devrions pas trouver d'image avec une attaque de tiret Alpine . Une autre façon d'écrire l'image RM est d'écrire simplement à M I et de le suivre par image i d. Lorsque les vues image I d. Au lieu de la balise image, toutes les images contenant que I d seront supprimées ici. Un trait d'union, des variantes alpines et alpines hors image du moteur X seront affectés par cette commande. D'autre part, une telle opération impliquant I D hors de l'image, qui est utilisée plus d'une fois, ne peut pas être effectuée normalement. C' est pourquoi nous recevons cette erreur et la suggestion de les supprimer avec force. Faisons-le. Nous allons utiliser la même commande avec quatre pile que vous pouvez remarquer toutes les images. Avec cela, je vais être libéré de leur étiquette et ils seront supprimés avec les images intermédiaires . 24. Un conteneur est né !: nous avons terminé avec les deux fichiers Docker et Docker images, Donc maintenant il est temps de prêter notre attention tant nécessaire pour étendre le point sur les scores. Cadenas Nous avons déjà vu la définition formelle des conteneurs, mais si nous considérons nos connaissances mises à jour, la façon la plus simple de décrire contient un serait d'exécuter une instance sur une image docker, vous pouvez la comparer à l'analogie off processus et programme Dans Lennar, tout comme un processus est une instance en cours d'exécution. A partir d'un programme. Un conteneur est une instance en cours d'exécution souvent image avec de l'aide hors des espaces de noms sur le Lennox. Les conteneurs hôtes fournissent des isolations similaires. Comme nous, euh, chaque conteneur a son propre système de fichiers, pilote réseau, pilote de stockage et privilèges administratifs ainsi. Malgré tout cela, n'importe quel conteneur serait au moins 100 fois plus léger que le Williams hébergeant le même ensemble de logiciels que nous avons vu précédemment que les images docker sont faites hors. Lire seulement les couches, et la couche la plus haute est à base de plantes droite. Eh bien, cette couche supérieure est roïdée. Faites-le lors de la création d'un conteneur hors de l'image avec des configurations réseau correctes. Les conteneurs peuvent également parler les uns aux autres. Pourquoi je paix ou DNS. Il suit également la politique de copie sur écriture pour maintenir l'intégrité de l'image docker, que nous allons explorer prochainement. Vous pouvez vous demander ce que nous entendons exactement par l'exécution de l'image ? Eh bien, beaucoup moins à la course surprise peut être définie assez simplement. Dans notre contexte, cela signifie que l'écriture des ressources est comme la mémoire de calcul et le stockage. 25. Cycle de vie contenant : Ah, des conteneurs. Cycle de vie s orteil assez similaire A processus cycle de vie dans Lenox parce qu'après tout, un conteneur est juste un processus en cours d'exécution. Instance à partir d'une image de médecin. Nous commençons par les états créés qui peuvent être une commande part off doctor run ou peuvent être explicitement provoqués par Dr Create Command. S' il s'agit d'une commande Part off run, elle conduira automatiquement à l'étape suivante qui est en cours d'exécution. Cela signifie que le conteneur créé ou le processus de hangar yule est en cours d'exécution et re sources sont activement utilisées par elle. Alternativement, si un conteneur est explicitement dans le stage créé, il peut être envoyé à l'état d'exécution avec start. Allez. Suivant est la scène animée qui ne se produira pas seule. Pour la plupart, vous pouvez stratégiquement le provoquer avec docker container Pause commande et reprendre son de la même manière avec une commande NPA pour contenir un processus va aller à des états en attente et une fois repris, il sera de nouveau opérationnel. Suivant est arrêté étape, ce qui signifie que le processus hors du conteneur est terminé. Mais le conteneur i d existe toujours donc il peut être re bouclier sans créer un autre organisateur et enregistrer son I D. Cela peut être dû à plusieurs raisons, il peut être causé par une politique de redémarrage de l'ère ou simplement conteneur. Après avoir terminé ses tâches d'exécution jusqu'à l'achèvement, nous pouvons arrêter manuellement et redémarrer les conteneurs avec des conteneurs docker, arrêter et redémarrer les commandes, respectivement. Enfin, nous avons supprimé l'étape où le conteneur terminé est retiré et son i d est libéré. Il cessera de faire appel dans la liste des conteneurs pour étendre davantage sur plusieurs conteneurs partir d'une seule image. Considéré comme ce Bagram, le Leah en lecture seule est commun, et les couches d'écriture en lecture récupèrent des données à partir de lui. Cela ne provoque aucune corruption des données. Puisque les données hors lecture seule couche ne va pas être modifiée en premier lieu, et le système doit juste effectuer plusieurs opérations de lecture sur les mêmes données. Cela optimise le stockage hors hôte du médecin. Où est le nombre de conteneurs en cours d'exécution d'une même image ou d'une image différente sur un seul hôte dépendra toujours des limitations de l'architecture des hôtes telles que la mémoire et la vitesse de traitement . Un autre aspect important des conteneurs est leur copie sur le mécanisme d'écriture. Qu' est-ce que c'est ? Eh bien, c'est assez simple affaire. Maintenant, nous avons vu que la couche crédible hors conteneur est monté sur la lecture à juste titre hors image Docker. C' était vrai, mais il y a un petit secret à lire. C' était vrai, Seules les couches déposées elles-mêmes sont intactes. Ah, copier hors d'eux est créé et lu correctement est monté sur cette copie, qui rend plus facile de récupérer les couches en cas d' accès non autorisé au système de fichiers hôte ou de dommages au préservatif. 26. Démo : Révolutions pour créer des conteneurs: Testons ces deux commandes avec un conteneur de boîte occupé. Tout d'abord, nous allons utiliser le conteneur docker. Créer une commande. Il est suivi du tiret I D tag, ce qui signifie qu'il sera interactif et activé telétype. Nous ne lui avons pas donné le drapeau détaché puisque nous n'avons pas besoin de toe, nous nommons ou conteneur cc tiret. Occupé zone A et nous utilisons l'image boîte occupée avec la dernière attaque lorsque nous exécutons la commande. Étant donné que le contenu de l'image n'est pas disponible localement, il sera extrait du hub du médecin une fois qu'il est tiré. Ce que vous voyez à la fin est le conteneur unique que j'ai créé par Dr. L'idée est unique au moins à travers l'hôte et le cluster. Si vous utilisez un maintenant ou un conteneur devrait être créé pour lister celui de l'Argentine, nous devons exécuter la commande docker ps tiret A Et une fois que nous le faisons, nous obtenons une liste hors. Tous les conteneurs qui sont en cours d'exécution sont sur le point de fonctionner ont fini de fonctionner sur ce Horst. La couche de sortie est assez simple et l'entrée la plus importante est notre conteneur récemment créé . Il n'est pas encore en cours d'exécution, ce qui peut également être vérifié à partir de la colonne Status. Il est suivi par un certain nombre d'autres conteneurs qui ont fini de fonctionner et sont sortis il y a quelque temps. Ici, les ressources sont déjà prêtes à être allouées au conteneur, mais n'ont pas encore été allouées. Ne vous inquiétez pas. Nous allons laisser ce conteneur profiter de son rêve aussi. Mais avant cela, voyons ce qui se passe quand nous exécutons un conteneur. Au lieu de cela, vous pourriez trouver cette commande similaire à celle que nous avons utilisée dans certaines de nos démos initiales. C' est parce que c'est la façon la plus courante de l'exécuter cette fois. Nous avons aussi mis ce drapeau pour ne pas avoir à plonger dans le conteneur. Et nous l'avons nommé cc boîte occupée B. Puisque nous avions déjà tiré l'image de la boîte occupée la dernière fois, Docteur a encaissé la totalité de lui et a simplement retourné un conteneur. I d Si vous vous demandez, pourquoi avons-nous un drapeau R M le long ? Il demande à Docker de supprimer cet organisateur une fois qu'il a terminé son exécution. Regardons le trait d'union Dr P s e à nouveau et ce que nous voyons est notre entrée supérieure remplacée par boîte occupée être conteneur. Contrairement à son homologue appelé boîte occupée A Celle-ci gagne six secondes. En fait, il y a aussi une différence de trois secondes entre son temps de création et son temps de fonctionnement. Vous pouvez supposer que le médecin a pris ce temps pour allouer les ressources et l'enregistrer en tant que processus à son hôte. Comme nous avons nos conteneurs en cours d'exécution, nous allons jouer un peu plus avec ça dans la prochaine conférence. 27. Démo : Travailler avec des contenants |Commons, arrêtez, Restart et renommer: Commençons par Demo, où nous avons terminé la précédente. La liste des conteneurs est toujours la même que la durée de mise à jour. Dans la démo précédente, nous avions créé le conteneur appelé CC Busy box A, mais nous ne l'avons pas lancé maintenant pour l'envoyer en état d'exécution. Utilisons Docker conteneur Start Command, suivi du nom de deux conteneurs. Nous n'avons pas besoin de fournir des drapeaux comme idéalement, car ils ont déjà été passés pendant la commande create. Laissons-le. On n'aura même pas de conteneur. Je suis là. Depuis que deux avaient été générés précédemment, tout ce que nous allons obtenir est le nom du conteneur comme un clin d'œil à la réussite hors de la commande dans le médecin typique Voir style de vie. Il est temps d'obtenir répétitif et de lister à nouveau les conteneurs en utilisant docker PS tiret A. Et nous n'avons pas mis à jour sont créés. Container cc Busy box A est maintenant enfin en état d'exécution, tout comme start. Nous avons aussi une commande pour arrêter les conteneurs. Depuis qu'un vient de commencer à fonctionner, arrêtons cc occupé boîte B à nouveau. Ah, signal de confirmation est le nom du conteneur, et si vous voulez le vérifier, listons nos organisateurs à nouveau et attendez, où est RCC ? Battement de boîte occupée ? Ça veut dire que ce n'est pas de l'ETA ? Eh bien, non. Si vous vous souvenez, nous avions postulé. Aflac a appelé Adam dans notre dernière démo avec Docker run common on Sisi Busy Box Beacon Dana, ce qui signifie que le conteneur sera supprimé une fois à l'autre il a cessé de fonctionner. Pour utiliser ce simple. Si vous voulez réutiliser le conteneur, conservez-le. Si vous ne voulez pas l'utiliser, retirez-le et libérez quelqu'un. Sources. Ensuite, nous avons tenu une commande de redémarrage. Redémarrez notre CC occupé box, un conteneur. Nous lui donnerons aussi un tampon de cinq secondes. Et quand nous le vérifions, ce que nous obtenons est un conteneur fraîchement démarré en marche. Enfin, je pense que nous sommes tous d'accord pour dire que Sisi occupé Box A n'était pas si grand qu'une convention de dénomination à suivre. C' est juste Lindy ou compliqué et fade. Si vous rencontrez de telles pensées avec Jurgen Deena, nous avons l'ordre de les renommer. Soyons un peu plus occasionnels et renommons cc tiret, tiret de boîte occupé A comme ma boîte occupée, et quand nous les listons, nous pouvons voir le changement se reflète par la façon dont remarquer que le conteneur vient renommé, pas redémarré, ce qui signifie que nous pouvons les renommer presque quand nous le voulons, à moins qu'ils n'affectent d'autres conteneurs. Dans la prochaine conférence, nous allons faire quelque chose de plus application liée à nos conteneurs. 28. Démo : Travailler avec des contenants |Attacher et Exec: comme les démos précédentes. Nous avons une liste de conteneur ici Maintenant, nous allons utiliser docker conteneur attaché commande. Cela signifie que nous attachons la norme Io et l'erreur standard hors ou conteneur au terminal de notre client médecin. Nous avons attaché mon conteneur de boîte occupé ici, alors nous allons appuyer sur Entrée. Comme vous pouvez le voir maintenant, nous accédons à la norme. Je dois un terminal hors de la boîte occupée de notre ouverture au terminal. Si nous frappons un moins, nous verrons une liste des répertoires disponibles dans l'environnement de route de boîte occupée. Nous pouvons jouer un peu plus pour naviguer vers d'autres réalisateurs aussi. Si nous quittons la porte arrière écrite ouverte à l'hôte terminal et il y a un aspect intéressant à la commande attachée. Lorsque nous listons à nouveau les conteneurs, nous pouvons voir que mon conteneur de boîte occupé n'est pas en cours d'exécution. Il est sorti il y a quelques secondes. En d'autres termes, l'attachement du conteneur conditionne son arrêt lorsque nous sortons de la pièce jointe. Une alternative à cela est Dr Executor signifiait qu'il nous permet d'utiliser n'importe quelle commande que nous voulons et il exécute deux conteneurs. Mais avant de recommencer notre conteneur. Maintenant, nous avons utilisé Doctor exact, qui signifie Exécuter avec tiret i d. drapeau sur la façon dont il a dirigé pour exécuter et imprimer le résultat de la commande PWD. Une fois qu'il réussit, nous avons maintenu une barre oblique, qui indique la route hors de notre boîte occupée. Contrairement à attacher. Si nous listons à nouveau les conteneurs, nous trouverons ou les conteneurs encore en service. 29. Démo : inspire, et commencer le conteneur: il est temps de connaître nos conteneurs de façon plus approfondie. Tout d'abord, nous avons la liste des conteneurs juste pour éviter toute confusion. Nous avons lancé un conteneur à bout ouvert après le contexte désactivé. Dernière démo. Nous allons obtenir plus d'informations à ce sujet avec la commande Doctor Inspect suivie du nom du conteneur . Ce que nous obtenons en sortie est la description de Jason sur le conteneur. Nous n'avons pas besoin d'être intimidés par la quantité d'informations aussi. Interprétez-les un par un. À partir du haut, nous avons le conteneur I d fourni par Docker Timestamp hors partie de création de conteneur où le conteneur est en cours d'exécution. Aucun argument puisque nous n'avons fourni aucun dans l'état de sauvegarde du conteneur. Nous avons des indications sur le fait que sur conteneur est en état de marche et pas mis en pause ou relancer notre dette, alors il n'a pas été tué en sortant de la mémoire. C' est le processus que j'ai sur toi. Bento est 6 94 Ensuite, nous avons des informations sur l'image dans Termes Off Image Digest et nous avons diverses parties telles que l'hôte, partie journal, partie et partie de configuration. Ensuite, nous avons un autre tas d'informations où la plupart hors il n'est pas pertinent pour ce conteneur particulier donc ils sont soit nuls sont vides. Mais ce qui importe, c'est le nom du conteneur et le fait qu'il n'a pas encore redémarré . À la suite de ça ? Nous avons également le volume du réseau et d'autres informations qui pourraient vous être utiles une fois que nous poursuivons ce cours. Pour l'instant, nous pouvons nous concentrer sur la recherche d'informations spécifiques à partir de la commande Inspecter. Puisque même si vous vous familiarisez complètement avec tous les attributs, les lire à chaque fois peut être vraiment intimidant. Utilisons le drapeau de format avec elle, inspecter la commande et rétrécir autour des résultats à juste i adresse. Nous pouvons le faire en réduisant la portée aux réseaux et sous les paramètres réseau. Choisir le champ d'adresse I P. On y va. Nous avons l'adresse I P hors de notre conteneur. Ensuite, c'est le Commandement du Sommet. Pour utiliser efficacement cette commande, nous devons apporter au moins une modification à l'état du conteneur après qu'il a été créé à partir de l' image. Juste pour vous rappeler, ce conteneur urbain deux est créé à partir de la même image que nous avions poussé sur notre médecin Hub Repo. Exécutons avec bash. Vous devriez déjà être habitué à cette commande. Vérifions en listant ou dans les répertoires. Oui, nous sommes dans le conteneur. Maintenant, lançons une mise à jour. Le but ici est juste de changer l'état. Contient A des hommes. Il a été créé une fois que la plaque A est terminée. Sortons maintenant, utilisons la commande Dr Commit, suivie du nom du conteneur, qui est mon nom d'ouverture et de mise à jour dans le format Off Doctor Hump People images. Nous l'avons gardé comme mis à jour Cubain à 1.0. Une fois que nous y sommes entrés, l'oblat sera engagé auprès de notre médecin les gens affamés. Comme vous l'avez peut-être deviné, il est essentiel que nous soyons aimés dans notre médecin. Avoir un compte pour utiliser cette démo. Le conteneur mis à jour est validé comme l'image telle qu'elle est lue, écrire lier tourne en lecture seule et est empilé au-dessus de précédemment nous sur l'ancienne image. Donc, au lieu de conteneurs, si nous listons les images, nous pouvons trouver la mise à jour, qui peut être directement alors comme un conteneur, et nous n'aurons pas à lire sous une grande commande. Cela aide à maintenir les jeux hors des images docker. Dans la prochaine conférence, qui va en apprendre davantage sur la cartographie des ports 30. Démo : Exposition de conteneur : Conteneurs Exposure de Container: dans cette démo va cartographier nos machines hôtes sport pour contenir un port. La commande est assez simple, car nous avons juste à étendre la commande run avec un drapeau. Nous allons cartographier nos hôtes. Port 80802 Container Sport 80 sur TCP en le mentionnant suivant le trait d'union. B remarquez que l'imagerie utilisée ici est celle que nous avions créée en travaillant avec des instructions exposées. Quand on fera tourner les conteneurs, on aura les ports mentionnés à l'aéroport. La sortie semble un peu désordonnée, mais les annotations devraient aider ici. Maintenant, nous allons créer un autre grand dîner à partir de la même image appelée trait d'union du moteur X. R. Au lieu de fournir des ports et des protocoles comme plus tôt cette fois, il suffit de fournir un trait d'union capital p et permettre à docker de mapper les ports par lui-même. Ici, il utilisera les informations fournies par les instructions exposées dans le fichier docker et comptera déversements disponibles à partir des pilotes réseau des machines hôtes. Nous pouvons voir que le nouveau conteneur a le port 80 mappé du conteneur au port, 32 768 hors hôte. Nous pouvons également afficher ces informations en appuyant sur Docker Container Port Command, suivi du nom du conteneur. Enfin, lorsque nous avons appris l'hôte local sur le port 8080 sur notre navigateur Web, nous pouvons voir la page d'accueil Engine Ex, ce qui indique que notre mappage de port a réussi. Lorsque nous faisons la même chose avec l'autre conteneur, cela montre aussi la même chose. Dans la prochaine conférence va nettoyer ou espace de travail. 31. Démo : Nettoyer le nettoyage ||Une prise et supprimer: Donc, dans cette démo, nous allons apprendre différentes façons de supprimer les conteneurs. Listons tous les donneurs d'organes. Et, oui, il y en a beaucoup. En fait, beaucoup d'entre eux ne sont même pas importants pour le moment et devraient être retirés en premier. Nous avons tenu une commande Adam de base, suivie d'un nom de conteneur. Ici, nous avons préféré un conteneur arrêté. Kant souligne d'une fois. C' est une humeur, il va disparaître de la liste. Ensuite, nous avons le même commandement d'Adam. Mais au lieu de fournir le nom, nous avons fourni le conteneur I DS hors des conteneurs d'arrêt, et le résultat est le même. Ils disparaissent de la liste après avoir été supprimés. Le cas sera un peu différent avec les conteneurs en cours d'exécution. Juste pour s'assurer que nous ne faisons aucune erreur pendant que le conteneur principal en cours d'exécution il nous demande de fournir le drapeau de démolition forcée, je dirais que c'est un geste gentil, car il évite les erreurs potentielles non forcées. En ajoutant le drapeau forcé, rien ne peut nous empêcher de l'enlever. Si nous voulons être gentils de nous contenir et que nous voulons les tuer correctement, nous pouvons envoyer le signal du dôme malade en utilisant la commande docker conteneur Kill. Mais comme vous pouvez le voir, nous avons encore quelques conteneurs qui tournent et nous n'avons pas besoin de les arrêter pour la plupart , pour enlever les conteneurs d'arrêt, nous avons un conteneur docker de voiture de commande Prune. C' est un commun court et doux et ne nécessite aucun nom. Nos i ds. Il va simplement tuer tous les conteneurs pendants et libérer toutes les ressources qu'il peut . Nous avions trois de ces conteneurs qui ont été enlevés, et nous avons obtenu 1,8 mégaoctets de l'espace libre. Enfin, notre liste de conteneurs ne contenait que les mensonges du prochain modèle vont plus loin dans la mise en réseau. 32. Applications et introduction à la connexion réseau dans Docker: Jusqu' à présent, nous avons joué avec des conteneurs simples dans sont les vôtres. Mais même si nous utilisions plus d'un conteneur, ils étaient complètement indépendants les uns des autres. Par exemple, un conteneur peut être suffisant pour héberger une page de destination statique, mais une application pour smartphone nécessiterait certainement plus d'un conteneur, mais chacun d'entre eux peut avoir un but spécifique. Dans ce cas, échange d' informations entre conteneurs devient un facteur crucial de la performance globale de l'application. En d'autres termes, ils ont besoin de parler. La communication peut être de 1 à 11 trop ou beaucoup à plusieurs. En cas de conteneurs docker, Ces communications sont gérées par des objets appelés pilotes réseau pour les définir simplement un pilote réseau médecin est un logiciel qui gère la mise en réseau des conteneurs. Ils peuvent être créés simplement à l'aide de la commande réseau DOCKER. Aucune image ou aucun fichier n'est requis. En parlant de réseaux, ces réseaux peuvent apparaître à partir d'instances d'hôte unique vers des clusters d'hôtes multiples . Pour l'instant, nous allons nous concentrer sur un hôte unique et nous visiterons la mise en réseau des clusters et nous traitons avec Docker Swarm. Dr. Les pilotes réseauDr.sont assez fiables, puisque DACA lui-même les utilise pour communiquer avec d'autres conteneurs et avec le monde extérieur. Cela signifie également que Dr lui-même fournit des pilotes réseau natifs. Si nous ne voulons pas que l'eau crée des uns par nous-mêmes comme un échange, cela signifie moins de contrôle ou je p plages et ports, à part les réseaux que nous créons et les réseaux par défaut. Doctor prend également en charge les pilotes de réseau distants, qui sont développés par des tiers et peuvent être installés en tant que plug-ins, bien qu'ils soient encore en pleine croissance. Ils sont surtout utiles pour des cas d'utilisation spécifiques tels que l'activation de la mise en réseau sur un certain fournisseur de cloud en dehors des pilotes réseau. Docteur également I. Pam R. I. Pam R. I. P. et Tress Management Driver, qui gère I P plages d'adresses et distributions si elles ne sont pas spécifiées par l'administrateur. Je sais que vous avez plein de questions comme, Comment fonctionnent ces réseaux ? Y a-t-il des types ? Y a-t-il une structure qu'ils suivent ? Eh bien, nous allons explorer tous les détails dans les prochaines conférences lorsque nous étudions le modèle de réseau de conteneurs et les types de réseaux de médecins 33. Modèle de réseau de conteneur, (CNM) de Docker: Creusons profondément dans le modèle de réseau de conteneurs. Tout d'abord, nous avons une infrastructure réseau hôte. Cela inclut à la fois les détails de l'infrastructure logicielle et matérielle, comme l'utilisation d'Eternity ou WiFi et les huiles hôtes. Colonel et Work Stack dans notre cas, Lennox Network Stack. En plus de cela, nous avons des pilotes réseau Dr, qui incluent les pilotes Network et I Pam. Nous venons de dire récemment que la fonctionnalité brièvement dans la dernière structure. En plus de ces pilotes, nous avons tenu le moteur docker, qui crée des objets réseau individuels, comme vous avez peut-être deviné utilisateur défini sur avant de contenir des objets métalliques tombent sur le dessus du moteur docker. Depuis leur fourniture par elle, ces blocs font partie de la DR elle-même. En plus de pour le réseau de conteneurs, nous avons tenu des conteneurs en cours d'exécution qui sont accompagnés d'au moins un point de terminaison. J' ai dit au moins un parce qu'il est normal pour conteneur d'aider connecté à deux ou plusieurs réseaux et donc constitué de Morton. Un point de terminaison parlant des points de terminaison. Leur représentation connectée côté conteneur sur Internet virtuel, qui est le protocole commun pour la mise en réseau à travers plus sombre. Ils contiennent des informations de réseau telles que l'adresse I P, Andress physique virtuel et les ports, comme mentionné précédemment. Si un conteneur est connecté à plusieurs réseaux. Il aura plus d'un point de terminaison correspondant, qui contiendra différents I P. La portée de ces pois I serait généralement limitée à l'hôte en cas d' implémentation d'hôte unique dans la même portée. Si deux conteneurs sont connectés au même réseau, ils peuvent également communiquer le fil. DNS étaient les noms de conteneurs peuvent être utilisés à la place des réseaux de conteneurs de I P. Placer ces informations sur le réseau et I, Pam, puis les pilotes réseau et IBM traduisent ces requêtes en paquets pris en charge par le réseau hôte et les transmettent pour s'assurer que les conteneurs peuvent communiquer avec le monde extérieur. Parce que si cela ne se produit pas, oubliez le moteur X. Vous ne seriez même pas en mesure d'exécuter correctement la commande get update. C' est ainsi que fonctionne le modèle de réseau de conteneurs. Dans la prochaine conférence, nous allons examiner les types de pilotes réseau en détail. 34. Les conducteurs de réseau de Docker, natifs de Docker, Native de Docker,: hors de l'OTAN et les conducteurs de réseau distants allaient travailler orteil sur les conducteurs natifs. BET natif. Les conducteurs de camion sont utilisés dans la création, désactivés par défaut sur les réseaux définis par l'utilisateur. Vous souvenez-vous de ce diagramme de la conférence précédente ? Rétrécissons un peu pour la commodité maintenant qui est considéré comme le premier type de réseau le réseau hôte. L' idée est plutôt vanillée ici. informations d'identification réseau hors de l'hôte sont directement reflétées sur le conteneur et le point, ce qui signifie que les conteneurs connectés à ce réseau aideront le même i p que l'hôte lui-même . Cela ne signifie pas que ce conteneur avec abandon, leur véritable orteil nature devient un peu plus pratique. Disons que nous avons aidé les conteneurs connectés au réseau hôte par défaut ou défini par l'utilisateur. Dans ce cas, les deux conteneurs communiquent où Internet virtuel, reflétant les capacités et les limites de la machine hôte. Passant de l'hôte, nous avons aidé le réseau de pont. C' est également le réseau déformé pour les conteneurs docker. Si nous ne nous connectons pas explicitement ou les conteneurs à un réseau, ils seront connectés au réseau de pont par défaut. Le nom de ce réseau aide beaucoup à définir ses propriétés. Il crée un pont d'éternité virtuel tous les conteneurs connectés à ce réseau sont connectés à ce pont, où conteneur et points le pont communique au réseau hôte. Cela signifie que les conteneurs seront isolés des spécifications du réseau hôte. Les conteneurs auront un oculaire différent de l'hôte. Nous pouvons définir la gamme I P et soumettre la mosquée pour le pont et les réseaux suivants. Mais si nous choisissons de refuser cette décision, pilotes I Pam ont géré cette tâche pour nous. Nous pouvons penser que notre adresse ces conteneurs en utilisant le I p exploité par le pont virtuel. Hors cours. La communication passera par les machines hôtes Réseau signifie si elle est en panne, mais il ne sera pas en mesure de faire beaucoup s'élevait. Mais cela peut nous aider à cacher le DNS ou i p off l'hôte dans la version récente de Docker E 17 et environ. Nous pouvons également utiliser les noms de conteneurs orteil addis quand nous communiquons au sein du même médecin, réseau Bridge explorera pratiquement ces réseaux plus en dem électeurs. En outre, nous avons des réseaux superposés au cas où hors tout un réseau. Nous avons besoin de sortir de l'infrastructure de casier hôte unique dans l' utilisation industrielle hors de la communauté docker, notre édition Enterprise. Vous trouverez probablement des clusters ou des clusters hors de l'hôte docker, qui exécutera une seule, connectée ou au moins l'ensemble approprié d'applications conteneurisées. Un tel arrangement s'appelle Essaim, Amarré dans Docker. Swarm dépend fortement de l'huile dans un camion approvisionnant plus sombre. On a encore pris le contrôle de l'essaim dans notre parcours. Mais ne vous inquiétez pas. Cette explication ne vous inondera pas avec des terminologies de forme inconnues en cas de réseau hors pont . Tout ce qu'on avait à s'inquiéter, c'était des conteneurs I P. puisque nous n'avions qu'un seul hôte. Mais avec tout le réseau aura plusieurs hôtes ayant plusieurs conteneurs où toute communication hors combinaison pourrait être nécessaire. Donc, lors de l'établissement ou de l'exécution d'une communication conteneur à conteneur, notre pilote réseau ne peut pas s'en sortir en gardant juste une trace des conteneurs. Il doit également crier sa communication à l'hôte approprié. Pour résoudre ce réseau de superposition aidera deux couches hors informations informations informations réseau qui contiendra des données concernant la source et la destination hors cheval. Je serais et trop information Lear, qui contiendra des données sur les conteneurs source et destination. I p. En conséquence, l'en-tête de paquet de communication sera composé. Je p adresse à la fois les hôtes source et de destination et les conteneurs. Si vous regardez dans pratiquement quand nous introduisons chaud 35. Démo : Créer des réseaux Docker: dans cette démo, nous allons créer notre premier réseau Doctor et le comprendre. Nous allons le faire en utilisant le réseau de médecin, créer la commande et le fournir avec le drapeau du conducteur. Notre pilote pour cette démo est un réseau de pont. Donc, nous allons passer le pont d'argument et finalement nous allons lui donner un nom approprié. Mon pont. Ce que nous obtenons en conséquence est un i d pour l'objet réseau qui a été créé. Avant de creuser au fond de mon pont, créons un autre réseau appelé mon pont. On fournira quelques périmètres de plus avec celui-ci pour une meilleure compassion. En dehors du pilote de drapeau fourni précédemment sur son pont de valeur, nous avons également fourni le sous-net et je serais à nouveau portée. Nous avons reçu un autre I D. Laissons la liste de ces réseaux. Comme vous pouvez le voir, mon pont et mon pont ne sont pas les seuls réseaux disponibles sur la liste. C' est parce que Dr Roy nous A. Définir par défaut, créé des réseaux en utilisant différents pilotes de réseau a frappé l'hôte de notre pont et aucun que vous pouvez dire par les noms que le pont et l'hôte utilisent les pilotes réseau correspondants. Aucun n'est un orteil de cas spécial. Il est utilisé pour indiquer votre isolement et votre manque de connectivité. Nous pouvons également filtrer la recherche en fournissant la balise de filtre. Mettons le filtre que nous voulons seulement réseau de pont donc le champ de pilote sera dit pour pont et ici nous avons tous les réseaux créés avec le pilote de réseau de pont. 36. Démo : Travailler avec des réseaux Docker |Connecter, déconnectez, inspectez et propre: Dans cette démo, nous allons connecter un ou des conteneurs avec un hors des réseaux que nous avons créés. Tout d'abord, voyons si nous avons des conteneurs en cours d'exécution. Le conteneur devrait être l'état de stage, puisque la connectivité des objets réseau dans Docker suit les règles de la communication inter-processus dans Lenox, ce qui signifie que s'il n'y a pas de processus, rien ne peut lui parler en termes réseaux. Comme nous pouvons le voir, nous devons retirer nos conteneurs de rechange du modèle précédent, mais les deux hors d'eux sur un état de sortie. Commençons mon Cubain pour contenir un Maintenant garder une liste hors des réseaux devant nous pour prendre de meilleures décisions. Nous allons utiliser Docker Network Connect Command, suivi par le nom du réseau et le nom du conteneur et appuyez sur Entrée. Nous n'obtenons aucune réponse comme le réseau I D ou le conteneur I d. de Docker. Donc, un moyen juste de vérifier la connexion serait d'utiliser Talker. Inspecter la commande après avoir utilisé inspecter sur mon ouvert à Si vous naviguez vers les champs de réseau la sortie, vous pouvez voir que nous avons la description hors réseau de pont, mon pont un attaché à mon conteneur open toe. Et il a aussi l'alias, qui est le même que celui que nous avions reçu après la création hors réseau de pont tat. Vous pouvez également remarquer le point final, qui est décrit avec un point de terminaison i d et celui suivant. Allez. Au lieu de cela, désactivez l'utilisation d'une commande distincte pour connecter le réseau Doctor. Vous le mentionnerez avec la commande Exécuter à l'aide de l'indicateur réseau. Ici, nous fournissons le réseau hôte au nom de conteneur Kant. moteur de soulignement X, qui sera créé à partir de l'image suivante du moteur. Avoir la dernière balise, notamment si vous exécutez Docker Container Port Command avec le moteur de soulignement de maïs X. Vous ne recevrez pas les informations de mappage de port car aucun mappage de port n'a lieu avec le conteneur de pilote réseau hôte communique à Internet utilisant le port hors hôte lui-même Nous pouvons vous plus d'informations sur ce réseau de chevaux en utilisant la commande inspecter sur conteneur. Et comme vous pouvez le voir, nous pouvons obtenir les détails du réseau I D et du point de terminaison de l'instance du réseau hôte. Tout comme dans le conteneur précédent Ici aussi, aussi, vous pouvez remarquer un champ nommé pont sous les paramètres réseau. Ce champ est vide. La raison est si nous ne fournissons pas de réseau manuellement, Dr Price, le président par défaut, travaille sur chaque conteneur. Non Examinons le réseau de pont par défaut. Il semble qu'il ait aussi son point final. Soumettez, et j'adresse la plage. Maintenant, si nous regardons le champ des conteneurs, nous trouverons mon orteil ouvert ou, pour être précis, seulement mon orteil ouvert. La raison pour laquelle le maïs soulignement Engine X n'est pas répertorié ici est qu'il est connecté au réseau hôte, Dr The Next a conteneur toe, un sur les réseaux D Ford. Et surtout la priorité est le pont. Sauf mention contraire. explicitement, pas l'adresse I P hors de mon orteil ouvert sous D pour Bridge Network, qui est 172,17 point zéro point à. Maintenant, inspectons le réseau de pont défini par l'utilisateur dans notre cas, mon réseau Bridge One. Il a des paramètres similaires par rapport au pont par défaut. En dehors de différents points de terminaison, je suis Range et I ds. Il a également mon conteneur à bout ouvert connecté à elle. Mais le I P est différent du pont par défaut. En d'autres termes, mon conteneur à orteil ouvert est accessible à partir des deux réseaux en utilisant l'oculaire correspondant. Nous pouvons également formater la sortie off, inspecter la commande comme nous l'avons utilisé pour le faire. Auparavant, allons saisir la valeur hors champ de portée du réseau Fort Bridge sont nous pouvons prendre un set off i D et le nom pour le même qu'il est visible dans la sortie. La première entrée est le réseau I D. Et le 2ème 1 suivi d'un Kahlan, est le nom du réseau. Maintenant, listons sont à nouveau les conteneurs pour voir ce qu'il faut faire ensuite. Eh bien, nous pouvons voir ce qui se passe quand nous déconnectons un réseau de Container. Utilisons Doctor Network Disconnect Command, suivi du nom de réseau et du nom de conteneur, qui sont mon pont et mon orteil ouvert. Dans ce cas. Enfin, si nous inspectons notre réseau, nous pouvons voir ce conteneur Mon orteil ouvert, qui a été mentionné précédemment. Il est hors de vue avec succès. De même, si nous inspectons le conteneur, nous ne trouverons pas le mangeur réseau défini par l'utilisateur. 37. Démo : Ping un conteneur d'une autre: dans cette démo, nous verrons enfin les résultats de notre médecin. Agondement de réseautage. À partir de, suivons notre pratique standard hors. Obtenir une liste. Les réseaux de médecins étaient assez propres. Tout ce que nous avons notre pont hôte par défaut et les réseaux neuronaux non discrets. Un réseau de pont appelé Net Bridge et fourni sous Net et I p Ranges comme mentionné dans la commande. Un statut fait. Exécutez un conteneur appelé base de données soulignée Kant à partir de Reedus Image et connectez-le au réseau Net British. C' est aller chercher son I p. Puisque nous allons l'utiliser plus tard dans cette démo i p off Ce conteneur est 172.0 point à 40 Talk un. Allons sur un autre conteneur de l'image de la boîte occupée et appelons C'est terminé. R. Celle-ci est également liée au travail de président du réseau, comme le précédent. Maintenant, inspectons son propre réseau Net Bridge pour trouver quels conteneurs y sont connectés. On y va. base de données de maïs et l'argent A sont connectés comme nous nous y attendions pour le plus ainsi que moi . P est 172,20 à 40 points à suivre la plage que nous avions fourni Exécuter le troisième conteneur également à partir de l'image de la boîte occupée et l'appeler serveur. Notez que nous n'avons mentionné aucun réseau, qui signifie qu'il sera connecté au réseau de pont par défaut. Nous pouvons également le vérifier en inspectant les informations de son réseau. Et pendant que nous y sommes, pas aussi son I P, qui est 172.17 point 0.3. Maintenant, passons pour voir un peu. Nous aidons trois terminaux, qui utiliseront pour trois conteneurs différents. Si vous ne voulez pas passer par tous les problèmes, vous pouvez utiliser plusieurs terminaux et continuer à basculer entre eux ou les exécuter sur plusieurs écrans. Cependant vous vous sentez à l'aise. Exécutons le conteneur de base de données disparu avec Bash commun. Une fois que nous avons navigué à l'itinéraire hors du conteneur, commençons toe Ping Google. Oups ! Il semble que la chose n'est pas installée dans l'image de base des lecteurs. Alors allons-y et réparons ça. Exécutez une mise à jour générique et installez l'utilitaire Ping I P avec cette commande. Et une fois l'installation terminée, prochaine reprise où nous avions passé le flux de ce tutoriel étant Google. J' adore dire que c'est Google Bing Google. Il devrait y en avoir assez. C' est le bloquer avec le contrôle, tu vois ? Et ce que nous voyons est un succès sans perte de paquets. Maintenant, si vous vous souvenez, nous avons noté que je p off tout le serveur de conteneurs est que je sois était 172.20 à 40 point à Soyons que c'était un succès. Ça veut dire enlever tous les conteneurs. Parlez les uns aux autres sans perte de paquets. Comme ils sont connectés au même réseau de pont, cette communication était plus ou moins I PC ou interprocessus communication au sein de l' hôte Lennox . Mais compte tenu de l'isolement qu'ils ont ouvert, il peut être traité comme deux extrémités. Souvent, l'application communiquait. Aller plus loin. Allons sur un autre terminal et exécutez le serveur pris Dana Thing, Google et conteneur de base de données Cut à partir de lui. Les deux seront couronnés de succès, car Bridge Network permet aux conteneurs de communiquer avec le monde externe à l'aide d' Internet virtuel et les conteneurs connectés au même réseau peuvent parler entre eux en utilisant leurs terminaux. Enfin, nous allons lancer si conteneur RB, qui est connecté à la valeur par défaut. Réseau pénitentiaire, pas défini par l'utilisateur. Pont net un. Si nous essayons d'ouvrir Google, c'est un succès. Mais si nous essayons de faire d'autres conteneurs, nous échouerions, car ils ne sont pas connectés au pont par défaut pour le moment. autre côté, même si nous utilisons des noms DNS sur les conteneurs à la place, hors de leur oculaire, conteneurs connectés au même réseau seront confrontés à une houle notable ping-ping les uns les autres . Cela explique et démontre les capacités et les limites d'Origen qu'il fonctionne. 38. Ne perdez jamais un peu de vos données !: - Du point de vue de 1/3 personne, cela peut sembler une histoire drôle, mais cela peut potentiellement vous coûter votre travail. C' est la raison principale pour laquelle nous avons besoin de solutions de stockage efficaces avec des conteneurs. La logique est assez simple. Les données des conteneurs doivent être sauvegardées quelque part en tant que stockage permanent. Et une question rapide qui viendra dans votre esprit serait de savoir sur quels détails devraient être sauvegardés. Pour répondre à cela, nous devons regarder en arrière la structure en couches de l'image docker et des données de conteneur. Si vous vous en souvenez, nous avons aidé à taper les couches, poser uniquement des couches, qui contiennent des données permanentes et ne sont jamais modifiées. Politique utopique droite et couches d'écriture de lecture, qui tiennent temporaire ou portefeuille. Je donnerai des données si un conteneur arrête ou meurt le portefeuille. Je vais jour disparaît maintenant. Maintenant, nous avons notre réponse. Nous devons sauvegarder les données importantes du portefeuille. Je vais lire Lier sur le conteneur. Maintenant. La question suivante est où stocker les données ? Eh bien, n'importe où. Voulez-vous le stocker sur une machine, qui héberge Doctor ? Allez-y. Voulez-vous le stocker sur un autre serveur ? Allez-y. Voulez-vous le stocker sur un nuage, allez-y aussi. Et la dernière question véritable qui me vient à l'esprit. Existe-t-il des objets de stockage hors type ? Oui, il y a le plus couramment utilisé. Le type d'objet College est appelé volume docker dans un volume. Le stockage de conteneur est complètement isolé du système de fichiers hôte, bien que le volume de données hors volume soit trié dans un répertoire spécifique hors de l'hôte, leur contrôle et géré par la ligne de commande Talker. Par rapport aux autres options hors stockage, que nous visiterons assez rapidement, les volumes sont plus sûrs à expédier et plus fiables à utiliser. Comprenons les volumes. Les volumes sont des objets de stockage hors docker, qui sont montés deux conteneurs en termes de volumes d'implémentation sont dédiés répertoires sur les hôtes Système de fichiers. Si une application conteneurisée est livrée avec le volume, les personnes en dehors du développeur lui-même utilisant l'APP finiront par créer un tel répertoire par eux-mêmes. Doctor hosts Container fournit des données au moteur docker et à l'utilisateur, fournit des commandes pour stocker les données dans le volume ou pour gérer les données dans le même. Bien que ce que le conteneur sait, c'est juste le nom du volume, pas la partie sur l'hôte. La traduction a lieu sur des machines docker, sorte que les applications externes ayant accès à des conteneurs n'auront aucun moyen d'accéder directement aux volumes. Cet isolement maintient l'intégrité et la sécurité des hôtes et des conteneurs. La deuxième option est d'acheter des mamans. L' échange d'informations est assez similaire, mis à part le fait qu'au lieu de créer un répertoire inspiré par le nom des montages d'achat de volume , nous permettons d'utiliser n'importe quel répertoire sur l'hôte docker pour stocker les données. Bien que cela puisse être pratique dans certains cas, il expose également l'emplacement de stockage hors du conteneur, ce qui peut rendre dense la sécurité globale de l'application sur l'hôte lui-même. En dehors de cela, les autres utilisateurs, dehors du développeur lui-même, peuvent ne pas comment une telle partie sur leur hôte et la création donc peut ne pas être sous leurs privilèges ou confort. Enfin, nous les aidons FS ou les volumes de système de fichiers temporaires et bind Mount vous permettent de partager les fichiers entre la machine hôte et le conteneur afin que vous puissiez persister les données même après l'arrêt du conteneur. Si vous exécutez Docker sur Lennar, vous avez 1/3 option. I m F s mamans, le nucléaire un conteneur avec le tempérament Fishman, le conteneur peut créer des fichiers à l'extérieur des conteneurs rougeables plus tôt par opposition aux volumes et l'achat de montures. Un Moan temper fest est temporaire et ne persiste que dans la mémoire de l'hôte, pas dans le stockage lorsque le conteneur s'arrête, le montage FIS de tempérament est l'humeur et le fichier certain qu'il ne sera pas conservé. Le seul cas d'utilisation raisonnable, qui me vient à l'esprit pour 10 profess, est de stocker des fichiers sensibles, que vous ne voulez pas persister une fois l'application supprimée. Quelque chose comme l'historique de navigation, qui sont supprimés si nous utilisons l'onglet Incognito. Il professe monte comment leurs limites peuvent être créées, quel vaisseau ? Et ils ne fonctionneront pas sur des environnements non Linux comme Docker sous Windows. 39. Démo : Travailler avec des volumes ||, répercuter, énumérer et supprimer: dans cette démo, nous allons créer un volume en utilisant la ligne de commande doctor. Tapons la commande doctor volume create, suivie du nom du volume. Ici, nous nommons le trait d'union de la paroi du volume, zone occupée. Une fois que la commande réussit, nous obtenons le nom du volume comme le pas désactivé il en cours de création. Avant de faire quoi que ce soit à ce volume créé, créons un autre. Mais cette fois, d'une manière un peu différente ici, nous allons faire fonctionner un conteneur en utilisant l'image de bout ouvert et nous allons monter le trait d'union de la paroi du volume , bout ouvert sur les conteneurs D. M. Ou répertoire Temp. Encore une fois, nous ne ferons rien avec ce volume, puisque cette démo se concentre principalement sur la création à partir des volumes. Maintenant, listons les volumes pour voir ce que nous avons créé. Tapons le Dr William A. Moins et comme vous pouvez le voir, nous aidons. Quatre volumes sont créés ici par nous, alors qu'à partir d'eux sont créés par Dr en utilisant un pilote de volume local, comme tous les autres objets que nous avons aidés à créer précédemment, comme des images, des réseaux ou des conteneurs. Nous pouvons également filtrer la sortie de la Ls commune. Tapons le Dr William LS. Et enlève le filtre en balançant des égaux. Certes, cela signifie qu'il va lister les volumes qui ne sont pas montés orteil tout conteneur ici mur occupé boîte n'a pas été monté sur n'importe quel conteneur. De même, celui à ce sujet, qui est provisionné par docker, n' est pas monté, sont utilisés pays. En outre, nous pouvons inspecter ou volume comme tous les autres objets en utilisant Dr William Inspect, suivi du nom du volume. Et comme vous pouvez le voir, nous obtenons les étiquettes de type de pilote d'horodatage de création qui ne sont pas ici nom de point de montage sur le volume et la portée, qui est local. Essayons maintenant de supprimer l'un des volumes que nous avons créés. Tapez la commande Dr William RM, suivie du nom de volume Hair étaient en utilisant le trait d'union de la paroi du volume bout ouvert. Comme vous pouvez le voir, nous recevons un formulaire Energis du Dr Demon. Il dit que ce volume ne peut pas être retiré parce qu'il est en cours d'utilisation, ce qui signifie qu'il a été monté un conteneur. Donc, si nous supprimons le volume, le conteneur et ses performances seront affectés. Obtenons une liste de conteneurs pour voir quel conteneur bloque notre action de suppression du volume. Et comme vous pouvez le voir, le conteneur de bruit tendre, qui est construit à partir de l'ouverture à l'image il y a seulement deux minutes, a été monticule avec le trait d'union de la paroi du volume ouvert à. Bien qu'il n'ait pas été mentionné ici, vous pouvez le deviner puisque tous les autres conteneurs sont en place il y a plus d'une heure. C' est taper la commande docker container RM, suivi de son nom et l'appel d'offres Nice est supprimé. Maintenant, nous allons lire sur la commande docker volume Adam Wall tiret, Open toe. Cette fois, nous n'avons pas vu d'erreur et le volume aurait dû être supprimé. Vérifions-le en listant à nouveau les volumes. Et oui, le mur ouvert orteil n'est pas visible. 40. Démo : Lorsque les conteneurs rencontrent des volumes: dans cette démo, nous allons démontrer l'utilisation des volumes dont nous avons parlé dans la théorie. Commençons par créer le volume, que nous avions supprimé dans la dernière démo, qui est un ouvert à Nous allons le faire en exécutant un conteneur de l'ouverture à l'image appelé tiret Kant Open toe. Voyons si le volume et le conteneur sont à nouveau disponibles. Pour vous rappeler que nous pouvons toujours vérifier le conteneur à l'aide du conteneur docker, inspecter la commande et trouver les informations sur le volume en formatant sa sortie. Comme vous pouvez le voir, le conteneur appelé Con Robin, aussi, a le mur de volume ouvert orteil attaché à lui. Maintenant, exécutons l'orgue. Dana Hendren Bash. Commun dessus Vous pouvez remarquer que nous ne l'exécutons pas comme un conteneur de démon, qui signifie qu'une fois cette commande réussit, nous sauterons directement dans le terminal hors ou conteneur. moment, ce conteneur est dans son état par défaut, qui signifie que même si nous le supprimons et le dépensons à nouveau, rien ne changera. Nous allons donc y apporter quelques modifications, qui seront reflétées dans sa lecture Write top most layer, et si nous supprimons le conteneur, alors les changements que nous avons faits maintenant seraient perdus. L' action peut être assez simple ici. Nous n'avons pas besoin de faire quelque chose de si lourd, même un simple acte. Il suffit de mettre à jour le toujours peut créer suffisamment de changements pour être reconnu. Nous allons donc mettre à jour ce ouvert à en tapant l'application. Obtenez une bonne commande une fois qu'elle est abaissée. Changeons notre répertoire de travail. Vous êtes un journal de trait d'union. Comme vous l'avez peut-être deviné, c'est le répertoire où open toe conserve ses journaux. Listons les fichiers disponibles, et nous avons beaucoup de fichiers journaux ici. Le but de ce faire est de s'assurer qu'une fois que nous arrêtons l'organisateur, nous devrions être en mesure de voir les mêmes fichiers que ceux de sauvegarde sur notre machine hôte. Et la raison en est quand nous avons créé ce conteneur, nous avons monté ce répertoire sur notre hôte en utilisant le tiret ouvert de la paroi du volume. Sortons le processus et arrêtons le conteneur. Non, nous allons avoir les privilèges root sur notre machine hôte. Et comme vous pouvez le voir, nous sommes sur le même répertoire de travail juste avec les privilèges root. Maintenant, comme nous l'avons vu dans la section Terri hors volumes Docker stocke les sous-vêtements de données de volume de sauvegarde , tiret, tiret à lèvres, docker, tiret, répertoire de volumes. Donc, naviguons à travers elle. Et listons le contenu de ce répertoire. Comme vous pouvez le voir, nous avons des répertoires sur tous les volumes créés par le pilote de volume local. Naviguons maintenant dans le trait d'union de mur ouvert pour voir si les changements dans le fichier journal sont reflétés. Une fois que nous sommes dans le trait d'union mural, ouvert au répertoire, voyons son contenu. Et ce que nous avons, c'est un répertoire de données. Une fois que nous naviguons orteil qui enregistre son contenu, ce que nous voyons est une longue liste de fichiers journaux, ce qui signifie que le montage hors volume avec le conteneur a été réussi. C' est ainsi que nous montons un volume Tokcan Dana et créons une sauvegarde de ses données à l'hôte à l'aide d' pilote de volume local. 41. Démo : Travailler avec des montures de liaison: dans cette démo, nous allons tester la liaison. Les mamans. Créons un répertoire appelé Bind Data sur Our Doctor Hosts Home Directory. Maintenant, exécutez un conteneur appelé Bind You Bento de l'ouverture à la dernière image et liez. Il est vide ou répertoire temporaire dans le répertoire de données de liaison nouvellement créé en utilisant bind mount comme d'habitude, Voyons si le conteneur est en cours d'exécution. Oui, ça l'est. Maintenant, il est temps d'inspecter les informations de montage de liaison et nous avons le type de montagne, qui est l'achat de montage avec les pièces source et de destination, qui sont exactement comme nous les avions fournis. Pour le plus que nous avons lu, autorisation d' écrire mis en place orteil. True, ce qui signifie que les changements dans les fichiers se refléteront des deux côtés. C' est probablement le moyen le moins sécurisé de monter un stockage persistant de données de conteneur, mais pour l'instant cela fonctionne. Enfin, nous avons la propagation de liaison. C' est un aspect intéressant. La propagation d'achat est une politique qui détermine l'accès bilatéral aux répertoires créés dans la source et les destinations du point de montage. En d'autres termes, il décidera si les sous-répertoires hors montage seront associés à amount ou non sont privés est la valeur par défaut, ce qui signifie que tout sous-répertoire dans la source ou la destination hors MT. Ne réfléchit pas de chaque côté. Exécutons. Liez le conteneur 12 avec la commande Bash et créez un fichier appelé food dot txt. Nous le créons dans le répertoire TMP Containers, qui est la destination de montage. Une fois que nous avons terminé, c'est quitter le conteneur. Maintenant, nous allons accéder à la source à partir du point de montage, qui se trouve dans le répertoire personnel de l'hôte Doctor. Nous pouvons voir le répertoire Bind Data reflétant ici. Ouvrons ça et on y va. Full dot txt est présent. Essayons maintenant de faire des changements dans l'autre sens. Nous avons vu les destinations se mettre à jour reflétant sur la source, pas moins. Mise à jour source pour voir si la destination reflète également les modifications. Attention bien que notre conteneur est fermé en ce moment et nous créons un nouveau fichier appelé Hello dot txt. Retournons au terminal et exécutons à nouveau le conteneur afin que nous puissions naviguer orteil. C' est le MP pour le répertoire temp hit ls pour voir la liste des fichiers et on y va. Nous avions arrêté le conteneur avec un fichier, mais maintenant il doit les éteindre sont Bine Mount fonctionne avec succès 42. Démo : Hoster des jeux Containerized 2048 !: nous allons rendre le containerizzate officiel open source à zéro pour huit personnes sur notre hôte de médecin en direct. Et pour ce faire, la première étape est d'obtenir les fichiers. Nous allons cloner ce rapport get sur notre répertoire personnel. Si vous n'avez pas installé, veuillez passer par l'article précédent. Une fois que le Depo est clone, naviguons dedans et obtenons la liste des fichiers. Nous avons un tas de fichiers, y compris index dot html, que nous allons utiliser assez tôt. Maintenant, exécutez un conteneur appelé 2048 à partir de la dernière image du moteur et utilisé mien monture pour monter notre clone 20 pour elle. Répertoire toe html répertoire désactivé et l'image suivante. En d'autres termes, nous remplaçons le fichier html de point d'index et fournissons le support nécessaire pour le nouveau point d' index html. Comme toujours, nous exposons des conteneurs. Port 80 pour accueillir le sport 80 est zéro. Le conteneur est en service. Maintenant, ouvrons sur le navigateur et naviguons vers l'hôte local Port 80 80. On y va. Nous avons notre 2048 préféré sur notre navigateur Web et celui à containerizzato. Voyons si ça fonctionne correctement, n' est-cepas est-ce  ? - C'est le cas. Et ce n'était pas génial. Expédience. Allez-y, essayez-le vous-même 43. Introduction à la composition Docker: Jusqu' à présent, nous avons étudié les objets hors moteur Docker, mais comme nous l'avions mentionné plus tôt, l'écosystème plus sombre a plus d'un composant majeur. Un autre de ces Iscar Docker compose, est un outil pour définir et exécuter des applications complexes avec DACA. Au cas où travailler simplement avec le moteur docker, nous avons besoin de plusieurs fichiers DACA pour plusieurs pièces ou conteneurs à partir d'une application à part entière . Par exemple, nous pouvons avoir à créer des fichiers séparés pour le backend et d'autres blocs conteneurisés, ce qui peut être intimidant à gérer avec composé, vous pouvez définir une application multi-conteneur dans un seul fichier, puis faire tourner son application en une seule commande, qui fait tout ce qui doit être fait pour faire fonctionner l'APP. Vous pouvez définir et intégrer plusieurs objets médecin tels que des conteneurs, réseaux, des services, etc. dans un seul fichier sous forme de blocs et composé les traduira en moteur docker pour vous. Dans les prochaines conférences, nous aurons de l'expérience pratique avec Docker, composer 44. Démo : installer des compositions docker sur Linux: comme titre off. Cette démo suggère que nous allons installer Docker compose dans cette démo. Nous allons le faire en récupérant les binaires hors médecin composé à partir de sa version officielle get hub . Et nous allons stocker ce binaire dans le répertoire de composition Docker sous Bin local de l'utilisateur sur notre machine hôte . On va le faire avec l'utilité cool. Une fois que le chargement est terminé, nous rendrons ces binaires exécutables et le processus d'installation sera terminé. Voyons si l'installation réussit en exécutant la commande de version composée Docker. Eh bien, l'installation est réussie et Docker composer était en 1,22 point zéro. Il est actuellement installé sur notre hôte. Il s'agit de la dernière version au moment de la création de ce cours. 45. Démo : Structure du fichier Docker Compose: pour travailler avec des fichiers composés tout comme Second Model étaient de nouveau retournés aux commandes et fichiers ensemble. Maintenant, juste pour être sûr, voyons quel est notre répertoire de travail actuel. Et comme vous pouvez le voir, un CC a souligné docker juste pour vous rappeler à nouveau. Le CC Docker a remporté huit victoires au total. Chacun d'entre eux représente un module séparé. Actuellement, nous travaillons sur un répertoire six, donc naviguons là. Et comme vous pouvez le voir, il y a un fichier appelé Docker Composé. Le Yémen n'ouvrira pas ce fichier. Comme nous l'avons étudié dans la partie théorique, le fichier composé ou le fichier composé par le médecin est un fichier Yamil, qui définit plusieurs objets comme des services, des réseaux et des valeurs. Il est important de savoir que la partie par défaut du fichier composé est toujours le répertoire actuel . Maintenant, avant de creuser plus profondément dans le fichier plus sombre, composé lui-même, il est important de connaître quelques morceaux sur les fichiers Yamil en général, où Gamel signifie yamma, on n'est pas un langage de balisage et il a trois types de données de base. L' une de ses gammes, c'est comme des cordes et des chiffres. Deuxièmement, ce sont des séquences qui sont une augmentation ou une liste et troisièmement nos cartes, qui sont des hachages sur les dictionnaires, qui peuvent être représentés en utilisant une paire de valeurs clés. L' imbrication des objets dans un fichier Yamil est déterminée par indentation. Vous trouverez plus d'informations sur les fichiers Yemen dans le Lincoln ci-dessous. Maintenant, depuis que nous avons Tad Coward, fouillons plus profondément dans ce dossier composé par un médecin. Tout d'abord, mentionnons l'aggravation du médecin composé que nous utilisons, qui est t 0.3 dans ce cas. Ensuite, nous aidons services services est l'objet de modèle pour les conteneurs que nous allons créer. Si nous allons créer une application multi-conteneurs, nous sommes censés utiliser des services. C' est génial. Notre premier service appelé BB. Il est temps pour la base de données maintenant, tout comme nous avons créé des conteneurs en utilisant la commande. Ici aussi, aussi, nous devons mentionner quelques paramètres en termes de passe de valeur clé. Tout d'abord, mentionnons l'image. Nous utilisons ma version 5.7 de suite. Donc, nous étions bonne image comme clé et ma suite 5.7 comme valeur. Ensuite, nous avons le nom du conteneur, qui est encore une clé, et ma base de données de suite est la valeur ici. Les Walliams agissent comme la clé parent et le nom du volume et Mount Pot Act. Comme les enfants remarquent l'indentation entre tous les champs, la sensation de clé ou le parent ressent ses services, alors nous avons plus d'indentation pour les services que nous créons DB ou base de données. Dans ce cas, continuons et mentionnons la politique de redémarrage. Nous ferons toujours la politique de redémarrage afin que nous n'ayons pas à nous soucier de l'arrêt du conteneur et de l'esprit. Mint signifie variables d'environnement tout comme le fichier Docker ici. En outre, vous pouvez fournir des variables d'environnement au fur et à mesure que la valeur clé passe en les inventant un peu plus loin. Nous fournissons ma suite, Jude Password, ma base de données suite, ma suite utilisateur et ma suite, Mot de passe pour notre instance Wordpress qui sera créé dans le prochain service ici. Ma suite, soulignée base de données, qui va s'appeler WordPress, sera utilisée comme nom de la souris. Instance égale. Son mot de passe root sera mot à Bad Press et ma suite, Underscore User et mon mot de passe suite. Les deux dernières touches sont utilisées toe permettent à WordPress d'accorder à WordPress l'accès à la suite My . Instance. Ensuite, créons un autre service dans le même fichier appelé WordPress. Maintenant, regardez la première paire de valeur de clé ou regardez le premier champ, il dit Dépend de cela crée une relation d'interdépendance entre les conteneurs, ce qui signifie que D être conteneur doit être créé en premier, et WordPress le suivra plus tard. Il est utile de créer des applications complètes d'état comme celui-ci. Ici. Le service WordPress dépend du service DB et un état clair. Mentionnons toutes les sensations nécessaires pour le conteneur WordPress. Nous allons utiliser l'image WordPress nommera le conteneur WD underscore front end. Nous allons utiliser le volume appelé fichiers WordPress Underscore et nous montons BAR fait illisible w slash répertoire html à ce volume. Nous mappons également les ports 8000 à 80 et nous mentionnons la politique de redémarrage comme toujours, comme dans le service précédent. Ici aussi, aussi, nous utilisons des variables d'environnement. L' hôte de base de données est DB appelant 3306 L'utilisateur WordPress DB son WordPress et mot de passe est ABC à ce 123 Vous pouvez utiliser n'importe quel nom d'utilisateur ou mot de passe que vous aimez, mais à des fins d'apprentissage. Ça fera l'affaire. Enfin, nous allons mentionner les objets qui sont en dehors des limites hors service ou qui ne sont pas le champ Enfants hors services. Ces objets sont des volumes et des réseaux. Nous n'avons pas créé de réseau défini par l'utilisateur ici. Ni l'un ni l'autre n'en a utilisé, donc nous n'avons pas besoin de les déclarer. Mais nous avons certainement utilisé des volumes définis par l'utilisateur, donc nous devons les déclarer ici en utilisant la clé des volumes et les valeurs seront WordPress underscore fichier et db Underscore données Une révision rapide de ce que nous avons fait avec ce médecin fichier composé Nous avons utilisé pour Key Feels services, et Williams sur Held volumes déclarés, qui sont utilisés dans les services dans les services nous sentons que nous avons créé aux services, base de données et WordPress. Et nous avons mentionné le conteneur se sent pour les deux services, qui comprennent le nom du conteneur, l'image du conteneur, l'environnement, l'environnement, les variables et les informations du mur que vous montez. Dans la prochaine démo, nous allons exécuter ce fichier composé et voir comment l'application marche. 46. Démo : Wordpress sur Compose: Dans cette démo, nous allons exécuter le fichier composé par le médecin, que nous avons créé dans la démo précédente. Maintenant, si vous êtes dans le présent répertoire de travail et si votre répertoire se compose d'un seul fichier Yamil point composé par un médecin. Tout ce que vous devez écrire est un trait d'union de médecin composé, suivi d'un trait d'union d tack off cours. La balise D de trait d'union est facultative. Et la seule commande que nous fournissons est composée par un médecin qui, comme vous pouvez le voir, est de créer des objets un par un. Et si vous remarquez, même si nous n'avons pas fourni d'informations sur le réseau dans notre démo précédente, tout d' abord, il crée un réseau par défaut avec le chauffeur de camion D Fortman. Ce sera un réseau de ponts. Ensuite, il crée les volumes fichiers WordPress et les données DB à partir du pilote par défaut afin que leurs étendues soient locales. Ensuite, il crée des services. Si vous remarquez que le service db est créé avant le service WordPress car le lieu de travail dépend de DB. Maintenant, nous allons avoir une liste des conteneurs en cours d'exécution pour voir si notre service a créé les deux conteneurs. Et comme vous pouvez le voir, ma base de données de suite sur WD soulignent front end. Les deux conteneurs sont en service pendant plus de 30 secondes. Maintenant, si vous voyez plus loin en cas de stabilité hors, soulignez l'avant et le conteneur. Même les informations de mappage de port sont disponibles. Où 8000 port est carte au port 80, vous pouvez vous demander, Comment est-ce arrivé ? Nous n'avons fourni aucune information concernant un réseau. Si vous vous souvenez quand Views Docker a composé Docker commun composé tout d'abord créé un réseau D Fort, ce réseau a été créé pour s'assurer que toutes les exigences réseau des services précédents seront remplies par elle en termes du réseau de pont, ce qui signifie que les deux conteneurs sont connectés au même réseau de pont par défaut afin qu'ils puissent parler au monde extérieur et qu'ils puissent parler entre eux. Non, allons dans notre navigateur Web pour voir ce qui est hébergé sur notre hôte local. Comme nous pouvons le voir, l'hôte local héberge la plage par défaut de l'installation WordPress, ce qui signifie que l'installation et l'hébergement WordPress ont été couronnés de succès. Maintenant, jouons un peu plus avec ce WordPress et voyons ce que nous pouvons faire avec. Eh bien, non, qui ? Nous avons ajouté beaucoup de contenu à un billet fictif et maintenant il dit que le Post a été publié. Si nous cliquons sur le bouton Voir post, nous devrions être en mesure de voir comment notre post ressemble. Alors faisons ça. Le Post semble soigné, rangé et bien structuré. Cela signifie que l'installation de WordPress n'a pas seulement été réussie, elle fonctionne simplement en douceur. Maintenant, allons travailler avec ma suite. Cela peut ne pas sembler aussi excitant et riveté que la page Web WordPress, mais nous sommes de retour à notre bon vieux terminal. Maintenant, nous allons à nouveau obtenir une liste des conteneurs en cours d'exécution que nous avons déjà travaillé avec WD Underscore Front End. Alors maintenant, il est temps de travailler avec mon conteneur de base de données suite. Nous allons tourner le Docteur exactement D Common et gagner un bash Common dessus. Nous sommes dans le conteneur avec des privilèges root. Alors listons les répertoires. Naviguons vers le mur slash lib slash mes répertoires de suite pour voir son préservatif plus loin. Et comme vous pouvez le voir, les informations sur l'utilisateur WordPress ont déjà été ajoutées à ce conteneur, qui signifie que la liaison de ces conteneurs a été réussie et l'information a été échangée avec succès aussi. Allons sur une autre instance, hors de mon conteneur de suite, mais cette fois en tant que client, comme vous pouvez le voir, nous lions ce conteneur avec notre précédent conteneur de base de données souligné ma suite, et nous sommes aussi fournir des informations sur le port de communication et les informations d'identification utilisateur racine que vous pouvez avoir à vous connecter pour se permettre la religion. Cela fonctionne comme vous pouvez voir le site client désactivé. Ma suite est maintenant active, et nous pouvons voir ce qui est hébergé sur la base de données de ma suite quand nous avons appris la requête. Sûr base de données, dehors du système fourni ou bases de données par défaut comme l'information Schema, ma suite Performance Key, Maman ou SIS lui-même. Nous avons également la cinquième base de données, tous WordPress, qui a été dérivé du service hors WordPress front end. Si nous allons plus loin dans cela, utilisons l'utilisation rapide WordPress afin que nous puissions creuser plus profondément dans cette base de données. Non, notre base de données a changé. Jetons un coup d'oeil aux tables à l'intérieur de la base de données WordPress type tables courtes, demi-deux-points et appuyez sur Entrée. Et voici toutes les tables requises pour une instance WordPress réussie. Bien que nous n'ayons pas besoin de douter si cela fonctionnait correctement ou non, parce que WordPress était déjà établi et qu'il fonctionnait si bien. Mais cela nous donne encore plus de conviction et de compréhension sur le fonctionnement des services liés avec Docker. Composer 47. Démo : Introduction à la pose Docker Compose CLI: Maintenant que nous avons fini avec le fichier Gamel composé Dr et son exécution, passons à la ligne de commande Docker compose. Notre première commande de la série de commandes de composition Docker est composé par un médecin Conflict. Cette commande permet d'afficher le fichier Gamel composé sur l'écran du terminal. Comme vous pouvez le voir, il fournit toutes les informations sur les services et les volumes, que nous avions mentionnés dans le précédent fichier yammer. Nous pouvons également extraire des informations spécifiques du fichier AMEL comme les services. Le prochain est docker composer des images. Cette commande permet de répertorier toutes les images utilisées pour créer des conteneurs pour les services dans des fichiers composés. Comme vous pouvez le voir, les deux images sont disponibles ici, qui ont été utilisés dans les services précédents de Doctor composé fichier yamma ou commande suivante est médecin composé lobs. Comme vous l'avez peut-être deviné, cette commande est utilisée pour récupérer la sortie longue du service. Puisque nous avons beaucoup de bûches, allons les réduire un peu. En utilisant les journaux composés par le médecin, trait d'union a été égal à la queue. Sten le drapeau de la queue permet les 10 derniers journaux hors les deux services à imprimer sur la STD ou nominale. Comme vous pouvez le voir, nous avons 10 derniers journaux sur les services ou les conteneurs, ma suite et WordPress Tout comme Dr P. s. Nous avons aidé Dr Composé Bs où nous pouvons voir les deux conteneurs en cours d'exécution avec d'autres informations tels que l'état, qui est jusqu'à des informations de mappage de port et des commandes inter points. Notre commande suivante est le docteur Composed Stop, qui est utilisé pour afficher tous les processus en cours à l'intérieur de tous les conteneurs. qui signifie que dans les deux conteneurs ma base de données de suite sur WordPress front et ce sont les processus qui exécutent chaque processus ont le processus individuel i d et le processus Barron i d. dépend de l'image de base utilisée dans la création de ces images. Et enfin, on a aidé le Dr Composé. Vous pouvez le considérer comme une commande de nettoyage ou une commande contraire à docker composer jusqu'à quand nous appuyez sur entrer il arrête les deux services, supprime les conteneurs et supprimé des ressources supplémentaires comme les réseaux. Dans le prochain modèle, nous allons examiner probablement la fonctionnalité la plus exhaustive de Docker, qui est Docker essaim 48. Introduction à l'orchestre conteneur et à l'armure Docker Swarm: Jusqu' à présent, nous avons tourné autour des conteneurs sur un seul hôte. Un seul hôte signifie généralement une machine sur une machine virtuelle. Ils ont certainement des ressources limitées, et c'est tout à fait bien, tant que votre but est de résoudre quelque chose de moins lourd de ressources comme une page de destination statique sur un bloc, et un gars serait plus que suffisant pour gérer cela aussi. Mais ce n'est pas la seule application pour laquelle nous utilisons des conteneurs. Il ya des géants comme Google et PayPal qui, comment des millions d'utilisateurs par jour. Dans leur cas, la quantité de conteneurs serait étonnamment élevée, et ils peuvent tous comment communiquer dans n'importe quelle topologie à un moment donné. En fait, vous et si nous ne nous concentrons pas sur des applications aussi volumineuses, un site Web dynamique permettant de suivre les visiteurs et de recueillir des données de leurs actions aurait également besoin de beaucoup plus de conteneurs que d'habitude. Blawg. Disons que vous et si nous avons réussi à déployer tous ces conteneurs sur le même hôte d' une manière ou d' une autre, mais que nous pourrions désactiver la ressource est à tout moment en raison du fait que les performances peuvent être gravement affectées. De plus, si l'hôte tombe, notre côté est voué à coup sûr. Que devrions-nous faire alors ? Eh bien, une solution simple serait de les déployer sur plus d'un hôte et de les gérer par plus d' un développeur. Ingénieux. Ça a l'air de fantaisie, mais ils seraient tous éternellement dispersés. Et pour s'assurer qu'ils restent synchronisés, il se peut que nous devions exécuter d'autres microservices mis en place dans le back-end. De plus, embauche d'un plus grand nombre de personnes pour accomplir la même tâche serait aussi moins économique et aucune autre personne n' obtiendrait des opportunités et de la croissance qu'elle mérite. Alors, qu'est-ce qui est vrai ? Eh bien, il semble que nous avons besoin de quelqu'un qui puisse faire collaborer tous les hôtes de l'instance et nous permettre les gérer simultanément à partir d'une seule instance. Un peu comme une grappe. En fait, exactement comme un cluster hors serveur. De cette façon, nos conteneurs seront synchronisés. Les performances ne seront pas réduites en raison de la ressource Cassidy. Ils peuvent être gérés à partir d'un seul point de terminaison. Nous pouvons même penser aux répliques et aux sauvegardes de nos conteneurs pour les cas où un ou certains de nos hôtes peuvent tomber et la vie sera heureuse. Mais qui est-ce ? Quelqu' un ? L' orchestrateur de conteneurs est un outil utilisé pour provisionner devrait faire et gérer les conteneurs à dernière compétence sur un ou plusieurs clusters sur plusieurs hôtes, comme nous l'avons mentionné précédemment. Bien que Docker Ecosystem ait de nombreuses offres, certaines étant moins importantes que les autres, il dispose de trois outils majeurs que tous les passionnés de conteneurs devraient apprendre. Nous avons déjà vu Docker Engine et Dr Composé. La prochaine étape de notre voyage hors des conteneurs d'apprentissage est l'orchestrateur développé et fourni par Docker appelé Docker Swarm. L' idée et la mise en œuvre d'un assez simple. Ici, nous prenons un set off hôtes Docker et les connecter en utilisant le mode essaim. L' un des hôtes s'initialise manuellement, est le cluster et devient le gestionnaire hors du cluster. Le gestionnaire fournit une clé qui peut être utilisée par d'autres North pour rejoindre le cluster. Une fois qu'ils ont rejoint le gestionnaire, ils deviennent des nœuds de travail. L' analogie est assez explicative ici, nous, en tant qu'utilisateurs, communiquons avec le gestionnaire, et le gestionnaire communique avec les travailleurs comme une hiérarchie de gestion. Souvent, l'industrie, en fait, tout comme Docker, compose avec la demande. Nos actions informent un service que le gestionnaire traduit en tâches plus petites et les fournit aux travailleurs pour qu'ils soient traités. Pour faire tout ce gestionnaire est équipé d'un ensemble d'outils utiles tels que http AP I point de terminaison, ce qui le rend capable de servir notre demande de service et de créer des objets à partir de ces services. Orchestrator, qui transmet la tâche traduite des services aux travailleurs. Allocator, qui alloue des clusters internes i p aux travailleurs et au gestionnaire qu'il vend. Dispatcher avec décide quel noeud sera ainsi quelle tâche et donne cette information à l' orchestrateur. Et enfin elle doula. Le passé fourni par l'orchestrateur est inactif. Ils ne courent pas dès qu'ils sont localisés. Elle demande aux travailleurs de s'acquitter de la tâche qu'ils ont reçue. Et donc, il décide aussi quelle tâche bien faite en premier et qui ne le fera pas. Quant aux travailleurs, ils sont assez simples par rapport au manager. Ils ont deux composants clés dans Worker total, qui se connecte au répartiteur à partir du maître pour vérifier s'il a une tâche à recevoir de l'orchestrateur, un exécuteur qui fait littéralement ce que son nom suggère. Il exécute les tâches, ce qui signifie qu'il crée des conteneurs, des volumes, des réseaux et les exécute. Vous avez peut-être remarqué que Dr n'a pas été la forme la plus créative, faras nommant les outils est concerné, puisque Warm est un orchestrateur qui a un composant appelé orchestrateur fonctionnant sur son manager et worker a un composant appelé travailleur. Nous ne pouvons pas rester Jean, mais nous pouvons nous assurer de ne pas être confondus par ça. Donc, dans ce cours, chaque fois que nous faisons référence à un orchestrateur et un travailleur, nous indiquerons l'outil d'orchestration en général et les Nords travailleurs. Si vous voulez aborder les composants internes à la place, nous les appellerons spécifiquement, comme tous les autres sujets. Nous avons aussi un tas de démonstrations pour essaim. Mais pour comprendre en quoi le déploiement de conteneurs sur un cluster diffère de leur déploiement sur un seul hôte, prenez cet exemple. Disons que nous avons un service qui nécessite trois répliques hors conteneurs du moteur X hébergeant le même contenu une fois que nous fournissons le service au gestionnaire. Il divise ceci en trois tâches plus petites et localise une tâche pour chaque travailleur. Donc, tous les travailleurs seraient héberger une instance hors conteneur de serveur Web du moteur X avec la mort a dit, l'heure actuelle, vous pourriez même vous demander ce qui se passerait si Swarm fait face à l'échec. En d'autres termes, que se passe-t-il si un ou plusieurs nœuds tombent ? Vous connaissez la réponse. Passons à la prochaine conférence 49. Can mancher à Swarm ?: peut essaim gérer l'échec. Un mot réponse est oui, il peut, mais des partis plus intéressants. Comment ? Supposons l'exemple précédent du service, gagnant trois réplicas à partir du moteur X, chacun hébergé sur un travailleur ou un maître sur. Nos travailleurs sont en bonne santé et en cours d'exécution. Et si l'un des travailleurs descend ? Disons que dans ce cas, l' ouvrier 3 est tombé. Si cela se produit, la tâche 3 sera bouclier sur l'un des autres travailleurs. Une fois que l'ouvrier trois sera de retour à sa maîtrise tournante directe pourrait en revenir plus à elle. Et si cela ne provoque pas de surcharge sur le travailleur à, il, peut juste rester là et travailler. Une arborescence peut être prête à héberger d'autres tâches lorsqu'elles arrivent à l'avenir. En un mot. Si l'un des Nord descend, l'autre Nord peut supporter sa charge. Si le capitaine descend, cependant, les travailleurs effectuent une élection mutuelle où l'un des travailleurs est promu et la grappe recommence à travailler. La question suivante serait de savoir combien de nœuds peuvent descendre sans affecter bien Swarm, pour s'assurer que le cluster de marais fonctionne correctement au moins plus de la moitié, les Nords devraient travailler nombre minimum de off requis. normes de travail pour un groupe d'essaim heureux est égal au nombre hors fille Lourdes, divisé par deux plus un, ce qui signifie encore plus de la moitié. 50. Démo : Installation VirtualBox: Commençons à mettre en place un cluster de marais médecin mais installer ah, hyper sage sur notre machine hôte. Si vous vous demandez ce qu'est Ah, hyper visor, c'est un logiciel qui nous permet de créer des machines virtuelles. Tout d'abord, voici le fichier de liste de points sources, et comme vous pouvez le voir, il y a beaucoup de liens disponibles et la plupart d'entre eux sont pour les mises à jour concernant open toe ou d'autres logiciels. Nous avons ajouté la ligne. Sauvegardons le fichier. Maintenant, nous allons obtenir le geeky GP pour notre boîte virtuelle a laissé un pseudo une jolie commande get update . Et comme vous pouvez le voir, juste sous le texte sublime, nous pouvons voir que la boîte virtuelle a également été mise à jour. Maintenant, l'application est ajoutée à la liste à partir d'un joli gestionnaire de paquets. Installez-le type pseudo epic get install, suivi de la version off boîte virtuelle. Ici, nous allons installer Virtual Box 5.2. Une fois le processus terminé, allons voir si nous pouvons trouver Virtual Box et notre liste de logiciels et nous voici. Oracle Virtual Box a été installé avec succès. Il est opérationnel 51. Démo : Installation de machine Docker: Maintenant, nous allons installer une machine de médecin de carte d'outil. Il va mettre en place plusieurs hôtes pour nous, qui agiront comme des nœuds individuels sur un cluster essaim. Nous allons installer Doctor Machine à partir de son rapport officiel get. Tout d'abord, nous l'appellerons et ensuite nous l'installerons sous le répertoire bin local de l'utilisateur. Une fois l'installation terminée, vérifions-la en tapant la version de la machine médecin. Dr Machine a été installé avec succès avec la version 0.14. 52. Démo : Configuration du gro Swarm Cluster: Créons notre premier nœud en utilisant la machine Docker. Créer une commande. Nous utilisons la boîte virtuelle comme plongeur et nous nommons notre gestionnaire de notes pendant la création de la note . Vous pouvez voir la machine Doctor utilise un jouets personnalisés appelé Bhutto Docker, et il utilise ses yeux donc image pour l'installer sur une machine virtuelle pour l'information. Boot to Docker est un système d'exploitation Linux minimal personnalisé pour que les conteneurs fonctionnent en douceur, tout en étant léger à la fois. Voyons si le Nord a été créé. Occasion Doctor machine ls Command and Manager a été créé. Il gagne la version médecin 18.6 et il a également son I P dédié, qui est 192.168 point 99.100. De même, nous pouvons également créer quelques nœuds plus nommés Worker un et worker aussi. Une fois que nous avons fini avec leur création, affaiblir fait, Docteur Machine est à nouveau pour voir si les deux fonctionnent parfaitement. Et ils sont là. Arrêtons ce Manager North en utilisant la machine Docker arrêté commande Manager Lorsque nous listons notre gestionnaire de notes existe, mais il est arrêté. Nous pouvons le redémarrer en utilisant docker machine start Manager Command Si nous voulons trouver informations spécifiques sur un noeud, nous pouvons utiliser Docker Machine I p Manager qui fournit i p off manager Nord De même, nous pouvons obtenir oculaire hors travailleur un et travailler au Nord comme tous les autres objets dans l' écosystème docker, nous pouvons utiliser la commande inspect avec Dr Machine Note ainsi utiliser Docker Machine Inspect Command suivi du nom au large du Nord qui est gestionnaire ici. Comme vous pouvez le voir, l'inspecteur Man fournit beaucoup d'informations sur le gestionnaire Nord, y compris son nom de machine I adresse p évaluer son utilisateur et son port, une partie clé de saucisse et quelques autres informations utiles Enfin, laissez ssh Indoor Manager n'utilisant pas la commande Docker Machine Ssh suivie du nom hors du noeud qui encore ici est manager, nous avons navigué vers la note du gestionnaire shell off 53. Démo : Initialiser un cluster à bras à bras: dans cette démo, nous avons trois terminaux, un pour chaque note. Tout d'abord, faisons une liste des Nords avec le Dr Machine ls Command. Comme vous pouvez le voir, nous avons un manager, un travailleur et un travailleur aussi. Maintenant, évaluons l'âge manager intérieur comme nous l'avons fait dans la dernière démo. Puisque nous voulons faire de ce manager Nord manager qui est tout à fait le petit dôme pour son rôle , initialisons notre essaim en utilisant Docker essaim dans sa commande et annonçons son adresse i p aux autres nœuds. Une fois que nous avons frappé Entrée, l'ambiance de l'essaim est initialisée et le Nord actuel, qui gère le nord, devient manager. Maintenant, si nous voulons ajouter des travailleurs à cette note de gestionnaire, nous pouvons prêter des médecins forment commune à partir des nœuds de travail respectifs avec le jeton qui est généré à partir de ce gestionnaire Nord . Ce jeton est un I d unique qui peut être utilisé par d'autres notes pour rejoindre notre manager en tant que partie son cluster. Dans le cas où nous avons perdu cette commande ou jeton, nous pouvons le récupérer en tapant Docker Swarm joint token worker Mais cette commande ne fonctionnera que si le gestionnaire a été initialisé avec le mode essaim. Nous allons utiliser ce médecin essaim joint commandement avec son Tokcan à la fois ouvrier un et travailleur pour nous assurer que les deux hors d'eux ont rejoint ce cluster en tant que travailleurs tandis que la route actuelle reste gestionnaire. Comme vous pouvez le voir, la commande a fonctionné avec succès à partir de la note Worker One et a rejoint le cluster d'essaim en tant que travailleur. De même, la commande a réussi dans le travailleur à ainsi et considérer la confirmation similaire. 54. Démo : Travailler avec des nœuds Swarm nodes |et inspecter: maintenant que les deux Nord ont rejoint le bluster en tant que travailleurs. Vérifions ça. Utilisation de la commande docker note L s. Prenez note que cela fait partie de la partie. Les médecins essaim Commande Ling. Une fois que nous avons appuyé sur Entrée, nous obtenons les trois notes ainsi que leurs noms d'hôte. Tous ont leur statut comme prêt et disponibilité comme actif. Et si vous le remarquez, Manager a également le statut de leader. Ceci est applicable lorsque nous avons un cluster avec Morton un manager auquel cas un des gestionnaires agira comme leader. n'y a pas de confusion ici, puisque nous avons seulement un gestionnaire et des nœuds de travail, Donc notre gestionnaire sera leader par défaut. Maintenant, nous pouvons inspecter notre manager et notre travailleur au nord des managers Shell lui-même. Tapons médecin note inspecter suivie par auto avec joli drapeau mentionnaient auto parce que le gestionnaire veut se inspecter. Et comme vous pouvez le voir, ce que nous obtenons est la note i d. Son nom d'hôte rejoignant le statut Timestamp et d'autres informations comme la ressource de plate-forme est version Injun, qui est la version docteur Injun. Ici, il est 18.46 point une édition communautaire et quelques certificats de sécurité. Nous pouvons aussi frapper la commande pour le travailleur un et deux, et nous obtenons des informations respectives sur les deux hors d'eux. Comme vous pouvez le voir, toutes les trois notes ont différentes I p. mais le reste des choses sont à peu près les mêmes. Bien sûr, leurs rôles sont différents, qui seront explorés dans d'autres démos. 55. Démo : Créer un service sur Swarm: Utilisons Docker Swarm pour la raison pour laquelle il est conçu, qui est orteil comment plusieurs répliques sur un conteneur ou pour vous services avec plusieurs conteneurs eux-mêmes. Nous allons créer un service appelé Web Server à partir de la dernière image du moteur X et aider trois réplicas pour cela. Nous avons également mentionné des informations de mappage de port avec l'indicateur P de trait d'union. Une fois que nous avons appuyé sur Entrée, vous pouvez voir que notre service a été divisé en trois tâches et chaque tâche a été effectuée individuellement. Une fois les tâches terminées, le service a été vérifié. Et une fois la création du service terminée, nous pouvons la lister en utilisant la commande docker service L s. Tout d'abord, nous avons le service i d. Ensuite, nous avons le nom du service, qui est comme nous l'avions fourni avec le serveur Web de commande. Ensuite, nous avons amarré le service. Il est répliqué, ce qui signifie que la même image a été répliquée plusieurs fois, et plusieurs instances pour plusieurs conteneurs sont créées à partir de la même image. Nous avons aidé trois répliques en particulier. L' image qui a été utilisée est le dernier moteur X, et nous avons également des informations de mappage de port pour TCP. Si nous voulons jeter un oeil à l'envoi de conteneur à l'intérieur du service. La commande est assez simple, juste. Doctors Office Bs, suivi du nom du service. Ici, nous avons trois conteneurs, et la convention de dénomination est assez simple. Leurs noms sont le serveur Web 0.1 point de serveur Web et le serveur Web 0.0.3. Ils sont à peu près en même temps, et tous partagent la prochaine image de blessure commune, comme nous l'avions fait avec le Dr Composé. Inspectons notre service. Et au fur et à mesure que nous allons plus loin, avec les informations génétiques, nous obtenons également quelques informations supplémentaires, comme le mouillage hors du service, qui est répliqué, et des détails concernant tous les hôtes ou tous les des machines sur lesquelles chaque conteneur hors service est provisionné. Contrairement au Dr Service Bs, si nous utilisons régulièrement le trait d'union du médecin PS, un courant sur n'importe quel hors du Nord, nous apprendrons à savoir que chacun des points de la note n'utilise qu'un seul conteneur. C' est parce que le service a été déployé dans toute la grappe, ce qui signifie que le Seigneur a été divisé uniformément depuis que nous avons eu trois répliques. Tous ces conteneurs devaient céder sur un serveur Web Nord individuel 0.1 était si vous allez sur le gestionnaire Note. point du serveur Web à était devrait céder sur le travailleur un Nord et le serveur Web 10.3 a été versé votre travailleur à noter. Tout comme un conteneur ordinaire. Nous pouvons également inspecter ce serveur Web 0.1. Maintenant, cela signifie que toutes ces trois notes apprennent au moins une instance hors moteur suivant serveur Web. Donc tous devraient servir dans la prochaine page Web par défaut sur leurs adresses I P respectives sur leur port 80 80. Allons au navigateur et vérifions ce fait avec notre manager, Nord. Voyez que nous naviguons vers le I p off du manager, qui est 192.168.99.100$ et ils mentionnent le Port 80 80. Ça semble être un succès. Maintenant, faisons la même chose avec le travailleur un et le travailleur à Cela signifie que le service gagne avec succès et les médecins chaud héberge le moteur suivant serveur Web sur toutes les trois notes de la 56. Démo : Faire un nœud laissez votre Swarm: maintenant que nous avons déployé notre moteur ex service dans la grappe d'essaim avec succès, réfléchissons à des cas d'utilisation plus novateurs. Par exemple, Que faire si je veux supprimer un de mes notes pour les responsables ? Ou si un de mes billets descend ici ? Nous allons le tester. Le moyen sûr de faire une note quitter le cluster est de le rêver. On peut le faire. Quelle note médecin Mettre à jour la disponibilité Commande, suivie de l'action et du nom au large du Nord. Ici, la commande fonctionnera comme docker Note mise à jour disponibilité Flag Dane Worker, aussi. Et ce que nous obtenons, c'est le nom de la note comme la confirmation qu'il s'est écoulé. Pourtant, nous pouvons le vérifier en tapant note médecin moins, et nous pouvons voir que le statut de travailleur à noter est toujours prêt. Mais la disponibilité est rêve, ce qui signifie que la note est en place, mais sa disponibilité est drain, ce qui signifie qu'aucun conteneur ne peut être devrait céder dessus. Lorsque nous drainons la note, le conteneur de la tâche devrait faire sur la note est transféré ou re si vous allez faire l' un des autres Nords. Vérifions-le en utilisant le service Docker serveur Web PS. Et comme vous pouvez le voir, le conteneur du serveur Web 0.3 a été déplacé de worker à manager, et il est en cours d'exécution depuis 42 secondes, ce qui est à peu près le moment où le travailleur à a été vidé. D' un autre côté, si nous utilisons Docker PS sur travailleur pour maintenant, qui a été drainé, nous verrons que le conteneur est sorti de la note et est maintenant dans l'état tout à fait mort. Maintenant, retirons cette note du cholestérol que ce soit, et quand nous essayons de le faire, nous obtenons cette erreur de Docker Demon. La raison derrière cela est que le Nord est peut-être dans l'état cérébral, mais il est toujours en place. Le docteur sert toujours son FBI, donc nous devons nous assurer qu'il quitte le groupe des marais en premier. Ensuite, il est supprimé de la liste Masters. Utilisons Docker Swarm Lou Command du travailleur à noter. Une fois que nous le ferons, nous aurons un Nord assez clair. Cette note a laissé l'essaim. Si nous essayons d'exécuter à nouveau la même commande sur la note du gestionnaire, nous verrons que la note de travail a été supprimée avec succès. Nous pouvons le vérifier en listant à nouveau les Nords et ce que nous allons trouver est notre cluster composé de seulement deux nœuds. Gestionnaire et travail d'un. 57. Démo : Mise à l'échelle et à la mise à jour avec Swarm: dans cette démo, nous allons effectuer quelques tâches supplémentaires liées à l'orchestration si vous vous souvenez clairement ou service. serveur Web avait trois réplicas sur la dernière image du moteur X. Compétons sur le service et augmentons son nombre de répliques à six. On peut le faire avec le Dr Service Quarty Command, suivi du nom hors service, et du numéro hors répliques. Une fois chaud, a vérifié la mise à l'échelle. Nous pouvons le faire aussi, en utilisant le service de médecin PS, suivi du nom du service et, comme vous pouvez le voir au lieu de trois. Maintenant, nous avons six conteneurs fonctionnant sur le moteur X Dernière image. Trois sur eux sont prévus sur le manager et trois sur eux vous assurer sur travailleur. Tous ces six sont en état d'exécution et trois d'entre eux semblent être tout à fait nouveaux, comme vous auriez pu vous y attendre si nous ne docker ps tiret e. Sur le manager et le worker one. Nous verrons trois conteneurs en cours d'exécution sur chacun d'eux, tandis que le travailleur doit à de nouveaux conteneurs. Le gestionnaire a un nouveau conteneur. De plus, nous pouvons même déployer quelques mises à jour sur ces six conteneurs. Comme vous le savez, tous les conteneurs de la machine fonctionnent sur le moteur. Image la plus récente suivante. On peut le changer pour le moteur X Alpine. Si vous vous demandez quelle est la différence ? Eh bien, la dernière version de Engine X est construite sur l'image de base à bout ouvert, tandis que la version Alpine est basée sur une image minimale Alpine Lennox supérieure. Utilisons la commande Doctor Service update for load Par quel genre de sensation voulons-nous mettre à jour ? Nous voulons mettre à jour l'image hors du service. Une fois que nous avons touché, entrez toute la tâche de la. Soyez mis à jour un à la fois. Une fois que le processus de mise à jour est terminé, nous pouvons le vérifier avec Dr Service Inspecter Command et nous allons nous assurer que le résultat l'inspecteur homme il est assez imprimé. Comme vous pouvez le voir, le service plus est encore répliqué. Le numéro hors répliques ISS six. Si nous allons aux spécifications du conteneur au lieu de montrer le moteur X le plus récent, il montre le moteur X Alpine, ce qui signifie que tous les conteneurs sont commutés à partir du moteur X dernière image alpine. Enfin, nous pouvons supprimer ou le service en utilisant la commande docker service RM suivi du nom du service et comme une notification, nous obtenons le nom du service. Tapons le trait d'union A du Dr P et comme vous pouvez le voir chaque conteneur est retiré un par un. Si nous faisons la même chose sur un travailleur une note, vous verrez que tous les conteneurs sont enlevés et également enlevés. Attendons un moment et utilisez la même commande sur le gestionnaire aussi. Eh bien, maintenant vous un autre manager est vide. Enfin, nettoyons ou regroupons en nous assurant que le travailleur Nord quitte également le blaster comme nous l'avons fait avec le travailleur aussi. Nous allons aussi en faire un ouvrier. Laissez le cluster volontairement en utilisant Docker Essaim Lever commun Nous sommes en arrière avec un médecin hôte qui est gestionnaire. 58. Que vous en avez celui le plus populaire ?: Le Dr Swarm est très utile. Mais chaque fois que nous parlons d'orchestration de conteneurs, un nom domine la conversation, qui est kubernetes, vous pourriez vous demander. On n'en a pas déjà fini avec l'orchestration ? Eh bien, pas encore. Docker, Swarm et Kubernetes coexistent sur le marché et encore plus sombre lui-même l'a reconnu depuis son large soutien aux communautés avec sa version d'entreprise de vitesse. De plus, autant que je sache, il n'y a pas de telle chose que géré. Docker essaim sur n'importe quel hors des plates-formes de cloud public populaires, tandis que kubernetes gérés est l'une des principales fonctionnalités de Google Cloud. Ce n'est pas tout. Azure et AWS rattrapent aussi assez rapidement . Ce sont des raisons plus que suffisantes pour apprendre les communautés aux côtés de l'essaim, mais nous devrions connaître les avantages et les défis hors bateau. Commençons par la nature. Swarm est une partie de l'écosystème des médecins, donc toutes ses caractéristiques agissent comme une extension des médecins propres capacités. Where's Kubernetes est un produit entièrement différent géré par C. N. C. N. C. F, qui signifie Cloud Native Computing Foundation. Puisque warm appartient à Dr Ecosystem, vous n'avez pas eu de difficulté à adapter ses terminologies ou concepts, car la plupart d'entre eux étaient conformes à ce que vous pouviez déjà faire avec Docker, sorte que certains sont plus faciles à configurer et à adapter. Rien n'est jamais trop difficile une fois que vous obtenez un accrochage. Mais la mise en place et l'adaptation des communautés introduit plus de nouveaux concepts par rapport à un essaim de sorte que vous pouvez certainement collégier relativement difficile. De plus, Kubernetes introduit une toute nouvelle ligne de commande où une ligne de commande des marais est assez similaire au Dr Cli lui-même. En ce qui concerne les utilitaires, Docker Swarm meurt moins profondément dans le champ hors orchestration. Où sont les mariées Kubernetes ? Vous orchestration beaucoup plus exhaustive. Fonctionnalités de surveillance essaim peut être difficile, car il soit Dans les murs, les outils tiers sont des services payants par Dr Enterprise. Où est le support natif de Kubernetes Broich pour la journalisation et la surveillance ? De plus, les médecins à domicile n'ont pas seulement moins de fonctionnalités par rapport aux communautés, mais il devient également difficile de gérer après avoir eu plus de 15 heures environ, parce que vous n'avez pas assez de contrôle sur elle faire certains conteneurs sur certains nord, ce qui peut être stupéfiant à gérer. Où est le cas des kubernetes ? Nous avons beaucoup plus de liberté et de tolérance aux fautes. Le contrôle final nous permet de grouper vers le nord comme nous le voulons, et de s'abstenir sont des conteneurs d'être ombragés à certains nœuds. En fait, Communautés a montré des performances prometteuses, même dans le cas , sur plus de 1000 ni abs. En raison de tout cela, Même si les médecins à domicile a un bon soutien communautaire et mises à jour en vedette, Kubernetes a un soutien énorme et s'est transformé en un mot à la mode développe complet par tous les moyens positifs. Dans l'ensemble, cela signifie que plus votre application est grande, plus vous avez de chances d'utiliser des communautés plutôt que d'essaim hors de la route. Tout le monde ne cible pas des millions de personnes hors audience et jamais mettre à l'échelle des clusters pour eux essaim pourrait suffire. Mais pour vous en tant qu'apprenant, le voyage ne doit pas se terminer avant d'apprendre des aspects passionnants hors kubernetes. 59. Kubernetes : Une histoire d'origine: avant d'apprendre kubernetes. Jetons un coup d'oeil à son histoire d'origine populaire. y a longtemps, il y avait un moteur de recherche de filles appelé Google. Il a été initialement développé par M. Page et M. Brennan au cours de ces études de doctorat dans un domaine de travail moins sophistiqué. Cette infrastructure était minime et les utilisateurs étaient limités. Mais l'idée était de changer le jeu. Très vite, elle s'est transformée en une entreprise de technologie sophistiquée avec une plus grande infrastructure technique et nombre croissant d'utilisateurs. Mais ce n' était que le début. Google s'est avéré être l'une des plus grandes chances technologiques avec des milliards Dites-le encore. Des milliards d'utilisateurs à travers le monde le font. Google est devenu un nom, Googling est devenu un passe-temps, et Google actions est devenu l'un des principaux investissements. Tout cela a impliqué des efforts sans fin, et seulement par passionné, ingénieux et pourtant se révèlent être des serveurs de forêt. époque, il n'y avait pas de médecin, donc les ingénieurs de Google ne pouvaient pas aller vous voir, Timmy et prendre. Bien sûr, ils ont dû s'attarder profondément dans les racines de l'histoire de l'informatique. Ensuite, ils sont venus avec la réalisation que Lennox avait déjà une solution appelée conteneurs , qui pourrait être configurée en utilisant des espaces de noms et voir des groupes dans les conteneurs sur l'abstraction à couche d' application, qui paquets biens et dépendances ensemble. Ils ont donc commencé à les utiliser. Mais ils avaient aussi besoin de quelqu'un qui puisse orchestrer leurs conteneurs à grande échelle pour eux et que quelqu'un était kubernetes. C' est ainsi que les communautés ont vu le jour, et le repos est une histoire. 60. Kubernetes : Architecture: à partir d'une vue d'oiseau, l'architecture de Kubernetes cluster aurait l'air assez simple. Nous avons aidé à taper hors instances Master et Nords, la frontière et les communautés, mais à des fins différentes, tout comme gestionnaire et travailleur hors essaim. Jetons un regard plus profond à l'intérieur. Maître agit comme une note de contrôle, et tout en travaillant avec Kubernetes, nous communiquons avec le maître. Pour la plupart, il exécute un set off applications, qui incluent Cube, un PS, sur lequel sert toutes les demandes de repos fournies par l'utilisateur et obtient des réponses d' autres Nords. Vous pouvez le considérer comme une unité de service centrale, affront et hors du cluster. Ensuite, nous aidons le gestionnaire de contrôleur Cube avec Selves comme parent ou processus de gestion pour un certain nombre de processus de contrôleur. Ces processus de contrôleur géraient les objets de contrôleur comme les réplicas que le contrôleur ou le contrôleur de déploiement, qui étudieront assez tôt. Ensuite, nous aidons Cubes péroné, qu'elle duelle sur conteneur sous un environnement de bac à sable de surveillance appelé cubes de pièces. Abdula décide également lequel des nœuds seront résolus, ce qui déclenche des conteneurs. Les demandes A P I du gestionnaire de contrôleur des communautés et des cubes si Ula sont vendus par Cuba. glace AP est terminée. Enfin, nous aidons huit CD, qui est la clé distribuée Value Data store. Huit villes Toast les données obtenues de toutes les autres composantes de la valeur clé Pass. Cela peut inclure l'état souhaité de l'entrée de la configuration du cluster, les journaux d'événements réels de l'état du cluster, les détails de l'objet, tout et tout ce que vous voyez. Le seul communique avec Cube MP sur pour des raisons de sécurité. Donc, en un mot, gestionnaire de contrôleur Cube contrôle les objets cubes réguliers devraient utiliser des conteneurs et les yeux AP sont vendus par Cuba. AP un serveur, qui stocke toutes leurs données sous la forme d'une paire de valeur clé dans 80 et récupère les données du même endroit également. L' architecture simple mais robuste hors maître est l'une des raisons du succès Kubernetes. Parlons maintenant des nœuds. Ils sont assez simples par rapport à maîtriser le seul que deux composants, pour être précis. L' un est M. Talk parler, et l'un est M. Do do que balle est M. Do faire comme il effectue l'action suggérée par les composants de maître comme Cube Sevilla AP glace sur. Notre contrôleur, gestionnaire, Maître et Nords sont pratiquement sont physiquement différent machine, ce qui signifie cubain. Il agit comme un processus de surveillance sur le Nord pour allouer des ressources et créer des conteneurs ou des processus ponctuels. Que Proxy est M. Talk Talk. Il gère les notes, la communication avec d'autres Nords Master et le monde en dehors du cluster. Dans Big Lucky, c' est Cuba AP un serveur hors maître, qui parle au proxy Q hors du nœud. Donc, un PS sur obtient des données à partir de huit CD. Il reçoit des demandes du gestionnaire du contrôleur et elle doula et le transmet au nord. Où ? Q proxy pour proxy de secours. Traitez-le pour le cube allumé, qui en retour fournit la réponse à ces requêtes, qui a de nouveau passé à maître. Pourquoi un proxy et stocké sur un CD. Mais si le cluster est hébergé sur la plate-forme cloud prise en charge par la communauté, le gestionnaire de contrôleur Cube parle au proxy Q tandis que Cloud VPC ou autre infrastructure pertinente car il a un composant appelé gestionnaire de contrôleur de nuage. Maintenant, nous allons nous concentrer sur la façon dont nous, en tant qu'utilisateurs, interagi. Les utilisateurs de Kubernetes parlent au maître d'Ackermann Disons que nous commandons Maître de créer un objet. Master passe cette instruction comme une demande du FBI. Une fois cubain, il exécute sa demande. Il retourne l'état au nord comme réponse que le maître stocke dans son huit CD et transmis aux objets américains peut être hors de plusieurs types, tels que les charges de travail, lesobjets de conflit, objets de conflit, connectivité, les objets ou objets de stockage. Où les successions sont hors deux types d'état désiré et état d'arme à feu. Kubernetes continue toujours à vérifier si l'état du désir et l'état actuel correspondent s'ils ne correspondent pas, Kubernetes fait de son mieux pour s'assurer qu'ils le font. Et s'ils correspondent, il continue à vérifier encore et encore pour s'assurer que cette harmonie est affectée. Cette boucle sans fin est appelée boucle de réconciliation, qui s'assurent que notre cluster est dans l'état le plus désiré autant que possible. Dans l'ensemble, c'est ainsi que fonctionne l'infrastructure des collectivités. Ensuite, nous allons parcourir les objets hors des communautés et apprendre à les utiliser. Et pendant que nous le faisons, vous obtiendrez un sens plus large et une idée plus profonde de la façon dont cette infrastructure est utilisée lors création et de l'utilisation d'objets 61. Démo : Bootstrapping Kubernetes Cluster sur Google Cloud Platform: ouvrez votre navigateur Web préféré et allez à ce lien console nuage sombre dot google dot com Ceci est le lien pour Google Cloud Platform Dashboard ou G C P Dashboard. Mais avant que nous puissions y aller, nous devons nous connecter à notre compte Google et faire votre I D et mot de passe et appuyer sur. Ensuite, nous obtenons un pop-up, qui nous demande de confirmer sur les décharges et les services de JCP et également fournir Google ou détail résidentiel. Je mets l'Inde. Vous pouvez mettre votre propre pays, et ensuite nous avons le choix, si nous voulons une fonctionnalité de jours ou des e-mails d'enquête de Google ou non. Eh bien, puisque je ne veux pas les recevoir, je vais cliquer, pas de clic, d'accord et de continuer, et le problème disparaîtra. Ce que vous voyez en face de votre écran est de commencer à voir hors de gcb tableau de bord. Nous avons un tas de produits les plus utilisés comme Compute Engine, que nous allons utiliser pour créer des machines virtuelles. Stockage en nuage, qui est le stockage en bloc abordable de Google et la suite Cloud, qui est géré ma suite ou post Grèce égale de Google. Mais avant de pouvoir utiliser n'importe quelle pièce off, nous devons mettre en place quelque chose appelé bâtiment, ce qui signifie que nous devons initier sont essai gratuit sur Google Cloud Compte en faisant ce que nous recevrons un crédit de 300$, qui peut être dépensé dans un délai d'un an. Cliquez sur Essayer gratuitement. Il semble que ce soit un paiement en deux étapes à un processus. Google indique explicitement que nous obtiendrons un crédit de 300$ gratuitement pour démarrer le compte de style . Et même une fois les crédits finis, nous ne serons pas facturés à moins que nous acceptions d'être construits. Étape un est assez similaire à ce que nous avons fait précédemment à l'invite, qui est apparu Nous avons besoin de Toe a accepté les termes et services de Google, et nous devons leur dire si nous voulons mettre en place un e-mail ou non et cliquez sur d'accord et continuer. La deuxième étape concerne des renseignements personnels comme un type de ville, qui peuvent être des renseignements fiscaux commerciaux ou individuels, qui peuvent être enregistrés ou non inscrits nom de bâtiment individuel adresse de facturation, etc. Une fois que vous avez rempli tous ces détails et que vous faites défiler vers le bas, nous arrivons aux modes de paiement. Actuellement, l'option disponible est le paiement automatique mensuel et pour leur permettre, nous devons fournir détails de la carte de crédit ou de débit. Si vous vivez dans un pays comme l'Inde, où les transactions Elektronik sont protégées par un mot de passe unique ou trois épingles D, votre carte de débit ne sera pas acceptée et vous pourrez utiliser une carte de crédit. En fin de compte, la carte que vous utilisez devrait vous aider à mettre en place les paiements automatiques une fois que vous avez entré vos coordonnées. Hit on start mon essai gratuit Burton et le prochain Green dit que Google est en train de créer un projet pour nous, et cela peut prendre quelques instants. Il semble que notre essai gratuit soit mis en place maintenant. Nous avons un crédit de 300$ sur notre compte de facturation Google Cloud Platform, et nous pouvons commencer à utiliser les services GCB. Alors, qu'est-ce qu'on veut essayer en premier ? Eh bien, je veux essayer l'informatique et les applications, alors nous allons cliquer dessus. Ces services sont ces dispositions de Google relèvent de la catégorie hors services informatiques . Maintenant, si vous jetez un oeil à la douleur du côté gauche, nous avons plusieurs options ici. Actuellement, nous sommes sur le démarrage robinet, mais les autres onglets construisent le marché AP Eyes and Services support, qui fournirait un soutien au niveau des consommateurs et de l'entreprise Je suis un Edmund, ce qui est utile pour la définition des autorisations et sécurité des règles etc. Cliquons sur la construction. Ceci est la page d'aperçu de notre compte de facturation, et il dit que nous aidons $300 pour 22,183 I nr 4 restant dans notre crédit. Aussi, le 10 Votre restant pour le crédit est 3 65 jours sur un an parce que nous venons de commencer à utiliser JCP. Si vous le voyez ci-dessous, nous avons un projet lié à ce compte de facturation, qui est mon premier projet en cas de fourniture de services Google Cloud Platform Resources. Etcetera sont gérés dans le cadre de projets, ce qui signifie qu'un compte G C P peut avoir plusieurs projets à des fins multiples. Nous avons un projet créé par défaut, qui s'appelle mon premier projet. JCP nous l'a fourni, et si vous vous souvenez, nous avions déjà vu un écran qui disait, créer votre premier projet Eh bien, c'est ce projet qui utilisera ce projet tout au long de ce cours ? Allez à la douleur supérieure de notre tableau de bord et cliquez sur le menu déroulant du projet, qui apparaît juste après la plate-forme Google Cloud. Maintenant, nous allons cliquer sur le bouton d'accueil et laissons mon premier projet comme notre projet une fois que nous avons sélectionné le projet, la vue off ou les changements de tableau de bord. Et au lieu d'avoir une vue de démarrage, nous avons notre vue spécifique au projet où les informations sont divisées en plusieurs cartes . Le premier gardien est Project in quatre, qui donne des informations sur le nom du projet, projet I. D et le numéro du projet, qui sont uniques dans le monde entier. Et nous avons tenu la ressource, c'est la carte. En ce moment, nous n'avons aucune profession de ressources. Donc, il dit que ce projet n'a pas de ressources et que nous l'aidons à être dur. Plus on a utilisé le FBI de GCB, plus on verra de fluctuations dans le graphique de cette carte. Actuellement, nous n'avons pas utilisé beaucoup de ceux du FBI, donc le graphique est assez clair à part un pic, qui pourrait avoir généré quand nous avons activé ou essai gratuit. Ensuite, nous avons l'état des services de plate-forme Google Cloud, et il dit que tous les services sont normaux. Suivant, c'est une meilleure carte. Nous n'avons aucun signe d'erreur, ce qui est logique parce que nous n'avons pas utilisé de ressources en premier lieu. Ensuite, nous avons quelques cartes diverses comme la documentation de nouvelles , la mise en route etc. Cliquez sur l'icône du menu de navigation du tableau de bord TCP, qui est également appelé l'icône Hamburger, ou trois lignes horizontales, qui sont dans le coin supérieur gauche de notre tableau de bord Goto Compute Engine section et cliquez sur Instances Veum. Puisque nous n'avons aucune instance de William créée, nous recevons cette réponse. Nous avons trois options. abord, pour prendre une porte de démarrage rapide, importez une machine virtuelle pour la troisième pour créer une machine virtuelle ou une machine virtuelle par nous-mêmes. Eh bien, créons une machine virtuelle. Maintenant, nous sommes guidés vers votre page de création de machine où Google a rempli avant les données pour un mot standard votre machine, mais nous allons le modifier un peu. Ça a changé notre instance. Nom à maitriser, alors nous devons le faire. choix liés à l'emplacement, qui incluent la région et la région de zone, indiquent l'emplacement global où une zone indique un centre de données particulier au sein de cette région. Changeons notre problème régional de pointe sud, qui redirige vers Mumbai, et par conséquent, nous choisissons les problèmes un. Voyez que vous pouvez choisir la région et les zones les plus proches en conséquence. Dans ce cours, le choix hors région et zone n'a pas d'importance, mais si vous créez des applications exigeantes de performances où vous pourriez avoir besoin d'un certain type de ressource est comme GPU. Vous devrez peut-être choisir des régions et des zones qui fournissent ces ressources. Cela dit, nous avons ensuite le type de machine. La valeur par défaut pour ceux-ci est un processeur V, ce qui signifie un processeur virtuel et 3,75 Go de mémoire hors mémoire. Ça veut dire que nous regardons. La machine aura un cœur virtuel hors CPU qui lui est assigné, ainsi que 3,75 Go de RAM hors tension. Augmentons ces deux dispositions à ces abus. Et donc dans 0,5 g b hors mémoire. Ensuite, nous n'avons pas de choix facultatif à faire, mais nous voulons déployer une image de conteneur sur cette instance de William ou non. Eh bien, nous ne voulons pas déployer une image de conteneur parce que nous allons faire toutes ces choses par nous-mêmes. Extra est le disque de démarrage, ce qui signifie quel système d'exploitation sera utilisé sur ce William. La valeur par défaut est Debian Lennox 9, mais nous allons la changer pour l'ouvrir à 16.4 Nous pouvons également choisir entre SS, un bureau d'assistant plus profond ou un disque persistant standard et leurs limites de 65 536 gigaoctets. Nous nous en tiendrons à tenir un disque persistant, mais augmentez les limites à 20 Go Nous sélectionnons la tête. Nous conserverons notre compte de service en tant que compte de service par défaut du moteur de calcul, et nous allons permettre un accès complet à tous les yeux de l'AP cloud. Bien que nous n'utiliserons pas la plupart des FBI. Avoir accès évite simplement les erreurs potentielles. Enfin, nous avons des paramètres de pare-feu où nous allons autoriser tout le trafic http et https qui a eu le bouton de création ont été redirigés vers William Instances Page et notre instance maître a été créée. Si nous cliquons dessus, nous pouvons voir les informations que nous avons fournies précédemment. En plus de cela, vous obtenez un autre tas d'informations telles que la plate-forme CPU, qui est Intel Sky Leak Creation Time détails de l'interface réseau , détails du pare-feu , démarrer cette préférence, etc. . Revenons à la page des instances de William. Si nous cliquons sur la case à cocher juste à côté de l'instance principale, nous voyons quelques boutons allumés. Ils nous permettent respectivement d'arrêter s'il démarre ou supprime l'instance de Veum, mais nous ne ferons pas cela parce que nous voulons garder cette instance et que nous voulons travailler dessus. En fait, nous allons créer deux autres instances de William, et nous les nommerons non. Un et non. Deux. Il est recommandé de créer toutes ces instances dans la même région. Nous y sommes. Nos deux autres instances sont créées. Vous vous demandez peut-être. Les instances sont créées signifie que nous EMS sommes prêts. Mais comment les utilisons-nous ? Eh bien, l'option la plus simple pour se connecter à elle serait toe ssh dedans. Et au moment où j'ai dit : Évaluer, Évaluer, Age. Salut. Je sais que votre site est coincé sur le bouton ssh, mais avant de cliquer dessus, jetez un oeil à l'interne et externe je p off. Tout pour Williams. Reconnectons-le. Nous avons plusieurs options, mais nous choisirons le 1er 1 qui est ouvert dans une fenêtre de navigateur différente. Nous y sommes. Nous nous connectons au maître. Instance désactivée. Maître William. Instance. Arrêt du moteur de calcul G C P. La connexion semble réussie. Effacons cet écran maintenant. Nous voulons amorcer un cluster kubernetes sur ces instances, alors commençons par obtenir des privilèges root. Exécutez la commande sudo su. C' est dans une mise à jour standard en utilisant apt get update. Une fois la mise à jour terminée. Installez Docker en utilisant le demandeur install docker dot io et fournissez le trait d'union y par défaut. Oui, vérifions qu'un médecin quatre est installé correctement. Exécuter docker s'aggraver et il dit que nous exécutons Docker 17.3 communauté addition, qui est parfaitement bien parce que c'est ce que nous voulions exécuter. Si tu te demandes, pourquoi on dirige Docker ? Kubernetes n'est qu'un orchestrateur. Il a toujours besoin d'une plate-forme de mise en conteneur. Donc, nous installons Doctor. Oups, on dirait que j'ai fermé la fenêtre. Eh bien, ouvrons à nouveau. Maintenant, installons quelques dépendances de base sur kubernetes comme https et appelons l' installation semble réussie. Non, nous allons obtenir la clé G, PG ou GENIO Privacy Guard pour kubernetes et ajouté au système. Nous obtenons la réponse correcte, ce qui signifie que la clé a été ajoutée avec succès. Nous ajoutons la ligne eat B, qui signifie Debian, suivi du lien, qui est http app dot kubernetes dot io slash kubernetes signifie Zaenal à la fin de nos fichiers de liste de démarrage Sosa faisaient cela pour que sont un joli paquet. Manager peut accéder aux bibliothèques kubernetes chaque fois qu'il effectue des mises à jour. Vérifions si l'étape a réussi pour une application. Fais encore une pause. Et comme vous pouvez le voir, notre dernière entrée get sept comprend la mise à jour reçue de Kubernetes Ural. Non. Installez tous les composants de kubernetes, qui comprennent cube, Cube allumé, allumé, Adam et Cube CTL, où un demandeur installer Que lame Cube Adam cubes idéal accompagné par le trait d'union de drapeau y semble que l'installation est terminée. Sortons de notre message et reconnectez-vous. Composez la commande CTL et définissez notre pont net par défaut I P tables égal à un. Ceci est une condition préalable à l'installation du réseau de pièces que nous utiliserons lors de la configuration du cluster kubernetes. Non, initialisons notre cluster kubernetes en utilisant le cube. Adam, non ? La commande semble que l'initialisation du cluster est en cours. Et une fois que les vérifications en amont sont terminées, nous obtenons beaucoup de certificats générés. Une fois l'initialisation terminée, nous avions fourni quelques suggestions. Tout d'abord, nous avons une confirmation que notre maître kubernetes a été initialisé avec succès. Ensuite, nous avons un tas de commandes qui devraient être utilisées. Si nous voulons utiliser ce Lester comme utilisateur régulier et pas seulement utilisateur root. Je vous recommande de copier toutes ces trois commandes dans un endroit sûr car nous les utiliserons plus tard. Suivant est une commande suggérée pour déployer un réseau séparé sur le cluster. Mais nous n'avons pas besoin de copier ça. Et enfin, nous avons un tube Adam Joint Command, suivi par le jeton d'incinération par notre maître et certificat 64 chiffres, que nous devons copier et sauvegarder à un endroit donné parce que cette commande est extrêmement cruciale et sera utilisé par tout le nord pour rejoindre notre maître. Une fois que vous avez copié tout cela, effacons le terminal. Avant d'aller plus loin, assurez-vous de ne pas laisser d'espaces blancs inutiles et de copier la commande. Maintenant, nous allons tourner les cubes. Ideal apply commande suivie de la U R l sur notre configuration réseau partenaire que nous utilisons . Nous avons net Donc le u R L commence avec la fille du nuage, vous ne fonctionne pas, mais vous pouvez utiliser n'importe quel réseau de pièces que vous aimez, comme flanelle, calico, etc. et les détails pour d'autres réseaux de pièces peuvent être trouvé dans la documentation kubernetes. On dirait que l'ancien appartement est installé. Vérifions avant que le cluster ne fonctionne sur Cube CDL obtenir des pardes, suivis d'un drapeau, trait d' union, union, tous les espaces de nom. Vous n'avez pas besoin de creuser trop profondément dans cette commande car nous allons passer par l'ensemble de la ligne de commande kubernetes étape par étape. Tout ce que vous avez à remarquer sont les noms familiers tels que chaque CD Cube MP sur vous, gestionnaire de contrôleur que cubes proxy devrait ula etcetera ? Tous les éléments sont des composants de l'architecture kubernetes que nous avons étudié en théorie. Et maintenant, ils sont déployés sur votre Google Cloud. instance de William. Bien sûr, ce sont les composants d'une bonne victoire. Il est maître pour les instances de note, nous aurons différents composants. Maintenant c'est un grand accès de l'utilisateur régulier à notre maître autour des trois commandes une par une que nous avions copiées plus tôt. Et pour voir si pour kubernetes travaille sur l'utilisateur régulier ou non. Allons dans les mêmes cubes idéologie. Il verse la commande à nouveau et il semble que toutes les parties sont en cours d'exécution, et kubernetes master est accessible à partir de l'utilisateur régulier aussi bien. Revenons maintenant à notre discours ji cpv VM sur ssh pour en noter un. Récupérons l'accès utilisateur mec à nouveau Maintenant, exécutez Cube. Adam a rejoint le commandement. Si vous vous souvenez, nous avions fait Cube Adam dedans de Maître et nous avions reçu un jeton de jour Maintenant, nous utilisons Cube Adam rejoint à partir d'aucune instance pour rejoindre le maître en tant que membres hors cluster Les jetons que nous fournissons sont les même que nous avions reçu lorsque le maître a été initialisé leur fils Endo. On y va. Une fois le processus de jointure terminé, nous obtenons une suggestion que nous devrions exécuter cube CDL obtenir des notes sur Master pour voir si le connu a rejoint le cluster. Eh bien, on va le faire. Mais après avoir fait non pour rejoindre le cluster à D c P v EMS, nous allons ssh pour noeud à rien de trop compliqué. Exactement les mêmes étapes que nous avions effectué un noeud un. Obtenez l'accès utilisateur root et exécutez le cube Adam Joint Command avec les mêmes jetons. Une fois que cela est fait, suivons leur suggestion et revenons au maître. Nous avons déjà mis en place un accès CDL cube utilisateur non root sur maître donc nous n'avons pas besoin d'exécuter pseudo donc à nouveau, suffit d'exécuter cube CTL obtenir des normes Et voilà. Nous avons tous les trois de la liste nord, mais si vous remarquez que personne n'est pas encore très. Rien de trop à craindre. Donnons-lui un peu de temps. Et puis la commande à nouveau. Bingo. Tout le Nord a rejoint la grappe avec succès et est prêt à travailler. Maintenant que notre cluster kubernetes est correctement configuré, nous sommes prêts à explorer différents aspects de kubernetes comme les cubes de charges de travail, la ligne de commande idéale etc. Rendez-vous à la prochaine conférence. 62. Qu'est-ce sont-ce que les Pods ?: pièces. Jusqu' à présent, j'ai évité d'utiliser ce terme tout en expliquant l'architecture autant que possible . Mais croyez-moi, Kubernetes est une question de pièces. Alors, quelles sont les parties si nous gardons ce médecin ensemble de l'architecture à l'esprit où les conteneurs sont sur le dessus, Docteur, Docteur, C'est là que la communauté se trouve juste entre Dhaka et Containers. Mais Kubernetes n'héberge pas les conteneurs tels qu'ils sont. Il les encapsule dans un environnement ou un objet appelé barred. Ah, partie peut avoir un ou plusieurs conteneurs à l'intérieur, mais la plupart d'entre vous en trouveront une par conteneur. Les bardes relèvent de la catégorie hors objets de charge de travail. Voici quelques choses sur les parties dont vous devriez vous souvenir. Ils sont la plus petite unité hors orchestration dans les kubernetes et tout tourne autour eux. La seule façon d'interagir avec les conteneurs dans les communautés est de passer par les parties, donc ils sont tout à fait absolus. Comme nous l'avons mentionné précédemment, chaque partie utilise au moins un conteneur. Il peut en avoir plus d'un, mais l'un est un must. Et c'est aussi une pratique courante. Non, c'est ce qui rend la partie spéciale. Kubernetes est conçu en gardant à l'esprit que les conteneurs meurent. L' échec est naturel. Ainsi, la politique de redémarrage des conteneurs hébergés par des pièces est toujours définie par défaut, tout comme les marais. Effectuez l'orchestration sur des conteneurs. Les objets de haut niveau hors kubernetes effectuent l'orchestration sur les pièces. Maintenant, comme on en sait un peu sur Pardes, on va travailler avec eux. 63. Comment utiliser Kubernetes ? Impératif et déclaratif: travailler avec kubernetes est amusant parce qu'il a deux façons distinctes d'accepter les demandes. En d'autres termes, il y a deux façons de gérer des objets dans les communautés ou de travailler avec les communautés. Les moyens sont impératifs et déclarative affaiblis loin exige nous d'épouser Toutes sortes d' informations spécifiques à kubernetes explicitement,par exemple, par exemple, créer quelque chose de mise à jour quelque chose d'habile, quelque chose. Tous les sont des commandes spécifiques où l'action de la création ou de la mise à jour est mentionnée. De toute évidence, cela signifie que nous avons plus de contrôle sur ce que nous voulons Cubain ? C' est à faire. Mais cela signifie aussi que nous devons consacrer plus de temps et d'efforts à cette fin. D' un autre côté, déclarées loin, nous allons kubernetes comprendre les choses par lui-même en fournissant un fichier simple et en lui demandant orteil . Appliquez-le. Si les objets mentionnés dans le fichier n'existent pas, Kubernetes les crée, et s'ils existent, et s'ils existent, il met à l'échelle ou met à jour le système. Une telle approche peut sembler absurde, mais elle devient très utile pour le traitement par lots où nous pouvons contrôler plusieurs objets sur une seule instruction. Il y a deux façons de communiquer impératif Lee à travers les fichiers et a pris un mois. Soit les fichiers de fierté de Rican avec vous, spécifications de Hamel ou les commandes avec un tas de drapeaux. Le moyen le plus préféré est d'utiliser des fichiers, car il facilite un dépannage plus tard, comme mentionné précédemment, il n'y a qu'une seule façon de communiquer de manière décorative. Il est vrai des fichiers ici que l'entrée peut être un fichier ou un répertoire entier contenant un ensemble de fichiers, ce qui rend le traitement par lots plus rapide. Dans la prochaine démo, nous verrons comment le travail des orteils est impératif, Lee et Lee déclarative. 64. Démo : Travailler avec des Pods : créer, analyser et supprimer (Impératif et déclaratif): Maintenant que nous savons ce qu'est une partie et comment elle fonctionne, créons un seul. Nous avons vu précédemment qu'il existe deux façons de créer n'importe quel objet dans les communautés intégrées et déclaratives. Pour nous assurer que nous couvrons ces deux façons, nous aidons à des terminaux ouverts côte à côte dans un terminal va créer à part Impérative Lee. Où est l'autre terminal ? Nous allons créer la partie déclarative Lee. Nous avons ces terminaux côte à côte afin que nous puissions les comparer une fois les deux créés. Commençons par l'impératif pour créer à part impératif. Lee. Nous devons fournir toutes les spécifications à une commande ou à un fichier Yémen. Nous allons bijoux yam de cette fois. Écrivons un fichier appelé document impératif barred. Nous utilisons Nano comme éditeur de texte, mais vous pouvez utiliser n'importe quel éditeur de texte que vous voulez. Les bases du fichier Yemen restent les mêmes que Docker compose. Seule la différence serait les champs qui seraient indiqués comme passe de valeur clé. Mais cela dit, commençons. Notre première sensation ou première valeur clé mauvaise. Sa version du FBI. Ce champ est utilisé pour laisser Cubain il n'est pas quelle version d'une p. Je suis utilisé pour créer cet objet pour plus d'informations sur le A p A. Waggrave et quelle version utiliser pour quel objet vous pouvez suivre les kubernetes officielles documentation en allant sur le lien de chute. Ensuite, nous avons aidé type type spécifie quel type ou quel type hors objet doit être créé . En utilisant ce combat, nous voulons créer un pard donc sont gentils, sentir ou gentil Key aura la partie de valeur. Ensuite, nous avons des méta données. Il fait ce que son nom suggère. Ce sont des données sur l'objet qui va être créé. Typiquement, modérateur contiendrait des sensations comme des noms, des étiquettes et ainsi de suite. La principale utilisation des métadonnées dans les communautés est pour nous, et la communauté est elle-même pour identifier et trier les parties. Nous voulons nommer la pièce comme impor I m. P. Dash Part et nous voulons donner une étiquette qui dit, à égale mon application. Vous avez peut-être remarqué que les étiquettes sont une paire de valeurs clés pour l'instant. Ne nous attardons pas profondément dans les étiquettes et allons plus loin. Ensuite, nous avons le champ spec avec des stands pour les spécifications. Vous pouvez considérer Specht comme le champ le plus important de ce fichier. Et pourquoi c'est ça ? Eh bien, la raison est assez évidente. Les spécifications sont utilisées pour épouser les informations de configuration d'objet, qui signifie que la spécification ici fournira des informations et des configurations sur la pièce elle-même, ou la première spécification est des conteneurs. Contrairement à docker, conteneurs, sont juste une spécification sur un champ hors de l'objet parent, qui est spécifique à la partie, ations me prêt avec des objets, ce qui signifie que différents objets peuvent avoir différents spécifications et différentes sensations pour les fournir. Notre prochaine entrée sous les conteneurs est le nom du conteneur. C' est différent du nom hors du tableau. En théorie, vous pouvez les garder tous les deux, mais les garder différents rend les choses plus simples. Ensuite, nous aidons image champ image Feel décrit l'image qui va être utilisé pour exécuter ce conteneur par défaut. Kubernetes utilise des images de Docker Hub. Mais si nous voulons utiliser d'autres registres, nous devons fournir des informations spécifiques que vous êtes, mais nous y reviendrons plus tard. Ensuite, nous avons le commandement. Celui-ci est assez simple à comprendre. Nous demandons à notre conteneur d'exécuter Shell Command et ICO, une chaîne appelée Welcome to Contient, um, masterclass par toile civile et dormir pendant 60 secondes. Nous mentionnerons toutes les spécifications requises pour créer le spot. Naviguons dans notre fichier et quittons l'éditeur de texte Farrelly. Nous sommes également en train d'écrire un autre fichier appelé déclarative part dot Yemen. Et comme vous pouvez le voir, ils fournissent également des sensations similaires au fichier précédent dans celui-ci, comme epi, un lavage en nature et des métadonnées pour distinguer cette partie de la partie précédente. Nous lui donnons un nom différent, mais les deux pièces contiendront la même étiquette. Ensuite, nous avons encore des spécifications. Le nom du conteneur change, mais l'image est là, ce qui signifie la même chose, et cette fois nous lui demandons d'imprimer la même chaîne, mais de dormir pendant 60 secondes de plus. Sauvegardons ceci et sortons aussi. Retournons à notre borne gauche et écrivons le cube Command. CDL créer un trait d'union f partie impérative, pas le Yémen. Nous demandons cubes idéal pour créer un objet à partir de ce fichier particulier et ne pas réussir hors de cette commande. Nous avons reçu la notification. Je suis une partie de trait d'union ayant été créé, Revenons à la borne de droite. Contrairement à Imperory Way, nous allons écrire le Command Cube CDL appliquer et mentionné le fichier en utilisant des traits d'union, drapeau F et les parties créées également. Dans ce cas, même si nous avions voulu supprimer ou mettre à l'échelle la pièce, la commande aurait été le même kubernetes ou cube. CDL l'aurait compris tout seul. Que voulons-nous transmettre à travers le dossier, alors qu'en cas de commande impérative, nous devions spécifiquement dire aux communautés de créer un objet. Dans tous les cas, les deux ou Imparato et les ports déclaratifs sont créés, alors voyons s'ils sont en cours d'exécution ou non. Cube droit, CDL obtenir Pardes. Nous allons utiliser cette commande beaucoup dans Future Nemo. Il donne une liste bien arrangée des pièces, ainsi que quelques attributs supplémentaires comme combien de pièces listées sont prêtes ? Quel est l'état de chaque article et indiquez s'il y a eu des redémarrages pendant le temps d'exécution hors de la pièce ? Et depuis combien de temps la partie fonctionne ? Nous pouvons voir à la fois impératif et déclaré une partie. Après avoir été créé Non, nous allons creuser plus profondément dans les deux pièces en écrivant le tube de commande CDL décrire Pardes, suivi du nom de la partie qui dans ce cas est I. M. P. Dashboard va exécutez également la même commande sur le côté droit ou big lead to terminal ainsi. Maintenant, nous avons des descriptions sur les deux parties afin que nous puissions faire une comparaison équitable. Commençons par le haut. Tout d'abord, nous avons le nom off, les deux hors des parties, qui sont uniques. Ensuite, nous pouvons voir que les deux parties sont attribuées au même nom. L' espace, qui est la Fortney dans l'espace, sont impératifs. La partie est devrait céder sur No. Deux, alors que déclaré à part. Délivré, vous en serez inconnu. Nous avons également ces horodatages de départ et leurs étiquettes, ce qui est courant. En ce qui concerne les différences, la partie impérative n'a pas d'ajouts. Où est la partie déclarative ? a un bon nombre d'entre eux. La raison derrière cela est Cube City L a utilisé la configuration qui ont été fournis par nous pour créer la pièce en cas de partie impérative où est en cas de déclaré à part, il a utilisé un modèle de point spécifié et vient de remplir notre que nous avons fourni, aller plus loin nous avons je p pour les deux hors des parties, mais nous allons entrer dans cela plus tard. Ensuite, nous aidons les informations sur les conteneurs. Comme vous pouvez le voir, les deux conteneurs ont des noms différents et des ID de conteneur différents, mais l'image du conteneur et les idées d'image sont visibles. Nous avons aussi la commande, qui va être exécutée par les deux conteneurs, et il a la légère différence. Comme nous l'avions mentionné aller plus loin, nous avons l'état hors du conteneur, qui fonctionne dans les deux hors. Le cas est, et nous avons également l'horodatage de début du conteneur, ce qui signifie que c'est le point où le conteneur est passé de l'état créé pour commencer à ST sur le premier conteneur, ce qui est impératif, ou je suis Beacon. Dana a déjà quitté ou a pris fin parce qu'il a été terminé, alors que semble n'est pas le cas avec l'autre, parce que la période de sommeil était un peu plus longue. Ensuite, nous aidons à la quantité et au volume des informations, mais nous n'avons pas besoin de nous attarder aussi profondément là-dessus dès maintenant. Nous les examinerons lorsque nous étudierons les volumes pour kubernetes. Ma partie préférée personnelle sur la description des conteneurs est les événements. C' est différent de la façon dont nous avions l'habitude d'inspecter nos conteneurs. L' utilisation de Docker Kubernetes nous donne un court et doux, événements hors de l'été qui étaient vraiment importants. Nous pouvons voir que les deux hors des conteneurs ont traversé un tas d'événements, y compris là, elle Dooling, tirant une image, conteneurs ayant été créés et finalement commencé. C' est ainsi que nous pouvons créer et distinguer les parties imperator et déclaratives. 65. Cycle de vie d'un Pod: tout comme les parties de congénères ont aussi leur cycle de vie. Tout d'abord, partie est dans l'état en attente, cela signifie que ses confrontations sont approuvées par le contrôleur de cube, gestionnaire et les députés sur, mais il est encore à être devrait céder sur un nœud. Une fois qu'il reçoit le signal vert de Cuba allumé et distribué, il est en état de marche. Cela signifie qu'au moins un sur le conteneur de pièces est définitivement en cours d'exécution. Parfois, les conteneurs sont programmés pour quitter après avoir effectué une certaine tâche. Dans ce cas, la pièce passe à l'état réussi où tous ses conteneurs sont sortis avec succès. Ou vous pouvez dire gracieusement si un ou plusieurs conteneurs ont échoué entre les deux, notre conteneur meurt en raison d'un manque de mémoire. Qu' est-ce qui va orteil échec état de l'état d'exécution. Il peut s'agir de la navette après le dépannage, et cela lui donne remonte en fonction de l'état puis en cours d'exécution. Enfin, nous avons aidé l'état inconnu où la pièce ne fonctionne pas, mais la raison pour laquelle elle n'est pas encore déterminée, et c'est le cycle de vie de la pièce 66. Démo : Gérer la durée de vie de Pod, avec des gestionnaires de cycle vie: Kubernetes fournit des crochets de cycle de vie du conteneur pour déclencher des commandes sur les événements du cycle de vie du conteneur . Si nous nous souvenons, cycle de vie du conteneur avait cinq étapes créées, exécutées, suspendues, arrêtées et supprimées de ces cinq cubes. Idéal fournit des crochets de cycle de vie pour deux des états qui sont créés et arrêtés. Examinons les deux en utilisant la partie du cycle de vie, pas le fichier jahmal. Il s'agit d'une exportation de moteur standard nommée Life Steve. Je vois une partie et sous le conteneur spect Nous avons aidé à des crochets de cycle de vie appelés Post Start et pré arrêter ces crochets. La fonctionnalité est à peu près comme leurs noms le suggèrent. Les deux ont des gestionnaires attachés à eux, qui sont des commandes exécutables. On va commencer les hameçons. Handler. ICO accueillera-t-il un fichier appelé pauvre Start MSG et il se déclenchera après que le convoqueur entrera dans l'état créé. C' est l'état où les ressources pour lire le lien droit résultent, mais le conteneur n'est pas encore en cours d'exécution. En d'autres termes, la dernière CMD notre instruction de point d'entrée n'a pas encore été exécutée. Le hook fonctionne actuellement avec le processus de création de conteneur de pièces, ce qui signifie que si, pour une raison quelconque, le gestionnaire hors du crochet se bloque, se sent à exécuter, la pièce restera dans l'état créé par le conteneur et n'ira pas dans l'exécution informer les choses. Tout d'abord, le conteneur sera créé dans le crochet post art sera manipulé et le message sera imprimé. Et puis le conteneur commencera à s'exécuter en exécutant CMD ou Entry Point Command. Une utilisation générale de ce crochet est pour un meilleur débogage, tout comme la clause try and catch dans la programmation. Mais cela amène également le fardeau de bloquer le conteneur si le crochet n'est pas manipulé correctement. Donc, si les événements de pièce et les journaux sont suffisants pour votre débogage, vous pouvez ignorer l'utilisation de ce hook. Enfin, nous avons aidé à libérer Stop Hook, qui se déclenche avant la fin du conteneur étaient simplement en train de quitter le processus du moteur X avant de terminer le conteneur. Mais si vous voulez fortement lutter contre ce crochet, vous pouvez appliquer le signal à l'un des conteneurs processus cruciaux, et vous trouverez le conteneur sorti avec un enregistrement respectif. Sortons le fichier et créons la carte 30 secondes plus tard, et la pièce est prête. Je sais que nous avons beaucoup vendu les avantages des conteneurs, mais il est toujours amusant de voir un tel niveau d'isolement géré être créé avec autant d'efforts et en si peu de temps. Maintenant, exécutons la partie avec des cubes. Idéal exactement Amman et exécuter Bash dessus. Obtenez le fichier Post Art Nemazee and Bingo. Le crochet a été exécuté avec succès. Le message est fort et clair. Eh bien, pas si fort, mais c'est tout à fait clair. Dans la prochaine conférence, nous allons voir comment remplacer Convoquer une commande CMD. 67. Démo : Ajouter les commandes et les arguments du conteneur aux pods: Commençons cette démo en attendant une liste des pièces disponibles. En utilisant des cubes, vous obtiendrez des pièces. Nous n'avons qu'une partie du cycle de vie de la pièce, qui est de la démo précédente, parce que nous avons supprimé l'impératif et déclaré une partie. Ne vous inquiétez pas, nous allons voir comment soulager les pièces aussi. Mais pour l'instant, allons à la commande de fichier pard Darty Amel. Le fichier yamma semble assez similaire par rapport aux deux précédentes démos. Concentrons-nous sur les changements ici. Tout d'abord, les noms de la pièce et du conteneur ont changé. La pièce est nommée pièce de trait d'union CMD et le conteneur est nommé trait d'union CMD. Le conteneur a du sens. Ensuite, dans le champ de spécification après le nom et l'image hors du conteneur, nous avons le champ Common Field Command indique la commande de point d'entrée dans l'image docker. Si nous ne fournissons aucune commande ou valeur au champ de commande, Kubernetes utilise le point d'entrée par défaut de l'image Docker, mais nous pouvons le changer en fournissant la commande et ses arguments. Au lieu de garder le conteneur en exécutant une boucle hors bash Common. Nous lui demandons juste d'imprimer quelques variables d'environnement, donc la commande est sprint envy et ses arguments sont hôtes. Nom et kubernetes soulignent pauvre. Vous remarquerez peut-être que la commande et les arguments sont écrits entre deux virgules inversées et leur encapsulé par des crochets. Les arguments sont séparés par une virgule. Sortons du fichier et séparons. Puis des cubes. Ça va créer un trait d' union, pas le Yémen. La pièce aurait dû être créée. Essayons-le avec des cubes. Idiome. Obtenez des pièces. On y va. Mais vérifiez. Cette pièce n'est pas en cours d'exécution. Il est dans l'état terminé. La raison en est que nous n'avons pas fourni de commande de boucle sans fin comme Bash. Nous venons de lui demander d'imprimer quelques variables d'environnement, ce qu'il a fait avec succès en quelques millisecondes. Peut-être que oui. Au moment où nous exécutons le Command Cube City obtiendra des pièces. Le conteneur avait déjà terminé sa tâche, et la pièce était en état d'achèvement. Nous allons avoir une description de cette partie en utilisant des cubes. Idéal. Décrivez la partie CMD ici est notre description longue et bien structurée. Je suis sûr que vous pouvez comprendre la plupart des parties facilement, alors passons directement à la section des commandes et arguments. La commande est la même que ce que nous avions fourni, qui est sprint envie et ses arguments sont nom d'hôte et kubernetes sport. Maintenant, si on saute les événements des orteils, on peut aussi voir que le conteneur avait commencé il y a 35 secondes, alors qu'il s'est terminé il y a 34 secondes. Donc, en une seconde, toutes les commandes ont été exécutées. Nous pouvons également vérifier cela en regardant le journal de la partie simplement juste cubes, idéologues. Et puis le pardon, qui est CMD tiret partie. Et voilà. Notre nom d'hôte est imprimé sur Kubernetes Sport. 68. Démo : Configurer les variables d'environnement de conteneur avec des pods: Bonjour, tout le monde. Comme d'habitude, commençons ça. Le déménagement avec une liste des pièces disponibles, nous avons aidé les parties CMD et Life Seaway ports. L' un d'eux est terminé et l'autre est toujours en cours d'exécution. Maintenant, ouvrons le trait d'union de l'environnement de fichier yamma, partie Gargamel avec nano. Encore une fois, la famille est assez similaire aux démos précédentes, donc nous devrions nous concentrer sur les changements Les noms hors partie et conteneur R E n v tiret partie et e n'dri tiret conteneur. Comme notre convention de dénomination habituelle. Si vous jetez un oeil à l'image, nous n'avons pas simplement fourni un nom avec étiquette. Nous avons tenu toute la partie sur vous R l hors de l'image. Nous avons fait cela parce que cette fois nous ne voulons pas utiliser les médecins Registre d'image. Nous voulons utiliser Google Container Registry, qui est un autre endroit pour trouver des images de conteneur. Dans cette démo, nous utilisons un des exemples d'images Google appelé noeud. Bonjour. Cette note bonjour est plus ou moins comme bonjour monde hors industrie de l'image Docker et celui-ci est construit sur l'image de base Alpine. Cela dit, passons à la crème de cette démo, qui est E n V. R E N V Field, qui est utilisé pour fournir des variables d'environnement au conteneur. Si le conteneur n'a pas les variables d'environnement fournies dans ce champ, il l'ajoute avec ses variables d'environnement par défaut. Et si la menthe non éclairée de valeur avec le même nom a déjà été configurée par l' image docker , le conteneur en cours d'exécution le remplace par les valeurs que nous fournissons. Prenons donc cet exemple. Disons que nous avons une image docker et que nous avons fourni les variables d'environnement E B et C égale B Q et R respectivement. Si nous fournissons les mêmes variables d'environnement avec des valeurs différentes en utilisant le fichier Kubernetes Yamil comme Docker, seul le conteneur en cours d'exécution reflétera la valeur modifiée, ce qui signifie que les valeurs refléteront sur une copie de la et l'image d'origine restera inchangée. Donc, les variables d'environnement d'images originales seraient toujours ABC égal à becue et ne sont qu'une copie off. Il l'aura comme un B C égal S de et vous ou tout ce que nous fournissons. Dans ce cas, nous fournissons à l'environnement, des objets de valeur, partie salutation et une partie favorable, et leurs valeurs sont adaptées au nom aussi. Bar saluant son accueil et une partie d'adieu. ISS. On ne veut pas que tu ailles avec son chapeau. Smiley. Qui a dit, Sauvegardons et sortons, je vais c'est créer la pièce. Utilisation de cubes Idéal créer un trait d'union f commun. Voyons s'il est en cours d'exécution ou non. La partie semble fonctionner. Maintenant. Nous allons obtenir une description de cette partie en utilisant cube CDL décrire pard, suivi de son nom, E N V trait d'union. Une partie ici est la description de cette partie. Passons tout de suite à la section de l'environnement et nous aidons à des entrées dans ce message d'accueil et une partie adieu exactement ceux que nous avons mis en place. Effacons-le et exécutons cette partie en utilisant le tiret exact CTL I t suivi du nom de la pièce , suivi de la commande, que nous voulons exécuter. Vous remarquerez peut-être que le disque d'un homme est assez similaire à ce que le médecin a prévu pour exécuter un conteneur ainsi. Maintenant, nous sommes dans le répertoire racine pour conteneur. Apportons nos variables d'environnement et voilà. Nous avons une longue liste de variables d'environnement. Cela répond à plus d'une question. Tout d'abord, qu'en est-il des variables d'environnement que nous avions bien mis en place ici, ils sont tous les deux versés. Salutations et adieu au port sont présents. Et deuxièmement, quand nous avons exécuté le conteneur, pourquoi avons-nous pris racine à l'envie ? Partie pas l'envie conteneur ? Eh bien, la raison est que nous sommes toujours dans le répertoire racine du conteneur lui-même. Mais le nom d'hôte est E N V. Part, que vous pouvez voir dans cet environnement. Variable. Avec cela hors du chemin, sortons de ce conteneur et revenons à notre domination. 69. Étiquettes, sélecteurs et espaces de noms: Cela peut être le début lorsque vous commencez à sentir que Kubernetes creuse plus profondément dans orchestration par rapport à l'essaim, disons que nous avons quatre parties nommées Think rose clair, bleu foncé clair et bleu foncé. Nous pouvons les étiqueter pour fournir un regroupement logique des pièces ici. Les parties rose clair et rose foncé sont étiquetées B pour rose, et le reste sur l'étiquette B pour l'étiquette bleue est attaque. Il s'agit d'une méta-donnée, qui nous permet de regrouper ou de séparer logiquement pour un tri efficace. Les étiquettes sont également disponibles chez le médecin, mais elles sont à peu près inutiles si nous ne pouvons pas faire grand-chose avec elles pour compléter les fonctionnalités de Labour. Nous avons des sélecteurs. Nous pouvons faire appel à des électeurs pour rechercher des parties ayant un ou plusieurs foies particuliers. Ici, nous voulons des barres avec l'étiquette P. Donc tout ce que nous obtenons un deux sur les parties roses. Nous pouvons jouer avec des étiquettes et des sélecteurs pour toutes sortes de choses. Vous pouvez également, comment les étiquettes plus élaborées et les sélecteurs pour choisir une pièce particulière, comme la foudre. Non, vous vous demandez peut-être que nous pouvons avoir deux pièces avec les mêmes étiquettes, mais pouvons-nous aider à des pièces avec le même nom ? La réponse directe est non. Mais il y a un attrait que nous pouvons aider à différents espaces de noms, Tout comme la programmation nommée Espèces dans les communautés est aussi un moyen d'isoler Pardes. Logiquement ou volontiers. Cela signifie que nous pouvons avoir deux parties avec le même nom dans deux espaces de noms différents dans la prochaine Demo va fuir avec des étiquettes et des sélecteurs. 70. Démo : Travailler avec Namespaces: sont un mécanisme de partition logique des communautés, qui permet à son cluster d'être utilisé par plusieurs utilisateurs, thèmes hors utilisateurs ou un seul utilisateur avec plusieurs applications sans soucis ou préoccupations hors interactions indésirables. Chaque équipe d'utilisateurs hors utilisateur sur l'application peut exister dans son espace de nom, isolé de tous les autres utilisateurs hors du cluster et fonctionnant comme s'il s'agissait du seul utilisateur hors leur cluster. Avec cela hors du chemin, voyons combien d'espaces de noms avons-nous sur notre cluster ? Il semble que nous avons aidé trois noms base à ce moment de repos. Eh bien, aucun de ces espaces de noms n'est créé par nous. Ce sont l'espace de nom est fourni par kubernetes, et si vous regardez leur âge, tous sont debout pendant 80 minutes. C' est à peu près le moment où nous avons commencé à bootstrapped ou cluster. Nous avons par défaut Q. Public sur le système Cube nommé Espaces. Le fort, comme son nom l'indique, est que l'espace du nom du fort pour chaque partie que nous créons dans le système Kubernetes Cube est utilisé par les communautés elles-mêmes. Isolez donc ses pièces par défaut. R Q. espaces de nom public qui site l'une de nos commandes les plus standard juste cubes. Il aura des pièces et on aura ce qu'on attendait. Trois parties, que nous avions fait dans les démos précédentes. Maintenant, ajoutons une torsion à cela. Fournissez un drapeau appelé tous les espaces de noms et voyez si nous obtenons d'autres parties. Et nous avons une longue liste de pièces. qui veut dire que pendant tout ce temps, Kubernetes n'avait pas seulement 12 ou 3 ans, mais ce n'était pas toutes les parties. Tout d'abord, voyons les parties dans l'espace de nom par défaut. Ils sont les mêmes, que nous avions créé CMD envie et la vie. Vous voyez, je vois des parties, ce qui signifie que les parties régionales que nous avions créées sont tombées directement dans l'espace 14, et toutes les autres parties sont dans l'espace de nom du système cube. Ces pièces sont des implémentations de différents blocs de l'architecture kubernetes. Si vous vous souvenez, nous avons déjà étudié huit CD Cube AP un gestionnaire de contrôleur Cube Cubes Devrait Ula et Q Proxy. Nous avions également installé Real Net, qui est le réseau de pièce pour Kubernetes Cluster, et tous ces bardes fonctionnent sous l'espace de nom système cube, donc ils sont isolés de tout ce que nous faisons sur notre espace de noms par défaut. Créons un nouveau nom, Espace avec Cube. CTL. Créer un espace de nom, suivi du nom de l'espace de nom que nous voulons créer, qui dans ce cas, est mon espace de nom de tiret. Je connais des noms, des pièces créées. Non. Créons la même partie impérative que nous avions créée dans notre première démo, mais cette fois mettez-la dans mon espace de nom au lieu de par défaut avec tiret et flak. Allons chercher nos parts. Comme vous pouvez le voir dans la liste des pièces par défaut, l'espace de nom est toujours inchangé. Nous avons les mêmes trois anciennes parties sur Impérative Part n'est nulle part visible. Prenons la partie de mon espace de nom et on y va. Nous avons notre partie impérative en cours d'exécution pendant près de 20 secondes, et nous pouvons toujours la vérifier en listant les parties de tous les espaces de noms, consultez la dernière entrée. Il est impératif partie 71. Démo : Gestion de Pod Resource: Lorsque vous spécifiez séparément, vous pouvez éventuellement spécifier home au CPU et mémoire ou ram chaque conteneur a besoin. Lorsque des conteneurs contenaient des demandes de ressources spécifiaient la remise. Ula peut prendre de meilleures décisions sur les notes sur lesquelles placer les pièces, puis les conteneurs ont leurs limites. Spécifié. Les conteneurs peuvent s'assurer que les notes ne se bloquent pas. Commençons par obtenir une liste des pièces. Ouvrons le fichier, la partie du trait d'union source, pas Gammel. Et on y va. Le fichier semble plus grand que celui d'Emma que nous avons utilisé, mais ne vous inquiétez pas. Au lieu de cela, nous aidons à nous contenir. Cette fois, l'un est ma base de données SQL Can Dana, tandis que l'autre est avant et conteneur WordPress. Le nom du parti est avant et avant tout, doit passer par les choses évidentes comme le nom des conteneurs, les images utilisées, variables d' environnement mises en place et les métadonnées hors du corps. Une fois que tous ces éléments sont hors du chemin, nous avons la ressource est sentir dans les deux hors des conteneurs. Ce champ est utilisé pour fournir des limites hors conteneur pauvre en ressources et requête par conteneur ressources sont la mémoire et le processeur. Comme vous pouvez le voir, nous avons fourni assez peu de ressources à la fois hors des conteneurs, où la limite de ressources est de 1 28 mégaoctets sur la limite de demande est de seulement 64 mégaoctets. Voyons ce qui se passe lorsque nous essayons de créer une telle pièce. Sauvegardons un exact ce fichier. Comme d'habitude, Run Cube CDL créer un trait d'union F commun, suivi du nom fin sur la pièce est créé. Listons les parties. Il semble que la pièce soit toujours dans l'état de création de conteneur. Donnons-lui un peu de temps. Eh bien, il semble que les conteneurs sont encore en cours de création. Ou, en d'autres termes, ils n'ont pas encore été créés. Pourquoi c'est ça ? Jetons un coup d'oeil à la description un peu. Très bien, donc la pièce n'est pas prête car les conteneurs sont toujours en cours de création. Comme vous pouvez le voir, notre part est de respecter strictement les limites de ressources. Listons à nouveau les pièces. Allez. Un seul conteneur sur deux est prêt, et la pièce est en boucle Crash. Retirez l'état. Voyons voir. Quel est le problème ici quand nous Don Cube Citadel décrit commande à nouveau, nous pouvons clairement voir que l'état hors conteneur de base de données est terminé, et la raison en est ou M culpabilité, qui se distingue, hors mémoire a tué le dépannage. Ce n'est pas très difficile. Il suggère clairement que les limites d'emplacement des ressources que nous avons fournies ne sont tout simplement pas suffisantes pour que ce conteneur fonctionne. Mais c'est d'un autre côté, le conteneur WordPress fonctionne correctement. Même quand nous regardons les événements, tous les Aaron concernant les conteneurs WordPress semble aider sur bien. Mais au cas où hors de mon conteneur de base de données de suite, l'image a été tirée avec succès. Mais le conteneur n'a pas pu démarrer parce que la ressource est tout simplement pas suffisant. Et si vous remarquez ces deux conteneurs un bouclier sur la même note parce qu'ils sont dans la même partie. Donc, quand nous apprendrons plus d'un conteneur à part, ils seront boucliers sur la même note. Mais ce n'est pas distraire de notre objectif principal. Nous devons trouver un moyen de nous assurer que ces conteneurs fonctionnent bien sur place. Pour l'instant, supprimons notre avant et notre pièce à l'aide de la commande Cube CTL Delete Parts, suivi du nom de la pièce. Il peut y avoir une ou plusieurs parties que nous voulons supprimer, mais dans ce cas, nous voulons juste relier front end, et on semble le croire. Revenons au fichier gamma hors de l'avant et de la pièce et augmentez les limites de ressources pour nos conteneurs au lieu de 128 Mo. On le change à un gigaoctet. Et pendant que nous y sommes, faisons la même chose avec WordPress Container aussi bien. Cela a scellé le fichier et quitter Nano, et essayons de créer à nouveau la pièce. Et quand nous listons le conseil Mullah il n'a même pas pris 11 secondes et sont partie avec ses deux conteneurs est en état de marche. Lorsque nous le décrivons en utilisant Cube City et décrivons, nous pouvons clairement voir que les limites de ressources ont changé. Toute la preuve concernant les deux conteneurs de notre part s'est déroulée sans heurt. 72. Contrôles Kubernetes |, concepteurs et types Kubernetes: sont un type hors objets de charge de travail tout comme des pièces. Le contrôleur agit comme un orteil parent ou un orteil de surveillance, et il gère le comportement des pièces de certaines manières. manière dont le contrôleur traitera la pièce dépend du contrôleur qu'il s'agit, par exemple, ou des réplicas qui créeront plusieurs réplicas à partir d'une pièce en cours d'exécution. Un contrôleur de déploiement peut effectuer des mises à jour de réplication hors exposition au service sur l'état des pièces . ensembles complets organiseront l'exécution de l'ordre pour les pièces et veilleront à ce qu'aucune des pièces ne casse le cube. Alors que les travaux créeront des pièces qui se termineront après l'exécution dans la prochaine, conférences fonctionneront avec différents contrôleurs et les comprendront. 73. Introduction aux Replicasets: Comprenons les objets de contrôle. Un par un, nous commencerons par les jeux de répliques, les jeux de répliques sur une orchestration plus élevée que les pièces, ce qui signifie qu'ils superviseront les pièces. Le but est assez évident. Comme mentionné précédemment. Ces parties de vent sont qu'ils ont géré le nombre de répliques hors de part. Nous pouvons augmenter ou diminuer le nombre de répliques. À part. À l'aide de pièces de jeu de réplicas sont donnés des étiquettes et des réplicas. Il est donné des sélecteurs pour garder la trace des pièces à superviser. Il est également possible de fournir une définition de pièce avec des jeux de réplicas. Cela signifierait que la création de ces pièces sera également gérée par un jeu de réplicas. Si vous le faites, vous devez fournir les spécifications de pièce en tant que modèle de pièce au fichier Yemen hors jeu de réplicas. Bien qu'ils soient très utiles, pratique standard n'implique pas d'utiliser des jeux de réplicas directement là utilisés sous supervision hors déploiement, ce que nous apprendrons assez tôt. 74. Démo : travailler avec des Replicasets: Commençons comme d'habitude en obtenant une liste des pièces. Ce sont les parties de notre section précédente. Puisque nous n'en avons pas besoin pour l'instant, supprimons tous et nous revenons à la case 1. Ouvrons notre dossier. Réplique tiret, partie Dottie Amel Utilisation Nano. Il s'agit d'un fichier Yemen hors jeux de répliques. Passons ça un par un. Tout d'abord, tout ce que la FDA a empiré. Et si vous remarquez ou epi, une version est différente de ce que nous utilisions avec les pièces. Pièces utilisées pour avoir de l'épi. Une version que nous avons gagné où ses jeux de répliques utilisent FDA était slash application re un. Ensuite, nous aidons genre. Évidemment, puisque nous créons des jeux de répliques, notre type d'objet est, dit Replica. Suivant est les métadonnées. Nous avons le nom et les étiquettes étaient nommage ou réplique ensemble comme des répliques que tiret d'or et les étiquettes sont apt livre d'or et pneu Front end les étiquettes s'appliquent à l'ensemble de réplique lui-même. Cela ne signifie pas que les pièces créées sous le Sablikova dit portera sur la même étiquette. Ensuite, nous avons le champ de spécification, tout comme à part le fichier Zamel. Même en cas de réplique dit Speck est le domaine le plus important. Notre première spécification est répliques ou nombre de répliques, qui dans ce cas est trois, qui signifie que cette réplique dit, va créer trois parties. Si vous fournissez cinq pièces, il créera cinq pièces et si vous fournissez 50, il créera 50 pièces. Si vous êtes des nœuds, avoir suffisamment de ressources est le prochain. Nous avons des sélecteurs. sélecteurs sont des mécanismes utilisés par Replica dit pour déterminer quelles pièces tomberont sous l' actif séparé. Nous avons deux façons de fournir les sélecteurs, c' est-à-dire les étiquettes de correspondance ou les expressions de correspondance. Sous les étiquettes de correspondance, nous avons fourni une valeur clé avant de pneu, ce qui signifie que chaque pièce ayant l'étiquette fatiguée est égale à l'extrémité avant tombe directement sous le jeu de répliques roit qu'ils sont sous le même espace de nom et sont une correspondance expression Selector dit que les parties ayant la clé Tyr et sa valeur étant fronton tomberont dans le CEP. LICA a dit. Essentiellement, ces deux sélecteurs font la même chose dans ce Yamil, mais nous venons de les écrire pour que vous puissiez savoir que la terreur deux façons de mentionner vos sélecteurs. Ensuite, nous avons aidé modèle. Ce modèle est un modèle de pièces, tout comme nous l'avons discuté plus tôt dans la théorie fournira des données sur les pièces, qui seront créés sous cassette de discipline. Notre réplique a dit. Nous allons utiliser ce modèle pour créer le nombre de pièces mentionnées sous l' aspect réplica . Commençons par des parties mentales plus tard. Nous n'avons pas fourni de nom sur les noms ici, donc Replica set sera le titre des parties par lui-même. Mais nous avons des étiquettes, et elles sont tout à fait essentielles. Et la raison est que les étiquettes s'assureront que les pièces correspondent à la condition du sélecteur de jeux de réplicas. Ensuite, nous avons des spécifications de pièces où nous mentionnons directement les conteneurs. Le nom du conteneur sera des lecteurs PHP, et l'image sera la version frontale du livre d'or trois du référentiel de conteneur de Google . Nous avons également mentionné les informations sur les ports, ce qui signifie que si nous exposons ces conteneurs conteneurs, le port 80 sera mappé avec hôtes. Ex épouses ce port. Maintenant, sauvegardons et quittons ce fichier. Il est temps de créer notre jeu de réplicas en utilisant la commande Cube CTL create tiret F. Nous créons ou répliquons ensemble Impératif Lee, mais vous pouvez le créer, déclarer l'Italie aussi. Maintenant, nous allons voir combien de pièces avons-nous en utilisant des cubes Ideal get pièces. Et voilà. Nous avons créé trois parties simultanément à l'aide d'un jeu de répliques. Les noms de pièces sont donnés automatiquement par les communautés, et tous ont été créés il y a 6,5 minutes. Maintenant, examinons la description de l'une des pièces pour voir si les pièces de la pièce sont différentes de celles que nous avions créées à l'aide de fichiers Yamil individuels, commençant par l'espace nom et nom. Nous n'avons pas beaucoup de différences, à part le fait que nous avons un nouveau champ cette fois appelé Controlled par ce qui signifie que ces parties ont un objet parent qui les contrôle. Et dans ce cas, cet objet est réplique jeu livre d'or, que nous venons de créer. En dehors de cela, plupart de la description est similaire à une partie régulière, tout comme la pornographie. Nous pouvons également lister nos jeux de répliques en utilisant Cube voir affaire obtenir RS RS est l'abréviation jeux de répliques, et là nous allons. Nous avons un jeu de réplique, et il dit que cette réplique a trois parties désirées, et il a trois parties actuellement prêtes, ce qui signifie que l'ensemble de réplique fonctionne parfaitement. Maintenant, nous allons vérifier la description de l'ensemble réplique livre d'or en utilisant cube CTL Paris réplique dit livre d'or. Jusqu' à présent, nous n'avons utilisé que des cubes. Il va décrire la commande avec des parties, mais maintenant il donne un format général de cette commande. Donc Gipsy Deal décrire est suivi par le type de l'objet que nous voulons décrire et suivi par le nom de l'objet, qui dans ce cas est une réplique, ledit livre d'or. La description est plus courte par rapport à la pièce. Nous avons tenu générer des informations telles que les métadonnées, la description du tableau d'état de la pièce et trois événements où chacun de l'événement indique la création d' une sur les trois parties de jeu de réplicas. En fait, il y a un autre aspect à l'ensemble de répliques. Essayons de supprimer une des trois parties que nous avons ici en utilisant cube CDL supprimer des parties, suivi du nom de cette partie et des corps supprimés. Si nous avons essayé de trouver une liste de pièces, maintenant, cela aidera-t-il deux ou trois parties ? Voyons bien, il a trois parties, celle que nous avions supprimée. Il est parti pour toujours, mais sont des réplicas avait filé une autre partie avec un nouveau nom mais la même configuration, et vous pouvez voir que la partie la plus récente gagne pendant 10 secondes. Cela signifie que même si les pièces qui sont sous cette réplique dit Die crash sont supprimés répliques, il va juste faire tourner de nouvelles pièces par lui-même, ce qui nous semble beaucoup d'efforts. 75. Introduction aux déploiements: encore plus élevés que les jeux de réplicas en termes de superviseur Dans la nature, cela signifie que les déploiements sont capables de créer leurs propres jeux de réplicas, ce qui à son tour créera les pièces en conséquence. Les déploiements sont une sorte de tous les objets, qui peuvent être utilisés pour beaucoup de choses, comme la création de pièces, gestion des réplicas, roulement des mises à jour sur les pièces, l'exposition , etc. tout comme les jeux de répliques. Ils utilisent également des étiquettes et des sélecteurs pour l'identification des ports. À l'heure actuelle, vous avez peut-être commencé à réaliser que les étiquettes sont bien plus que de simples modérateurs pour les pièces. Tous ces aspects font des déploiements un choix parfait pour héberger des applications sans état, où la création de pièces peut ne pas être si cruciale. Et comme mentionné à plusieurs reprises, ce sont les objets d'orchestration de conteneurs les plus utilisés dans Next Demo fonctionneront avec les déploiements. 76. Démo : travailler avec des déploiements: pour éviter toute confusion. Commençons par la liste des pièces par Running Cube. CDL Obtenir des pièces que nous aidons trois parties d'un jeu de réplicas précédent. Laissez-les être là où ils sont et ouvrons notre déploiement. Dossier Dottie Amel. Commençons par le haut. Tout comme les jeux de répliques. Les déploiements utilisent également epi, une version ab slash que nous avons sur leur genre. Le type d'objet est évidemment un déploiement. Nous lui avons donné le nom hors tiret de réponse, Moteur X. Allons dans le champ Spécifications utilisaient la stratégie d'étiquette de correspondance comme sélecteurs, et nous allons chercher des pièces avec étiquette. L' application est égale au moteur X. déploiements sont des objets d'orchestration de niveau supérieur par rapport aux jeux de réplicas. Donc, si nous créons un déploiement, un déploiement lui-même peut être désactivé, créant le jeu de réplicas dont il a besoin. En fournissant un champ réplicas. Nous pouvons demander à la réplique résultante de créer un certain nombre de pièces. Non, allons au modèle de fête et remplissons les données. Nous fournirons l'application étiquettes égale le moteur X remorquage. Évitez les conflits et nous fournirons les informations de conteneur qui comprennent le nom, qui est déployé conteneur et l'image de conteneur, qui est entre autres, 1.7 point neuf, nous sommes de retour à l'utilisation d'images de médecins parce que, eh bien, ils sont simplement simples, aussi. Juste après avoir mentionné le tableau, sauvegardons et quittons ce fichier comme d'habitude. C' est vrai. Cubes idéales. Créer un trait d'union, suivi du nom off Le fichier, qui est un mammifère point de déploiement sur aucun déploiement est créé. Regardons une liste de pièces, et nous avons aidé à de nouvelles pièces ici. Les deux parties supérieures sur le moteur X pièces créées par le déploiement tiret déployé Engine X First off tomber en dehors de l'étiquette que nous avons fournie, qui est apt égal au moteur X. La pièce contient une autre étiquette, qui est pour le modèle de pièce qu'il utilise. Cette étiquette a été fournie par kubernetes lui-même. Ensuite, nous avons aidé contrôlé par. Comme vous pouvez le voir, cette partie n'est pas directement contrôlée par un déploiement. Il est contrôlé par un jeu de réplicas, qui est contrôlé par le déploiement. Ensuite, nous aidons les détails du conteneur, y compris l'image, le nom , l'image, I D et l'état, qui est prêt. Nous avons également les événements normaux désactivés, les images étant tirées et le conteneur en cours de création etcetera. Décrivons ou terminons et décrivons ou déploiement. La description du déploiement fournit beaucoup de détails, à commencer par les plus évidents comme le nom, le nom, les espaces et les étiquettes. Nous avons une description sur le jeu de réplicas, qui indique que ce jeu de réplicas est censé garder deux parties en marche et en cours d'exécution. dessous de cela, nous avons le type de stratégie. Vous vous demandez peut-être quel type de stratégie bien nous parlons de stratégie de mise à jour hors déploiement. L' un des cas d'utilisation les plus connus en dehors des déploiements est sans le supprimer. Il avait le type de stratégie est mise à jour mobile. Si vous vous demandez ce que signifie la stratégie de mise à niveau, passez quelques étapes ci-dessous et nous avons tenu des mises à jour mobiles. Stratégie D jours il dit 25% max disponible et 25% max Recherche. Cela signifie que lorsque ce déploiement est mis à jour, seulement 25 % de réduction, ses pièces totales peuvent être indisponibles et que le cluster n'est autorisé à déployer que 25 % de réduction sur les pièces supplémentaires lors d'un saignement du déploiement Prenez cet exemple. C' est le déploiement comporte quatre parties, et nous essayons de le mettre à jour 10 25 % maximum. disponibilité signifie que le déploiement doit garder au moins trois pièces hors service et fonctionner tout le temps, et 25 % maximum. Surge signifie que le déploiement ne peut créer que cinq pièces au maximum. En bas. Nous avons des détails sur le modèle de pièce, ce qui est assez commun. Mais si vous allez même en dessous de cela, nous avons le nom du jeu de réplicas qui a été créé sous ce déploiement. Et si vous regardez les événements, un seul événement est directement lié au déploiement, qui est à l'échelle, la réplique dit Toe rest. Tous désactivés, les événements concernant les pièces et les conteneurs sont gérés par des jeux de réplicas, qui fonctionnaient sous le déploiement, ou par des pièces qui passent par des jeux de réplicas. 77. Introduction aux emplois: passer à partir des déploiements. On a des emplois. Vous avez peut-être deviné qu'il s'agit également d'unités de niveau supérieur à celui des pièces. Eh bien, parce que presque tous les contrôleurs sont plus élevés que les pièces pour les définir. travaux signifient simplement des pièces dont les conteneurs ne fonctionneront pas pour l'éternité une fois que le but est rempli. La sortie et les termes plus techniques les commandes fournies aux conteneurs sont limitées dans le temps et l'intégration. Une fois qu'ils sont exécutés, conteneur s'arrête gracieusement et donne la ressource est de retour à l'hôte. Si vous listez les pièces qui sont maintenues par les tâches, elles ne sont pas en cours d'exécution ne sera pas un gros problème. Ils resteront en état complet une fois la sortie du conteneur, et c'est tout à fait bien. Les tâches sont utilisées pour le traitement par lots ou en parallèle. grands emplois, qui sont des emplois répétitifs périodiques, sont utilisés pour des contrôles ou devraient donner lieu à des répétitions d'une certaine tâche. Des tâches comme la vérification des bases de données sont en attente École de football mise à jour toutes les cinq minutes, etcetera, et prochaine démo sera de travailler avec des emplois 78. Démo : Travailler avec des emplois: nous avons cinq parties des deux conférences précédentes. Ouvrons les jobs dot file Yamil En utilisant Nano, comme nous l'avons vu dans la théorie, les jobs sont exécutés à l'achèvement type des objets d'orchestration, qui signifie que la commande que nous fournissons sous les conteneurs ne sera pas seulement un commande de boucle sans fin En partant du haut, nous avons un AP différent. Une version comparée à un jeu de réplicas et au déploiement, qui est une barre oblique par lots que nous avons sur notre type d'objet est le nom de tâche off. Le travail est un vélo de travail que nous entendons nommer d'une certaine manière, parce que ce travail va imprimer la valeur par avec 2000 points décimaux aller plus loin , nous aidons à les séparer les lames où sous les conteneurs de champ spécic. Les détails comprennent un nom sur le conteneur, qui est travail peut Dina image, qui est les registres du médecin, image complète et commande. Dans cette commande. Nous sommes en train de faire une empreinte de script complète. La valeur désactivée par en 2000 décimales et un autre aspect ou une autre spécification Off the job est sa limite de retour. Puisque l'emploi est un organisme de type location d'achèvement, nous ne pouvons pas l'avoir pour toujours. Ce travail va essayer de vous assurer que la commande de ce conteneur fonctionne, mais si ce n'est pas le cas pour une raison quelconque, c'est le conteneur échoue. 10 Job va essayer de la nourriture. Tentatives répétitives de l'exécution du conteneur Après quatre tentatives. Si le conteneur n'est pas en cours d'exécution, le travail sera annulé et il sera alimenté. Cela dit, c' est même quitter le fichier. Créons le travail en utilisant des cubes. Idéal Créer un trait d'union F, et notre travail est créé. Vérifions-le en obtenant une liste de pièces. Et là, nous avons notre bipod de travail, qui a huit secondes. Si nous décrivons le conteneur, nous pouvons voir qu'il est contrôlé par le travail appelé Job par sur son statut est réussi, ce qui est différent des autres parties que nous avons vu récemment. Aller plus loin, nous pouvons également obtenir une liste des emplois, et le travail peut également être décrit à l'aide de Cubes et al. Emplois décrits. Job morsure, tout comme les objets d'orchestration réguliers ou le travail a également des champs de description comme le nom, le nom, l'étiquette des sélecteurs d'espace. Il a également les heures de début, heure et les temps de fin, heure et la durée de la tâche était en cours d'exécution. Enfin, nous avons tenu le statut des parties où une partie est réussie, qui était au-dessus de désir État et zéro ont échoué. Il n'y a qu'un seul événement hors création réussie de la pièce puisque nous avions utilisé l' orteil de commande . Amenez la valeur par Voyons voir si la sortie est disponible en utilisant les journaux de la partie créée par le travail exécuter les journaux Cdn Cube de commande suivi par le pardon et là nous allons essayer mémoriser cette valeur. 79. Introduction aux services et types de service: d' accord. Énorme clause de non-responsabilité. Puisque vous avez tous déjà étudié Docker essaim service sera un terme qui en sont déjà la famille. Mais les deux hors les services sont différents en cas de service essaim agi comme un déploiement où vous pouvez déclarer tous les objets souhaités et gérable les convertir en tâches. Mais ici, dans les communautés, les services ne sont que des objets de mise en réseau pour les pièces, puisque les deux formes de Joe's pour avoir une interprétation différente pour le même terme, il devient notre travail de ne pas se confondre, mais que en passant, fouillons profondément dans les services communautaires. Tout d'abord, les services sont aussi des objets tout comme des pièces ou des contrôleurs, mais ils relèvent de la catégorie de la connectivité pour comprendre le fonctionnement des services. Tenons aux parties factices bleu, foncé et rose foncé. Nous voulons que ces parties puissent parler Dr External Word ou simplement les uns aux autres. Ensuite, les services sont des objets de connectivité, qui en tant qu'empilent les configurations réseau, ce qui peut permettre aux pièces de communiquer comme les déploiements ou les jeux de réplicas. services utilisent également des étiquettes et des sélecteurs pour déterminer quelles pièces seront connectées à eux. Nos pièces comment l'étiquette DB NDP était. Notre service a un sélecteur à la recherche de D. B. Donc rose foncé ne sera pas affilié au service. La connectivité Dark Blues sera désormais gérée par ce service, et il peut potentiellement parler au monde extérieur aussi. Tu te souviens du mot potentiellement parler ? Pas nécessairement. Expliquons. Les services forcés à des points vous sont déjà familiers, mais ils sont importants à énumérer. Vous pourriez être surpris que Kubernetes utilise lui-même ces services pour effectuer toutes sortes de communications en cluster et globales. Donc c'est généralement le cluster de fierté je pito chaque partie qui lui permet de parler au sein du cluster . Mais si nous choisissons de nous abstenir d'une telle pratique, nous pouvons créer un service sans tête. Enfin, Kubernetes fournit également une prise en charge native pour plusieurs services et équilibreurs de charge dans le cloud. Nous avons récemment mentionné que les services peuvent faire des pièces potentiellement parler au monde extérieur, mais pourquoi potentiellement bien avec le service est également la façon dont les types en premier sont le cluster I P, qui expose uniquement le service au sein du cluster. Cela signifie que le monde extérieur peut y accéder, mais les parties du cluster connectées au service peuvent parler entre elles. deuxième type est Northport, qui expose le service sur l'oculaire externe de tous les Nords hors du cluster, y compris le maître. Cela créera également par défaut un cluster I p où le port Nord sera douté éventuellement si nous devons trouver un équilibreur de charge roided cloud, Nous pouvons utiliser le service de type équilibreur de charge qui n'expose pas seulement toutes les notes, mais aussi fiers oculaire externe dédié aux pièces connectées au service. Et enfin, nous avons EEM externe qui nous permet d'utiliser l'adresse DNS pour communiquer avec les pièces connectées au service. Dans la prochaine conférence, nous examinerons les services de type E et Northport, tandis que nous visiterons les équilibreurs de charge lorsque nous ne faisons pas de communautés sur une fourniture de cloud géré. 80. Démo : Travailler avec des services ClusterIP: après avoir effectué la dilatation en cascade dans la dernière section ou cluster semble être assez propre et propre. Nous n'avons pas de pièces, pas de jeux de réplicas, pas de déploiements ne sont pas des travaux qui persistent avec ce qui dit Ouvrons le fichier. Déployer le moteur Suivant rt Amell Il s'agit d'un fichier Gamel régulier pour un déploiement appelé Déployer Tiphen Engine X, qui va exécuter un couple de conteneurs avec Inger image suivante. N' allons pas trop loin là-dedans parce que je suis presque sûr que vous le comprenez déjà maintenant et quittez le maintenant Il est ouvert. Donc extorsion moteur de trait d'union. Jahmal, c'est quelque chose de nouveau. Ceci est le fichier du Yémen sur un service communautaire comme toujours, à partir du haut, nous aidons la version du FBI tout comme la réplique set pour pard utilisaient une version PC Nous avons gagné. Le type d'objet est service, donc son nom est tiret de service dans la génétique et son étiquette est exécutée égale à mon moteur. ICS va de l'avant avec les spécifications hors service. Nous avons des informations sur les ports. Les informations sur le port suggèrent que le port 80 des conteneurs est censé être exposé à l'aide de ce service. Et enfin, nous avons sélecteur, comme nous l'avons vu dans la théorie, le service utilisera l'orteil sélecteur identifier quels bardes à exposer. Et ici, le sélecteur est exécuté est égal à mon moteur X, qui se trouve également être l'étiquette des pièces créées par notre déploiement. Sauvegardons une sortie de ce fichier. Nous allons créer à la fois notre déploiement et le service ou le déploiement est prêt dans les deux ou les pièces sont en cours d'exécution. Maintenant, nous allons obtenir une liste de nos services. Nous avons aidé à des services qui traînaient ici. L' un est créé par kubernetes lui-même et l'autre lui-même. Moteur X, qui est créé par nous il y a presque 25 secondes. Si vous remarquez le type de bateau hors des services est Lester I. P. Et si vous vous souvenez, cluster I P permet aux conteneurs de parler au sein du cluster, ce qui signifie que le moteur X pays nous off. Aussi le déploiement suivant moteur sont exposés dans le cluster sur le port 80 et nous accédons aux services communautaires dans le cluster en utilisant le port 4 43 Décrivrons sur le service en utilisant cubes et al description s que nous voyons, qui est l'abréviation hors services. Donc Engine X, qui est le nom du service, la description est assez courte. Nous avons des informations de base comme le nom, les noms, annotation d'étiquette basée et le sélecteur, qui est exécuté est égal à mon moteur X. Ensuite, nous avons aidé un type hors du service, qui est bluster i p. Suivant nous aidons Target Board, qui est 80 sur les protocoles TCP, et nous avons également des points de terminaison pour nos deux conteneurs. Si vous vous en souvenez, Dr Sessions et points sont le mécanisme permettant d'activer la communication avec les conteneurs docker. Nous avons dit que nos conteneurs sont accessibles dans le cluster sur nos conteneurs sont exposés dans le cluster, ce qui signifie que la page d'accueil hors moteur prochain serveur Web devrait être hébergé sur ces pois oculaires, mais la portée devrait être limitée à notre grappe. Eh bien, essayons ma fille de course commande pour la charge par http je p off notre service, suivi par un Kahlan et le port, qui est 80. Et on y va. Il s'agit de deux format html hors moteur. Page d'accueil des serveurs Web suivant, ce qui signifie que notre service est opérationnel 81. Démo : Travailler avec des services NodePort: Nous n'avons pas besoin de créer un déploiement séparé pour cette démo. Nous allons simplement utiliser celui que nous avons créé dans la démo précédente. Laissons la liste une fois ou le déploiement est déployé Engine X, qui a deux réplicas hors réseau du moteur X pour fonctionner avec le service Northport. abord, supprimons le service que nous avons créé précédemment, qui est si le moteur X était un cluster. Je serais du genre de service. Maintenant, ouvrons l'auto-blessure à côté. Encore Thiemann. Comme vous pouvez le voir, il est différent de ce qu'il avait l'habitude de ressembler dans la démo précédente genre epi A. Était pas métadonnées, etcetera artiste semblent. Mais le type de service cette fois est Northport pour http. Nous avons fourni le port 8080 Alors que pour https, nous avons fourni le port 4 43 Il a le même sélecteur que précédent. Une course est égale à mon moteur X. Disons que le fichier et quittez-le. Créer le service en utilisant le trait d'union CTL cube f créer et nos services créés. Lorsque nous obtenons une liste de nos services, nous aidons. Donc le moteur X, qui a été créé il ya presque 10 secondes et cette fois, il est un type de service de mauvaise note . Le champ des ports indique que conteneur sport 8080 et 4 43 sur. Exposé au port 30 99 32105 respectivement pour les connexions http et https. La Note. Service portuaire en tant que point d'entrée externe. Demande entrante pour votre application. Le tableau Affecter des notes. Il est exposé publiquement dans le proxy de la file d'attente, déclenche chaque travailleur au nord du cluster. Cela signifie que notre service donc Engine X est en direct sur i p externe faciliter tout le nord de quatre clusters, et il a également un cluster I P Service créé pour lui-même afin que les conteneurs puissent parler entre eux dans le cluster ainsi. En utilisant cela, I p Lorsque nous décrivons le service, vous pouvez voir qu'en dehors du port et de la carte cible, nous avons également de nouvelles informations, qui est Northport. Et comme nous avons exposé les ports de notre pièce ou de notre conteneur, nous avons aidé à différents ports Northport ou public exposés sur nos machines hôtes. La raison en est lorsque nous exposons notre application en créant un service communautaire hors type Northport, un port de note dans la plage de 30 000 à 32 767 et une adresse de cluster i P interne est affectée au test de service. Il ne laisse pas tomber l'extérieur i p off une de toutes les notes prenaient note. Un. Ici, qui est-ce que je suis ? B est 35.200 dollars. 215 pas 1 39 Fille c'est comme la dernière fois. Mais cette fois, au lieu d'utiliser le cluster, je serais Nous utilisons l'AP externe hors de notre note, et voilà. Nous obtenons la page de bienvenue sur le serveur Web du moteur X. Vous pouvez également l'essayer sur un navigateur Web, et il sert dans la génétique, qui signifie que non seulement à partir de cette instance Artists navigateur Web à partir de n'importe quel navigateur Web dans le monde, vous pouvez utiliser la combinaison hors de l'externe I p au large de votre Nord et du port exposé. Et ce que vous obtiendrez, c'est le contenu que vous hébergez sur votre serveur Web. Donc, nous avons enfin exposé ou un serveur Web à l'échelle mondiale 82. Introduction au stockage dans Kubernetes: tout d'abord, les objets de stockage ne sont qu'un autre type d' objets et l'idée derrière les objets de stockage est également similaire à celle off plus sombre utilisé pour créer des informations importantes , qui est créé pendant l'exécution hors des conteneurs. Alors vous vous demandez peut-être, Pourquoi devrions-nous étudier à nouveau le stockage ? Eh bien, le docteur avait quatre types de provisions de stockage, les volumes, tempérament, les fixations de fess et les prises tierces parties. Kubernetes est quelque peu différent, plus de prendre en charge la création de volume sur l'hôte lui-même, il prend en charge les blocs élastiques AWS, supports orteils, disque Azure et comme son plan Google Cloud absolu. Il a pris en charge les piles ouvertes pour prendre en charge la SVM. Leur support de stockage OS Wald prend en charge les travaux de bateau. La liste est encore plus grande que ça hors cours. Nous n'avons pas besoin d'apprendre chacun de ces options juste la disponibilité hors. Tant d'options est assez hors une raison pour apprendre le travail sur un objet de stockage binaire. Et ce n'était qu'à peu près des volumes persistants. Kubernetes a également des volumes temporaires et des volumes projetés. En dehors de cette énorme disponibilité hors options, il y a aussi une autre différence clé. Si vous vous souvenez de la nature hors stockage à Docker, ça s'est passé quelque chose comme ça. conteneurs génèrent des applications de fil de données, les volumes stockés les données comme une sauvegarde, et lorsque nous supprimons le conteneur, le volume resterait toujours tel qu'il waas. Au fil du temps, nous pouvons avoir trop de volumes pendants, ce qui peut nous envoyer en manque de stockage ou des factures indésirables. En fin de compte, nous aidons à les supprimer manuellement. Cela peut être une tâche redoutable, mais c'est en cas de kubernetes. Chaque volume attaché à une pièce a une durée de vie liée, ce qui est exactement autant que la partie elle-même. De cette façon, même si le conteneur meurt, la pièce restera en vie et redémarrera le conteneur afin que le volume ne disparaisse pas. Mais si nous supprimons la partie elle-même, le volume disparaîtra également. C' est très utile. Dans la prochaine démo, nous allons apprendre à utiliser des objets de stockage hors Kubernetes. 83. Démo : Monter le volume à un Pod: C' est toujours génial de commencer une section avec une ardoise propre, sorte que nous n'avons aucune pièce sur les déploiements qui se trouvent autour. Traitons une nouvelle partie avec ou Yemen fichier Really sport, pas Hamel. Mais avant ça, allons-y. C' est probablement le plus petit fichier Yémen que nous ayons vu dans ce cours. C' est assez simple. Nous avons juste des informations de base nécessaires pour créer vraiment l'état d'un sport. Exposons. Créons la pièce et vérifions si elle a été créée. Très bien, on est prêts à y aller. Exécutons cette partie en utilisant Cube, CDL sortie I T et exécutons Bash Command. Ici, nous sommes dans la racine pour le conteneur et notre capacité de peed ou répertoire de travail présent est des données. Que devrions-nous faire à ce sujet ? Eh bien, écrivons une intro sur la libération elle-même. ICO. Il s'agit d'une source ouverte en mémoire. Il y a un tel stocké utilisé comme base de données. Rangons-le dans. Radio intro dot txt Maintenant, mettons à jour ce conteneur en utilisant apt get update. Vous vous demandez peut-être que c'est vraiment un état de son conteneur, non ? Comment pouvons-nous apprendre ? Apt Obtenir la mise à jour. Eh bien, l'image de base de ce conteneur se trouve être Debian. Donc, l'utilisation de l'application get a blade est totalement correct et aucune mise à jour n'est terminée. En un mot, nous avons apporté quelques modifications au conteneur fonctionnant à l'intérieur de notre sport vraiment. Maintenant, tuons cette balle. Utilisez PS ox pour connaître la liste des processus en cours d'exécution. Créons un processus de libération lui-même, qui finira dans la terminaison du conteneur. Et on y va. On n'a plus de conteneur parce qu'il a été tué. Revenons une liste des pièces. Eh bien, notre rôle est opérationnel, mais Container a eu un redémarrage, ce qui est dû à nous tuer le processus des lecteurs. Nous sommes allés à l'intérieur du conteneur. Nous avons fait quelques changements. On a tué le conteneur. Qu' en est-il donc des changements que nous avions apportés ? Le moyen le plus simple de vérifier est d'entrer à nouveau dans le conteneur et de voir si les fichiers que nous avions créés sont toujours là. Faisons-le. Il semble que notre répertoire de données soit vide. Ainsi, la version dans l'ordre du fichier txt que nous avions créé a disparu. Et c'est exactement ce que signifie la perte de données Pour l'éviter, nous allons utiliser un simple volume de répertoire vide. Sortons du conteneur et retournons à notre fête. Dossier Amel. En dehors de l'image du conteneur et des informations de nom, nous avons quelques lignes supplémentaires ici. Tout d'abord, passons à la ligne des volumes. Nous avons donc déclaré un nouveau volume appelé Reedus Volume et c'est le type. C' est un répertoire vide, et nous avons également déclaré la quantité pour ce volume, ce qui indique que le chemin de montagne est des données. Comprenons les fonctions. Le mur que vous ressentez déclare aux communautés qu'un nouveau volume hors type de répertoire vide doit être créé et qu'il doit être nommé comme volume de sortie. Et pendant que vous montez, assurez-vous que notre répertoire de données Readers Containers est monté sur le volume de répertoire vide juste pour des raisons de nouveauté. Nous nommons ou partie comme Lisez ce mur et notre conteneur comme un conteneur mural de libération. Sauvegardons et quittons le fichier comme d'habitude. Créons la pièce et vérifions si elle a été créée correctement. Non, nous allons avoir une description de cette pièce pour voir si elle a quelque chose de différent des pièces que nous avions créées dans les sections précédentes. Il a une différence. La description est désormais également renseignée avec des informations sur les volumes. Notre volume de publication est mentionné ici, qui est un type de répertoire vide et qui entités est assez gentil pour nous faire savoir qu'un répertoire vide est un répertoire temporaire qui partage une durée de vie des parties, tout comme nous l'avions discuté dans la théorie . Et nous avons également conservé des informations sur la quantité dans Containers Field pour vérifier si ce volume fonctionne correctement, suivons les étapes, ce que nous avions fait pour la pièce sans volume et voyons s'il y a des changements. Une fois qu'on aura tué le conteneur. On a aidé à tuer le conteneur. Donc, la prochaine fois que nous aurons la liste des pièces désactivées, nos pièces devraient avoir un redémarrage. Exécutons à nouveau et voyons si Data Directory a du contenu à l'intérieur. Sauf si et bingo, nous avons nos lecteurs au total txt intact. Il est dispersé pour voir si c'est le même fichier. Eh bien, il ISS ou les volumes fonctionnent correctement. 84. Démo : Monter le volume prévu à un Pod |Secrets: nous avons aidé à certaines parties de toute la dernière conférence. Laissons-les intactes maintenant. Créons des fichiers temporaires, nom d'utilisateur et mot de passe point txt et remplissons-les avec les informations d'identification requises. Utilisez ICO tiret End, qui signifie nouveau et droit Edmund dans un fichier temporaire appelé nom d'utilisateur dot txt. Faites de même avec le mot de passe. Vous pouvez utiliser n'importe quelle chaîne que vous aimez pour le mot de passe. Nous gardons cette absurde difficile à prononcer. Non, créons des secrets à partir de ces fichiers. Secrets sont un type de volumes projetés, qui sont différents des volumes persistants parce que pris montagne multiples sources dans un seul répertoire en courant était hors secrets kubernetes, cartes de conflit, compte de service jetons. Tous sont des volumes projetés. Ici, nous travaillons avec des secrets. Avec cela dit, Créons un secret avec des cubes. Idéal crée secret, suivi par le type secret, qui dans ce cas est le nom secret générique, qui est l'utilisateur et la source off. Le secret, qui provient d'un fichier ou d'un fichier temporaire appelé nom d'utilisateur Doc Txt a créé un autre secret appelé Be Instability, qui signifie mot de passe de point txt. Non, listons tous les secrets. Nous avons aidé trois secrets qui traînent ici, deux d'entre eux la stabilité de l'utilisateur et de la paix sur ceux que nous venons de créer il y a quelques secondes. Où est le jeton déformé ? DP Duty F a été créé il y a près de 25 heures, et il a trois sources différentes. Si vous regardez le type de ces secrets, ceux qui ont recréé sont opaques, ce qui signifie que les données à l'intérieur du secret ne seront pas visibles même si nous les décrivons. Alors que le secret de jeton par défaut est un jeton de compte de service, qu'il utilise cubain pour ses fins de création de pièces. Décrivons tous les secrets, et comme vous pouvez le voir, nous obtenons seulement les métadonnées sur le secret, pas les données elles-mêmes. Nous pouvons voir que le fichier est 13 morsures grand, et le secret est dérivé du mot de passe source dot txt. Mais on ne voit pas ce qu'il y a dans le dossier. Donc, si nous supprimons le mot de passe point txt maintenant, qui il sera dilaté tôt ou tard, puisque c'est un fichier temporaire ou mot de passe sera protégé, vous pouvez vous demander, si nous voulons voir ce qui est à l'intérieur du secret ? Eh bien, montons-le avec un fichier de document de volume Bard Open Project ID. Il s'agit d'un pot de boîte général occupé avec des secrets montés comme le projet qu'il volumes. Si vous allez dans le champ Volumes, vous pouvez voir que le nom du volume est volume de test et que le type est projeté dans le volume projeté. Les sources ne sont pas les deux secrets que nous avons créés, et ces deux secrets sont équivalents à une partie commune appelée Projet et volume sur le Container de boîte occupé . Disons que vous et quittez le fichier maintenant Vous pouvez deviner ce que nous allons faire. Nous allons créer la pièce et vérifier si elle a été créée comme ça. C' est exécuter sa propre boîte occupée et exécuter shell dessus. Nous nous souvenons correctement que nous avions monté nos secrets sur un projet de cordon d'annuaire et un volume. Voyons donc ce qu'il y a à l'intérieur du répertoire. On y va. Les deux fichiers sont disponibles. Faisons un chat hors des feux, disons mot de passe point txt. Et c'est le même mot de passe que nous avions entré, ce qui signifie que les informations sensibles, telles que le nom d'utilisateur et le mot de passe, sont des lacunes sûres dans le bac à sable d'un conteneur et peuvent être expédiées avec elle au lieu de l'empaqueter dans un autre format d'archivage. Il est plus simple et sécurisé 85. Démo : Bonne combinaison MySQL Wordpress avec Kubernetes: créons une application complète, qui démontrerait les utilisations à la fois des services et des volumes. Tout d'abord, commençons par créer un secret appelé mon mot de passe suite. Et cette fois, au lieu d'avoir un fichier comme source, aidera une chaîne en tant que source. Et pour ce faire, les gens écrivent Dash Dash à partir de tableau de bord littéral égal mot de passe ABC à 123 Bien sûr, vous pouvez choisir n'importe quel mot de passe que vous voulez et notre secret est créé. Non, créons la sauvegarde de notre application. Ouvrir ma suite ? J' ai demandé à Debbie, pas au Yémen. Comme vous l'avez peut-être deviné, le support est un déploiement, qui utilise un P A. Was aps slash B. Le nom des déploiements est ma suite DB, et il a une étiquette appelée APP égale WordPress. Nous avons également des sélecteurs avec la condition hors étiquette correspondant et les étiquettes que le sélecteur rechercherait. Notre application est égale WordPress et cerf est égal à ma suite. Maintenant, allons-y pour les pièces de modèle auront aussi ces deux travaux, donc pas de confusion là-bas et sous la section contenant, nous créons Convoe Accord, ma suite Container, qui utilise l'image de ma suite 5.6. Nous mettons en place un environnement avec Variable appelé ma suite Drood Password, et il obtiendra sa valeur du secret, que nous avions créé plus tôt. Nous mentionnons que les conteneurs 3306 ports devraient être exposés en descendant vers les volumes créaient un volume de répertoire vide appelé My Sequel volume et le montaient à l'endroit où slash lip slash slash mon répertoire de suite De notre conteneur, vous pourriez Je me demande. Nous avons vérifié les volumes projetés, et nous avons vérifié le répertoire vide, qui est le volume normal. Qu' en est-il des volumes persistants ? Eh bien, retenez votre souffle. Il y a un problème à ce sujet et il le visitera bientôt aussi. Mettons un séparateur et des informations sur notre service dans le même fichier de mammifères . Oui, vous pouvez le faire. Vous pouvez créer plus d'objets à partir d'un seul fichier Yamil car, après tout, Gamel est juste un langage de balisage, qui est utilisé comme une plate-forme pour déclarer l'état désiré. Dans le cluster Kubernetes, nous avons mentionné les détails d'un service appelé ma suite DB, qui exposera le Port 3306 des conteneurs ayant des travaux AP égale WordPress et ici égale ma suite, ce qui signifie que les conteneurs tombant sous le déploiement que nous allons créer maintenant. Sortons du fichier. Oh, et en passant, le type de service est le cluster I p. Cette fois, utilisons déclaré à la matière pour créer nos objets en utilisant des cubes. Idéal Appliquer un trait d'union f ma suite, document DB. Et on n'a rien aidé à l'hôtel Kubernetes. Il a tout compris par lui-même, et nos souris de déploiement et de service être également, sont créés. Nous pouvons jouer un peu plus loin en listant ou en listant les services de déploiement de pièces et en consultant également les descriptions. Il semble que nous avons tout à fait fini avec notre dos et ne pas échapper à l'extrémité frontale, que vous pourriez avoir deviné maintenant, est un conteneur WordPress goto WordPress tableau de bord avant et non Gammel. Et nous y voilà. Il s'agit d'un autre déploiement appelé WP Dash Front End, qui a l'étiquette APP égale lieu de travail sur le même sélecteur. sélecteurs demandant des étiquettes, les égaux d' application étaient appuyés ensemble égaux front end et pas de modèles séparés. La partie suit les mêmes étiquettes, et il est créé à l'aide d'une carte image, WordPress 4.8 une partie. Nous envoyons également des variables d'environnement applicables hors appelées hôte de base de données WordPress sur la base données WordPress. L' hôte de mot de passe obtient sa valeur directement avec ma base de données de suite, Alors que le mot de passe, il obtient sa valeur d'un secret. Nous créons également un volume de répertoire vide appelé volume WP et le montons à la barre barre oblique www html de notre conteneur WordPress. Tout comme précédemment, créons ou avant et service aussi. Le service est assez intuitif. Vous pouvez obtenir presque tout par vous-même comme quel est le nom du service avec sélecteurs ? Il cherche le port et les pièces qu'il exposera. Et enfin, cette fois. En outre, ce type est l'équilibreur de charge. Allons démystifier. Pourquoi sont soutenus était Cluster I P. Et Frontline est l'équilibreur de charge. Eh bien, front end va être accessible par tous les utilisateurs à travers le monde, donc il doit être capable de parler en dehors du cluster aussi, alors que de retour en arrière ne parlera qu'à front end donc nous n'avons pas besoin de l'exposer au monde entier. Il assure un peu plus de sécurité à nos bases de données ma suite. Appliquons également ce fichier, et notre déploiement et service sont créés. D' accord, listons sur les services. Nous avons trois communautés de services, ce qui est par défaut, et il est utilisé par les communautés elles-mêmes. Ma suite DB et étaient piss front end. Si vous regardez la colonne externe I p certainement les communautés et ma suite d'être n' aura pas un i p externe depuis leur cluster, je serais une sorte de service. Mais qu'en est-il de WP front end ? C' est un équilibrage de charge de service, donc il devrait avoir un i p externe le cluster I p pour que l'équilibreur de charge a déjà été créé, en passant. En fait, même le port 80 hors conteneur WordPress a été exposé à 31 002 ce qui signifie que le Conseil Nord a également été exposé. Alors qu'en est-il de l'extérieur ? Je p Eh bien, vous voyez, nous n'avons configuré aucun équilibreur de charge dans aucun des viens que nous utilisons comme nœuds de cluster kubernetes. Donc Kubernetes essaie de comprendre ce qu'il faut faire à propos de l'équilibreur de charge. Mais bien qu'il soit ajouté, il a exposé notre service en tant que Northport et il sera hébergé sur l'extérieur je p off tout le nord, tout comme notre service précédent ou mauvais. Mais comment pouvons-nous démontrer l'équilibreur de charge ? Eh bien, nous y arriverons. C' est Notre I P sur notre noeud un nouveau. Et quand nous naviguons orteil externe I p. Colin Note Board combo, ce que nous obtenons est une page d'installation WordPress, qui signifie que WordPress a été hébergé avec succès sur notre cluster kubernetes à travers tous les nœuds et il semble fonctionner aussi bien après avoir commencé à apprendre les communautés. Il s'agit de votre première application multiplicateur à part entière, qui n'est rien de court, souvent important. jalon. Allons encore plus loin et apprenons des aspects plus passionnants sur kubernetes. 86. Étude de cas Blackrock: BlackRock est une société de fournisseurs de services financiers. Ce sont des investisseurs qui empruntent de l'argent au client, investissent dans le marché et font des profits. Ils partagent leur profit avec le client, et tout le monde reste heureux. BlackRock voulait que ses investisseurs travaillent sur une combinaison de pointe, mordant et étincelant, ce qui rendrait leurs analyses plus rapides et plus précises. Mais dans de tels cas, les gens peuvent finir par utiliser un environnement différent les uns des autres comme différentes versions beytin , et les résultats peuvent ne pas être aussi grands que prévu pour tout le monde. Que faire alors noir Lockhart, une équipe de 20 ingénieux qui a développé un Web sur étincelle et Fight on et l'a hébergé en utilisant Docker et Kubernetes. L' application Web a été déployée auprès de tous les investisseurs à travers le monde, et aucun d'entre eux n'avait une différence hors environnement. Ils ont tous pu utiliser cette application pour eux-mêmes et améliorer leurs résultats analytiques, ce qui a aidé leurs ascensions. Et tout cela a été réalisé en seulement 100 jours. Donc, avec des sombres et des kubernetes, BlackRock a été en mesure de mettre à niveau son infrastructure logicielle et d'améliorer les performances au cours de presque un trimestre financier 87. Éviction de node d'un Cluster Kubernetes: Nous commençons sans aucune partie. Allons extorquer le moteur des orteils. Hamel c'est le cas. Yémen a déposé un moteur simple, sauf LICA a dit, Avec deux parties, il a créé un jeu de répliques et obtenir la liste des ports. Cette fois, nous allons imprimer la sortie large parce que nous voulons avoir un peu plus d'informations que ce qui est fourni Généralement remarqué des fusillades ici. . Tout d'abord, nous n'avons pas encore exposé ce jeu de réplicas avec un service. y a encore des pièces là, je serais notre groupe. Je le serais. Pourquoi c'est ça ? Eh bien, vous souvenez-vous des kubernetes de service, qui a été créé par défaut ? Ces parties sont reliées au service communautaire, et deuxièmement, nous avons Notre faisant de l'information. Notre première partie émise Vous serez sur Non. Deux et deuxième partie vous a émis un nœud un. Maintenant, rêvons non. Deux et voir ce qui se passe. En passant, drainer signifie complètement libérer la pièce et la rendre indisponible pour tout ce qu'elle jugera . Le processus de vidange se déroule en deux étapes. abord, toute la note discordante de sorte qu'aucune autre partie je devrais. Tu y arriveras. Et deuxièmement, c'est le rêve, ce qui signifie qu'il va parties sur repositionnement. Mais on a un éditeur ici. Il est dit que cette partie contient des ensembles de démons qui ne peuvent être rêvés. Mais cette lettre est assez généreuse et la solution est également fournie dans la parenthèse. Donc, nous allons utiliser le drapeau des ensembles de démons ignorés et là nous allons ou une partie est expulsée. Maintenant, sortons la liste au nord. Nous avons le même montant au large des Nords, tout le Nord déjà, mais il n'y a pas deux qui sont indisponibles. Dooling, est-ce qu'elle fait est désactivé sur elle, ce qui signifie que le processus de vidange a été complètement réussi. Qu' en est-il de la partie qui est, devriez-vous ou non faire ? Alors vérifions ça. Cette partie a été repositionnée en douceur vers le nœud un, et si vous pouvez voir son âge est de 42 secondes, ce qui signifie que la partie sur No. Deux ont été tués et une nouvelle partie a été créée sur Nord 1. Donc, le nombre de répliques hors de la pièce est toujours intact, mais la partie précédente est morte. C' est ainsi qu'aucun drainage ou pas d'affection ne fonctionne. Avant d'aller plus loin. Nous allons découvrir dans le nord afin qu'il soit disponible à coup sûr faire à nouveau. On y va, ou Noto est de retour à la normale 88. Démo : Rolling Updatez |Rousses, pause, vérification de statut: Commençons cette démo avec une liste des pièces que nous avons aidées à partir d'un jeu de répliques précédent . Laissez-les être Ouvrons la partie mise à jour point fichier Gamel. Il s'agit d'un prochain déploiement Injun avec 10 réplicas utilisant le moteur X 1.7 point 9. Gardez le numéro d'image à l'esprit qu'il s'agit du moteur X 1.7 point 9. Enregistrez et quittons ce fichier et créez ce déploiement et notre déploiement est créé. Toutes les 10 pièces sont à jour et disponibles. Non, nous allons décrire ou déployer juste pour rassurer la stratégie de mise à jour de règle est 25 % max indisponible et 25 % max Search, ce qui, si vous vous souvenez, signifie que ce déploiement doit avoir au moins sept répliques hors moteur s'étendant à un moment donné. Et même s'il veut fournir une mise à jour, il peut créer 13 réplicas chez Max. Maintenant, nous allons utiliser des cubes. Commande idéale set image sur notre déploiement. Déployez le moteur X et définissons notre image de conteneur du moteur X à 1,9 point un, qui était auparavant de 1,7 point neuf. Donc, d'une certaine manière, nous fournissons une mise à jour de votre déploiement et assisté. L' image est mise à jour, mais cela signifie simplement que le moteur X 1.9 point un est l'état désiré du cluster. Cela signifie-t-il que le déploiement est également abrasé ? Regardons cela par l'état de déploiement de la Learning Cube CTL, suivi du nom du déploiement. Il semble que le processus de mise à jour n'est pas totalement complet. Cinq répliques sur 10 ont été mises à jour, et si nous attendons un peu plus loin, nous atteindrons le numéro 10 assez tôt. Le rythme de ce processus peut être soumis à la taille des mises à jour mobiles de l'image, stratégie ou de la connexion réseau au centre de données de Google Cloud, qui est le moins possible. En fait, ne soyons pas satisfaits ici. Apportons une autre mise à jour. Terminez ce déploiement en réglant l'image toe moteur X Alpine. Et on y va. Non, on peut avoir une histoire. jours de congé sont le tiret de déploiement et le prochain déploiement. Ils sont sur l'historique de déploiement Cube CTL, slash de déploiement déployé dash moteur X. Et il semble que nous avions trois divisions où zéro étant l'état initial. Nous pouvons également approfondir une certaine révision Mon historique de déploiement du Cube CDL en cours d'exécution, suivi du nom du déploiement, suivi de son numéro de révision. Eh bien, la bonne révision équivaut à deux. Il dit que la révision consistait à un gabarit de saignement avec le moteur d'image x 1.9 point un, tout comme la façon dont nous pouvons définir les paramètres du déploiement et effectuer la mise à jour de roulement, nous pouvons également annuler la mise à jour est dans Cube CTL rollout undo, suivi du nom de déploiement et Sous a réussi. Allons chercher une liste de pièces. Eh bien, tous les 10 sur eux semblent être prêts et en cours d'exécution. Par ailleurs, si vous vous demandez ce qui est arrivé à la partie précédente hors moteur X, Replica a dit, Je viens de les supprimer. Enfin, nous pouvons également restaurer le déploiement vers une version de révision spécifique. Rallons-le en arrière. La révision de et quand nous décrivons le déploiement, nous pouvons voir que notre image est définie sur 1.9 point un. Et quand nous arrivons à des événements, tout ce que nous pouvons voir c'est que le déploiement est étendu à plusieurs reprises. C' est bien, parce que c'est ce que nous avions l'intention de faire 89. Introduction aux taints et Tolerations: pour revenir à l'architecture kubernetes, nous avons Master et Nords. Disons que nous avons une charge de travail sur trois parties et qu'elle est répartie uniformément entre tous les nœuds. Aucune des pièces ne sont sur le maître, et même si un hors d'eux essaie de vous faire faire sur le maître, il sera bloqué. Pourquoi c'est ça ? Eh bien, dans la configuration normale kubernetes, Maître ont déclaré un drapeau, ou entailler, ce qui dit pas de pièces, ce qui signifie qu'il ne permettra pas à aucune partie d'être sûr mec sur lui-même et qui est maîtres état souhaité. Si une pièce tente de se régler sur le maître, elle amènera le maître à un état indésirable. Personne ne veut cela, donc Maître le bloquera et la partie devra aller ailleurs. reste du Nord peut aussi avoir des Danois. Disons que non à a atteint qu'il ne veut pas autoriser aucune pièce avec étiquette LP, ce qui signifierait rose clair dans ce cas, tout comme les services ou les déploiements. n'y aura pas non plus de sélecteur qui cherchera l'étiquette LP, Iln'y aura pas non plus de sélecteur qui cherchera l'étiquette LP, et si notre barre finit par l'avoir, elle sera jetée du nord et sera jetée sur un autre Nord. Si, par hasard, d'autres notes ont également eu lieu pour le bloquer, ne détenus ou des raisons de ressources insuffisantes. La partie n'aura nulle part où aller et elle restera imminente. La partie peut utiliser un billet ou un type de disposition générique pour contourner, arrêter et mandater le Noto Shust Hewlett. Cela amènera le nord dans un état moins désiré, mais c'est mieux que les pièces en attente. Ce ticket est appelé une tolérance lorsque les colorations sont appliquées orteil séparément. Creusez vous immunité conditionnelle orteil tous les trains, ce qui signifie que la partie va obtenir devrait faire, mais seulement après avoir rempli une certaine condition. Disons que la condition est d'attendre 300 secondes ou cinq minutes, ce qui est la valeur par défaut pour la plupart des pièces. Après avoir attendu cinq minutes, la partie sera en mesure d'utiliser la tolérance et de se faire seller. Dans les prochaines conférences. Nous allons travailler avec James et les politiciens 90. Démo : Planifier les pods avec Taints: On est à la pointe ou William Instances a payé. Jcp Compute Engine Créons une nouvelle instance à partir de William Name ni trois que nous ajouterons à notre cluster. Réglons sa région en Asie du Sud un et encore une fois, nous choisissons de libérer les abus et 7,5 concerts hors mémoire pour lui tout comme le Nord précédent. Gardions l'image pour ouvrir à 16.4 Mais cette fois notre démarrage ce type sera S S D au lieu de chaque d plus profond discorde système normal, disque persistant qui a dit qu'il est taille à 20 aider Ceux-ci sont généralement plus coûteux par rapport à un persistant sont HDD Mais nous avons un but spécial ici Donc nous avons choisi d'utiliser SST pour cela. Nord a autorisé l'accès complet au cloud AP Ice ainsi que le trafic http et https et hit create ou William est créé. Non, allons Issa Sage dedans et nous avons navigué vers le nord trois comme Master Node 1 et non. Deux. Vous devez également installer les conditions préalables Docker et les communautés sur North trois. Une fois que tu as fini avec ça, une saucisse à l'orteil de notre nœud maître et nous voilà. Nous avons navigué en arrière sur Master Now, obtenons un jeton qui peut être utilisé par North Tree pour rejoindre le cluster sur la liste Cube Adam Broken. Ici, on a le jeton. C' est le même jeton que nous avions utilisé pour faire Node un et non pour rejoindre le cluster. Mais si vous regardez de plus près, vous verrez que le jeton est déjà invalide. Et la raison derrière cela est le jeton généré par Cuba. Adam n'est valide que 12 heures et nous sommes loin de perdre maintenant. Alors que faire maintenant ? Eh bien, nous devons demander aux communautés de donner un autre jeton qui peut être utilisé par plus au nord pour rejoindre le cluster. Tournons cube, Adam Token créer. Et ici, nous allons ou jeton est créé, copié ce jeton et collez-le à un endroit où vous pourrez y accéder plus tard. Non. Évaluons l'âge de retour au nord 3. Syrie, Iran, Cuba, Adam, Adam, Commandement interarmées, tout comme vous aviez couru sur le noeud 1 et No. Deux fois, mais le temps de test, notre jeton est différent. Nous utilisons le jeton que nous détenions unité. Il y a quelques secondes de rejoindre ce cluster, et il semble que notre processus ait été couronné de succès. Hume Adam nous suggère d'exécuter cube CDL get nodes sur master pour voir si le processus de jointure ni a réussi. Alors refaisons-le. On est de retour au maître. Nous allons tourner les cubes, il crier, obtenir des nœuds ni trois est au moins visible. Ce n'est pas encore prêt, mais donnons-lui un peu de temps. Exécutons à nouveau la commande et nous sommes prêts. Aucune arborescence n'a rejoint le cluster. Toutes les notes exécutent la dernière version. Communautés 1.12 point un, et cette version est considérée comme la dernière, au moins au moment où nous enregistrons le discours. Maintenant, obtenons une description blanche de tous les. Des Nords. Eh bien, il n'y a pas de conflit. Le docteur ne l'était pas non plus. Tous tournent le Dr 17 Point au point et cubain. C' est la version 1.12 point un, ce qui est assez rassurant. Maintenant, nous allons obtenir les étiquettes sur nos nœuds. En dehors de Master, tous les pays du Nord partagent des étiquettes similaires où la seule différence est ce nom d'hôte. Allons chercher une autre étiquette. Deux Non. Trois. Et cette fois, l'étiquette est ce type est égal à S. D. Nous utilisons cette étiquette parce que même si nous avons utilisé SST que ce type hors de ce noeud kubernetes ne le réalisera pas par lui-même. Si nous voulons utiliser cette fonctionnalité hors de ce nord pour trier ou traiter les pièces, nous devons dire explicitement à Kubernetes que ce type connu est égal à SSDI, et la meilleure façon de le faire est de fournir une étiquette sur elle, ce qui est unique par rapport à tous les autres nœuds. Allons chercher une description à Arnold pour voir si sa propre étiquette a pris effet. Et oui, oui, notre étiquette est visible. Maintenant, nous allons avoir une sortie blanche hors liste des pièces. Nous aidons 10 parties du déploiement précédent que nous avions créé, et toutes ont assuré que vous allez sur un nœud un ou non à aucun hors d'eux un bouclier sur maître parce que master ne permet aucune pièce à être. Elle s'en occupe avec son équipe de traitement des nausées. Et puisque nous en avons ajouté ni trois récemment et que nous n'avons créé aucun déploiement , aucun arbre n'a non plus de partitionnement sur son espace de nom par défaut . Maintenant, ouvrons la partie de test de fichier point de Gama. Il s'agit d'un simple fichier Gamel, souvent l'exportation du moteur, et le centre de mise au point ici est le sélecteur nord spectaculaire, pas le sélecteur est loin de l'orteil. Dites au Cube Sevilla que la pièce doit être céder sur un certain type de note off et tout comme un sélecteur régulier, le sélecteur note utilise également l'orteil du travail. Identifier le nord qu'il veut être devrait céder sur Here are north Selector a étiqueté ce type est égal à évaluer D, qui est le même que ce que nous avions fourni à North trois récemment. Idéalement, cette partie devrait être ombragée sur le nord trois. Voyons si cela se produit ou non que enregistrez et quittez le fichier et créez le tableau une fois de plus . Nous allons obtenir la liste des pièces en sortie blanche pour voir si notre pièce récemment créée émise vous allez sur notaire ou non et oui, c'est. Nous contrôlions explicitement le nord où notre rôle était censé être. Devriez-vous utiliser North Selector. La partie. 71 secondes et il gagne sur North trois. Parfait. Maintenant, nous allons nous assurer qu'aucune partie obtenir devrait vous allez sur le nord trois en le peignant en utilisant Cube City l notes entaillées suivies par le nom du Nord et l'état retenu ici, la souillure ou l'état de douleur est que les parties. Avoir le disque d'étiquette égal Speedy ne doit pas évêque vous allez sur North trois, qui a été passé comme une combinaison hors étiquette à condition séparée par un deux-points. Et notre note est entachée. Si vous voulez comprendre cela logiquement, nous séparons les parties qui doivent être. Devriez-vous sur les dénotations évaluées et les nœuds de disque persistants, ce qui dans la plupart des cas est une tâche réelle que vous seriez en train d'effectuer sur votre cluster également ? Certains hors de vos pièces me nécessitent SST pour sa performance tandis que les autres ne peuvent pas. Il vaut mieux ne pas les protéger dessus. Et juste par des moyens hors étiquettes et des douleurs, nous essayons de nous assurer que les pièces qui doivent être cèdent sur SST vont explicitement là et que les autres ne touchent pas cette note. Décrivons ou notons à nouveau pour voir si la douleur a eu lieu et qu'elle est visible. Non, exécutons le déploiement appelé HDD avec six réplicas et l'image du moteur X. Labellisons toute sa part cette vitesse égale que notre déploiement est créé. Nous recevons un avertissement que l'exécution de Cube CDL pourrait être dupliquée à l'avenir, mais pour l'instant cela fonctionne très bien, obtenons une large liste de pièces pour voir si un problème de six parties fait sur notaire ou non. Eh bien, ça n'a pas l'air. Toutes les nouvelles pièces assurées que vous serez soit sur le nœud un sont sur Non. Deux, alors que le Nord trois n'a encore qu'une extrémité à l'exportation, ce que nous avions salué plus tôt. Non, éliminons la douleur sur North 3 et supprimez notre STD de déploiement. Le déploiement est supprimé, ce qui signifie que toutes ses parties ont également disparu. Créons à nouveau le même déploiement avec le même nombre de réplicas, la même étiquette et la même image, et voyons si nous obtenons des changements dans le elle se même étiquette et la même image, porte bien. Nous avons obtenu quelques modifications sur six pièces nouvellement créées par un disque dur de déploiement pour leur retirer un bouclier sur North 3, que nous venons de ne pas entretenir il y a quelques secondes. C' est ainsi que nous utilisons les taches, les colorations et les étiquettes pour trier ou faire nos pièces efficacement 91. Démo : Autoscaling Kubernetes Cluster avec HPA: Nous savons tous que malgré le nombre de prédictions que nous faisons, parfois le nombre de conteneurs ou de pièces que nous avons déployés pour vendre fronton ou retour , ce n'est tout simplement pas suffisant, et nous devons les habiliter à rester en sécurité dans un tel situations. Nous pouvons utiliser une fonction off kubernetes appelée HB A ou une pièce horizontale auto scaler. Dans cette démo, nous allons utiliser HP une compétence de remorquage automatiquement une de nos déploiements. Comment l'écran est divisé en deux instances hors Masters Terminal, le terminal en haut sera utilisé pour créer et surveiller le déploiement, tandis que Terminal en bas sera utilisé pour créer un pseudo ou seigneur fictif. Commençons par retirer la liste des pièces. Et comme vous pouvez le voir, nous avons supprimé toutes les parties précédentes pour commencer à nouveau. n'y a pas de pièces, pas de déploiements et juste un service communautaire par défaut. Maintenant, nous allons créer un déploiement appelé PHP Apache en utilisant l'image de registre de conteneur de Google . C' est un exemple. Nous limitons notre demande de CPU Toe 200 Millicent Pew et nous exposons des conteneurs. Port numéro 80 avec l'avertissement standard sur les cubes. Exécution idéale Mike se dupliquer à l'avenir ou le déploiement est créé. Essayons maintenant de créer un pseudo seigneur en déployant un conteneur de boîte occupé pour créer un pseudo chargement. Nous avons été un conteneur de boîte occupé en utilisant des cubes CTL Jon Kamen Nous fournissons avec DT Y drapeau pour l'exécuter directement une fois qu'il est créé, nous avons navigué orteils sont occupés conteneur de boîte. Maintenant, nous allons utiliser W get tiret Q et Ping, le serveur Web Apache, que nous venons de filer sur notre déploiement précédent, et nous avons obtenu notre accord, qui était une pseudo-charge. Déployons maintenant un scaler automatique HP A ou une pièce horizontale à l'aide du déploiement automatique des compétences CTL cube , suivi du nom du déploiement, suivi du paramètre d'utilisation, suivi du paramètre d'utilisation nombre minimal de réplicas hors réplicas et du nombre maximal de réplicas hors service. Notre paramètre d'utilisation est CPU Person est égal à 50, ce qui signifie qu'une fois que 50 % de CPU est consommé, scaler automatique fera tourner une nouvelle réplique pour garder toutes les pièces ou les conteneurs en bonne santé et les empêcher de surcharger. H P A ou horizontale Ponte Auto a été créé. Il dit que PHP un déploiement de parti a été tué autos. Exécutez cube, CTL, obtenez HP A. Notre compétence auto est quelque chose avec succès. Il a 10 secondes, il a une partie en cours d'exécution et zéro nouveau réplicas créé. Maintenant, créons une boucle sans fin sur le pseudo Seigneur, que nous avions créé plus tôt en mettant le même commandement que nous avions utilisé précédemment en finance. Pourquoi boucle ? Et on y va. Si vous vous demandez pourquoi il y en a tellement ou cas sont occupés conteneur de boîte, il envoie continuellement des demandes à un PSP, un service de fête, et à un moment donné, une de ses pièces obtiendra 50% de réduction sur son processeur utilisé, et cela aidera à faire tourner une nouvelle réplique. Attendons un moment et continuons à couler ce okays. Maintenant, nous allons sur les cubes Idéal. Reprenez HB à nouveau et on y va. Le nombre de réplicas hors réplicas a augmenté à un. Donc, juste en une minute aussi ou le déploiement PHP Apache a augmenté. 92. Démo : Déployer Apache Zookeeper avec Kubernetes: dans cette démo, nous allons créer une production. Great Apache Zookeeper Cluster Zookeeper est un système de gestion de serveur open source centralisé pour l'environnement de cluster distribué. Zookeeper aide le système distribué à réduire la complexité de sa gestion en fournissant une faible latence et une haute disponibilité. Pour procéder à cette démo, nous vous recommandons de nettoyer votre espace de travail kubernetes, ce qui signifie que vous supprimez tous les déploiements de pièces, services, jeux de réplicas ou tout autre objet qui vous est suggéré parce que pendant le processus sont des nœuds seront drainés. Ce qui signifie si nous avons des pièces est élément à la grappe zookeeper. Ils pourraient être compromis, ce qui est une sorte de douleur que nous ne voulons pas supporter en ce moment. Cela dit, commençons à déployer. Oh Zookeeper Cluster. Commençons par ouvrir zookeeper, Tiphen hee démarrer fichier Hammel. C' est un nom de service hors nom. Zk Dash, qui est chacun est signifie sans tête. Non, qu'est-ce que l'émerveillement humain sans tête ? Eh bien, nous y arriverons dans un instant. Allons au champ de spécification. Nous avons aidé à ports mentionner ici 4 à 888 pour le serveur et le port traitable huit pour l' élection de leader . Le cluster que je ressens a son attribut comme none. Cela signifie que ce service ne fournira aucun cluster i p aux pièces fonctionnant sous lui. La raison pour cela est que nous voulons se garder orteil permettre, nous identifier hors de nos parties pour procéder à la communication. Mais plus sur ça plus tard. Enfin, nous aidons à sélectionner une carte. App est égal à zk parce que nous déployons l'application zookeeper. Sauvegardons et quittons le fichier. Maintenant, ouvrons le fichier d'un autre service appelé Zookeeper C Dottie Amell. Cette fois, le nom du service est le Kiss Es et il est un cluster i p type off service avec une seule mention de port, qui est 2181 Klein Port. Le service a également l'application de sélecteur Equal Seiki et retraité dit Sortons cela aussi bien . Si vous vous demandez, pourquoi avons-nous créé deux services ? La raison. C' est assez simple. Nous voulions ou deux ports précédents pour être gérés par un service sans tête. Où est le port client peut être géré par un service générique de cluster I P. Suivant est la carte de fichier zookeeper un PDB Darty Amell, où BDB représente le budget de perturbation de pot. C' est un nouveau type d'objet que nous comptons ici. Mais ne vous inquiétez pas, ce n'est pas si compliqué. Allons par le haut. Nous avons une version p A off politique slash v un battre un le genre hors de l'objet est interdit. tromperie Le budget de tromperie signifie que chaque fois que nous fournissons une mise à jour à la carte, combien de pièces peuvent être compromises ou quel est l'état souhaité de la pièce qui peut être compromis pour fournir la mise à jour ici ? Le nom de ce budget de tromperie de pièce est CK Dash bdb, et il utilise un sélecteur avec étiquette désactivée. App équivaut à Ikea parce que les pièces contiendront cette étiquette aussi. Le champ Max Indisponible a la valeur 1, ce qui signifie que, quelle que soit la mise à jour que nous fournissons, une seule pièce peut être interrompue ou une seule pièce peut être indisponible. En d'autres termes, la mise à jour doit être fournie une partie à la fois. Mais cela dit, quittons ce fichier aussi. Si vous vous demandez, pourquoi allons-nous voir les fichiers et les quitter ? Ne vous inquiétez pas va créer tous les objets de la simultanément. Enfin, allons-y Zookeeper comme s jolie Amell. Et si vous vous demandez quelle est la position de SS pour l'état complet, vous avez peut-être vu un aperçu de l'état complet dans la théorie hors charges de travail. Un ensemble complet d'état est quelque peu différent d'un déploiement. Les déploiements sont idéaux pour les applications sans état car l'ordre de l'apparence ou la création de pièces n'a pas d'importance, alors que dans les ensembles complets ST, les parties seront créées dans un certain ordre. La raison peut être la dépendance l'un à l'autre ou la nature hors application, ce qui nécessite une étape à effectuer avant l'autre étape. Donc, vous pouvez dire que les déploiements sont idéaux pour les applications sans état, où un ensemble complet d'état sont idéaux pour les applications complètes d'état à partir du haut ou l'état complet utilise une barre oblique APS version P A re un, qui est le même que déploiements. Aller plus loin, nous avons nommé notre état complet zk, qui signifie gardien zookeeper. Ensuite, nous sauterons directement sur Spec Field pour l'état. L' ensemble complet a également un sélecteur, ce qui signifie qu'il ne sera utilisé que sur les pièces qui contiendront ou qui correspondront à l' étiquette. App est égal à Zookeeper, tout comme l'état des déploiements. Les ensembles complets sont également capables d'encapsuler des jeux de réplicas et des services à l'intérieur de ceux-ci. Nous avons donc mentionné le nom du service, zookeeper, sans tête ou chercher un tiret H s et le nombre de répliques sur les pièces qui seront créées est trois. Ensuite, nous aidons le modèle de pièce, commençant par les métadonnées. Les parties vont suivre étiquette app égale, zookeeper, Parce que c'est ce que nous avons mis en place tout ce temps. Ensuite, nous avons la sensation de spécification ou les conteneurs seront nommés kubernetes. Donc gardien. Et nous espérons mentionné la politique de traction de l'image est égale à toujours, ce qui signifie que indépendamment de la disponibilité des images, chaque fois que le conteneur est censé être créé, l'image sera toujours les gens Suivant nous aidons image étaient en utilisant Registres de conteneurs Google. gardien de zoo de Kubernetes était en 1.0. J' ai trouvé 3.4 point puis image Nous avons mentionné tous les trois ports que nous avions définis dans service sans tête et cluster I P qui notre serveur client et les ports d'élection leader. Ensuite, nous aidons à commander. Cette commande initiera notre cluster de gardiens zoogardiens. La commande est assez grande. Donc, nous l'avons décomposé. Drapeau par drapeau. Jetons un coup d'oeil. Nous démarrons shell et lançons zookeeper de démarrage pour la charge par le drapeau de Silver, qui a la valeur. Trois, ce qui signifie que nous allons aider trois serveurs. Si vous aviez remarqué, nous avions demandé à tous les états full set de créer trois réplicas, ce qui signifie que chaque conteneur sera ainsi comme un sur les canapés zookeeper dans tous les serveurs de la . Le répertoire de données sera slash de guerre lib slash afin de garder les données slash, qui est une partie hors de la configuration zookeeper. Des pièces similaires sont le journal de données et le répertoire de configuration, qui sont fil slash lib slash sue keeper slash log de données slash et opt slash zookeeper slash corn, respectivement. Ensuite, nous avons fourni les ports que nous avions exposés en utilisant nos services qui sont escaladés élection portuaire, port ou chef, port électoral et port serveur, qui sont 2181 huit traitables et deux triples huit, respectivement. Ensuite, nous aidons à choisir le temps. Il s'agit d'une définition ou d'une déclaration. Nous déclarons notre temps de prise en 2000 millisecondes. Donc, quelle que soit la configuration ou celle qui se sent ou quelle que soit notre drapeau utilisera des unités collent pour eux. Chaque bâton sera de 2000 millisecondes ou deux secondes. Suivant en haut. On aide, non ? Limitez Anderson. La valeur est alors que vous pourriez vous demander ce qui est 10 signifie alors quoi ? 10 secondes, puis millisecondes. Puis minutes. Eh bien, des choix lointains. Et ici épaisse est égale orteil 2000 milliseconde ou deux secondes. Donc notre innit limite ses 20 secondes dedans. Limit lie nos serveurs à élire un leader et à les rejoindre dans un délai spécifié. Ce qui signifie que dans les 20 secondes, le service devra élire un leader et le rejoindre. Suivant est la limite de l'évier, qui est ici 56 ou 10 secondes. La limite d'évier est définie à l'achat du service sur le cholestérol, qui ne sont pas leader. Rattrapez les mises à jour des leaders plus. Cela signifie que si Leader reçoit une mise à jour, l'autre service connecté devrait recevoir cette oblate dans les 10 secondes. Cette mise à jour peut être un peu hors d'une mise à jour de fichier de configuration, nouveau fichier ajouté ou autre chose. Ensuite, nous fournissons d'autres configurations, comme la mémoire de tas de 512 mégaoctets. Max Klein connexions jusqu'à 60. Intervalle de Bush jusqu'à 12 hit 12 est à nous. Et voici une partie de la défiance totale que toutes les 12 heures notre cluster doit être rafraîchi. Ensuite, nous aidons d'autres configurations comme Max session time out session hommes session, délai d'attente et niveau de journal, qui respectivement, ont 44,000 et info comme leurs valeurs, où le sur le point de mal défini en millisecondes. Enfin, nous avons le volume, la quantité et le volume en quatre. Nous créons un nouveau volume appelé Zoo William Off Time Empty Directory. Si vous avez des dispositions pour les jours persistants, vous pouvez également l'utiliser. Mais pour la démonstration, ce répertoire vide de démonstration fonctionne très bien, et nous le montons sur la pièce tandis que les lèvres slash dernier zookeeper de nos conteneurs avant d'enregistrer et de quitter le fichier. Récapitulons rapidement ce que nous avons fait. Nous avons créé un ensemble complet d'état, qui va créer trois répliques hors zookeeper. Contient un et tous les conteneurs de ce conteneur démarreront leurs instances zookeeper avec des configurations communes . Ces conteneurs sont montés sur un volume de répertoire vide appelé Zoo Volume, et tous ces conteneurs ont étiquette à égal zk ou zookeeper. Sauvegardons et quittons le fichier. Maintenant, nous allons créer ces objets un par un, commençant par le service sans tête, nous avons créé la tromperie de pièce, budget, l'état complet et l'autre service aussi bien. Ils suivent tous le même format hors cubes en cours d'exécution qu'il va créer un trait d'union f suivi du nom du fichier. Donc rien de nouveau là-bas. Maintenant, nous allons obtenir la liste des pièces. Exécuter cube, CTL obtenir des parties suivies du trait d'union W. L app égale zk Si vous vous demandez ce que cela signifie, nous regardons la sortie de cette commande et nous ne regardons que les parties dont l'étiquette APP égale zk Si vous avez clairement ou cluster plus tôt, alors ceux-ci seront les seules parties que vous avez sur votre espace de travail. Attendons un peu plus longtemps et maintenant toutes ces trois parties sont en cours d'exécution. Les parties sont créées par l'état complet que nous venons de définir plus tôt. Et si vous regardez de plus près zk zéro Dieu créé en premier, suivi par ck un puis zk aussi, ce qui signifie qu'il y avait un ordre strict hors création de pièce et en cours d'exécution pas moins exécuter ces conteneurs et imprimer leur variable d'environnement appelée nom d'hôte. Nous ne voulons pas le faire encore et encore, donc nous pouvons être un peu plus intelligents et écrire une boucle pour exécuter cette commande répétitivement exécuter pour i n 012 suivi par do Cube CDL exact Z trait d'union gay dollar I tiret, dash hôte, nom et finition. C' est avec un demi-deux-points et fait ici. Je suis malade un dollar. Je serai remplacé par 01 et deux afin que toutes les trois parties de la de seront exécutées et leurs noms d'hôte devraient être imprimés. On y va. Nos noms d'hôtes sont 60 z Key one N Z K. Deux dans un zookeeper sur le symbole, qui est un autre terme pour Cluster. Ainsi a été utilisé des nombres naturels comme unique. Identifiez-nous et le magasin chaque service. J' ai loué feu dans un fichier appelé My I D, qui est stocké dans un répertoire de données de service. Ils le font pour s'éloigner l'un de l'autre. Examinons le contenu de ceci. Mon fichier I D exécuter cube CDL montant exact pour nos conteneurs zookeeper exécuter des conteneurs zookeeper en utilisant Cube City, un exact suivi par la commande cat. Une Lib zookeeper données Mon i D, ce qui signifie que nous allons orteil chat le contenu de mon i d. avant ça. Et nous allons encapsuler cette commande dans une boucle quatre en écrivant pour moi en 012 suivi de faire ICO mon i d z k dash dollar un que nous avons voté pour comprendre sont mis mieux et nous avons obtenu cela unique . Identifie-nous. Zk zéro est identifié comme un. Zk un est identifié comme deux et se décompose est identifié comme Terry. Apache nous recommande d'utiliser une fonctionnalité appelée F Q D N, qui signifie nom de domaine complet. Au lieu de cela, hors orteil oculaire adresse les serveurs d'un ensemble zookeeper pour les utiliser. On a besoin d'orteils Procurez-les en premier. Alors courons à nouveau pour Luke. Et cette fois utiliser Cube céréale exacte pour imprimer le nom d'hôte, suivi par le trait d'union F Flag, qui signifie hit entièrement qualifié. Entrez et nous avons obtenu les noms de domaine ou les noms de domaine complets pour chacun de nos conteneurs zookeeper . Notre argent zk zeros f judean zk zero dot zk dash h s dot default dot s Nous voyons que cluster dot local et les deux autres serveurs suivent également le même modèle. Outre le fait que les noms d'hôte sont remplacés respectivement, nous pouvons jeter un oeil à vous plus de conflagrations ainsi. Nous avions mentionné dans la résection CME pour les conteneurs que les configurations hors zookeeper seront stockées dans le maïs opt-slash zookeeper. Donc, nous allons chat la sortie d'une carte de fichier. Ooh Dorsey F G sous la même partie. Il dit que ce fichier a été généré automatiquement et nous sommes invités à ne pas le modifier. Donc, nous suivrons le conseil que toutes les configurations que nous avions fournies lors du démarrage des instances zookeeper là intactes et ils sont reflétés comme ils auraient dû . Cela signifie que zookeeper, cluster ou sur le symbole est au moins configuré correctement. Maintenant, nous allons voir si cela fonctionne correctement protesté nous allons remplir à part sur zk zéro donc plus et vérifier si les changements effectués dans 60 sont reflétés dans les autres serveurs ikebana NZ, Kato ou non. Pour ce faire, exécutez le Command Cube CDL exact zk zero, suivi de la commande Z K C comme un message de point qui commencera à zookeeper, ligne de commande, script shell et tous les jours avec une commande zookeeper native qui est créer suivi de la partie où nous voulons peupler. Les données suivies par les données ou la partie sont élevées de l'expéditeur et nos données sont élevées de la part du destinataire. Nous fournissons cette partie parce que c'est ce que nous allons vérifier sur d'autres d'entre nous si nous vérifions haut de l'expéditeur sur d'autres serveurs et qu'ils fournissent haut du récepteur Alors notre communication sera réussie. Appuyez sur Indo the Watcher off Donc continuez à avertir qu'un événement de synchronisation d'état a eu lieu et que certaines données sont remplies sous la partie haute de l'expéditeur C'est clair Out ou terminal Maintenant exécutons cela sur zk un et exécutons le cube de commande CDL exact Zeki un nouveau Zika Sea lion a obtenu s H qui va commencer le zookeeper venir en ligne et cette fois nous allons obtenir haut du centre. Auparavant, nous avions utilisé pour commander create cette fois que nous utilisons get, ce qui signifie que nous obtenons les données sous cette partie. Si le spot lui-même n'existe pas, nous obtiendrons une erreur. Si les données de cette partie n'existent pas, nous ne les trouverons pas. Et si tout se passe bien, nous devrions voir haut du récepteur à la fin. C' est ça. Entrez et nous y allons. Les modifications apportées au serveur zk zero sont également reflétées dans d'autres serveurs, ce qui signifie que notre zookeeper on symbol fonctionne correctement. Avant de sortir de cette démo, nettoyons tout ce que nous avons aidé à créer, nous pourrions trouver quelque chose d'intéressant là-bas aussi. Supprimons l'état complet. Zk et ER dit que l'ensemble complet de l'état est supprimé, mais si nous regardons les pièces, elles prendront un peu de temps pour être terminées. Sélects l'a regardé. Et il est intéressant de noter que les ensembles de pieds d' état ne créent pas seulement les pièces dans un ordre particulier. Ils suppriment également un dominant dans le même ordre. Une fois que nous avons fini avec cela, assurez-vous de supprimer la mauvaise tromperie, le budget et les services. Cela peut sembler un processus sans heurt, mais ce n'est que le pouvoir des communautés. En fait, nous avons réussi à déployer un zookeeper de qualité production et un sambal, qui est la base des applications Big Data. Comme son groupe, nous avons commencé à créer un échantillon et un conteneur suivant, et maintenant vous êtes capable de courir plein zookeeper fui sur les clusters Cymbals R aussi. 93. Étude de cas Pokemon Go: , Iman Go est un jeu mobile basé sur la réalité augmentée, ce qui rend ses utilisateurs marcher dans la rue et attraper Pokemon virtuel sur leur smartphone ou tablette. De cette façon, ils peuvent créer une grande liste de leur Pokemon et éventuellement devenir un programme sur le maître si nous considérons des histoires de croissance sur les jeux mobiles populaires. Initialement, ils ont moins d'utilisateurs qui ont rejoint le jeu, impressionnés par l'idée ou le contenu. Eh bien, quelle heure Creuser plus d'utilisateurs en raison de lectures positives et mot de Mt. Et enfin là. Les utilisateurs ont augmenté rapidement et le jeu devient une tendance. croissance de cette ville a beaucoup d'avantages. Les développeurs peuvent déterminer ce qui a marché et ce qui n'a pas fonctionné. Ils peuvent gagner quelques revenus avant Skilling White, sorte que le risque serait également moins élevé et ils peuvent avoir assez de temps pour étaler leurs serveurs et couvrir différents pays dans le monde. Mais le livre sur l'affaire d'oie était différent en raison de fandom phénoménal à travers le monde. Le battage médiatique du jeu avait déjà été généré quand ils ont lancé leur jeu en Australie et en Nouvelle-Zélande. Ils s'attendaient à ce que quelques 100 000 utilisateurs se connectent au cours de la phase initiale, qui était d'environ deux semaines, mais ce montant a été franchi juste après 15 minutes de sortie. Dans le pire des cas, ils avaient préparé cinq fois plus d'utilisateurs que prévu. Mais juste en quelques jours, le nombre d'utilisateurs hors service avait dépassé 50 fois leurs attentes. Cela veut dire qu'ils ont un million d'utilisateurs. Pour commencer, c'était un énorme défi à surmonter. Ils devaient évoluer rapidement et s'assurer que les utilisateurs ne voyaient pas quelque chose comme ça. La solution a été trouvée avant même que le problème ne se produise. Pokemon Go a été développé en grande partie sur Java C Plus et C Sharp. Mais les services étaient hébergés en utilisant Docker et Kubernetes comme solution de gestion fournie par Google Cloud. De cette façon, ils avaient une sauvegarde sur l'infrastructure de Google, et ils pouvaient évoluer autant qu'ils le voulaient. Rapidement, je n'ai pas eu à configurer des serveurs sont effectuées, embauche immédiate ou services contractuels. En fait, solutions étaient si efficaces que tout en libérant le jeu au Japon, ils ont simultanément apporté un pauvre 1000 nouveaux seigneurs kubernetes tout en s'assurant que ceux qui étaient en cours d'exécution étaient complètement inchangés de cette façon, creuser plus d'utilisateurs tout en gardant leur large base d'utilisateurs heureux. Dans les prochaines sessions, nous allons apprendre kubernetes sur le cloud 94. Kubernetes ou Managed Kubernetes sur Cloud ? Faites un choix !: comme nous le savons, les étudiants ont une infrastructure informatique limitée. Si vous utilisez des communautés à des fins d'apprentissage et que vous finissez par exécuter trois William ou plus simultanément, votre système peut ne pas rester dans sa meilleure forme, ce qui n'est pas un jour heureux. D' autre part, les industries, infrastructure beaucoup plus sophistiquée comme les serveurs, qui peut retenir un grand nombre de Williams. Et même s'ils ne se détournent pas de ressources, ils peuvent toujours acheter ou louer plus. Donc la solution devrait être simple, non ? Si vous êtes étudiant, utilisez le cloud. Si vous êtes un professionnel avec une infrastructure industrielle, utilisez une installation locale. Eh bien, ce n'est pas si simple parce qu'il y a une chose appelée communautés hébergées ou gérées aussi. Il a été exploité par des fournisseurs publics de premier plan tels que JCP, AWS ou Azure. Et il donne toutes les installations hors kubernetes cluster sans la peinture off, la gestion. Donc, avant de décider si c'est la bonne solution pour nous ou non, Regardons son processus et ses inconvénients. Il a apporté. C' est rapide et illimité, mise à l'échelle très efficace, comme on le voit dans l'étude de cas Pokemon go. Mais si vos conteneurs exigent une infrastructure spécifique comme certains GPU ou quelque chose du genre , il se peut qu' elle ne soit pas disponible dans votre région, auquel cas vous pouvez recourir à une infrastructure privée . Vous devez embaucher moins de personnes pour gérer un cluster et laisser tous les tracas aux fournisseurs de cloud . Mais si le personnel actuel n'est pas au courant, ce n'est pas assez qualifié. D peut comment faire une compétence mineure, être édifiant au fur et à mesure que vous allez et la mise à l'échelle dynamique réduit le risque d' investissements indésirables dans l'infrastructure . Mais l'inconfort comme laisser des notes de nouvelles ouvertes et apporter des larmes aux portefeuilles. La haute disponibilité, équilibrage de charge et la surveillance sont principalement d'un clic en raison des services cloud, mais vous devrez peut-être passer par un processus de migration inévitable. Vous pouvez sans doute obtenir des performances plus fiables avec plus de risques de sécurité. Mais encore une fois, ces deux suspects indiscutables. Donc, pour quelqu'un qui ne veut pas mettre à l'échelle son personnel et veut augmenter rapidement avec moins risques, gérer, Kubernetes pourrait être le meilleur choix. Mais pour quelqu'un qui veut garder ses données absolument sûres et ne veut pas migrer, l'infrastructure privée serait une meilleure option. Mais comme toujours, pour vous en tant qu'étudiant, apprendre la gestion des communautés sera certainement un atout et une compétence de premier plan. Alors commençons 95. Démo : Configuration Google Kubernetes Engine Cluster Engine Cluster: et nous sommes de retour au tableau de bord Gcb. Nous courons toujours sur nos crédits. Notre facture est toujours nulle, donc nous sommes en sécurité sur ce front. Allons dans le menu de navigation ou l'icône de hamburger ou sur trois lignes horizontales en haut à gauche de notre tableau de bord, faites défiler vers le bas jusqu'au moteur des communautés et cliquez sur les clusters. Nous n'avons pas encore de lunettes créées, donc nous avons cet écran. Il nous donne quelques options. Démarrez rapidement, déployez un conteneur directement ou créez un cluster. Le plus sympathique semble être créer un cluster. Alors allons-y. Tout comme nous, hum, instances. Gcpd nous invite à définir certaines des spécifications de notre cluster. Mais avant cela, voyons, Qu'est-ce que nous avons sur les modèles de cluster ? Nous avons des applications intensives de processeur de cluster standard, Lester Memory Intensive Cluster, GPU, cluster accéléré et cluster hautement disponible. Tous ces éléments sont utiles pour différentes applications, mais nous nous en tiendrons à Standard Cluster. Le prénom par défaut est le dernier d'un, mais c'est trop cliché. Appelons-le autre chose. Appelez-le get s, qui signifie cluster kubernetes. Choix suivant type d'emplacement. Nous pouvons avoir un cluster zonal ou régional. Quels moyens voulez-vous répartir votre cluster dans différentes zones d'une région, ou voulez-vous répartir votre cluster entre différentes régions elles-mêmes ? Le type de lieu de choix est permanent pour une fiabilité élevée. Régional pourrait être le meilleur choix, mais nous ne nous ouvrons pas pour des applications aussi exigeantes en performance pour le moment, donc nous allons simplement fonctionner avec zonal. Choisissons notre zone. Vous pouvez choisir n'importe quelle zone que vous préférez. Nous choisirons Europe Nord un A. Suivant est la version principale. Cela signifie la version Kubernetes, qui sera en cours d'exécution sur l'instance maître. La valeur par défaut est 1.9 point sept ou G six, et nous allons le garder à cela. Maintenant, définissons notre pool de notes, ce qui signifie le nombre au nord, puis les types de machines. Nous créons un cluster trois nord, et tous ces nord aideront conteneurs optimisés toujours ou C O s installés sur eux. Ils utilisent des machines avec un processeur virtuel et 3,75 gigs hors mémoire et notre taille de disque de démarrage . Ce 10 Go pour le nœud. Nous avons activé la réparation automatique pour éviter toute défaillance potentielle et notre compte de service est le compte service par défaut du moteur de calcul. Laissons un accès complet à l'ensemble du cloud AP ICE. Nous pouvons également fournir mentalement que l'orteil ou la grappe comme l'étiquette et la douleur. Mais cette fonctionnalité est sous batteur en ce moment, alors passons-la et cliquez sur Enregistrer. Enfin, nous allons cliquer sur créer. Et ici, nous sommes ou cluster est créé, re aider le nom du cluster, qui est K et S Cluster. Notre emplacement Zona, qui est l'Europe. Pas un. Une quantité au large de la taille du nord ou de la grappe, qui est trois filles bois hors cours, ce qui est trois abus de visa. Parce que chaque au large du Nord a gagné re CPU et la mémoire totale, qui est 11.25 concerts parce que chaque au large du Nord a 3.75 concerts de mémoire, nous pouvons regarder la description de ce Lester en cliquant sur le nom hors de lui. À partir du haut. Nous avons la version principale, qui est le D Ford, un point de terminaison pour ce cluster particulier, et d'autres informations suggèrent, acheté à l'étrange et l'information hors pile, le désir de pilote et surveillance. dessous de cela, Endessous de cela, nous n'avons pas non plus de spécifications de piscine, qui sont à peu près ce que nous avions fourni. Allons la stocker section. Eh bien, ce n'est pas à propos de l'histoire. Taille du disque, hors nœuds. Il s'agit des objets de stockage dans le cluster. Puisque nous n'avons rien fait au cluster, les deux champs hors volumes persistants et les classes de stockage n'ont pas d' entrées spéciales . Et si vous remarquez de près, il existe une classe de stockage appelée Standard, qui provisionnent les moteurs Google Compute. disque persistant standard utilisera la classe de stockage à l'avenir pour approvisionner certains volumes persistants . Enfin, passons à la section Nord. Ce sont les aiguilles des trois notes de notre cluster ces noms longs et compliqués aux noms de Reince, qui sont utilisés pour créer le cluster tout leur statut est prêt. Ensuite, nous avons tenu, demandé et alloué nous avons tenu, la taille du processeur à base de plantes, tandis que les tailles Cebu demandées sont différentes. Localisez. La taille à base de plantes est commune, qui est 9 40 mil ISI, P U, ce qui signifie plus ou moins un V zebu. Ensuite, nous aidons la mémoire demandée et localisons la mémoire à base de plantes. 2.7 concerts sont situés BLE, alors que nous avions fourni 3.7 concerts. Tout comme le reste de la mémoire. Eh bien, vous pouvez comprendre. Localisez la mémoire à base de plantes en tant que mémoire de l'espace utilisateur sur toutes les machines virtuelles de l'ordinateur. Ce qui veut dire qu'un gigaoctet restant sera utilisé par le Colonel Space hors de ces machines. Jusqu' à présent, nous n'avons pas encore demandé de stockage localisé. On dirait que nous connaissons mieux notre groupe qu'avant. Dans la prochaine conférence, nous allons naviguer à travers le cluster et jouer un peu avec lui. 96. Démo : Accéder à GKE Cluster: Dans la dernière conférence, nous avions créé ce cluster sur le moteur geeky E ou Google Kubernetes. Cette fois, connectons-nous à elle. Naviguons à travers. L' option la plus intuitive ressemble à appuyer sur ce bouton de connexion. Faisons-le lorsque nous cliquons sur Connect, Google nous invite à exécuter une commande dans Cloud Shell. Cloud Shell est un shell CLI fourni par Google pour effectuer toutes sortes de commandes hors. Vous pouvez définir cloud shell comme un accès ssh à un William, qui a déjà la ligne de commande G cloud configuré pour nous sans plus tarder. Cliquez sur Exécuter dans Cloud Shell et un shell cloud s'est ouvert. Redimensionnons un peu. Eh bien, c'est se connecter pour le rendre plus joli. Et on y va. Google nous accueille dans notre shell cloud, et ils sont assez amicaux pour imprimer cette commande sur le terminal également. Tout ce que nous avons à faire cette presse entrer. Mais avant de le faire, essayons de comprendre cette commande. Il dit que nous obtenons des références d'un cluster nommé K. C'est le cluster de Project Rapid qui est 218812 sur l'Europe. Pas un n'est un. En un mot, il donne accès à l'arcade en tant que cluster à la VM, qui héberge le shell du club. On y va maintenant. On devrait pouvoir faire des cubes. Ça va arriver en ligne. Nous allons exécuter cube CTL obtenir des nœuds en fonction de votre zone de connectivité réseau ou région que vous avez choisi, ou le Seigneur sur Google cloud lui-même. L' opération de vitesse peut varier un peu, mais vous obtiendrez certainement les résultats fructueux. Et nous y voilà. Voici la liste de toutes les trois notes, que nous avons vues lors de la conférence précédente également. Il ressemble plus ou moins à la sortie de la classe que nous avions amorcée par nous-mêmes. Mais il y a une petite différence. Consultez la colonne des règles. Aucun hors des nœuds. Comment maître rouleau. Pourquoi c'est ça ? Eh bien, nous n'avons pas bootstrap ce cluster. Nous venons de l'approvisionner. Google l'a bootstrapped et il nous permet de l'utiliser comme un kubernetes hébergé ou gérer cluster kubernetes. Donc, le maître est géré par Google. Quelle est l'adresse I P désactivée ? Maître, quel est le nom de William, Maître, quelle est la taille de Maître ? Quelle est l'architecture hors maître ? Nous ne savons rien à ce sujet tout ce que nous savons est une version kubernetes déserte 1.9 point sept parce que nous l'avions dit lors de la création du cluster. Cela n'ajoute pas seulement une autre couche de fiabilité et de sécurité, mais nous évite également de gérer les douleurs hors maître, ce qui empêche les pièces d'être Devriez-vous y être dessus. C' est l'idéal d'un Ncube. Obtenez Pardes et, comme prévu, aucune ressource trouvée aller plus loin. Nous allons aider les parties de tous les noms base, et ici nous obtenons une longue liste à nouveau. Mais cette fois, les parties ne sont pas les mêmes. Toutes ces parties sont sur des instances du Nord et non sur les maîtres. Les pièces sont disponibles ici. Pouvez-vous trouver Q B P ace sur que gestionnaire de contrôleur même cubes ? Devrait-il Ula Aucun d'entre eux ne sont ici parce que le maître est complètement hors d'accès. Au lieu de cela, ce que nous avons est Q proxy pour tous nos nœuds, un tableau de bord kubernetes pré configuré grippe DNS et être comme le réseau de frontière et tas toe pour la surveillance ou kubernetes cluster. Il se sent comme un lustre complètement différent de ce que nous avions bootstrapped par nous-mêmes, qui est à l'arrière et au moins mais à l'avant et utilisera la ligne de commande Cube CDL juste comme nous l'utilisons sur notre lustre précédent. Donc, sachez ce qui est là dans la prochaine conférence va créer une application sur ce cluster geeky e. 97. Démo : Volume et charge Persistent sur GKE: nous avons créé l'application WordPress sur Docker composée sur le cluster Stop kubernetes embarqué . Essayons avec geeky en ce moment ce que nous avons fait avec l'écriture de fichiers Amel. Nous avons écrit beaucoup sur eux, Donc, cette fois, nous allons utiliser des échantillons de moteur kubernetes fournis par Google et va directement les cloner de get hub utilisation get blown, suivi par ce lien. On y va. Voyons si le dépôt est ici. Eh bien, c'est le répertoire des échantillons de moteur Kubernetes est assez énorme, alors prenons des échantillons Kubernetes hors. Il a Goto Cuban Re Samples Répertoire. Listons les composants ici, et il y a beaucoup d'exemples, mais nous voulons nous concentrer sur les disques persistants WordPress. Exemple. Naviguons dans le tableau de bord persistant Dash ce répertoire et quand nous regardons dedans, nous avons un tas de fichiers yamma. Ah, peu d'entre eux semblent assez amicaux. Ma suite, Dottie Amel, ma suite service wordpress point Gamel et le service WordPress commencent Camel. Ce sont tous les fichiers sur lesquels nous avons opéré précédemment, mais nous avons aussi quelques nouveaux fichiers, qui sont mon volume suite Claim et WordPress. Volume revendiqué Gargamel Ce que je fais, Voyons les. Donc, il s'avère que ma suite Dash volume réclamation pas Gammell est un fichier pour déclarer un volume persistant propre. Ses volumes auxiliaires sont des objets de stockage dans les communautés et comme leur persistance même si la pièce meurt, le volume ne disparaît pas. Il doit donc y avoir un mécanisme à travers lequel la nouvelle pièce de liaison peut se monter avec le volume. Donc, tout comme les sources avec le volume projeté, volumes de position aident le PVC ou les revendications de volume de position. Ces objets sont utilisés par les parties toe revendiquer un certain volume et l'utiliser ensuite. À partir du haut, notre genre est positionné revendication de volume, qui utilise la même version A p A comme partie ou réplique dit, qui est V un dans le milieu section plus tard, nous lui avons donné son nom pour comprendre persistante réclamations de volume mieux les comparer avec des pièces. Ils sont en fait assez similaires aux pièces consomment des ressources Nord, tandis que les nettoyages de volume persistants consomment des ressources de volume persistantes. Martin demande CPU et mémoire pour cette position. Les réclamations de volume demandent pour la section des inspections de stockage. Nous avons deux champs. Accéder aux landes et aux ressources est pour différentes applications. Pour les réclamations de volume assistant ont un accès différent, plus comme les séchés ou lire seulement beaucoup etcetera. Enfin, il va demander un bloc de stockage de 200 gigaoctets. De même, vous pouvez également regarder la revendication de volume WordPress. En dehors du nom de la revendication, rien n'est différent. Donc, au total, demandaient 400 concerts hors stockage. Appliquons à la fois ces fichiers yamma et créons des plans de volume persistants. Vous vous demandez peut-être si les réclamations de volume persistantes sont un moyen de réclamer des histoires de D. C P qui fournit réellement le stockage. Eh bien, si vous vous souvenez d'il y a quelques démos, quand nous regardons la section historique de notre cluster Jiechi, nous avons trouvé un nom de classe de stockage. classe de stockage standard est responsable du provisionnement du stockage pour les réclamations de volumes persistants . Maintenant, créons un secret pour notre mot de passe ma suite. Ensuite, examinons nos déploiements et nos services. Commençons par mon déploiement de suite. C' est tout à fait comme ce que nous avions utilisé précédemment, à part le fait que cette fois il n'utilise pas un répertoire vide comme un volume, mais il utilise un volume persistant dans Williams Field. Nous avons gardé le nom du volume, qui est ma suite, Persistent Storage, qui signifie que nous demandons kubernetes toe créer ce volume appelé ma suite Persistent Storage et nos lignes Next détermineront que ce volume va être un volume persistant. La raison est tout comme les sources avec des volumes projetés fournissaient des revendications de volume de position avec ce volume, suivi du nom de la réclamation, qui est ma suite. Volume Claim ou Mount Part est également considéré comme ce qu'il waas lorsque nous avons précédemment déployé WordPress. Sortons ce fichier et créons ce déploiement. Ensuite, nous avons mon service de suite sur le Cluster I P Type. C' est exactement comme ce que nous avons utilisé précédemment, donc nous pouvons jeter un coup d'oeil rapide et quitter ce fichier. Nous allons rapidement créer le service ainsi et vérifier notre déploiement WordPress tout comme mon déploiement de suite ici, aussi. La seule différence est le type du volume où l'enfer a fourni un volume persistant et vous avez également mentionné le nettoyage qui crée ce déploiement aussi bien. Voyons notre service WordPress, qui est également le même que la dernière fois, mais cette fois, nous espérons que ce type étant l'équilibreur de charge a un impact significatif. Créons un service à moins que vous obteniez une liste de services jusqu'à maintenant, tout se passait comme ça avec nos communautés bootstrap. Mais à partir de cette étape, nous pouvons voir le pouvoir off hébergé ou géré kubernetes off, geeky ou lord. équilibre du service fonctionne parfaitement, et nous avons un externe I p 35 à 28 0.119 non 91 dédié à notre application WordPress, ce qui signifie que nous n'avons pas à révéler la facilité externe i p hors des Nords. Et même si nous hébergeons quelques applications supplémentaires sur différents ports, ils auront leurs i p individuels donc nous n'aurons pas de conflits I p quoi que ce soit. En outre, lorsque vous décrivez le service WordPress jeter un oeil aux événements, geeky s'assure constamment que le Seigneur équilibreur fonctionne correctement. Maintenant, passons à un nouvel onglet sur notre navigateur Web et mettons simplement le I p externe sur l' équilibreur de charge . Je retire notre demande. Pas de charbon, pas de combinaison de I p et numéro de port. Rien. Juste un simple i p. Et là, nous allons ou le lieu de travail est en place et en cours d'exécution 98. Démo : Kubernetes sur Microsoft Azure Cloud: nous avons vu géré sur les communautés hébergées sur gcb, qui représentait Google Cloud Platform. Passons maintenant à Microsoft Azure. Ouvrons à nouveau le navigateur Web et allez à cette adresse azur dot Microsoft dot com. Et on y va. Nous sommes sur la page d'accueil de Microsoft Azure Cloud. Microsoft Azure est un service de cloud computing créé par Microsoft pour la création, le test, test, déploiement et la gestion d'applications et de services via un réseau mondial à partir de centres de données gérés par Microsoft . Nous pouvons voir un tas d'informations dans le monde entier, qui sont couverts par un centre de données, comme les grandes entreprises et les clients, qui utilisent à nouveau Microsoft Azure sur quelques statistiques MSP, tout comme G, C P ou tout autre cloud Breuder essayant Microsoft Azure est également gratuit. Cliquez sur le bouton Démarrer trois pour configurer notre compte. Cette page est tout au sujet de ce que vous obtiendrez en créant un compte gratuit ? Appelons plus loin pour obtenir plus d'informations, et voilà. Il dit que nous aurons 12 mois de congé, certains sur les services populaires gratuits et 25 plus toujours des services gratuits. Pas de blanc. Ce genre de drainage très. Contrairement à JCP, Azure s'est divisé. Il s'agit d'une provision de compte gratuite en termes d'utilisation horaire et de coût de consommation, qui signifie que l'utilisation gratuite hors certaines ressources sera calculée sur les pièces utilisées horaires où il est libre d'utilisation. autres ressources seront calculées en fonction du crédit déduit. Une fois que nous sommes à court de crédit, nous ne pourrons pas les utiliser gratuitement et l'esprit de volonté. Même si Azure offre de nombreux services gratuits pendant 12 mois, le solde de crédit que nous obtenons en termes hors devises est seulement pour un mois, qui signifie que si vous n'utilisez pas cette ressource est dans un délai d'un mois, vous gaspillerez des accrédités. Par exemple, si nous faisons défiler plus loin, nous pouvons voir que certaines des dispositions de calcul de base comme les machines virtuelles, disque de stockage, stockage blob, instances de serveur de base de données, etc. gratuit. Mais pour une utilisation limitée, 7 50 heures sur Lennox ou Windows Virtual Machines, deux tees SS off 64 taille de concert cinq G B hors stockage blob sont 2 50 Go de base de données. Instance. De plus, nous avons la liste des services qui sont toujours gratuits. Par exemple, service de conteneur, que nous allons utiliser assez tôt, est toujours en service gratuit, mais pour utiliser le service de conteneur ou le cluster kubernetes que vous allez déployer Williams , qui sera à nouveau facturé si nous ne sortons pas de crédits pendant trois heures. Revenons en haut et cliquez sur Démarrer bouton gratuit. Tout comme Google Cloud Platform avait besoin d'un compte Google. Microsoft Azure a besoin d'un compte Microsoft. En général, nous n'avons peut-être pas de compte Microsoft, allons donc en créer un. Vous pouvez utiliser votre adresse e-mail existante ou en obtenir une nouvelle. Nous allons utiliser un clic existant suivant. Ensuite, nous allons choisir un mot de passe approprié. Encore une fois. vous sera demandé de fournir un tribunal de vérification, que vous obtiendrez sur votre adresse e-mail, et vous devez choisir si vous voulez recevoir des courriels promotionnels à ce moment , nous n'avons pas besoin de courriels promotionnels. Alors finissons avec le tribunal de vérification et frappons ensuite. Vous pouvez également être invité à taper le texte d'une capture juste pour leur faire savoir que vous n'êtes pas un robot. Sur la page suivante, nous devons fournir certaines informations personnelles, tout comme nous l'avions fourni à Google. La première section comprend votre nom complet , adresse e-mail , numéro de téléphone etc. et certains détails. Moi prêt en fonction de l'endroit où vous vivez. Suivi par ça. Nous avons une vérification d'identité par téléphone et une vérification d'identité par carte. Tout comme JCP ici, deux gardes qui ne permettent pas les paiements automatiques peuvent ne pas fonctionner. En outre, ASHA a une autre règle qui stipule qu'un seul compte peut être créé à l'aide d'une seule carte de crédit . Une fois que vous avez fourni votre numéro de téléphone et les informations de votre carte, prochaine étape est la signature de l'accord. Cliquez sur J'accepte et continuons. Et nous voici sur le tableau de bord Microsoft Azure. Allons faire une tournée. Tout d'abord, nous devons créer un bouton de ressource. Ensuite, nous avons tous les services qui sont fournis par ASHA. Ensuite, nous avons des favoris. Ce sont des peurs mondiales. C' est mais comme nous continuons à les utiliser, les favoris me changent. Nous avons une barre de recherche conviviale, suivie de quelques options de configuration. Honnêtement, cela peut ne pas sembler aussi facile et enduré oh, comme gcb, mais c'est juste une autre plate-forme cloud, donc si vous l'utilisez assez, vous vous y habituerez. Cliquez sur le bouton juste après la partie de recherche, qui est utilisé orteil ouvrir la coquille de nuage azur, tout comme D. C. pièce coquille de nuage. Une fois que nous cliquons dessus, nous obtenons l'invite de bienvenue. Nous avons une option de choisir entre Bash et Power Shell et, pour plus de commodité, nous allons avec Bash pour utiliser Cloud Shell efficacement. Nous devons monter un stockage persistant sur ce shell cloud. Instance. Le stockage persistant est une partie de l'abonnement gratuit lui-même, donc nous ne serons pas facturés pour cela. Il est cliquer sur créer un stockage et aller plus loin. L' invite suivante est que notre disque cloud a été créé et que notre shell cloud est en cours d' initialisation. On y va. Cloud Shell mis en place son succès, mais ces téléphones semblent assez ennuyeux, donc nous allons les rendre un peu plus rafraîchissant. Aller plus loin. Créer un groupe de ressources sur le groupe de ressources est un moyen anxieux de surveiller un tas de ressources pertinentes sous un seul emplacement. Nous nommons notre groupe de ressources en tant que C C CKs et nous définissons son emplacement toe Est comme nous avions des régions et des zones dans G. C. P. Nous avons un emplacement dans Microsoft Azure et la provision du groupe de ressources est réussi. Maintenant, nous allons créer un cluster kubernetes dans ce groupe de ressources lui-même. Vous utilisez la commande easy a ks create qui signifie azure community services create . Et nous demandons à notre shell cloud de créer un cluster K avec un groupe de ressources Nord sur C. C. A. A. K, et nous autorisons également une surveillance supplémentaire. Remorquez-le. Enfin, nous fournissons la méthode d'authentification en tant que clés ssh. Beaucoup de choses se passent dans les coulisses de cette commande Azure provisioning. Ah, tout nouveau William en tant que nœud sur elle installe toutes les conditions requises comme docker kubernetes etcetera sur cette machine virtuelle. Donc, cette commande peut prendre beaucoup de temps à terminer. Mais gardez les patients comme le résultat sera doux. Une fois la commande terminée avec succès, nous obtiendrons la configuration du cluster ou la sortie de la commande au format Jason. Jetons un coup d'oeil à certains termes connus. Eh bien, le nombre de nœuds est un. Le nombre maximum de pièces possibles est 110 et le nom complet de la note n'est pas un pull pour plus le disque associé à cet avis hors 30 g b et ces ressources sont provisionnées sous le groupe de ressources Sisi s dans l'est nous. Et enfin, nous avons aussi le nom du cluster, qui est un orteil de cluster ks. Accédez à cette commande d'exécution de cluster facile a ks obtenir des informations d'identification afin que nous puissions importer les informations d'identification de l'orteil du cluster, notre hangar de nuage et le commandant réussi et nous pouvons le vérifier en utilisant des cubes. Idéal obtenir des nœuds comme nous l'avons demandé. Ce cluster a juste une note et la sortie est à peu près similaire. Toe tous les autres cubes, il ne recevra aucune commande, qui fournit des informations telles que l'état off North rolls off Nords le temps depuis que la note est en marche et en cours d'exécution, et la version Kubernetes, qui a été installé sur ça. Allons encore plus loin et exécutons ou standard dans le prochain déploiement avec une charge, équilibrage ou un service enfin . Notre déploiement et notre service ont été créés avec succès, et l'équilibreur de charge fonctionne également très bien parce que notre service a un I p externe appelé 137 lot 135.78 pas 74. Naviguons à cette adresse I P sur un onglet de navigateur séparé et là nous allons ou Engine X est en marche. Cela signifie que le cluster, que nous avions mis en place, fonctionne parfaitement bien. Tout comme gcb, vous pouvez essayer toutes sortes d'objets et expérimenter avec ceci, une grappe de cancer aussi. Réduisons le tableau de bord et explorons quelques autres aspects de ce cluster. Naviguez vers les groupes de ressources et nous pouvons voir un tas de groupes de ressources déjà créés à partir de ceux-ci, celui que nous avions créé. Il s'appelle C C A Ks, qui est situé à l'Est nous qui est cliquez dessus. Il a une ressource appelée E. K s Cluster, qui est un kubernetes géré. Instance. En cliquant dessus, nous obtenons encore plus de détails sur le cluster, que nous venons de créer. Si vous vous souvenez, nous avions également activé la surveillance de ce Lester. Alors allons à l'intérieur poignard. Ces informations portent principalement sur l'utilisation des ressources dans la période de référence. Nous pouvons le rendre plus concis en ajoutant d'autres filtres, et s'il a cherché plus loin, nous pouvons trouver toutes sortes d'informations comme les notes, utilisation du processeur, l' utilisation de la mémoire de noeud, ni compter, etc. Nous avons également des abs comme des nœuds, des contrôleurs et des conteneurs, qui fournissent des informations respectives. Si nous passons au coup de couteau, nous pouvons voir qu'il n'y a qu'un Nord qui gagne dans la grappe, et si nous devions contrôler un coup de couteau. Nous avons un contrôleur commençant par mon moteur X, qui si nous regardons de près, c'est une réplique, ledit contrôleur, qui a été créé par mes extrémités Next déploiement. Revenons maintenant à Cloud Shell et dirigeons le groupe de ressources que nous avons créé. Utilisez EasyGroup croyait commun, suivi du nom du groupe de ressources et indiquez oui pour lui donner la permission de supprimer les ressources qui sont actuellement utilisées également. Lorsque nous avons terminé, nous pouvons fermer le shell cloud et nous déconnecter de ce compte. 99. Démo : Extra - Docker UI avec Kitematic: Tout le monde se lasse des lignes de commande et des écrans terminaux à un moment donné de sa vie. C' est là que nous avons besoin d'applications G Y. film de Dr Freud Ridge Ey avec son édition Enterprise, et il s'appelle UCP. Mais comme ce cours est gratuit et il ne couvre que le contenu qui est libre d'accès et de mise en place , nous utiliserons 1/3 partie. Joy pour Docteur, appelé Kite Matic. Kite Matic est une application open source GeoEye pour Docker, qui prend en charge un seul hôte Dr Instances. Pour le moment, sans parler plus loin, passons directement à sa page d'aide get, où nous pouvons télécharger ses binaires. Accédez à votre navigateur Web préféré et accédez à cette adresse. Comme vous pouvez le voir, pragmatique est disponible pour toutes les plates-formes populaires comme Windows et Linux. Nous allons télécharger les caves pour Open to Lennox. La version actuelle de droite Matic est 0.17 point trois, qui aurait pu être opéré au moment où vous regardez le cours. Une fois le processus de téléchargement terminé, dirigeons-nous vers le répertoire des téléchargements sur notre machine hôte. Extrayons ici. Au fur et à mesure que nous allons plus loin, nous allons voir une étoile à l'intérieur de l'étoile, alors extrayons qui font enfin nous avons un fichier tar appelé données qui doit être extrait aussi. Je connais trop d'extractions, juste à l'intérieur des données, nous avons un répertoire appelé Ben, qui contient l'exécutable appelé Kite Matic. suffit de double-cliquer dessus et tout à fait Matic Joy sera opérationnel juste pour vous donner un bref exposé pragmatique compréhensif à la fois Dr Host et Docker Hub Le GOP est assez simple et interactif. Il est facile de prédire à ce stade que ce sont les rapports sur Docker Hub ainsi que les tirs. Mais n'allons pas trop vite. Cette page d'accueil a beaucoup à offrir. Tout d'abord, nous avons l'option de journalisation qui nous permet de lier notre médecin, aider compte à Kite Matic. Ensuite, nous avons une grande barre de recherche pour les images docker qui sont récupérées à partir de Docker Hub. Ensuite, nous avons recommandé ou présenté des images sur le côté droit. Nous avons des onglets comme mon peuple et mes images que mon repos montre repose sur votre compte d'aide médicale actuel . Il ne montrera rien puisque nous ne les avons pas encore vus. En d'autres termes, c'est juste un simple g y avec ni médecin ont compte lié à elle. Pourtant, mes images montreront les images disponibles sur notre machine hôte locale. Si vous remarquez ces images de différents modèles, ne regardez assez familier sur l'extrémité inférieure du côté gauche, nous avons une petite icône d'engrenage, qui représente les paramètres des applications. Vous pouvez les personnaliser comme vous le souhaitez. Nous les garderons tels qu'ils sont. Ensuite, nous avons un outil de chat dont nous n'avons pas besoin à ce stade. Et enfin, nous avons un lien vers le Dr CLI en cliquant. Cela ouvrira une fenêtre de terminal pour que nous utilisions les commandes Docker. Fermons ça. Nous avons une liste des images recommandées par DR sur votre écran, et nous pouvons créer un conteneur basé sur n'importe quelle image disponible ici en un seul clic. N' est-ce pas incroyable ? Voyons comment on peut le faire. Nous allons sélectionner l'image Bonjour World Engine X, qui est une image de moteur X légère et personnalisée pour démontrer les fonctionnalités hors. Pragmatique en bas. Bonjour World Engine X. Nous avons le nombre de téléchargements et j'aime pour l'image sur le côté gauche et créer le bouton sur le côté droit. Cliquez sur le bouton Créer pour créer et exécuter un conteneur basé sur cette image et là vous allez. Docteur se connecte au Dr Help pour télécharger l'image. Bonjour World Engine X. Parce qu'il n'est pas disponible sur un registre local large, il peut prendre un certain temps pour télécharger l'image. Une fois le processus terminé ou le conteneur sera créé avec succès. Vous avez dû remarquer l'écran de verrouillage du conteneur ici. Il sortira si longtemps des conteneurs en cours d'exécution. Nous avons zéro nombre de verrous désactivés pour hello World Container pour l'instant parce qu'il vient créé, vous pourriez aussi bien vous souvenir de la différence entre les états créés et en cours d'exécution hors conteneur . Lorsque le conteneur est créé, il n'aura pas de journaux, mais dès qu'il sera en cours d'exécution, nous aurons quelques journaux de conteneur entier sur le côté gauche du conteneur. L' écran de verrouillage indique une liste d'arrêt des conteneurs en cours d'exécution et d'arrêt. Il inclut même les conteneurs, qui ne sont pas démarrés par Kite Matic. Nous n'avons pas de conteneurs de pré-fonctionnement ou d'arrêt à ce moment, donc le seul conteneur disponible est hello World Engine X. Nous avons également la section volume en bas à droite de l'écran. Ce sont les fichiers du site Web de volume, qui est monté sur notre conteneur en cours d'exécution. Bonjour le monde. Nous pouvons activer le volume afin de modifier le fichier stocké dans celui-ci. Cliquez sur activer les volumes et voir ce qui se passe. Nous avons été dirigés vers la partie. Accueil documents barre oblique slash kite Matic slash Hello World Engine X sur votre machine locale. Kite Matic a exposé le volume des conteneurs comme un répertoire sur notre machine locale, ce qui permet aux utilisateurs d'y accéder facilement. Comme nous accédons au site de volume Underscore fichiers, nous pouvons voir le point d fort index html quand chose importante à remarquer. Voici dès que nous avons activé les volumes pour l'édition du moteur X conteneurs arrêter de tourner. Il a été supprimé et redémarré avec un nouvel indicateur de volume pour refléter les modifications apportées aux volumes. Nous n'avons apporté aucun changement dans le volume ici sur les volumes dans le coin supérieur droit. Nous avons la section Révision Web. Cela nous permettra de voir les résultats des conteneurs sur notre navigateur Web. Optimisons l'orteil de révision WEP. Jetez un coup d'œil. Bonjour, World engine X conteneur est en cours d'exécution sur hôte local ou 3 à 769 Revenons à assez Matic et vérifions les résultats. En utilisant Doctor CLI sur son terminal, le docteur Pius tiret E pour énumérer tous les conteneurs en cours d'exécution et d'arrêt. Le résultat rassure que bonjour, le conteneur World Engine X fonctionne avec succès sur le même port. Revenons au guide, médecine et à l'arrêt du conteneur. Comme nous pouvons le voir, il y a plusieurs icônes disponibles exactement sur la section longue du conteneur, nous avons Stop, redémarrer, exact et docks icônes ici. Et comme leurs noms l'indiquent, arrêtez et redémarrez. Les icônes sont utilisées pour arrêter et redémarrer les conteneurs. Exactement. Icône est utilisée pour exécuter une commande sur un conteneur en gravure. Docks Icône nous dirigera vers Dr Documentation. L' Argentine a été arrêtée. Ne jamais vous rendre sur le côté gauche de l'écran où tous les conteneurs sont répertoriés. Nous voulons supprimer ce conteneur, alors cliquez sur l'icône en croix pour supprimer le conteneur. Une boîte de dialogue s'affiche à l'orteil. Demandez votre confirmation sur le processus de suppression presse, Imu et ou conteneur a été supprimé et nous sommes de retour à l'écran d'accueil. Nous pouvons également rechercher une image particulière ici. Il est similaire à Dr Search Common. Il suffit de retirer le nom de l'image docker que vous voulez rechercher recherchera l'image sur le registre Docker lui-même. Donc, nous allons taper registre et appuyer sur Entrée. Nous avons toutes les images du médecin qui incluent le registre dans leurs noms. Le premier résultat est l'image officielle du registre Docker avec 419 millions de téléchargements. Tout comme bonjour monde et la génétique. Nous pouvons jouer avec cela sur n'importe quelle autre image aussi. Donc, ce était tout à fait Matic le médecin G y. Vous pouvez jouer avec elle plus loin et vous pouvez même lier votre propre compte de hub médecin pour l'utiliser interactif Lee. 100. Démo : Extra - Minikube série |Installation Minikube: avant d'installer Mini Cube sur notre machine Lennox Lexan une norme apt obtenir mise à jour et installer certaines dépendances. Nous installons son paquet de transport DDB. Et si vous vous demandez pourquoi ont applaudi le drapeau acquérir Force I p quatre égale True, c'est pour vous assurer que la réponse ne reste pas bloquée lors de la recherche d'une adresse i P V six . Parce que ce système utilise une adresse I P V quatre. Si vous n'avez pas un tel conflit, vous pouvez ignorer cet indicateur une fois la mise à jour terminée. Téléchargeons une annonce. G PG R Gene vous clé Privacy Guard pour les communautés utilisant Curl Command suivi de ce lien , nous avons obtenu une confirmation avec Oki. Non, nous allons ajouter kubernetes mise à jour partie aux fichiers de liste de points sources pour vérifier l'ajout Leçon après avoir un peu à nouveau Et il a été un succès. Si vous pouvez voir la ligne commençant par, get 12 a récupéré les paquets du dépôt principal Kubernetes Zaenal, tout comme Docker ou Virtual Box. Maintenant, il est temps d'installer Cube CDL, qui est également une condition préalable pour exécuter Mini Cube et et Sudo Apt obtenir des cubes d'installation, il crie, utilisé un trait d'union par défaut par Voyons voir si l'installation a été réussie. Exécution de la version CTL Cube et obtenir l'installation a été réussie. Non, nous allons télécharger Mini Cube à partir de son dépôt officiel en utilisant appelé Again. Maintenant, nous allons rendre Mini Cube exécutable en utilisant C H Mart, qui signifie changer plus plus X. Et enfin, ajoutons cet exécutable à l'utilisateur slash répertoire bin local slash et éventuellement. Vous pouvez le retirer d'ici aussi. Bon, combien de cubes mis en place est terminé ? 101. Démo : Extra - Minikube Series |Démo, commencer avec Minikube: Maintenant, commençons notre cluster de mini cube kubernetes à nœud unique, en utilisant de nombreux cubes, commande de démarrage et de fournir son pilote d'ization virtuel ou pilote de machine virtuelle comme boîte virtuelle. Si vous vous souvenez, nous aidons à bien démarrer la boîte virtuelle, configurer docker essaim aussi, sorte que notre machine a déjà mis en place. Mais dans le cas où vous l'avez retiré, vous pouvez retourner au formulaire des médecins, mettre en place la conférence et vérifier les instructions d'installation pour ce qu'elle va boîte. Ça, dit Indo. Si vous regardez de plus près le processus, y at-il assez similaire à la façon dont nous bootstrap ou kubernetes régulières cluster ? Il obtient des adresses I P de Reims. Il se déplace classée vers une machine virtuelle isolée. C' est absurde les fourrés. Il connecte notre cluster d'abris, et il met également en place un conflit de cube, qui est utilisé pour mettre en place des configurations kubernetes. On dirait que les processus sont terminés. Essayons d'exécuter un déploiement sans être pris en charge. Nous allons simplement faire tourner notre moteur vanille X et exposer son port 80 comme un service Northport utilisaient la dernière image suivante du moteur, alors nous allons appuyer sur Entrée. Nous obtenons notre avertissement standard sur Cube City Children pourrait obtenir un ID obsolète à l'avenir, mais notre déploiement est créé lorsque nous apprenons que Cube City recevra des pièces. Il semble qu'un déploiement d'une seule pièce ait été créé et que le conteneur soit toujours en cours de création. Décrivons la pièce en utilisant des cubes que vous allez décrire, et la description ressemble assez à toutes les parties précédentes que nous avons créées, ce qui signifie que si vous exécutez un cluster kubernetes de bootstrap standard sur votre prémisse, toute l'urine dans kubernetes sur Cloud tout votre course Mini Cube City en ligne de commande et ses performances restent les mêmes. Et pendant que nous regardions la description, il semble que notre conteneur a été créé et démarré, ce qui est bon. Nous allons sur cubes idéal Obtenir des pièces à nouveau et là nous allons. Notre exportation de moteur est opérationnelle. va de même pour notre déploiement, et il y a un écart de six secondes entre le déploiement en cours de création et la pièce en cours création, ce qui est très bien. Bien que nous soyons ajoutés, nous pouvons également jeter un oeil à la description des déploiements à partir des étiquettes. Tout est similaire à un cluster kubernetes régulier, y compris le roulement de grande stratégie et événements. Non. Exposons notre serveur de moteur de déploiement X avec le type de service Northport et nos services exposés. Puisque nous avons utilisé le service Northport, nous devons savoir quels ports publics ont été cartographiés pour contenir un sport. 80. Nous allons tourner les cubes, il va obtenir s Nous voyons nos services. On dirait des conteneurs. port 80 est mappé aux machines hôtes Port public 30 à 29 assez juste. Ce qui signifie qu'une combinaison hors machines hôtes I p et le port public exposé devrait nous donner des extrémités. Prochaine page d'accueil. Mais bien ici, machine hôte ne veut pas dire cette machine. Cela signifie la façon dont m sur laquelle beaucoup de Cube est en cours d'exécution. Et pour obtenir son I p. Nous allons courir beaucoup Cube I p r I. P est 192.168.99.100$ qui est l'utiliser. Ouvrez votre navigateur Web préféré et terminez la combinaison de ports I B. On y va. Le Reem en cours d'exécution Mini Cube héberge Engine X sur son port 30 à 29. Super. Maintenant, allons plus loin et jeter un oeil au tableau de bord Kubernetes en utilisant Mini Cube Dashboard Command, et notre tableau de bord s'ouvre sur notre navigateur Web sur le sport hôte local 37339 Ici nous sommes. C' est Kubernetes Dashboard ou kubernetes G Y. Il semble simple, intuitif et agréable à travailler avec. En partant du haut à gauche, nous avons Cubain. C' est le logo. Il est rejoint par une barre de recherche qui peut être utilisée pour filtrer les objets comme les déploiements, Pardes, etc. et en haut à droite. Nous avons aidé à créer Button, qui est utilisé pour créer des objets kubernetes, mais nous y reviendrons plus tard. Jetez un oeil aux charges de travail. Nous avons des déploiements, des barbes et des ensembles de répliques qui gagnent, et il semble que tous fonctionnent parfaitement. Pourtant, le 100% signifie que tous les déploiements, toutes les pièces et tous les jeux de réplicas sont dans l'état souhaité. Ci-dessous, nous avons des détails pour tous ceux qui commencent par le déploiement. Les détails présentés ici un assez similaire à la sortie off cube CTL get commande. Mais ici, nous avons la représentation GeoEye sur tous et au lieu d'avoir une colonne hors état exécution, nous avons une coche verte qui indique son état d'exécution et ce que le premier de la sortie de Cube City obtiendra est que nous obtenons également un liste des étiquettes qui sont attachées à ces objets kubernetes représentés en dessous de la section de charge de travail. Nous aidons à la découverte et à l'équilibrage de charge, qui répertorie essentiellement tous les services que nous avons aux services gagnants, parmi lesquels le premier est Engine X Server, qui est Northport Service, que nous venons de créer un il y a quelques minutes. Nous avons toutes sortes de détaillants comme le point de terminaison interne Blaster I p off les points de terminaison externes de service qui ne sont pas disponibles en ce moment, chacun hors du service et des étiquettes et ci-dessous nous aidons les communautés, qui est le service par défaut, et enfin nous aidons les objets de configuration et de stockage. Puisque nous n'avons pas provisionné de volume ou que nous n'avons pas utilisé de montages de valeur, nous avons juste un volume projeté, qui est un jeton par défaut, qui a été créé lors de la mise en place de la minute où vous plâtrez sur le volet gauche. À partir du haut, nous avons diverses constructions hors du cluster suggèrent des espaces de noms, des Nords, des volumes persistants , des règles , des lunettes de stockage etc. Ensuite, nous avons mis en place des options pour naviguer vers des charges de travail particulières, des services particuliers ou des objets de stockage particuliers, et à la fin, nous aidons à propos et à définir les étapes. Commençons par des noms. L' espace est comme un cluster kubernetes régulier. Ce mini cube a également trois espaces de noms, qui sont le système Q Public Cube et le fort. Puisque nous n'avons pas créé d'espace de nom défini par l'utilisateur , les trois sont en cours d'exécution. Depuis le début du cluster, nous avons des informations sur le Nord. Vous vous demandez peut-être si Mini Cube est juste un cluster kubernetes à nœud unique. Pourquoi n'avons-nous pas d'informations en premier lieu ? Eh bien, beaucoup de cube et de tableau de bord kubernetes sont des entités différentes. Mini Cube Dashboard Command nous permet simplement d'utiliser le tableau de bord Kubernetes, qui montre l'état actuel du cluster à nœud unique. Mais le même tableau de bord peut également être utilisé avec un cluster Adam cube bootstrap, auquel cas vous aurez plus d'un Nords, tout comme les autres charges de travail. La carte Nord contient également des détails tels que des étiquettes, des demandes de ressources d'état et des limites de ressources. Vous pouvez accéder à d'autres onglets tels que les volumes persistants , les rouleaux , les classes de stockage , etc. Mais nous allons sauter directement à quelque chose qui ressemble à un menu déroulant, et il dit des espaces de noms. C' est un menu déroulant, et il est utilisé pour passer d'un nom, espace toe un autre. Actuellement, nous sommes dans l'espace de nom par défaut. Mais si nous changeons notre espace de nom, les objets disponibles changeront également. Nous pouvons naviguer à travers différents forclulose aussi. Allons aux déploiements, et nous obtenons la même sortie, que nous avons sur la page d'accueil. Mais cette fois, cette sortie n'est pas accompagnée de jeux de réplicas et de pièces. Cliquez sur le nom du déploiement pour voir ce qui se passe. Eh bien, bien, ça a l'air assez similaire. En fait, c'est un ressemble au résultat Off Cube CDL description commande. Lorsque nous décrivons un déploiement, nous avons toutes sortes d'informations comme le nom, les noms, la base, annotation d' étiquette , le temps de création etc. Ensuite, nous avons aidé un jeu de réplicas, qui est en cours par ce déploiement, et à la fin, nous aidons des événements comme la sortie de la commande description. Puisque nous n'avons pas initialisé de tueurs d'autos de pièces horizontales, ce champ est vide. De même, lorsque nous allons à l'étape partielle, tout ce que nous obtenons sont des parties. En cliquant sur le pardon, vous obtiendrez également la sortie de Cube City et décrivez la commande part . Mais ne soyons pas le prédateur. Voyons voir, quelles sont ces quatre lignes ? Il dit l'action et les journaux. Il est clic sur eux et là nous allons ces quatre lignes ont montré les journaux de son moteur X Server partie et la langue. Ian R D. G. Nous pouvons télécharger les journaux que nous contenons pour dimensionner le texte, le texte, , la couleur, etc. et sous l'onglet action, nous avons deux options. Orteil. Visualisez ou modifiez simplement le fichier Gamel ou supprimez complètement le déploiement. Revenons à la vue d'ensemble sur la page d'accueil. Retournez, orteils ou terminus et arrêtez ce cluster à l'aide de Mini Cube Stop Command. Il est important d'arrêter votre cluster lorsque vous ne l'utilisez pas, mais votre système peut passer à l'état O M R Out hors mémoire. Et enfin, supprimons le cluster en utilisant beaucoup de cube delete et le Glasser est supprimé. Commandes simples, vie simple. 102. Introduction à Kubernetes sans Serverless: Bonjour et bienvenue à la masterclass The Container. Nous sommes de retour avec une mise à jour importante cette fois avec quelque chose qui est devenu le centre de la conversation autour de l'écosystème Kubernetes. Et c'est-à-dire que Kubernetes va sans serveur. Autrement dit, serverless signifie ne pas avoir à se soucier du tout de l'infrastructure sous-jacente. Par exemple, lors de l'exploitation d'un cluster Kubernetes régulier, nous avons vu que l'utilisateur interagit avec le maître et transmet la requête via le maître. Lorsque nous utilisons Kubernetes hébergé est comme Google, moteur d'entités Google. Nous, en tant qu'utilisateurs amarrés à la plate-forme de service de communauté hébergée à la place, comme Google Cloud. Mais nous devons gérer le cluster. Nous sommes très conscients des configurations de cluster et nous devons également garder un œil sur l'utilisation des ressources pour voir si nous devons mettre à l'échelle le cluster pour une meilleure gestion de la charge. En d'autres termes, Kubernetes hébergé nous permet d'héberger et de gérer le cluster sur leurs ressources. Mais pensez à cette affaire. Tout ce dont vous avez besoin est un navigateur de bureau qui fonctionne. Vous devez faire quelques clics ici et là. Et boum. Votre application conteneurisée est en ligne. C' est Kubernetes sans serveur. Elle est dans les coulisses dans le back-end au fournisseur de services Kubernetes sans serveur a également beaucoup de clusters Kubernetes déployés, mais vous n'avez pas à vous inquiéter à ce sujet. Cela a quelques implications. abord, vous ne connaissez pas tous les détails du cluster sur lequel vous opérez. Il y a des exceptions, mais nous y reviendrons plus tard. Deuxièmement, la plus petite unité d'acquisition n'est plus un tas de machines virtuelles. On vous donne simplement un espace de noms distinct et il est très probable que d'autres utilisateurs opèrent également sur le cluster sur lequel se trouvent vos conteneurs. Mais vous ne vous heurterez jamais à cause de l'isolement de l'espace de noms et sont des stratégies d'accès de retour. Cela rend le déploiement de vos applications encore plus rapide, économique et plus facile. Le cloud R1 de Google Cloud est un excellent exemple d'offres Kubernetes sans serveur. Dans la prochaine conférence, nous allons mettre en pratique avec Cloud run. Jusque-là, heureux apprentissage. Et j'espère que vous passerez une belle journée. 103. Activer l'API Cloud Run sur GCP: Bonjour et bienvenue à la masterclass The Container, ou comme nous l'appelons très informellement le CMC. Comme vous vous en souvenez peut-être de beaucoup, beaucoup de vidéos de ce cours. Il s'agit du tableau de bord Google Cloud. Cloud R1 fait partie des offres Google Cloud Platform. Tellement comme les machines virtuelles Google Compute Engine ou gk est hébergé. Kubernetes est la façon de naviguer est à travers l'icône de hamburger. Avant de commencer à utiliser Cloud run, nous devons nous assurer que nous avons activé son API et notre projet GCP. Accédez à API et services. Cliquez sur le tableau de bord et vous trouverez des statistiques sur une liste d' API pertinentes pour les produits utilisés dans le cadre de votre projet GCP. Il montre que nous avons eu le plus grand nombre de demandes faites aux API Compute Engine et de journalisation. Ce qui est logique car les machines virtuelles GCE et les clusters GK sont hébergées à l'aide de machines virtuelles Compute Engine. Pour trouver l'API d'exécution du cloud, passons à l'onglet Bibliothèque. Vous pouvez voir un tas d'API divisées par catégories d'utilisation. Nous ne voulons pas continuer à défiler pour l'éternité. Donc, nous allons utiliser l'une des meilleures inventions de l' informatique pour la fonction de recherche, tapez nuage R1. Et le premier résultat que vous voyez devrait être notre API cible. Au cas où vous auriez des résultats différents. Vous pouvez vous souvenir de cette petite icône, qui ressemble à un bouton de lecture stylisé ou d'avant pour un lecteur de musique. Une fois que vous atterrissez sur la page de l'API d'exécution du cloud, vous pouvez remarquer beaucoup de détails comme la dernière mise à jour de l'API, ou sa description d'une ligne unique, ou encore son aperçu, ou même des liens vers sa documentation et certains tutoriels Quickstart. Prenons un moment de détente et regardons la vue d'ensemble de la course en nuage. Ceci est important parce que c'est ainsi que Google décrit et veut que nous percevions l'exécution autorisée comme un produit. Il s'agit d'une plate-forme de calcul gérée. Bien sûr, parce que comme nous l'avons mentionné, il fonctionne sur le cluster Kubernetes dans le backend. Il vous permet d'exécuter des conteneurs d'application sans état dans utilisable via des API HTTP. Les API HTTP sont très bien parce que tout ce que nous avons fait jusqu'à présent dans ce cours a utilisé des requêtes HTTP d'une manière ou d'une autre. Mais le détail le plus crucial ici est cloud sans état RUN d'enregistrement de cette vidéo en Novembre 20-20 ne permet que les applications sans état. Donc, pas d'ensembles avec état. Mais les déploiements sont apatrides. Donc on devrait pouvoir jouer avec eux. Reste des boîtes, comment il résume la gestion de l'infrastructure. Nous l'avons déjà vu lors de la dernière conférence. Donc, activons l'API. L' API est prête. Il montre un trafic précédent parce que je l'avais utilisé pour tester plus tôt. Maintenant, retournons dans le nuage, traversons l'icône du hamburger. La liste des services est vide car ce serait la première fois que vous l'utilisez. L' API est prête et nous pouvons commencer créer notre premier Cloudera et service dans la prochaine conférence. Jusque-là, heureux apprentissage. Et j'espère que vous passerez une belle journée. 104. Votre 1st service sur Cloud Run: Bonjour et bienvenue au CMC. Et dans cette conférence, nous allons créer notre premier service nuageux. Nous sommes sur la page d'exécution Google Cloud et nous allons activer son API dans la conférence précédente. Cliquez sur le bouton Créer un service et vous serez guidé vers la page des paramètres du service. Encore une fois, Google est en cours d'élaboration avec les descriptions là-bas, en élaborant ce que le service est. Ceci est utile et frustrant en même temps parce que nous avons déjà vu Docker essaim et Kubernetes objets appelés Services, conduisant à des interprétations différentes. soit, pour le Cloud run, service est comme un ensemble mixte de déploiements de l'humanité et de services communautaires. C' est un point final, ainsi qu'une unité d'orchestration de charges de travail sans état. En outre, il est important de noter que le service créé par le cloud run évolue automatiquement. Cela supprime un autre fardeau de nos fragiles petites épaules DevOps. En passant, nous avons entendu la plate-forme de déploiement, qui est définie sur Cloud exécuté par défaut. Nous avons déjà vu ce qu'est le nuage R1. L' autre option est appelée Cloud run quatre et lancer. Et toss est pour les utilisateurs qui veulent héberger leurs conteneurs sur leurs propres clusters, mais qui veulent toujours des fonctionnalités sans serveur pour les développeurs finaux. Et toss vous permet de configurer le cloud run sur votre cluster gk II, sur des serveurs Google ou sur vos propres serveurs. Nous nous en tiendrons à Cloud run et nous choisirons une région. Suivant. Nous donnerons un nom à tous les services. Appelons ça bonjour Cloud run. En appuyant sur Suivant, nous sommes amenés à une page d'options de configuration. Google dit que les serveurs peuvent avoir plusieurs révisions, mais les conflits de chaque révision sont immuables. Cela signifie que chaque fois que vous apportez des modifications à l'une des configurations de serveurs, comme l'image de conteneur ou l'exposition de port, elle sera utilisée comme une nouvelle version de votre service. Contrairement à précédemment, où nous pouvions simplement appliquer Cube CDL, tout changement et déploiements seraient modifiés. Tout d'abord, cette nouvelle approche offre un excellent contrôle de version et une accessibilité aux révisions. De plus, puisque chaque changement est une nouvelle version du service, le déploiement des déploiements bleu-vert ou janvier devient encore plus intuitif. Puisque tout ce que vous avez à faire est de gérer le trafic entre deux versions d'un service, alors nous avons le choix entre l'utilisation d'une image de conteneur de Google Container Registry de notre projet ou d'un repo source comme GitHub. La deuxième option est utile lorsque nous voulons mettre en place un pipeline de déploiement continu. Ici, nous voulons nous en tenir à une seule version, cliquez sur Select, et choisissez une image de conteneur de démonstration appelée Bonjour. Ceci est l'une des images intégrées de Google fournies à chaque projet GCP pour les amateurs d'essayer Cloud run. Cliquez sur Suivant. Enfin, nous pouvons choisir comme les machines virtuelles Compute Engine ou le cluster GK. Si nous voulons autoriser les connexions externes sans authentification. Définissez-le sur oui. Appuyez sur Créer. Nous pouvons voir l'état du service en cours de création, le déploiement de la révision, la mise en place des stratégies d'accès, le routage du trafic. Tout est fait en quelques clics. La seule et unique révision est appelée Hello cloud R1 00001 portée de trait d'union. Nous obtenons également un tas d'informations sur le conteneur, comme l'URL de l'image, numéro de port exposé, qui est 8080, dans ce cas, dans la commande, qui est hérité des images Docker, garçon d' entrée et certaines statistiques d'allocation de ressources. Plus important encore, écrivez en plus du nom de notre service, nous pouvons voir la région que nous avions sélectionnée et le lien où le service est exposé. Vous pouvez simplement cliquer sur ce lien. Et nous y voilà. Une belle petite page de destination par Google. Vous pouvez faire beaucoup plus avec Cloud run, comme vous l'avez peut-être déjà deviné. Mais c'est une conversation pour un autre jour. Vous pouvez revenir à la page Services et voir votre service répertorié avec les paramètres que vous aviez appliqués. Bien sûr, vous pouvez sélectionner le service et le supprimer en utilisant le bouton en haut lorsque vous n'en avez pas besoin. Ce serait tout pour cette mise à jour rapide. J' espère que vous avez aimé cette douce petite introduction à ce puissant outil. Nous n'avons pas encore fini avec l'exécution sans serveur ou cloud. Nous reviendrons avec plus de bonus et de mises à jour à l'avenir. Prêter. Comme toujours, heureux apprentissage. Et j'espère que vous passerez une excellente journée. 105. Conclusion: tout d'abord un énorme réservoir orteil tous quelques merveilleux étudiants qui se sont inscrits à ce cours croyaient en nous et coincé jusqu'à la fin. Nous espérons vraiment que nous vous avons bien vendu, et nous espérons que le cours a répondu à vos attentes. Si vous aimez ce fantôme, lisez-nous avec cinq étoiles. Si vous pensez que le cours n'était pas à la hauteur ou qu'il manquait quelque chose, hésitez pas à nous le faire savoir dans la section Q et A pour le message ou même avec des commentaires, nous allons certainement revenir vers vous, et nous allons essayer de résoudre vos suggestions le mieux possible. Et si cela vous satisfait, gentiment lecteurs mieux. Vos notes seront d'une grande aide, car cela permettrait à d'autres étudiants de découvrir ce cours et de participer à ce voyage. Avec cela dit, Rendez-vous avec des mises à jour Happy learning.