Débuter avec AWS | Pravin Mishra | Skillshare

Vitesse de lecture


1.0x


  • 0.5x
  • 0.75x
  • 1 x (normale)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Leçons de ce cours

    • 1.

      Comptes AWS

      4:27

    • 2.

      Créer un compte AWS

      5:25

    • 3.

      Niveau gratuit d'AWS

      4:16

    • 4.

      Sécuriser un compte AWS

      6:05

    • 5.

      Politique de MFA et de mots croisés

      4:52

    • 6.

      Mettre en place Budget et Alerte

      5:08

    • 7.

      Méthodes d'interaction avec AWS

      8:03

    • 8.

      Utiliser le conto de gestion AWS

      8:44

    • 9.

      Installer AWS CLI

      2:51

    • 10.

      Utiliser l'interface de commande de niveau d'AWS

      4:15

    • 11.

      Régions et zones de disponibilité AWS

      14:18

    • 12.

      Emplacements AWS Edge

      5:23

    • 13.

      Qu'est-ce que la gestion d'Identity et d'accès ?

      7:24

    • 14.

      Utilisateurs, groupes et rôles

      9:23

    • 15.

      Créer un utilisateur et un groupe IAM

      7:49

    • 16.

      Identifiez-vous avec IAM User et créer un rôle

      4:46

    • 17.

      Politiques IAM

      10:14

    • 18.

      Meilleures pratiques de l'IAM

      6:45

    • 19.

      Aperçu d'Amazon S3

      6:31

    • 20.

      Disponibilité, durabilité et réplication de données S3

      5:53

    • 21.

      Classes de stockage

      9:58

    • 22.

      Démo de seau S3

      6:40

    • 23.

      Aperçu d'EBS (stockage de blocs élastiques)

      6:24

    • 24.

      Aperçu d'EFS (Elastic File System)

      5:40

    • 25.

      Introduction au réseautage

      1:24

    • 26.

      Qu'est-ce qu'un VPC ?

      4:28

    • 27.

      Subnet, passerelle Internet, table d'itinéraire et passerelle NAT

      8:19

    • 28.

      Groupes de sécurité et NACL

      5:34

    • 29.

      Créer un sous-réseau VPC, public et privé

      9:45

    • 30.

      DNS et Amazon Route 53

      4:12

    • 31.

      AWS VPN et AWS Direct

      5:00

    • 32.

      Services informatiques dans AWS

      4:16

    • 33.

      Machine virtuelle

      6:00

    • 34.

      Cloud informatique élastique dans EC2

      4:17

    • 35.

      Composant d'Amazon EC2

      5:43

    • 36.

      Naming d'instance EC2

      7:10

    • 37.

      Types d'instance

      9:15

    • 38.

      Lancer votre première instance EC2

      14:18

    • 39.

      Instance SSH EC2, installer Httpd

      7:35

    • 40.

      Créer une instance EC2 Windows

      5:27

    • 41.

      Service de récipient élastique dans ECS

      5:57

    • 42.

      Haricot élastique AWS

      6:15

    • 43.

      Informatique sans serveur

      3:52

    • 44.

      AWS Lambda

      7:35

    • 45.

      Types de données

      5:01

    • 46.

      Bases de données relationnelles

      5:12

    • 47.

      Bases de données NoSQL

      3:49

    • 48.

      Hébergement de base de données sur site vs Cloud

      2:43

    • 49.

      Service de base de données relationnelle Amazon

      6:30

    • 50.

      Amazon DynamoDB

      5:01

    • 51.

      Créer une instance RDS

      11:47

    • 52.

      Amazon Elasticache

      4:27

    • 53.

      Amazon Redshift

      3:47

    • 54.

      Autoscalage

      6:51

    • 55.

      Groupe de mise à l'échelle automatique EC2

      3:34

    • 56.

      Politiques d'autoscalage EC2

      8:22

    • 57.

      Modèle de lancement et de lancement

      6:05

    • 58.

      Équilibreur de charge

      3:21

    • 59.

      Qu'est-ce qu'un équilibreur de charge élastique (ELB) ?

      4:48

    • 60.

      Équilibre de charge élastique (ELB)

      4:56

    • 61.

      Utiliser ELB et l'échelle automatique ensemble

      17:29

  • --
  • Niveau débutant
  • Niveau intermédiaire
  • Niveau avancé
  • Tous niveaux

Généré par la communauté

Le niveau est déterminé par l'opinion majoritaire des apprenants qui ont évalué ce cours. La recommandation de l'enseignant est affichée jusqu'à ce qu'au moins 5 réponses d'apprenants soient collectées.

100

apprenants

--

projets

À propos de ce cours

Ce cours pour débutants avec AWS vous fera passer du débutant absolu à professionnel du cloud dans AWS. Le cours comprend tout, des bases aux démonstrations pratiques des services Amazon Web Services (AWS). Ce cours est idéal pour les débutants, aucune expérience AWS n'est requise !

Après avoir réussi ce cours :

  • Vous aurez une compréhension approfondie du compte AWS, de ses idées de création et de la sécurité qui y est associée.

  • Vous pourrez créer un compte AWS et pourrez utiliser ses ressources gratuites et comment vous pouvez sécuriser votre compte AWS.

Si vous cherchez un cours plus court et plus complet pour commencer votre voyage avec l'AWS, ce cours est fait pour vous ! J'espère vous voir dans le cours.

Rencontrez votre enseignant·e

Teacher Profile Image

Pravin Mishra

Cloud For Everyone

Enseignant·e

AWS Community Builder | AWS Solutions Architect - Professional | Google Cloud Certified Trainer

12+ years of experience in IT and 8 years of teaching experience. Enterprise Architect, specialized in Architecting, Designing, Developing and Implementing Multi-Cloud base solutions.

Voir le profil complet

Compétences associées

Développement Développement Web
Level: Beginner

Notes attribuées au cours

Les attentes sont-elles satisfaites ?
    Dépassées !
  • 0%
  • Oui
  • 0%
  • En partie
  • 0%
  • Pas vraiment
  • 0%

Pourquoi s'inscrire à Skillshare ?

Suivez des cours Skillshare Original primés

Chaque cours comprend de courtes leçons et des travaux pratiques

Votre abonnement soutient les enseignants Skillshare

Apprenez, où que vous soyez

Suivez des cours où que vous soyez avec l'application Skillshare. Suivez-les en streaming ou téléchargez-les pour les regarder dans l'avion, dans le métro ou tout autre endroit où vous aimez apprendre.

Transcription

1. Comptes AWS: Bonjour les étudiants, bienvenue dans une autre vidéo. Avant de passer à AWS et de commencer à explorer ses services, nous avons tout d'abord besoin d'un compte AWS. Mais avant de créer votre compte AWS, il y a quelques éléments que vous devez savoir. Dans cette vidéo. Nous parlerons des éléments d' un compte AWS et des éléments dont nous avons besoin pour créer un compte pour nous-mêmes. Allons-y directement. Il s'agit d'un compte AWS. Je suppose que vous n' avez pas déjà de compte. Nous allons donc en créer un dans la prochaine leçon. Et le compte AWS est un conteneur dans lequel vous créez et gérez toutes vos ressources et services AWS. La première chose dont vous avez besoin pour créer et gérer un compte AWS est une identité. Nous couvrirons l'identité dans le module IAM. Mais pour l'instant, vous pouvez le comprendre en tant qu'utilisateur. Cet utilisateur contrôlera et gérera l'intégralité de son compte. Vous allez alors créer un compte pour vous-même. Vous agirez comme une identité. En tant qu'utilisateur, vous allez maintenant créer des ressources dans votre compte qui finiront par générer des factures. Vous pouvez également gérer tous les types de facturation sur le même compte. Par conséquent, chaque compte possède ses ressources AWS, son identité et son bâtiment. Un compte AWS est un environnement naturellement sécurisé. Personne en dehors de votre compte ne peut accéder à vos ressources et vous recevrez les factures. Uniquement pour les ressources que vous fournissez dans votre compte. Vous pouvez commencer votre parcours AWS avec un seul compte. Mais lorsque votre organisation augmente en taille et en complexité, il peut être difficile de tout gérer sur un seul compte. C'est pourquoi AWS recommande d'utiliser plusieurs comptes. Par exemple, vous pouvez créer des comptes distincts pour les équipes de développement, de test et de production de votre organisation. Parce qu'il simplifie le processus de contrôle de sécurité et de facturation pour chaque équipe et offre à différentes équipes la flexibilité requise pour qu'elles puissent se concentrer sur l'innovation. Voyons maintenant ce dont vous avez besoin pour créer un compte AWS. Tout d'abord, vous avez besoin d'un identifiant e-mail, qui doit être unique. Cela signifie qu'il ne doit pas être utilisé dans aucun autre compte AWS. Vous avez également besoin d'une carte de crédit ou de débit, qui est nécessaire à des fins de facturation. Avec ces deux informations, vous pourrez créer un compte AWS. Lorsque vous créez un nouveau compte AWS, vous créez essentiellement un utilisateur qui contrôle tous les services et ressources de votre compte. Cette identité ou cet utilisateur est connu sous le nom de compte AWS, l'utilisateur racine. L'utilisateur racine peut se connecter avec l'adresse e-mail et mot de passe que vous avez utilisés lors la création du compte . Nous parlerons en détail de l'utilisateur racine dans le module de sécurité AWS. Lorsque vous vous connectez à votre compte AWS, le premier tableau de bord que vous voyez s' appelle AWS Management Console. Il s'agit d'une console Web à laquelle vous pouvez accéder via un navigateur Web. Il existe également d'autres moyens d' accéder aux comptes AWS, que nous verrons dans le prochain module. vous sera également demandé d'authentifier votre identité lorsque vous vous connectez pour la première fois. Il s'agit essentiellement de la gestion des identités et des accès, communément appelée service IAM, qui garantit un accès sécurisé à votre compte AWS et aux ressources qu'il contient. Nous allons également explorer en détail dans un module ultérieur. Nous sommes donc tous prêts à créer un compte AWS. 2. Créer un compte AWS: Bonjour les étudiants, bienvenue. Dans cette vidéo, nous allons créer un compte AWS Free Tier. L'objectif d'AWS Free permettre aux clients et aux nouveaux utilisateurs d'explorer AWS et d'acquérir expérience pratique requise avant commencer à construire leur infrastructure Cloud. Ainsi, comme son nom l'indique, le temps libre se compose de services et de ressources libres d'utilisation dans AWS avec certaines conditions générales. Nous en avons discuté dans la vidéo précédente. Vous avez besoin d'un identifiant e-mail unique et d'une carte de crédit pour créer votre compte AWS. Vous aurez également besoin d'un formulaire pour recevoir un code de vérification par SMS, qui fait partie de l' ouverture du compte. Maintenant, vous pensez peut-être que si vous n'utilisez que des services CAS gratuits, pourquoi devez-vous entrer les détails de votre carte ? Eh bien, c'est parce que le pneu gratuit est une offre limitée. Et au cas où vous épuisez la limite ou service utilisateur qui ne tombe pas sous le pneu libre. Nous avons une jolie couleur la quantité. Par conséquent, il est obligatoire de configurer notre méthode de facturation, comme la création de votre compte AWS. Mais ce n'est pas quelque chose à craindre. Dans cette formation. Nous n' utiliserons que des services désastreux. Et si vous vous en tenez à ce que nous faisons dans cette formation, vous ne serez pas facturé pour en assurer davantage. Nous allons également définir un budget pour notre compte et configurer une alerte pour recevoir une notification. Si nous traversons le projet CIP. Ouvrons un navigateur Web et commençons à créer notre compte gratuit. J'ai ouvert un navigateur Web ici, et je l'ai fait pour le niveau gratuit d' AWS. Et le tout premier résultat ici, temps libre AWS est ce que nous voulons. La première page vous aide à comprendre ce qu' est un compte gratuit et quels sont les services qui relèvent du régime gratuit ? Je vais couvrir une retraite stupide au cours de la prochaine leçon. Nous allons donc les ignorer et créer un compte gratuit. Vous devrez ensuite remplir les informations requises. Votre adresse e-mail unique pour l'utilisateur racine, puis choisissez un nom pour votre compte. Vous pouvez également modifier le nom et la lettre LES. Si vous voulez. Cliquez ensuite sur Vérifier, adresse e-mail, vérifiez votre e-mail. Entrez le code de vérification ici et cliquez sur Vérifier. Vous serez accueilli. C'est vous, votre adresse e-mail a été entièrement vérifiée. Saisissons maintenant un mot de passe pour l'utilisateur racine et confirmons le mot de passe. Et cliquez sur Continuer. Vous avez terminé la première étape. Ensuite, il nous faudra passer à la première question. Comment prévoyez-vous d'utiliser AWS ? Il suffit de choisir Poznan. Ajoutez ensuite votre nom, numéro de téléphone, votre pays ou votre région, votre adresse. Cliquez ensuite sur Accepter les conditions générales et passez à l'étape suivante. trouverez ensuite la page de facturation dont vous avez besoin pour remplir vos informations de facturation. Entrez votre numéro de carte de crédit, la date d'expiration, nom et la formule du titulaire de la carte, risque à la hausse, puis passez à l'étape quatre. Il se peut que vous soyez invité à confirmer votre identité. Encore une fois, vous devrez entrer votre numéro de téléphone et le contrôle de sécurité. Et vous recevrez un devis sur votre téléphone que vous devez entrer ici. Je n'ai pas eu mon code de vérification ici. Et cliquons sur Continuer. Nous avons ici le plan de soutien. C'est un moyen d'obtenir de l'aide en temps réel d' AWS concernant vos ressources et services. Pour notre objectif, nous choisirons le support de base. Il est entièrement gratuit et ne vous aide que pour résoudre les problèmes liés au compte ou à la facturation. Enfin, cliquez sur Terminer l'inscription. Et c'est tout. Nous pouvons désormais accéder à la console de gestion AWS. Cliquez sur le bouton situé au milieu de l'écran. Ici, il nous demandera un identifiant de compte ou un alias de compte. Nous n'avons spécifié aucun alias pour le compte. Et je ne sais pas quel est l'ID de compte. Nous n'avons pas non plus de nom d'utilisateur car il s'agit d'un nom d'utilisateur IAM. Ce que nous avons, c'est l'e-mail de l'utilisateur racine. Nous allons donc choisir de vous connecter à l'aide du routage, d'un e-mail et d'entrer l'adresse e-mail avec laquelle nous venons de nous inscrire. Saisissez le mot de passe et cliquez sur Connexion. Félicitations. Le Vietnam s'est connecté à notre compte. Et il s'agit de la console de gestion. Il est donc maintenant temps de créer un compte pour vous permettre de poursuivre cette formation. C'est tout pour cette leçon. Nous comprendrons les offres AWS Free Gyre lors de la prochaine session. voit bientôt. 3. AWS tier gratuit: Bienvenue aux étudiants. Dans la dernière vidéo, vous avez créé un nouveau compte AWS et ajouté les détails de votre carte à des fins de facturation. Cela nous rappelle que nous devons utiliser les services AWS de manière planifiée. Sinon, vous finirez par payer certains services. Eh bien, ne vous inquiétez pas. Au cours de cette session, je vais vous expliquer comment utiliser votre compte AWS afin de ne pas être facturé les deux prochaines sessions. Je vous aiderai également à sécuriser votre compte, définir un budget pour votre compte et à déclencher une alarme. Vous êtes donc averti si vous dépassez la limite budgétaire. Commençons donc avec AWS Free Tire. Le pneu gratuit vous permet d'essayer certains services AWS pendant une période déterminée sans avoir à payer quoi que ce soit. Cela signifie qu'AWS fournit une liste de services AWS que vous pouvez utiliser gratuitement sur la plateforme AWS pour acquérir une expérience pratique. Maintenant, permettez-moi de vous emmener sur la page Web du niveau gratuit d' AWS. Il s'agit de la page de niveau gratuit d'AWS. Vous pouvez voir tous les détails sur AWS Free Tire, qui est classé en trois catégories. Le premier est celui des essais gratuits. Dans le cadre de cette offre, vous pouvez utiliser certains services AWS pendant une courte période. Et puis ces services, et à la fin de cette période, le second est gratuit de 12 mois. Cela signifie que vous disposez de 12 mois pour essayer ces services gratuitement. Et cela commence à partir de la date à laquelle vous avez créé votre compte AWS. Le dernier est toujours gratuit. Ces services sont disponibles pour toujours, mais il existe une limite quant à la quantité de nourriture que vous pouvez utiliser ces services. Ils n'expirent donc jamais tant que vous n'avez pas franchi la limite disponible. Ensuite, nous avons ici la possibilité de filtrer les produits AWS en fonction différentes catégories et d'essai gratuit. Assez simple, non ? Essayons ça pour mieux comprendre. Nous allons sélectionner Toujours gratuit. Ici, vous ne pouvez voir que ces services qui sont toujours gratuits dans une certaine limite. Maintenant, prenez AWS Lambda. Il s'agit d'une option de calcul sans serveur, que nous verrons dans un module ultérieur. Mais ici, vous pouvez également le filtrer à partir de la catégorie de produits. À partir d'aujourd'hui. Il permet d'accueillir 1 million de patients invoqués par mois. Cela signifie que si vous restez moins d'un million d'invocations, il sera toujours gratuit. Ce temps libre n'expire jamais. Sélectionnez maintenant 12 mois gratuits. Dans cette catégorie, Voyons voir, stockage. S3 par exemple. Il s'agit d'un service de stockage d'objets gratuit pendant 12 mois ou jusqu'à cinq gigaoctets de stockage. Après cela, vous devrez payer un certain montant. S3 est une excellente option pour essayer un site Web statique. Nous le verrons dans le modèle de stockage de cette formation. Le dernier exemple est Amazon EC2, que vous utilisez pour déployer votre application. Aws offre un essai de douze mois pouvant atteindre 750 heures d'utilisation par mois pour le type de micro-instance T2, ce qui signifie que vous pouvez exécuter votre application gratuitement pendant 12 mois. Il s'agit d'une période importante pour maîtriser AWS. Vous pouvez essayer et apprendre presque tous les services de base. Et j'espère que vous en tirerez le meilleur parti. C'est tout pour cette leçon. Je vous recommande de consulter cette page avant. lorsque vous utilisez les services AWS, il existe tellement de services que vous pouvez essayer gratuitement, mais veillez à connaître la disponibilité gratuite du service avant de l'utiliser. C'est tout pour cette vidéo. 4. Sécuriser un compte AWS: Bonjour les étudiants. Dans cette vidéo, nous allons comprendre comment sécuriser votre compte AWS avec une stratégie de mot de passe et une authentification multifacteur, ou MFA en bref. Nous examinerons également l'accès et la clé secrète plus loin dans cette vidéo. Commençons donc par l'authentification multifacteur. C'est-à-dire, MFA. Vous disposez d'un identifiant e-mail et mot de passe pour vous connecter à votre compte AWS. Une fois que vous vous êtes connecté, vous pouvez accéder à AWS Management Console et y effectuer différentes opérations. Supposons que quelqu'un ait volé votre mot de passe. Maintenant, cette personne peut se connecter et faire n'importe quoi sur votre compte, n'est-ce pas ? En particulier s'il dispose d'un accès administrateur, il peut supprimer des ressources de production, transférer des données confidentielles, modifier la configuration de l'application, etc. Alors, comment protéger votre compte en plus du mot de passe ? Eh bien, vous pouvez utiliser une authentification multifacteur ou un MFA. Qu'est-ce que l'authentification multifacteur ? Il s'agit d'une méthode d' authentification qui exige que tout utilisateur fournisse au moins deux types de vérification, appelés facteurs permettant d' accéder à un compte ou à une ressource tel qu'un site Web ou un téléphone mobile. application ou services. Outre le nom d'utilisateur et le mot de passe, les utilisateurs devront saisir un mot de passe unique ou OTP, envoyé par SMS, e-mail ou une application d'authentification telle que Google et Microsoft Authenticator. Un bon exemple d' authentification à deux facteurs est la connexion Gmail à partir d'un nouvel appareil. Chaque fois que quelqu'un essaie de se connecter à votre compte Gmail, il demande le mot de passe et un mot de passe unique généré par le système, c'est-à-dire OTP. Il est envoyé sur le numéro de téléphone portable enregistré. L'authentification multifacteur est utilisée dans la combinaison d' un mot de passe et d'un dispositif de sécurité que vous possédez, comme votre téléphone. Une fois que vous aurez configuré MFA sur votre compte AWS, vous devrez fournir un jeton MFA chaque fois que vous vous connectez à votre compte AWS. Mfa ajoute essentiellement une couche de sécurité supplémentaire à votre mot de passe. Donc, même si quelqu'un a le mot de passe de votre compte, il ne pourra toujours pas s'y connecter car il besoin de MFA aussi pour faire quoi ? Il est donc recommandé de configurer MFA dans votre compte AWS. Le MFA et la sécurité sont des sujets importants du point de vue de l'entretien et de l'examen. Vous pouvez vous attendre à des questions telles que : comment ajouter une couche de sécurité supplémentaire à votre utilisateur AWS Route ou IAM ? La réponse à cette question sera l' authentification multifacteur. Outre la console de gestion, nous pouvons également accéder à AWS via l'interface de ligne de commande et le kit SDK. Nous comprendrons cela dans la rubrique suivante, en interagissant avec AWS. Mais lorsque vous accédez à AWS via l'une de ces méthodes, vous utilisez une clé d'accès et une clé secrète. Ces clés ressemblent aux codes présents à l'écran, qui peuvent ne pas être faciles à utiliser en tant que nom d'utilisateur et mot de passe. Mais vous devrez les utiliser dans votre code pour vous connecter à votre compte AWS, soit via l'interface de ligne de commande ou le kit SDK. Ces clés sont connues sous le nom de clés d'accès, et elles sont utilisées pour l'accès programmatique. Nous créerons quelques clés d'accès plus tard dans le cours et verrons comment les utiliser pour vous connecter. Passons maintenant à la rubrique suivante, qui est la stratégie de mot de passe. La stratégie de mot de passe permet d'appliquer un mot de passe fort pour votre compte AWS, car votre compte est plus sécurisé lorsque vous disposez d' un mot de passe fort. Nous pouvons y parvenir via une politique de mot de passe. Il vous suffit d'activer toutes les règles que vous souhaitez que vos utilisateurs respectent lors de la création ou de la réinitialisation de leur mot de passe. Et c'est tout. Dans la stratégie de mot de passe. Vous pouvez définir une règle de longueur minimale de mot de passe. Vous pouvez ensuite appliquer des types de caractères spécifiques. Par exemple, il se peut que vous souhaitiez avoir au moins une lettre majuscule , une lettre minuscule et un chiffre. dehors de cela, vous pouvez également spécifier des caractères non alphanumériques tels que pourcentage, Rue, etc., qui doivent être inclus. Vous pouvez alors activer l'expiration du mot de passe, ce qui signifie que l'utilisateur doit faire pivoter son mot de passe après certains jours. Par exemple, après 90 jours, 120 jours, etc. Ensuite, vous pouvez autoriser l'utilisateur à modifier son mot de passe, ou vous pouvez également opter pour que seul l'administrateur change le mot de passe. Enfin, vous pouvez également empêcher réutilisation des mots de passe afin que les utilisateurs, lorsqu'ils changent leur mot de passe, ne le modifient pas par celui qu'ils avaient déjà utilisé dans le passé. C'est donc génial. Une politique de mot de passe est vraiment utile à tous mes collègues. Tentez sur votre compte. La politique de mot de passe est un sujet important sous sécurité AWS du point de vue de l'examen de certification ou de l'entretien. C'est tout ce que je voulais couvrir dans cette vidéo. 5. Configurer MFA et politique de mot de passe: Bonjour les étudiants. J'espère que vous avez créé votre compte AWS. Dans cette vidéo, nous sécuriserons nos comptes en ajoutant authentification multifacteur et en configurant une stratégie de mot de passe. Avant de commencer la configuration, comprenons rapidement ce qu'est MFA. Il s'agit d'une méthode d'authentification qui valide l'identité de l'utilisateur. Ainsi, lorsqu'un utilisateur essaie d'accéder à quelque chose qui est sécurisé par MFA, il faut fournir deux éléments de preuve ou plus pour y accéder. Passons donc à notre compte AWS et sécurisons le avec MFA. Pour cela, nous devons nous adresser au service de gestion des identités et des accès. Nous voici donc dans le tableau de bord IAM. Et comme vous pouvez le constater, nous avons déjà reçu quelques recommandations de sécurité de la part d'AWS. La première chose qu'il dit, c'est que vous devez ajouter un MFA pour l'utilisateur racine. Ajoutons donc sélectionner mon compte, puis cliquer sur les informations d'identification de sécurité. Vous trouverez ici les détails du compte. Défilons un peu vers le bas. Ici. Vous pouvez constater que nous n' avons aucun appareil affecté. Cliquons donc sur Gérer l'appareil MFA. Nous allons utiliser un appareil MFA virtuel ici. Vous devrez installer une application d'authentification sur votre appareil mobile ou votre ordinateur. J'utilisais l'application Google Authenticator sur mon téléphone car elle est entièrement gratuite. Je vais donc m'en servir. Mais si vous n'en avez pas encore installé sur votre téléphone, installez l'application Google Authenticator, puis cliquez sur Continuer. La prochaine chose à faire est de cliquer sur Afficher le code QR. Une fois que vous voyez le QR sur votre écran, il suffit de le scanner à l'aide de votre téléphone. Et il devrait ouvrir l'application Google Authenticator. Si vous le faites correctement. Il générera un code et l'affichera sur votre écran. Il vous suffit donc d'ajouter ce code ici. Comme j'ai ajouté le mien. Ensuite, vous devez attendre l'expiration de ce code. Parce qu'il va générer un nouveau code. Vous devrez entrer le nouveau code dans la boîte à outils du code MFA. Une fois cela fait, cliquez sur Attribuer un MFA. Vous avez maintenant activé MFA pour votre compte. Et vous pouvez voir que nous avons un nom de ressource ARN ou Amazon pour notre appareil virtuel ici. Il est donc très facile d'activer MFA dans votre compte. Maintenant, allons également configurer une stratégie de mot de passe. Allons sur le tableau de bord IAM. Une fois encore. Vous trouverez le paramètre de mot de passe dans les paramètres du compte. Dans le côté gauche, nous cliquons sur Modifier la politique de mot de passe et appliquer une politique sur notre compte. Vous pouvez modifier beaucoup de choses concernant le mot de passe. Par exemple, la longueur minimale du mot de passe. Passons à 16. L'utilisateur a-t-il besoin de majuscules, de minuscules ou de chiffres ? Vous pouvez sélectionner tous ou n'importe lequel d'entre eux. Je vais sélectionner tout comme. Il est recommandé d'utiliser des lettres majuscules et minuscules dans le mot de passe. Et je vous recommande de faire de même. Vous pouvez personnaliser votre stratégie de mot de passe comme vous le souhaitez, puis cliquer sur Enregistrer les modifications, ce qui fera le travail. Désormais, chaque nouvel utilisateur de votre compte doit respecter cette politique de mot de passe lors création ou de la réinitialisation de son mot de passe, ce qui améliorera la sécurité de votre compte. Donc, les étudiants, ce sont les quelques mesures de sécurité initiales que tous les ingénieurs du cloud devraient connaître. sécurité du cloud en général est un sujet très important, tant du point de vue de leur examen de certification du point de vue interviewé. Et j'espère que vous le comprendrez parfaitement. C'est tout pour cette vidéo. 6. Configurer le budget et l'alerte: Bonjour les étudiants, bienvenue. Vous disposez désormais de notre propre compte d'essai gratuit et vous l'avez sécurisé avec une authentification multifacteur et une stratégie de mot de passe. Vous comprenez également AWS, Free Tire et les différentes offres sous tarif. Dans cette formation, nous utiliserons uniquement des services gratuits pour ajouter des services pour une pratique pratique dans AWS. Donc, si vous respectez ces offres gratuites uniquement, vous ne serez pas facturé. Mais juste au cas où vous utilisiez accidentellement un service payant ou oubliez de supprimer un service qui pourrait être payé après un certain temps. Il est essentiel de fixer un budget et une facturation. Vous recevez beaucoup notifications par e-mail ou SMS lorsque vous atteignez une certaine limite. Dans cette vidéo, nous allons configurer le budget et l'alerte de notre compte AWS. Passons donc à la console de gestion AWS. Comme vous pouvez le constater, je me suis connecté à mon compte avec l'utilisateur root. Et en haut à droite, ici, sous le nom de mon compte, nous sélectionnerons le tableau de bord de facturation. Cela nous amènera au tableau de bord. Défilons vers le bas jusqu'à la section Gestion des coûts et cliquez sur Budgets. Nous avons ici quelques informations supplémentaires sur le budget et les alertes, comme son fonctionnement, ses avantages et ses fonctionnalités. Cliquez sur Démarrer si vous souhaitez le lire plus en détail. Je vous recommande vivement de le faire , car cela vous donnera des informations supplémentaires. Maintenant, nous allons revenir en arrière et cliquer sur créer un budget. Ici. Le budget de coûts recommandé est sélectionné par défaut. Nous allons donc cliquer sur Suivant. Laissez tout par défaut. Et ici, entrez votre montant budgétisé. Nous allons entrer dans notre budget. Pour cette démo. Je vais sélectionner 3$. Faites défiler l'écran vers le bas et entrez le nom de votre budget. Il est important de nommer votre budget, car il se peut que vous ayez plusieurs budgets à l'avenir. Appelons-le une alerte de 3$. Il sera donc facile de l' identifier ultérieurement et de cliquer sur Suivant. Maintenant, cliquez sur Ajouter un seuil d'alerte. Ici, vous pouvez créer plusieurs seuils. Par conséquent, si nous entrons 50 dans le seuil, cela signifie que vous recevrez une notification lorsque vos dépenses AWS atteindront 50 % de 3$, soit 1,5$. Dans ce cas. Vous pouvez également ajouter plusieurs seuils. Ajoutons un seuil supplémentaire pour recevoir une notification de plus avant que une notification de plus avant le montant atteigne la limite fixée. Nous ajouterons 80 % cette fois. Ici. Dans l'option de notification. Nous avons quelques options quant à la façon dont nous voulons être notifiés. Optons pour une notification par e-mail. Saisissez l'adresse e-mail sur laquelle nous souhaitons recevoir l'e-mail. Puis cliquez sur Suivant. Laissez tout par défaut dans la page d'action Joindre, puis cliquez sur Suivant. Passons maintenant en revue tout , puis cliquez sur Créer un budget. Cela prendra quelques secondes et nous verrons un message indiquant que le budget a été créé avec succès. Ici, vous pouvez voir que l'état du seuil est correct. Vous pouvez utiliser ce lien budgétaire pour voir les détails et le graphique de nos dépenses. Actuellement, nous ne disposons pas de détails ici, car il faut environ 24 heures pour remplir les données. Donc, lorsque vous créez un budget, je vous suggère de revenir ici après un jour ou deux et de voir ces DJ. Allons faire défiler vers le haut. Et dans le coin supérieur, vous pouvez également modifier et supprimer le budget. C'est très important , car vous devrez peut-être ajuster le budget à l'avenir. Allez-y et essayez-le. Pour cette vidéo. C'est à peu près une question de budget. Nous recevrons la première alerte lorsque notre facture AWS atteindra 50 % de 3$. Et la deuxième alerte à 80 %. Selon l'alerte, nous pouvons revenir vérifier quels services sont en cours d'exécution. Et si nous n'en avons pas besoin, nous pouvons les mettre fin pour économiser les coûts. Dans la vidéo suivante, nous résumerons le sujet comprenant le compte AWS et le pneu gratuit. On se voit dans le prochain. 7. Méthodes d'interaction avec AWS: Bonjour les étudiants, bienvenue. Plus tôt, nous avons discuté des différents modèles de déploiement Cloud, IS Pass et dit, mais saviez-vous que nous pouvons également utiliser services AWS comme n'importe lequel de ces modèles si vous ne le faites pas. Eh bien, pas de soucis. Comprenons cela dans cette vidéo. Ici, nous allons comprendre quelles sont les différentes méthodes pour interagir avec votre compte et vos services AWS. Jusqu'à présent, nous avons interagi avec AWS via Management Console, qui est une interface Web. De plus, nous avons deux autres façons d' interagir avec AWS. première est l'interface de ligne de commande AWS CLI . Il s'agit d'un outil que vous installez et configurez sur votre ordinateur, qui vous permet d'accéder aux services AWS et de les automatiser via les scripts terminaux de votre ordinateur. La deuxième méthode est SDK, qui signifie Software Development Kit. Il est utilisé par les programmeurs et les développeurs pour interagir avec les services AWS directement à partir du code de l'application. Si cela n'est pas tout à fait logique, ne vous inquiétez pas. Nous les comprendrons en détail. Commençons par la console AWS. Une fois encore. Il s'agit d'une interface Web permettant d'interagir avec les services AWS. Et comme il est accessible via votre navigateur Web, c'est le moyen le plus simple de gérer les ressources sur AWS. Il suffit de vous connecter à votre compte AWS et de faire ce que vous voulez. En outre, la version mobile d' AWS Management Console est également disponible. Vous pouvez l'installer sur votre téléphone et accéder à presque tous les services AWS depuis votre téléphone. N'est-ce pas génial ? Examinons maintenant certains avantages de l'utilisation d'AWS Management Console. Si vous êtes débutant, AWS Management Console est le bon début. Comme vous pouvez interagir très facilement avec les services AWS. C'est comme naviguer sur un autre site Web. Mais comme nous l'avons dit, c'est plus facile grâce à son interface utilisateur très propre, étape par étape. Pour toutes ces raisons, la console de gestion est le meilleur choix pour effectuer des tâches administratives en tant que débutant. Maintenant, blanc uniquement pour les débutants. Eh bien, c'est parce que certaines opérations dans la console AWS ou dans le manuel prennent du temps. Il n'est donc pas possible d' automatiser tout via la console de gestion. C'est pourquoi nous utilisons une interface de ligne de commande ou une CLI. Maintenant, comprenons cela. L'interface de ligne de commande AWS, ou CLI, est un outil unifié pour gérer vos services AWS. Il s'agit d'une interface de ligne de commande qui vous permet de gérer votre service AWS à l'aide de votre terminal informatique. Il s'agit d'un outil que vous pouvez facilement installer sur votre ordinateur. Il prend en charge les systèmes d'exploitation Windows, Mac et Linux. Vous pouvez faire tout ce que vous pouvez faire avec l'exemple AWS Management Console. Si vous souhaitez répertorier tous les utilisateurs de votre compte, vous ouvrirez un terminal sur votre ordinateur et saisissez les utilisateurs de la liste AWS. Vous obtiendrez une liste de tous les utilisateurs disponibles sur votre compte. Et si vous souhaitez supprimer un utilisateur, vous pouvez utiliser la commande AWS delete user, name, et elle supprimera cet utilisateur de votre compte. Vous pouvez également combiner ces deux commandes pour exécuter quelles tâches en une seule étape. C'est un avantage important de l'utilisation d' AWS CLI par rapport à la console de gestion. Vous pouvez automatiser les tâches dans l'interface de ligne de commande. Supposons que vous ayez 50 utilisateurs sur votre compte. Et vous voulez supprimer les utilisateurs dont le nom commence par M. Si vous devez le faire depuis AWS Management Console, vous devrez trouver chaque utilisateur et supprimer un par un, n'est-ce pas ? Mais ce n'est pas le cas avec l'interface de ligne de commande. Ici, vous pouvez écrire le script et utiliser les deux commandes ci-dessus pour effectuer la même tâche. Et cela se fera rapidement. De même, vous pouvez gérer plusieurs services AWS à l'aide du même script. Pour accéder à AWS via l'interface de ligne de commande, vous devez vous authentifier, tout comme dans AWS Management Console. Mais ici, au lieu d'utiliser un nom d'utilisateur et un mot de passe, vous devrez fournir un accès et la clé d'accès à clé secrète agit comme le nom d'utilisateur et la clé secrète est votre mot de passe. Si quelque chose semble déroutant. Nous allons installer et configurer AWS CLI dans la prochaine leçon. Examinons maintenant certains avantages de l'utilisation de l'interface de ligne de commande AWS. C'est un excellent moyen d' interagir avec AWS via un terminal informatique et constitue un excellent moyen d'automatiser tâches et de réaliser une infrastructure sous forme de code. Enfin, nous avons le SDK, qui signifie Software Development Kit. Dave Kid. En bref, comme son nom l'indique, il s'agit d'un ensemble d'outils logiciels et programmes utilisés par les développeurs pour créer des applications. Maintenant, si vous pensez que c'est similaire à AWS CLI, ce n'est pas vrai car vous ne pouvez pas utiliser AWS SDK dans votre terminal informatique. Il est uniquement utilisé pour lire ou dans votre code d'application, ce qui permet à votre application d' interagir avec les services AWS. Sdk prend en charge de nombreux langages de programmation différents, tels que C plus plus, Java , javascript.net, Node.js, PHP, Python et Ruby. Il existe également des SDK mobiles pour Android et iOS ont un niveau. Comprenons cela avec un exemple. Supposons que vous développiez une application mobile qui permettra aux utilisateurs de partager leurs photos. Pour cela, vous utiliserez Amazon S3 comme stockage. Nous parlerons de S3 en détail dans un autre module. Mais dans ce cas, votre application doit interagir avec AWS, service Amazon S3, n'est-ce pas ? Vous ne pouvez pas utiliser AWS Management Console ou AWS CLI dans ce scénario car vous souhaitez que votre code d'application interagisse avec le service AWS. Par conséquent, vous utilisez AWS SDK. Il vous permettra d'accéder à vos services AWS et de les gérer via votre code d'application. Vous connaissez peut-être déjà les avantages de l'utilisation du SDK. C'est un outil parfait pour interagir avec AWS via le code d'application. Il est idéal pour interagir avec AWS dans le code d'application. J'espère donc que vous comprenez maintenant les trois méthodes d'interaction avec AWS. 8. Utiliser la console de gestion AWS: Bonjour les étudiants, bienvenue. Dans la dernière leçon, nous avons examiné différentes manières d' interagir avec les services AWS. Dans cette leçon, nous allons approfondir la console de gestion AWS et comprendre quelles sont les différentes manières se connecter à AWS Management Console. Comment créer un compte, les ERP, comment sélectionner une région AWS dans notre compte et comment accéder à divers services AWS et à leur tableau de bord. Alors, allons-y directement. abord, vous devez vous connecter à votre compte AWS pour accéder à la console de gestion AWS. Les informations d'identification que vous utilisez pour vous connecter déterminent le type d'utilisateur que vous êtes. À l'heure actuelle. Vous connaissez l'utilisateur racine qui est le propriétaire du compte. Cet utilisateur a accès à toutes les ressources et services du compte. Il y a ensuite d'autres types d'utilisateurs dans votre compte appelés utilisateurs IAM. Ces utilisateurs ont un accès limité aux ressources et aux services. Comprenons maintenant la différence entre utilisateur racine et l'utilisateur IAM. L'utilisateur racine est l'utilisateur qui a été créé lors de la création du compte pour la première fois . Par conséquent, si nous nous connectons à l'aide des informations d'identification racine, nous aurons accès à l'ensemble du compte. D'autre part, les utilisateurs IAM sont créés par l'utilisateur racine. Nous en parlerons davantage dans les modules ultérieurs. Connectez-vous à AWS. En tant qu'utilisateur racine, vous avez besoin de l'ID e-mail et du mot de passe que nous avons utilisés, ainsi l'authentification multifacteur que nous avons activée lors de la création du compte AWS. Cependant, connectez-vous en tant qu'utilisateur IAM, vous avez besoin d'un nom d'utilisateur, d' passe et d'un code AWS à douze chiffres, d'un identifiant de compte ou d'idées de compte. Comme nous n'avons ni utilisateur IAM ni compte. Alors connectons-nous avec l'utilisateur racine que nous avons déjà créé et créons un compte LES. Nous sommes ici sur la page de signature AWS. Je vais entrer l' identifiant de l'e-mail, puis je clique sur Suivant. Je vais donner mon mot de passe. Cliquez ensuite sur Connexion. Comme j'ai configuré l'authentification multifacteur, je devrai entrer un code unique en plus de mon mot de passe pour pouvoir me connecter. Je vais donc entrer le code. Maintenant, je suis connecté à la console AWS. Maintenant que nous sommes dans la console, il y a quelques éléments que nous devrions vérifier rapidement. L'un d'eux est le compte. Vous pouvez voir ici les paramètres de compte qui contiennent les détails de votre compte, tels que les informations de contact, autres contacts pour la facturation, les opérations et la sécurité. Vous vous souvenez de la mise en place du budget ? Dans la dernière rubrique, nous allons rapidement consulter notre tableau de bord de facturation. Cliquez sur le tableau de bord de facturation. Vous verrez le résumé de la facturation et d'autres détails, y compris la facture du mois en cours, les versions précédentes et le contrôle budgétaire. Bien que je pense que vous avez configuré un budget et activé une alerte, je vous recommande de consulter régulièrement cette page pour voir si vous avez des factures indésirables. Maintenant, revenons en arrière et créons un alias de compte de type IAM dans cette zone de recherche ici, puis cliquez sur le tableau de bord IAM Identity and Access Management Service. Et comme vous pouvez le voir à droite ici, nous avons un ID de compte et l'alias du compte est en dessous. Veuillez noter que l'alias du compte est le même que l'ID de compte. Voici donc notre numéro de compte à 12 chiffres. Mais se souvenir que c'est peut-être un défi. Nous allons donc créer un alias beaucoup plus facile à mémoriser. Pour cela, cliquez sur Créer, ajoutez votre ID, le Cloud Advisory 2050, puis enregistrez les modifications. Cela créera une pièce d'identité pour vous. Nous utiliserons cet identifiant ou cet alias chaque fois que nous nous connecterons à l'aide de l'utilisateur IAM. Revenons maintenant au lien du compte utilisateur. Pour ce faire, il suffit de cliquer sur le logo AWS. Ensuite, nous avons une autre liste déroulante pour sélectionner la région AWS. Nous allons donc sélectionner une région pour notre compte. Nous sommes actuellement en Virginie du Nord. Nous sommes à l'Est, l'une est la raison appelée. Chaque région possède un code spécifique et nous utilisons ce code lors de l'utilisation d' AWS, de l'interface de ligne de commande et du SDK. Nous en parlerons lors des prochaines sessions. Nous avons déjà discuté de l'infrastructure mondiale AWS. Et vous pouvez constater qu'AWS compte de nombreuses régions et régions prises en charge. Nous allons vous connecter à AWS Management Console, sélectionner une région AWS pour créer ces services dans une région spécifique. C'est la première chose que vous faites lorsque vous créez un nouveau service, l'exception de quelques-uns qui ne sont pas sensibles à la région. Si nous basculons et sélectionnons la région Asie-Pacifique, qui n'est rien d'autre que la région de Mumbai. Tous les services que nous créons maintenant seront lancés uniquement dans la région de Bombay. Il est donc essentiel de décider et de sélectionner la région dans laquelle vous souhaitez créer vos services AWS. Et surtout, si vous créez des ressources AWS et que vous ne les voyez pas dans la console. Cela signifie que vous l'avez créé dans région différente et que vous devrez passer à leur région pour les voir. Allons maintenant de l'avant et voyons comment naviguer vers les services AWS. La console de gestion AWS offre plusieurs façons de naviguer vers des tableaux de bord de service individuels. Dans la zone de recherche de la barre de navigation, entrez le nom du service. Vous verrez les résultats. Choisissez le service souhaité dans la liste des résultats de recherche. Par exemple, passons au service S3. Nous pouvons simplement saisir la dette et nous obtiendrons une liste de tous les services qui incluent S3. Dans ce cas, nous chercherions ici juste S3. Et si nous cliquons dessus, il nous amènera au tableau de bord de ce service particulier. Ensuite, nous pouvons également revenir à la page d'accueil en cliquant sur le logo AWS. Ensuite, choisissez les services pour ouvrir une liste complète des services. Ici, en haut à droite de la page. Choisissez un groupe pour voir les services répertoriés par catégorie, ou choisissez un jet pour voir une liste alphabétique. Sélectionnez ensuite le service que vous souhaitez. Par exemple, faites défiler vers le bas et sélectionnez la catégorie de stockage qui inclut AWS Backup, EFS, S3 et bien d'autres. J'en parlerai davantage dans l'un des derniers modules. Mais cela nous donne une approche de haut niveau des services en fonction de leur catégorie. Vous trouverez ensuite l'onglet récemment visité. Vous pouvez voir ici les derniers services que j'ai visités dans la console, notamment S3, RDS, ec2. Ce sont donc les services avec lesquels j'ai récemment travaillé. Dans le cas où vous ne travaillez qu'avec une poignée de services. Cela peut être un moyen très rapide de cliquer dessus et d'accéder aux tableaux de bord des services spécifiques. C'est tout pour cette session. 9. Installez AWS CLI: Bienvenue aux étudiants. Nous poursuivrons notre discussion sur la façon d'interagir avec les services AWS. Et dans cette vidéo de démonstration, nous allons installer AWS CLI sur notre système. Puisque j'ai un Mac, je vais suivre les instructions d'installation de Mac. Cependant, le processus reste le même pour les autres systèmes d'exploitation, y compris Windows et Linux. Allons donc dans le navigateur et trouvons la documentation d'installation. Dans cette barre de recherche. J'ai installé AWS CLI sur Mac. Vous pouvez également rechercher vos systèmes d'exploitation tels que AWS CLI installé en ligne. Ensuite, installez AWS CLI sur Windows également. Nous allons ouvrir la voie rapide, installer et mettre à jour leur test était une interface de ligne de commande AWS. Cette page contient des instructions d'installation pour les trois systèmes d'exploitation, y compris Linux, Mac OS et Windows. J'irai pour Mac OS et je suivrai le processus. Défilons vers le bas. Et voici les instructions d'installation. Nous avons besoin d'un fichier EKG sombre, qui est un installateur graphique. Je vais donc télécharger le fichier à partir d'ici. Une fois que vous l'avez téléchargé, ouvrez-le et cliquez sur, continuez, continuez, continuez et acceptez. Autorisez l'installation à tous les utilisateurs de cet ordinateur. Cliquez sur Continuer et cliquez sur, installez-le. Nous avons installé l' interface de ligne de commande sur votre système. Attendons que tout soit fait. Le système est en train d'écrire les fichiers. Enfin, l'installation est maintenant couronnée de succès. Puisque je n'ai plus besoin de l'installateur, je vais le déplacer à la corbeille. Vérifiez l'installation. Je vais ouvrir un terminal, accéder à l'option Rechercher et taper une minute. Ensuite, j'ajouterai AWS. Si vous disposez d'une CLI en cours d'exécution sur votre système, elle doit renvoyer une version de la table d'exécution AWS. Attendons un peu. Nous avons ici la réponse à notre commande, qui montre que tout a été installé correctement. Veuillez télécharger l'interface de ligne de commande sur votre système car nous l'utiliserons dans les prochaines leçons. En cas de problème, jetez un coup d'œil à ce type. 10. Utiliser le AWS CLI: Bonjour les étudiants, bienvenue. Nous poursuivrons notre discussion sur la façon d'interagir avec les services AWS. Et dans cette démonstration, vous apprendrez comment utiliser AWS CNI pour interagir avec les services AWS. Commençons donc. Laissez-moi ouvrir le terminal de mon ordinateur portable. Tout d'abord, assurez-vous avoir déjà installé AWS CLI. Vous pouvez vérifier en tapant. Aws n'était pas sur votre terminal et restitue facilement l'interface de ligne de commande AWS. Deuxièmement, vous devez authentifier AWS CLI pour accéder aux services AWS. Et comme nous l'avons mentionné, utilisateurs de l' AWS CLI accèdent aux clés d'authentification. Nous aborderons en détail l'authentification et l'autorisation dans la rubrique Gestion des identités et des accès. Mais pour cette démonstration, accédons à la console de gestion AWS et créons une clé d'accès. Ici. Cliquez sur Compte, puis sur les informations d'identification de sécurité. Nous sommes maintenant dans la clé d'accès de mes identifiants de sécurité. Et ici, nous pouvons créer de nouvelles clés d'accès. Les clés d'accès sont essentielles car elles sont utilisées pour contrôler l'authentification et l'autorisation lors de l'utilisation l'interface de ligne de commande et du kit SDK pour accéder au compte AWS. Maintenant, à titre de note, nous allons créer des clés d'accès ici. Cependant, je vais supprimer ces clés immédiatement après ce tableau. Vous ne devez pas non plus utiliser clés d'accès utilisateur racine au jour le jour. Ce n'est pas une bonne pratique. Encore une fois, nous apprendrons cela en détail dans la rubrique Gestion des identités et des accès. Pour l'instant, cliquez sur Créer une nouvelle clé d'accès , puis affichons la clé d'accès. Ici, nous avons à la fois notre axe et notre clé d'accès secrète. C'est ce que nous utiliserons pour accéder à nos ressources AWS via l'interface de ligne de commande. Copions les deux clés dans un fichier texte. Vous pouvez également le télécharger en cliquant sur Télécharger et autoriser. Revenons maintenant à l'AWS CLI et saisissons le terminal. Configuration AWS. Maintenant, entrez d'abord la clé d'accès et la clé d'accès secrète. Entrez maintenant le nom de la région par défaut. Et dans ce cas, choisissons celui de sel API. Enfin, nous choisirons le format de sortie par défaut. Dans ce cas, choisissons le format gestuel. Une fois que tout cela est en place, appuyez sur Entrée. Nous avons configuré avec succès l'interface de ligne de commande AWS, ce qui signifie que nous devrions être en mesure utiliser l'AWS CLI pour obtenir des informations sur les ressources AWS. Nous allons le vérifier rapidement. Nous allons exécuter une commande qui répertorie le compartiment S3. Saisissons AWS. Et il retournera une liste de tous les différents compartiments S3 que j'ai créés dans ce compte. Si vous n'avez pas de seau, il ne retournera rien. Par conséquent, pour passer rapidement en revue ce que nous avons fait dans cette leçon, nous avons créé des clés d'accès pour nos utilisateurs avec la prudence que nous ne voulons généralement pas créer de clés d'accès pour l'utilisateur racine. Toujours le créer pour cette démo. Mais tant que vous le supprimez, cela devrait bien se passer. Enfin, nous accédons au S3 pour vérifier que nous pourrions accéder aux ressources AWS. C'est tout pour cette vidéo. 11. Régions AWS et zones de disponibilité: Bonjour les étudiants, bienvenue. Dans cette vidéo, nous découvrirons les régions AWS, les différentes zones de disponibilité et l'importance des régions et des joules de disponibilité. Commençons donc. Supposons que vous souhaitiez héberger notre application Web. Pour cela, vous auriez besoin de votre propre centre de données, n'est-ce pas ? Maintenant que vous connaissez AWS et d'autres services Cloud, vous n'avez plus besoin de configurer notre centre de données et pouvez facilement héberger votre application dans le cloud AWS. Mais supposons que vous utilisez toujours un centre de données sur site. Voici maintenant une question. Que se passe-t-il si un sinistre frappe votre centre de données ? C'est un coussin valide, non ? Tout peut arriver. Et puisque vous possédez et gérez le centre de données, vous devrez déterminer ce que vous ferez dans une situation aussi extrême. Une façon d'éviter un arrêt complet de votre application consiste à exécuter un deuxième centre de données à un autre emplacement. Donc, quand l'un tombe en panne, l'autre sera là en tant que secours. Mais la maintenance d' un autre centre de données permettra de doubler les coûts matériels et de maintenance. Ne vous inquiétez pas. Ce n' était qu'un exemple. Un AWS offre une meilleure solution à cette possibilité, c' est-à-dire la région AWS. Une région AWS n'est rien d'autre que les emplacements géographiques du monde entier, nous sommes différents centres de données en cluster. Cela signifie qu'AWS gère plusieurs centres de données au même endroit. Selon les normes AWS, il doit y avoir au moins deux centres de données dans une région. Et chaque centre de données doit disposer d'électricité, de refroidissement, de chauffage, de mise en réseau et de connectivité redondants . Encore une fois, toutes ces régions sont connectées via le réseau principal AWS, qui est essentiellement un réseau à très haut débit. Chacune de ces régions possède des noms et des codes différents. Ces noms sont basés sur leur situation géographique mondiale. L'emplacement géographique désigne emplacement physique comme Mumbai, Tokyo , Francfort, Amérique du Nord, Amérique du Sud, Chine, Afrique du Sud et Moyen-Orient. Ce sont là quelques exemples. Eh bien, mon AP South. Moon Bay est un lieu physique, non ? Ils appellent donc cela une région à sens unique et cela a appelé l'épisode un. Il en va de même pour Singapour et d'autres endroits. Singapour, API sud-est, une, Sydney, API sud-est jusqu'au Cap, sud. Ainsi, lorsque vous possédez un compte AWS, vous pouvez choisir la raison pour laquelle vous souhaitez déployer vos services AWS, que vous souhaitiez le lancer à Mumbai ou à Tokyo. Cela dépend également de différents facteurs dont je vais parler dans cette vidéo. En termes simples, vous pouvez dire qu'AWS est un fournisseur de services cloud et qu'il possède des centres de données dans le monde entier. À l'heure actuelle, il existe 26 régions géographiques avec 84 zones de disponibilité à travers le monde. Et AWS continue d'ajouter de nouvelles régions. Par conséquent, au moment où vous regardez cette session, ces chiffres ont peut-être changé. Vous pouvez donc consulter le lien fourni dans la section Ressources cette vidéo et vérifier le dernier numéro d'AWS. Allons de l'avant et parlons de la disponibilité Jones. Maintenant, quelle que soit notre disponibilité Jones, il s'agit d'un ou de plusieurs centres de données distincts séparés individuellement centres de données distincts séparés avec une alimentation, une mise en réseau et une connectivité redondantes dans une région AWS. En d'autres termes, il ne s'agit que d'un centre de données isolé. En raison de la raison, la seule différence réside dans le fait qu' il dispose d'une alimentation, d'un réseau et d'une connectivité redondants. Chaque zone de disponibilité possède donc un ensemble de centres de données isolés des autres zones de disponibilité. Je crois donc que nous l'avons fait. Joan n'est qu'un groupe de centres de données. En outre, conformément à AWS Standard, une région AWS doit comporter deux zones de disponibilité. Prenons donc un exemple de la région de Moon Bay. Il dispose de trois zones de disponibilité. Comme nous l'avons vu plus tôt. Chaque région avait un code spécifique. De même, la disponibilité Jones a également code correspondant qui consiste en un code de région suivi de l'alphabet. Si vous vous souvenez, le code régional de Bombay est ap salt one. Voyons maintenant. Le code de la zone de disponibilité, la disponibilité John one a le code API South one. De même, la disponibilité John code deux est un pièce1 et la zone de disponibilité troisième a l'épisode de code 1. Vous voyez, j'espère qu'il est clair que le code de région suivi de l'alphabet rend la disponibilité juin froide. Nous savons donc de loin que chaque région AWS a deux ou plus de disponibilité Jones, tout comme Mumbai possède trois zones de disponibilité. La Virginie du Nord possède l' avenue de Jones et ainsi de suite. Comprenons maintenant pourquoi ces zones de disponibilité sont importantes pour nous. Nous savons donc qu'une région est composée de plusieurs zones de disponibilité. Ici. Permettez-moi de vous dire que chaque disponibilité de juin n'est pas un centre de données unique, mais qu'il s'agit de grappes de centres de données. Certaines disponibilités Jones peuvent avoir deux centres de données, tandis que d'autres peuvent en avoir trois ou plus. Toutes ces zones de disponibilité sont situées entre 5 200 kilomètres de distance. Pour revenir à l'importance de la disponibilité Jones, supposons que si une zone de disponibilité tombe en panne, tout le cluster de centres de données s'y trouverait. Mais les centres de données situés dans d'autres zones de disponibilité continueront de fonctionner. Par conséquent, vous ne serez pas confronté un arrêt complet de votre application ou de votre site Web. L'infrastructure Aws est conçue pour garantir la haute disponibilité des applications. Et si vous pensez, quelle est l'importance pour vous, laissez-moi vous le dire. Supposons que vous souhaitiez déployer votre application dans la région de Bombay. Et comme vous le savez, une région de Moon Bay possède trois zones de disponibilité différentes. La première chose que vous feriez est donc de lancer un serveur dans n'importe lequel des Jones selon vos besoins. Une fois le serveur lancé, vous pouvez désormais y accéder via Internet. Vous n'avez pas à vous soucier de la zone de disponibilité dans laquelle vous avez lancé votre serveur, tant que vous pouvez y accéder via Internet. Mais supposons que la zone de disponibilité dans laquelle vous avez lancé votre serveur tombe complètement en panne. Cela signifie que l'application sera également effectuée. Mais ce n'est pas ça. Vous ne pourrez pas non plus accéder aux données de votre application. Si vous ne possédez pas ces données, vous ne pourrez pas relancer votre application. Ainsi, pour éviter de telles situations, AWS dispose de Jones. Jetons un coup d'œil aux avantages de la disponibilité Jones. Le premier avantage est la disponibilité plus élevée. Lorsque vous concevez vos applications, vous vous assurez que tous vos serveurs et bases de données sont placés tous vos serveurs et dans plusieurs zones de disponibilité. Donc, si l'une d'elles tombe en panne, vous avez une autre zone à couvrir pendant une seconde. Si vous vous souvenez, nous avons parlé de la distance entre deux zones se situant entre 5 200 kilomètres. Supposons maintenant que vous ayez une base de données principale dans un seul John. Dans ce cas, vous pouvez avoir le réplica de cette base de données dans le Jones secondaire. Il est également possible d'avoir une réplication synchrone entre deux bases de données. Cela copiera toutes vos données dans deux bases de données simultanément. Maintenant, si un John tombe en panne, nous en avons un autre pour fonctionner normalement, ce qu'on appelle la tolérance aux pannes. Veuillez noter qu'il ne s'agit pas d'une conception par défaut d'AWS. Vous devrez concevoir votre application dans plusieurs zones de disponibilité pour obtenir une haute disponibilité et une tolérance aux pannes. Étudiants, j'espère que la zone de disponibilité est claire. Voyons maintenant un exemple d'architecture dans lequel nous verrons comment utiliser la disponibilité Jones pour rendre notre application hautement disponible. Supposons que dans une région AWS, nous ayons deux zones de disponibilité que nous appellerons zone de disponibilité 1 et zone de disponibilité deux. La première chose que nous ferions est de lancer un serveur EC2 et la base de données correspondante dans la zone de disponibilité 1. De même, nous lancerions un autre serveur Web et base de données correspondante dans la zone de disponibilité. Maintenant, votre application et votre base de données sont toutes deux hautement disponibles et elles peuvent être maintenues en cas de panne d'un John. Désormais, les étudiants, en bref, la région AWS est l'emplacement géographique à travers le monde et la disponibilité Joan est le cluster de centres de données. Région particulière. Très bien, alors allons maintenant de l' avant et comprenons pourquoi il y a un besoin de tant de régions aujourd'hui. Bien sûr, il vous offre la flexibilité nécessaire pour déployer votre application dans n'importe quelle région AWS qui vous est bénéfique. dehors de cela, la principale raison est l'accès à faible latence aux applications. Si votre base d'utilisateurs se trouve aux États-Unis, déploiement de votre application aux États-Unis n'a que du sens. De même, si vous avez votre base d'utilisateurs en Inde, vous choisirez la région Moon Bay. La deuxième raison est la conformité réglementaire. Différents pays ont des règles différentes pour réglementer les données. Par conséquent, le fait d'avoir plusieurs régions vous donne la liberté de choisir ce qui vous convient le mieux. La troisième raison est de soutenir tout type de catastrophe. Toutes ces régions AWS se trouvent dans le monde entier et la distance minimale entre deux régions doit être de 300 kilomètres, ce que nous appelons site de reprise après sinistre. Cela permet de s'assurer que votre application s'exécute sur l'un des sites. Et l'autre côté doit être éloigné d'au moins 300 kilomètres pour s'assurer qu' ils ne font pas partie des mêmes systèmes. Par conséquent, vous pouvez également tirer parti des avantages de plusieurs régions. Outre les exigences en matière de latence, conformité réglementaire et de reprise après sinistre, vous pouvez également prendre en compte certaines considérations supplémentaires lorsque vous utilisez plusieurs régions. Par exemple, pour l'application globale, les entreprises souhaitent offrir la meilleure expérience utilisateur à leurs utilisateurs du monde entier. Un moyen d'y parvenir consiste à déployer votre application dans la région plus près de vos audiences. Par exemple, une application basée aux États-Unis utilisera la région de Mumbai pour offrir à l' utilisateur indien une meilleure expérience. Le coût est un autre avantage de l'utilisation de plusieurs régions. Étant donné que chaque pays a une économie différente, la tarification de l'utilisation d' AWS varierait d'un pays à l'autre. Par conséquent, vous obtiendrez des services moins chers dans certains pays. Et en tant qu'organisation, c'est un excellent moyen d' économiser de l'argent. Ensuite, vous avez un rayon d'explosion réduit. De nombreuses personnes et organisations veulent qu'en cas de défaillance d'une région complète, elles peuvent vouloir tirer parti une autre région en tant que reprise après sinistre. Plusieurs fois, ils répartissent également leurs charges de travail entre les régions au cas où quelque chose arriverait à une région. Une autre région est active et c' ainsi qu'elles réduisent le rayon d'explosion de la catastrophe. Donc, les étudiants, c'était tout au sujet des régions AWS et de la disponibilité Jones s' assure que vous comprenez bien tout , car ils sont importants du point de vue de l'entretien. C'est tout pour cette vidéo. 12. Emplacements de bord AWS: Bonjour les étudiants, bienvenue. Dans la dernière vidéo, nous avons compris les régions AWS et les zones de disponibilité. Dans cette vidéo, nous aborderons un autre aspect important de l'infrastructure mondiale Amazon, à savoir l'emplacement périphérique. Commençons par comprendre la région AWS et comment choisir une région pour votre application ? Le choix d'une région AWS repose sur de nombreux facteurs. Le critère principal est la proximité avec vos clients cibles. Nous choisissons toujours une région la plus proche de nos clients cibles. Mais que faire si vous avez des clients dans le monde entier ? Supposons simplement que vous disposez d'une application de streaming vidéo sur laquelle les utilisateurs peuvent publier le time-lapse du paysage indien. Vous avez conservé votre application et ses données à Mumbai, puisque vos clients sont originaires d'Inde. Mais après quelques mois, qui a vu beaucoup de trafic venant du Japon ? À ce jour, vous ne répondez que toutes les demandes des clients japonais de la région de Moon Bay. Mais en raison de la grande distance entre l'Inde et le Japon, vos utilisateurs japonais peuvent ne pas bénéficier une bonne expérience utilisateur en raison d'un problème de faible latence. Vous pouvez désormais déployer correctement votre application au Japon en copiant vos données dans une région Cloud au Japon, Tokyo dans le cas d'AWS. C'est ainsi que vous pouvez servir vos clients là-bas. Il s'agissait d'un exemple de mise en cache. Par définition, le jaillissement est le processus consistant à stocker une copie de données dans notre emplacement de stockage temporaire ou en cache. Il est donc accessible plus rapidement. Dans ce cas, vous pouvez donc mettre vos données en cache dans le centre de données de Tokyo et nous offrir une expérience utilisateur fluide aux clients japonais. Un autre concept que vous devez comprendre est le réseau de diffusion de contenu, communément appelé cdn. Il ne s'agit que d'un terme technique que nous utilisons pour cache des copies de données dans un centre de données plus proche des clients. Veuillez noter que CDN n'est pas un terme spécifique à AWS. Un réseau de diffusion de contenu ou un CDN, cache du contenu tel que des images, des vidéos ou des pages Web dans des serveurs proxy situés plus près des utilisateurs finaux que des serveurs d'origine. Encore une fois, ces serveurs proxy vivent dans un centre de données, et ces centres de données sont appelés emplacements périphériques. Maintenant, vous devez vous demander quelle est la différence entre la région et l' emplacement périphérique comme nos deux centres de données, n'est-ce pas ? La différence est que les emplacements périphériques sont plus petits centres de données et qu'ils sont disponibles dans toutes les grandes villes du monde. Si vous comparez, le nombre total d' emplacements périphériques est supérieur à 12 fois le nombre de régions. Vous avez donc plus d' options pour mettre en cache vos données et les résoudre rapidement auprès de vos clients. La deuxième différence est que les emplacements périphériques sont séparés des régions et sont situés à d'autres emplacements. Cela vous permet de transférer votre contenu des régions vers un ensemble d'emplacements périphériques à travers le monde. La différence est que le service spatial de l'hôte d'AWS Edge pour fournir ce contenu plus rapidement s'appelle Amazon CloudFront. Alors que la région AWS héberge presque tous les services AWS. Autre que CloudFront. emplacements Edge Aws exécutent également notre service de noms de domaine, ou DNS, appelé Amazon Route 53. Nous couvrirons Cloudfront et Route 53 dans des modules ultérieurs. Très bien, il y a bien plus que cela à propos de l'infrastructure mondiale AWS. Mais gardons les choses simples et examinons rapidement les points clés de l'infrastructure mondiale AWS. Premièrement, les régions sont des emplacements géographiquement isolés où vous pouvez accéder aux services AWS nécessaires à l'exécution de votre application. Numéro deux, les régions contiennent des zones de disponibilité physiquement séparées. Bâtiments avec leur chauffage électrique, leur refroidissement et leur réseau. Availability Jones vous aide à résoudre haute disponibilité et de reprise après sinistre scénarios de haute disponibilité et de reprise après sinistre sans effort supplémentaire. numéro trois, AWS, emplacements périphériques du numéro trois, AWS, exécutent Amazon CloudFront pour aider à rapprocher le contenu vos clients, où qu'ils se trouvent dans la nature. C'est tout pour cette vidéo. 13. Qu'est-ce que la gestion d'Identity et d'accès ?: Bonjour, étudiants. Bon retour. Savez-vous pourquoi vos établissements d'enseignement vous délivrent la carte d'identité ? Parce que les cartes d' identité d'un institut lui permettent de contrôler qui peut accéder à ses installations. Votre carte d'identité sert de preuve que vous étudiez dans ce collège, et vous pouvez donc utiliser leurs installations. De même, AWS propose un service qui aide les entreprises à gérer leur identité dans le cloud. Dans cette vidéo, nous allons découvrir les concepts des services de gestion des identités et des accès liés à l'IAM, à l' identification, à l'authentification et à l'autorisation Commençons par ce qu'est la gestion des identités et des accès ? gestion des identités et des accès La gestion des identités et des accès est un cadre qui garantit que les bonnes personnes de votre organisation peuvent accéder au seul service dont elles ont besoin pour faire leur travail. N'oubliez pas qu'il n'est pas recommandé d'utiliser votre compte root pour toutes vos tâches et celles de votre équipe, car cela pourrait entraîner de graves problèmes de sécurité. Faisons une analogie ici. Supposons que vous travailliez dans une organisation et que chaque jour, lorsque vous entrez par l'entrée principale, vous deviez présenter votre carte d'identité au gardien de sécurité ou vous devez utiliser votre carte de connexion De cette façon, votre organisation s'assure que vous êtes la bonne personne qui peut accéder aux locaux de l' organisation. Et c'est exactement ainsi que fonctionne IAM. Lorsque vous présentez votre carte d'identité, vous prouvez que vous êtes la bonne personne. En tant que personne, vous êtes une identité. Maintenant, lorsque vous montrez votre carte d'identité au gardien de sécurité, il regarde la photo de votre carte d' identité et votre visage et vérifie si les deux correspondent Une fois la vérification effectuée avec succès, vous pouvez y accéder tout au long de ce processus. En tant que personne, vous avez accès aux locaux appropriés. Ce n'est pas ça. Cette carte d'identité sert de preuve pour accéder à de nombreux autres services et installations de votre organisation. Par exemple, certaines personnes ne peuvent utiliser que la section compte, tandis que d'autres ne peuvent utiliser que les ressources humaines, etc. Il existe un système bien défini qui peut utiliser quoi de la même manière. La gestion des identités et des accès, ou IAM, est un service d'AWS qui garantit que la bonne personne a accès à la bonne chose Aws IAM fournit un contrôle d'accès à tous les services et ressources AWS Vous pouvez spécifier qui peut accéder à quels services et ressources et dans quelles conditions. Il existe également le concept de politique IAM, que vous pouvez utiliser pour gérer les autorisations accordées à votre personnel et à votre système afin de garantir les autorisations du moindre privilège Si cela n'a aucun sens, ne vous inquiétez pas. Je vais aborder tout cela dans les prochains sujets. Pour l'instant, comprenons trois concepts importants de gestion des identités et des accès, d'identification, d'autorisation et d'authentification. Ces trois termes sont étroitement liés, mais ils ne sont pas identiques. Comprenons-les maintenant. L'identification est la capacité d'identifier un utilisateur de manière unique. Cela signifie comment une personne ou un système peut être identifié. Dans le dernier exemple, vous vous identifiez à l' aide d'une carte d'identité. Hein ? Et cela varie d'un système à l'autre. Lorsque vous vous connectez à votre compte bancaire, vous utilisez un nom d'utilisateur et un mot de passe. Vous vous identifiez sur le portail bancaire à l'aide de votre nom d'utilisateur et de votre mot de passe. Votre identification est votre nom d'utilisateur et l'identification par mot sert essentiellement à identifier chaque utilisateur unique qui accède à vos services ou installations. Le second concept parle d'authenticité. L'authentification est le processus de reconnaissance de l'identité d'un utilisateur. Lorsque vous présentez votre carte d'identité au gardien de sécurité, celui-ci vérifie la photo de votre carte d'identité avec votre visage C'est l'authentification. Lorsque vous vous connectez à votre compte bancaire, vous fournissez votre nom d'utilisateur et votre mot de passe. Le système principal bancaire compare votre nom d'utilisateur et votre mot de passe aux nom d'utilisateur et aux mots de passe enregistrés dans leur système Le système s'assure que vous avez reçu le bon nom d'utilisateur et le bon mot de passe. Si vous connaissez le nom d'utilisateur et le mot de passe corrects, vous êtes le propriétaire du compte. Si vous avez reçu une identité unique, il doit y avoir un système pour la reconnaître chaque fois que vous utilisez votre identité unique. Ce processus de reconnaissance de l'authenticité de votre identité est connu sous le nom d'authentification. Enfin, l'autorisation est le processus donner à quelqu'un l'autorisation d'accéder à quelque chose. Une fois que vous êtes autorisé, vous pouvez entrer dans les locaux du bureau et vous rendre dans votre zone de bureau. Mais vous ne pouvez pas aller à la cuisine de la cantine parce que vous n'êtes pas autorisé ou parce que nous pouvons dire que vous n'êtes pas autorisé à accéder à la cuisine de la cantine conformément à votre fonction professionnelle Découvrons maintenant la gestion des identités et des accès dans le cadre d'AWS. gestion des identités et des accès AWS La gestion des identités et des accès AWS est un service AWS qui aide une organisation à gérer l'accès son compte et aux services AWS pour le personnel de son organisation. Il fournit un contrôle d'accès précis à tous les services AWS Une définition précise signifie que vous pouvez spécifier qui peut accéder à quels services et ressources et dans quelles conditions Si vous souhaitez que la personne accède uniquement au service AWS EC two et que la personne Y accède uniquement au service S three, c'est tout à fait possible. Cela se fera avec la politique IAM. 14. Utilisateurs, groupes et rôles: Bonjour, étudiants. Bon retour. Dans la dernière vidéo, nous avons découvert AWS IAM. Dans cette leçon, nous allons parler des éléments de l'IAM, notamment les groupes d'utilisateurs et les rôles Commençons par les utilisateurs. Un utilisateur est une personne qui utilise un service AWS dans un compte AWS Comme nous l'avons indiqué dans la leçon précédente, AWS possède deux types d'utilisateurs l'utilisateur root et l'utilisateur IAM Le nom d'utilisateur root lui-même indique qu'il s'agit de l'utilisateur spatial. Il est créé lors de la création du compte AWS. Lorsque vous créez un compte AWS, AWS crée une identité ou un utilisateur pour vous. Cet utilisateur d'identité est appelé utilisateur root d'AWS. Cet utilisateur a accès à tous les services et ressources AWS du compte. Quelques points importants concernant les utilisateurs root d'AWS. Vous pouvez vous connecter en tant qu' utilisateur root à l'aide de l'adresse e-mail et mot de passe que vous avez utilisés pour créer le compte. L'utilisateur root dispose d'un accès complet à tous les services et ressources AWS du compte. Il n'est donc pas recommandé d' utiliser l'utilisateur root pour les tâches quotidiennes. Vous ne devez jamais partager les informations d'identification de l'utilisateur root avec tout le monde. Seules très peu de personnes fiables devraient avoir les informations d'identification root. Nous savons maintenant que nous ne pouvons pas utiliser l'utilisateur root pour notre travail quotidien. C'est là que l'utilisateur IAM entre en scène. L'utilisateur Iam est une entité que vous, en tant qu'utilisateur root, créez dans un compte AWS pour représenter l'utilisateur qui interagit avec ressources AWS de votre Comprenons maintenant cela à l'aide d'un exemple. Imaginons que vous êtes le chef d'équipe d' une organisation et que vous possédez un compte AWS. Vous avez deux développeurs, Ram Sham, et deux administrateurs, Ta et Geta Dans votre équipe, votre équipe doit avoir accès à un compte AWS pour héberger une application, car vous ne souhaitez pas leur donner accès à votre compte root. Vous pouvez créer des utilisateurs IAM pour les membres de votre équipe et leur fournir l'accès aux services dont ils ont besoin pour leur travail Ici, chaque membre de l'équipe représente un utilisateur IAM, car chaque membre de l'équipe doit interagir avec un compte AWS pour faire son travail Vous allez créer quatre utilisateurs IAM pour Ram Shamtha et Geta. OK, maintenant nous comprenons l'utilisateur de la messagerie instantanée. Examinons le fonctionnement des utilisateurs IAM et la manière dont nous attribuons des autorisations aux différents utilisateurs IAM Lorsque vous créez un utilisateur, celui-ci dispose d'un nom d'utilisateur, d'un mot de passe et de clés d'accès que vous partagez avec les personnes concernées pour accéder au compte AWS. nom d'utilisateur et le mot de passe seront utilisés pour accéder à la console de gestion AWS et à la clé d' accès pour un accès programmatique avec l'AWS CLI Chaque utilisateur a été ajouté à un seul compte AWS Chaque utilisateur possède ses propres informations d'identification pour accéder au compte AWS. Maintenant, la question importante est quel type de ressources AWS ils peuvent utiliser. Eh bien, aucun nouvel utilisateur IAM ne dispose d' aucune autorisation par défaut pour accéder à vos ressources AWS afin de fournir à vos utilisateurs IAM les autorisations nécessaires dont vous avez besoin pour leur accorder les autorisations requises Vous pouvez le faire en ajoutant des politiques IAM à chaque utilisateur IAM. politique Iam définit les autorisations accordées à tout utilisateur interagissant avec un compte AWS Nous aborderons la politique IAM dans la rubrique suivante. En résumé, vous créez des utilisateurs IAM, vous attachez des politiques pour accorder des autorisations, et l'utilisateur peut utiliser ces informations d'identification pour accéder à ces ressources est important de noter que utilisateur IAM n'a pas à représenter une personne réelle Il peut s'agir d'une application. Supposons également que vous ayez une application sur châssis qui doit accéder à un service AWS. Vous pouvez configurer la clé d'accès dans l' application pour accéder aux services AWS. C'est un autre cas d'utilisation important de la clé d'accès. Bien, comprenons maintenant le groupe IAM. Un groupe IAM est un ensemble d' utilisateurs et d'autorisations attribuées à ces utilisateurs Revenons au même exemple. Dans votre équipe, vous avez deux développeurs Sham et deux administrateurs, Ta et Gier. Hein ? Les deux développeurs utiliseront les mêmes services AWS et y accéderont. Il en va de même pour les deux administrateurs. Au lieu d'attribuer des autorisations à des utilisateurs individuels, vous pouvez également les regrouper et attribuer des autorisations à ce groupe en une seule fois Dans notre cas, vous pouvez créer deux groupes. Un groupe pour les développeurs et un groupe pour les administrateurs. Iam Group fournit un moyen simple de gérer les autorisations des utilisateurs en fonction de leurs fonctions Lorsque vous créez un utilisateur, vous lui attribuez une politique. Mais dans le cas d'un groupe, vous ajoutez une politique au groupe et l' autorisation s'appliquera à tous les utilisateurs de ce groupe. Prenons un autre bon cas d'utilisation pour le groupe IAM. Comme vous le savez, tout utilisateur d'un groupe d'utilisateurs spécifique dispose automatiquement des autorisations attribuées au groupe d'utilisateurs. Si un nouvel utilisateur rejoint votre organisation et a besoin de privilèges d' administrateur, vous pouvez attribuer les autorisations appropriées en ajoutant simplement le nouvel utilisateur à ce groupe d'administrateurs. De même, si un employé existant passe à un nouveau projet, dans un nouveau rôle au sein de la même organisation, au lieu de modifier l'autorisation de cet utilisateur, vous pouvez le supprimer de l'ancien groupe d'utilisateurs et l' ajouter aux nouveaux groupes d'utilisateurs appropriés. Le groupe de messagerie instantanée permet d'associer des politiques à plusieurs utilisateurs à la fois. Lorsque vous associez une politique basée sur l'identité à un groupe d'utilisateurs, tous les utilisateurs du groupe d'utilisateurs reçoivent l'autorisation, le groupe d'utilisateurs. Voyons maintenant le rôle de l'IAM. Un rôle IAM est une identité IAM que vous pouvez créer dans votre compte et qui dispose d'autorisations spécifiques Un rôle IAM est similaire à un utilisateur IAM attaché politique IAM qui détermine ce qu' un rôle peut et ne peut pas faire Vous devez maintenant vous demander quelle est la différence entre le rôle IAM et l'utilisateur ? Bien, laisse-moi t'expliquer. Un utilisateur IAM est une personne unique qui possède un nom d'utilisateur, mot de passe et une clé d'accès avec les autorisations qui y Toutefois, le rôle IAM ne possède ni nom d'utilisateur, ni mot de passe, ni clé d'accès Le rôle IAM ne peut pas être directement lié à une personne ou à un service Au lieu de cela, il peut être assumé par une personne ou une ressource pour une session définie. Qu'est-ce que cela signifie ? Laissez-moi vous expliquer avec cet exemple d'image. Supposons qu' une application s'exécute sur une instance EC two. Et une instance EC two doit accéder à une image depuis S trois. Dans ce cas, EC two assume le rôle et, conformément à la politique, il accèdera à l'image depuis S trois. Comme je l'ai mentionné, les rôles ne sont pas associés à des clés d'accès ou à des informations d'identification. Les informations d'identification sont temporaires et attribuées de manière aléatoire par AWS Aws fournit les informations d'identification temporaires au rôle pour effectuer la tâche lorsque cela est nécessaire. C'est tout pour cette vidéo. 15. Créer un utilisateur et un groupe IAM: Aidez les étudiants. Bon retour. Dans cette leçon, nous allons créer des utilisateurs et des groupes IAM. À la fin de cet atelier, vous serez en mesure de créer ces entités IAM et de naviguer confortablement dans la console AWS IAM Commençons. Nous voici sur la page d'accueil de la console AWS. Passons à IAM en utilisant l' option de recherche en haut de la console AWS Comme vous pouvez le constater, vous pouvez utiliser la barre de navigation de gauche pour naviguer dans les groupes d'utilisateurs, les politiques, les rôles et l'identité fournis dans le cadre de cet atelier Nous ne travaillerons qu'avec les groupes d'utilisateurs et leurs politiques. Commençons par créer deux utilisateurs, Ram et Sham. Dans notre exemple, Ram est développeur et Sham est administrateur AWS. Vous pouvez accéder à la page de l'utilisateur en cliquant sur les options utilisateur dans le tableau de bord IAM Il s'agit de la page de l'utilisateur où vous verrez tous les utilisateurs créés pour votre compte. Créons maintenant notre premier utilisateur AWS en cliquant sur le bouton Ajouter des utilisateurs. Nous commençons par donner un nom d'utilisateur à votre utilisateur. Appelons cet utilisateur Ram. Lorsque vous créez plusieurs utilisateurs dans les mêmes propriétés, vous pouvez simplement ajouter un autre nom d'utilisateur en cliquant sur le bouton Ajouter un autre utilisateur. Cependant, pour cet exemple, nous allons le faire un par un. L'option suivante que nous voyons est le type d'identifiant AWS. Vous devez sélectionner Cess, Key Programmatic access pour permettre à cet utilisateur d'accéder aux commandes de l' AWS CLI ou d'utiliser le SDK AWS et l'API AW Nous n'en avons pas besoin pour notre exemple. Nous sélectionnerons uniquement mot de passe d'accès à la console de gestion AWS, qui permettra à l'utilisateur Ram d'accéder à AWS via la sélection de la console de gestion. Cela nous donne d'autres options. Vous pouvez demander à AWS de créer un mot de passe généré automatiquement ou vous pouvez ajouter manuellement un mot de passe simple pour cet utilisateur. Pour notre exemple, nous allons laisser AWS nous donner un mot de passe généré automatiquement. L'option suivante est d' exiger la réinitialisation du mot de passe. Vous devez cocher cette case si vous souhaitez que votre utilisateur réinitialise son mot de passe lors de son premier accès à la console. Nous allons décocher cette démo, puis cliquer sur Autorisations suivantes Nous avons ici trois options. Vous pouvez ajouter des utilisateurs à un groupe d'utilisateurs. Vous pouvez copier les autorisations d' un utilisateur existant déjà associées à votre compte, ou vous pouvez joindre des politiques directement. Nous n'avons aucun utilisateur ou groupe d'utilisateurs dans notre compte, nous n'avons aucune option. Mais si vous cliquez sur la troisième option, joignez directement les politiques existantes, vous verrez une liste complète des politiques même si vous n'en avez jamais créé une dans votre compte. Il s'agit des politiques gérées par AWS. Cela signifie que ces politiques sont gérées par AWS et que si des modifications sont nécessaires, elles seront apportées par AWS. Ils sont très utiles pour les applications simples dans lesquelles vous ne souhaitez pas créer et gérer vos propres politiques et laisser A s'occuper de tout cela pour vous. Nous pouvons sélectionner ici une politique telle qu'Amazon S Three, Read Only Access, et donner cette autorisation à notre utilisateur. Créons d'abord un utilisateur sans autorisation. Cliquez sur Next Tags. Ici, nous pouvons ajouter des tags à nos utilisateurs. Ajoutons un exemple de balise, Department Finance. Cliquez ensuite sur Suivant, ce qui ouvrira la page d'évaluation, où vous verrez les derniers détails concernant votre utilisateur. Cliquez sur Créer un utilisateur. Cela nous amène à l' étape finale de la création d'un utilisateur AWS. Ici, nous pouvons voir que l' utilisateur Ram a été créé. Vous pouvez même consulter le mot de passe de cet utilisateur. Cliquez sur Télécharger le fichier CSV pour télécharger un fichier CSV contenant les informations d'identification de l'utilisateur sur votre ordinateur. Il est important de savoir que vous devez enregistrer ces informations d'identification quelque part après avoir créé l'utilisateur. Si vous parvenez à quitter cette page, vous ne pourrez plus récupérer les informations d'identification. Cliquez sur Fermer, nous pouvons voir que notre utilisateur Ram est ajouté à la page utilisateur. Créons un autre utilisateur, Sam. Nous suivons le même processus. Ajoutez le nom d'utilisateur Sham. Autorisez l'accès à AWS via la console. Laissez toutes les valeurs par défaut, sauf la réinitialisation du mot de passe. Et cliquez sur Suivant, nous n' ajouterons aucune autorisation. Cliquez sur Suivant, nous ajouterons la balise d'exemple, comme nous l'avons fait pour les finances des services utilisateurs. Cliquez sur Suivant, puis sur Créer un utilisateur Télécharger le CSB pour enregistrer les informations d'identification Veuillez noter à nouveau que vous ne pourrez pas obtenir d'informations d'identification après avoir fermé cette page Maintenant que nous avons créé nos deux utilisateurs, Ram et Sham, créons notre groupe d'utilisateurs. Cliquez sur Groupes d'utilisateurs, puis sur Créer un groupe pour créer notre premier groupe d'utilisateurs, ajoutez le nom « développeurs ». Nous pouvons ajouter des utilisateurs à ce groupe à partir du tableau ci-dessous. Ajoutons Ram, qui est développeur, à ce groupe. L'étape suivante consiste à ajouter des politiques à ce groupe. Nous voulons que nos développeurs puissent accéder pleinement à C deux et S trois. Nous allons donc vérifier l'accès complet à Amazon C two et l'accès complet à Amazon S trois dans le tableau des politiques ici et cliquer sur Create Group. Nous avons maintenant un groupe de développeurs qui n'en a qu'un. Créons également un groupe d' administrateurs. Cliquez sur Créer un groupe, entrez le groupe, nommez Administrateurs. Cette fois, nous n'ajouterons pas faux à ce groupe pour le moment. Créons un groupe sans utilisateurs. Attachons maintenant des politiques à ce groupe. Nous allons joindre la politique d'accès de l'administrateur. Cliquez sur Créer un groupe, et nous pouvons voir que notre groupe est créé. Mais le groupe des administrateurs ne compte aucun utilisateur pour le moment. Ajoutons maintenant Sham à cela. Accédez à la page de l'utilisateur. Il a à la fois les utilisateurs Ram et Sham. Cliquez sur Sham, vous pouvez voir que cet utilisateur n'a aucune autorisation. Passez des autorisations aux groupes d'onglets de groupe. Cela vous donnera une liste des groupes d'utilisateurs. Ajoutons Sham à son groupe d'administrateurs ici. Maintenant, si vous revenez à l'onglet des autorisations, vous pouvez voir que l' autorisation a été ajoutée à ce masque d'utilisateur. Maintenant , la politique d' accès des administrateurs est-elle attachée au groupe d' administrateurs ? Nous avons créé deux groupes dotés d'un accès AWS. Ces utilisateurs ont attribué des politiques gérées par AWS. C'est tout ce que je voulais aborder dans cette station. 16. Identifiez-vous avec IAM User et créer un rôle: Bonjour étudiants. Bon retour. Dans cette leçon, nous allons nous connecter avec l'utilisateur IAM à la console AWS et créer un rôle Je suppose que vous avez terminé la dernière démo et que vous avez un utilisateur nommé Sham et son mot de passe. Commençons. Identifions-nous d'abord en tant qu' administrateur Sham et utilisons-le pour créer un rôle. Ouvrons maintenant le fichier CSV vous avez téléchargé lors de la création d'un masque d'utilisateur. Vous voyez ici qu'il contient le nom d'utilisateur, le mot de passe, l'ID de clé d'accès, ID de clé secrète et le lien de connexion à la console, car nous n'avons pas sélectionné l'accès par programmation C'est pourquoi la clé d'accès et la clé secrète sont vides. Copions le lien de connexion à la console et ouvrons-le dans le navigateur. Ici, vous voyez que l' alias du compte est déjà renseigné, et c'est quelque chose que nous avons créé dans une autre démo. Vous pouvez également utiliser l'identifiant du compte. Si vous vous en souvenez, ajoutez votre nom d'utilisateur et votre mot de passe comme indiqué dans le fichier CSV. Cela nous mènera à la console AWS. Nous pouvons maintenant voir la console AWS comme avant, mais si vous voyez le coin supérieur droit de votre écran, vous pouvez voir que nous sommes connectés en tant qu'utilisateur fictif. Accédez à la console IAM. Encore une fois, cliquez sur l'option Rôles dans le tableau de bord de gauche, puis sur le bouton Créer un rôle. La première option consiste à sélectionner l'entité de confiance. Cela signifie que nous devons sélectionner à quoi sert ce rôle. Qui ou quel service va utiliser ce rôle. La première option est le service AWS. Vous devez choisir à quel moment vous souhaitez attribuer ce rôle aux services AWS tels que EC Two Lambda ou ECS C'est ce que nous allons faire ici. Ensuite, il y a le compte AWS. Ceci est utilisé pour créer un rôle accessible depuis d'autres comptes AWS. Si vous souhaitez que quelqu'un puisse se connecter au vôtre à partir d'un autre compte, choisissez cette option. L'option suivante est l'entité B. C'est à ce moment que vous souhaitez que les utilisateurs puissent assumer ce rôle et accéder à la console AWS via une entité B telle que Google Facebook login. L'option suivante est la fédération SAML 2.0. Saml est un service de maintenance utilisateur utilisé par les grandes organisations pour permettre à leurs employés d'accéder aux différents services des organisations Cela peut être intégré à AWS pour donner accès à la console AWS. La dernière option que nous avons est une politique de confiance personnalisée. Vous pouvez l'utiliser pour définir une politique de confiance de Jason. Ne vous inquiétez pas si les trois dernières options n'ont pas de sens pour vous. Les deux premières options sont importantes pour ce cours. Choisissez le service AWS et sélectionnez EC Two. À partir des options ci-dessous, nous allons créer un rôle qui peut être attaché à une instance EC two. Cliquez sur Suivant, nous pouvons voir ici la liste des politiques que nous pouvons associer à ce rôle. Joignez la politique d'accès complet à Amazon S3. Et cliquez sur Suivant, entrez le nom du rôle. Vous voyez une description déjà remplie d'un message significatif. Autorisez les instances EC two à appeler les services AWS en votre nom. Passez en revue le rôle et cliquez sur Créer un rôle. Cela prendra quelques secondes. Vous pouvez maintenant voir le rôle que vous avez créé sur la page des rôles. Nous utiliserons ce rôle dans les prochaines démos. Étudiants et utilisateurs d'IAM sont les mieux placés pour donner accès à votre compte AWS, même si vous devez l'utiliser Je vous recommande de vous créer un utilisateur IAM avec l'autorisation de l'administrateur et de l'utiliser à l'avenir Et assurez-vous également d'activer le MFA pour les utilisateurs IAM. Je pense que vous avez déjà supprimé votre accès utilisateur root et votre clé secrète, que nous avons créés lors de la dernière démo. À ce stade, vous savez que vous pouvez également créer une clé d'accès et une clé secrète pour votre IAM Vous trouverez le lien dans la section des ressources. C'est tout pour cette séance. 17. Politiques IAM: Bon retour aux étudiants. La dernière session portait sur les utilisateurs, les groupes et les rôles d' IAM Nous avons également brièvement discuté politiques IAM relatives à l' octroi d'autorisations, mais cela ne suffit pas Comprendre les politiques est essentiel pour travailler efficacement avec l'IAM Dans cette leçon, nous aborderons les politiques IAM en détail, notamment leur définition et leurs types Commençons. Permettez-moi de vous poser une question. Qu'est-ce qui vous vient à l'esprit lorsque vous entendez le mot politique ? Si vous avez pensé à des règles ou à des directives. J'ai bien compris. La politique IAM est plus ou moins la même chose. Lors de la session précédente, vous auriez remarqué que nous avions accordé certaines autorisations aux groupes d'utilisateurs et aux rôles que nous avions créés. Ils étaient alors les seuls à pouvoir effectuer les actions conformément aux autorisations accordées. Ces autorisations ne sont rien que des politiques dont nous allons parler au cours de cette session. Par définition, la politique IAM est une entité qui, lorsqu'elle est attachée à une identité ou à une ressource, définit ses autorisations Comme je l'ai déjà dit, les politiques contiennent des autorisations qui déterminent si une demande est autorisée ou refusée. Cela signifie que quelle que soit l'action effectuée par une identité, l'autorisation est donnée par sa politique. Vous pouvez utiliser la politique IAM lorsque vous devez définir les autorisations pour une identité dans IAM Comprenons maintenant cela avec le même exemple. Vous avez une équipe de deux développeurs, Ram et Sham, et de deux administrateurs, Ta et Geta Vous avez créé deux groupes, le groupe des développeurs et le groupe des administrateurs. Selon le rôle et l'autorisation du poste, les développeurs de votre organisation peuvent démarrer et arrêter l'instance EC deux et les administrateurs peuvent créer et supprimer l'instance EC deux. C two n'est rien d'autre qu'un service de calcul dans AWS. Nous en parlerons dans les prochains modules. Vous allez créer deux politiques. Une politique pour les développeurs qui autorisera le démarrage et l' arrêt de la liste C à deux instances. Une autre politique pour les administrateurs qui leur permettrait de créer et de supprimer des instances EC two. Vous associerez ces politiques aux groupes respectifs. Ce qui se passerait ici, c'est que la politique serait appliquée en conséquence à tous les membres de ces groupes. Cela signifie que Ram et Sham auront des autorisations en tant que développeurs et Ta et Geta en tant qu'administrateurs Ainsi, dans cet exemple, associant une politique de développement au groupe de développeurs, nous autorisons les membres du groupe à effectuer des actions spécifiques et rien de plus. Nous savons maintenant comment fonctionnent les politiques. Découvrons les différents types de politiques IAM. Si nous revenons à la définition de la politique, stratégie IAM est une entité qui, lorsqu'elle est attachée à une identité ou à une ressource, définit ses autorisations Selon la définition, une politique peut être attachée à des identités ou à des ressources. Comme vous le savez déjà, l'identité n'est rien d'autre que des utilisateurs, des groupes et des rôles IAM La ressource désigne les services AWS tels que C two instance S three bucket lambda, que nous aborderons dans des modules ultérieurs Sur la base des deux manières dont une politique peut être attachée. Il est de deux types politique basée sur l'identité et la politique basée sur les ressources. Nous allons maintenant comprendre les deux un par un. Les politiques basées sur l'identité sont associées à une identité composée d'IAM, groupe d'utilisateurs et de rôle Ces politiques contrôlent les actions et les identités qui peuvent être effectuées sur quelles ressources et dans quelles conditions. Veuillez noter que ces politiques sont spécifiques à l'utilisateur, ce qui lui permet d'accéder aux ressources AWS depuis son propre compte. Un groupe d'utilisateurs ou un rôle IAM peut avoir plusieurs politiques qui, ensemble représentent les autorisations accordées à cet utilisateur en particulier Par exemple, vous pouvez associer la politique à l'utilisateur IAM nommé Ram indiquant qu' il est autorisé à exécuter l'action Amazon C two run instance Vous pouvez également indiquer que Ram est autorisé à obtenir des objets d'un compartiment Amazon S Three. Mon bucket, combinant les deux autorisations, Ram ne peut lancer que l'instance C two et y accéder. Mon seau. L'autre type est la politique basée sur les ressources. Ces politiques sont associées à une ressource AWS, telle qu'un compartiment Amazon C à deux instances , S, trois, etc. Ces politiques contrôlent l'action qu' un service ou une identité AWS spécifique peut effectuer sur d'autres ressources et dans quelles conditions. Comprenons à l' aide d'un exemple. Parfois, il peut arriver que l'instance EC two souhaite accéder au compartiment S three. Vous devez également attacher la politique à l'instance C two et donner l'autorisation requise pour accéder à S three. De plus, les politiques basées sur l'identité sont de deux types les politiques gérées et les politiques intégrées La politique gérée est également classée dans AWS, politique gérée et politique gérée par le client. Regardons-les maintenant un par un. Les politiques gérées par AWS sont des politiques créées et gérées par AWS. Comme son nom l'indique, sachez que cette politique est créée et gérée par AWS et que vous ne pouvez y apporter aucune modification. Par exemple, Amazon S Three Read Only Access ou S Three Full Access. Ils sont essentiellement conçus pour s'aligner étroitement sur les fonctions professionnelles couramment utilisées dans le secteur informatique telles que l'administrateur, le développeur ou le lecteur. Vous pouvez accorder à S three un accès complet à l'administrateur et S three un accès en lecture seule à l'auditeur. L'objectif est de faciliter l'octroi d'autorisations pour ces fonctions professionnelles standard. politiques gérées par AWS ne peuvent pas être modifiées et AWS gérera et mettra à jour les politiques si nécessaire. Les politiques gérées par le client sont créées et gérées par le client. Fondamentalement, en tant que client, vous pouvez créer et gérer ces politiques. Si vous souhaitez une politique entièrement contrôlée que vous pouvez maintenir, vous pouvez utiliser une politique gérée par le client, que vous créez et gérez dans votre compte AWS. Elle fournit un contrôle plus précis de vos politiques que les politiques gérées par AWS. Un autre avantage de la politique gérée par le client est que vous pouvez vous associer à plusieurs entités au sein de votre compte, ce qui facilite grandement son évolutivité. Par exemple, votre compte compte quatre utilisateurs de lecteurs appartenant à une équipe différente qui ont tous besoin du même type d'Amazon C pour accéder en lecture seule. Vous pouvez créer une politique gérée par le client et l'associer aux quatre utilisateurs. Si vous devez modifier cette politique, vous pouvez la modifier en une seule politique qui s'applique à tout qu'elle vous fournit en matière de gestion intégrée et centralisée des modifications. Pour ces politiques gérées, vous avez un contrôle total et vous pouvez gérer les autorisations à tous les niveaux que vous jugez nécessaires. Ensuite et dernier point, il y a la politique en ligne. La politique intégrée est directement attachée à l'utilisateur ou au groupe. Il entretient une relation individuelle stricte avec la politique et l'identité. Cela signifie qu'une politique intégrée est attachée à une seule entité Il est généralement créé lorsque vous créez une identité et supprimé lorsque vous supprimez l'identité. Il est avantageux de donner une autorisation à un utilisateur ou à un groupe temporaire. Vous créez une politique intégrée lors de la création d'un utilisateur ou d'un groupe Et lorsque vous supprimez l'utilisateur, la politique sera également supprimée. D'accord, c'est à peu près une question de politiques. Résumons rapidement ce que nous avons appris au cours de cette session. Une politique est essentiellement une autorisation qui décide des mesures à prendre dans les comptes AWS. Nous découvrons également les différents types de politiques IAM, qui sont des politiques basées sur l'identité et des politiques basées sur les ressources Les politiques basées sur l'identité sont ensuite divisées en deux types, les politiques gérées et les politiques intégrées Les politiques gérées peuvent être gérées par AWS ou gérées par le client. 18. Meilleures pratiques de l'IAM: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons découvrir quelques bonnes pratiques en matière d'IAM pour garantir la sécurité de nos comptes AWS Commençons. La première bonne pratique IAM consiste à éviter de partager les informations de connexion Au lieu de partager les informations d'identification de l'utilisateur root avec les différents utilisateurs de votre organisation. Vous devez créer des utilisateurs IAM pour les personnes qui utiliseront vos ressources AWS Comprenons cela à l' aide d'un exemple. Supposons que votre équipe compte deux développeurs et deux administrateurs . Ce que les gens font parfois, c'est créer un utilisateur de messagerie instantanée et partager les informations d'identification de l'utilisateur avec ces quatre personnes. Mais ce n'est pas une bonne pratique. Nous devrions plutôt créer quatre utilisateurs différents en fonction rôles de ces membres de l'équipe et partager les informations d'identification des utilisateurs avec eux. L'objectif est que chaque utilisateur dispose ses propres informations d'identification IAM pour accéder à votre compte Peu importe ils accèdent au compte via la console de gestion, qu'ils utilisent l' interface de ligne de commande AWS ou un kit de développement logiciel (SDK) La meilleure pratique suivante consiste à créer des groupes. Il est toujours recommandé de créer des groupes et de n'attribuer que les autorisations requises à ces groupes. Cela signifie que si plusieurs utilisateurs de votre organisation le même rôle professionnel, au lieu d'attribuer des autorisations à des utilisateurs individuels, vous pouvez créer un groupe, attribuer une autorisation à ce groupe et ajouter tous les utilisateurs ayant le même rôle professionnel dans le groupe Chaque utilisateur assumera ces autorisations. Comprenons cela avec le même exemple. Supposons que l'équipe compte deux développeurs et deux administrateurs . Au lieu d'accorder des autorisations à ces quatre utilisateurs individuels, vous devez créer deux groupes. Un pour les administrateurs et un autre pour les développeurs, et ajoutez les autorisations requises à ces groupes. Vous pouvez désormais ajouter des utilisateurs à leurs groupes respectifs. Les utilisateurs assumeront automatiquement les autorisations attribuées à leurs groupes respectifs. Cette pratique vous aidera à gérer les autorisations au niveau du groupe plutôt qu'au niveau de l'étiquette utilisateur. Passons à la meilleure pratique suivante , à savoir l'autorisation. Aws recommande de toujours créer une autorisation pour ce dont l'utilisateur a besoin en fonction de son rôle. Ces autorisations sont connues sous le nom d'autorisations du moindre privilège. Par exemple, si le travail d'un utilisateur consiste à démarrer et à arrêter les instances EC two, au lieu de donner un accès complet à EC two, nous devrions uniquement autoriser démarrage et l'arrêt de l'instance EC two. Nous devons toujours créer autorisation et la politique du moindre privilège lors de la conception de l'autorisation. À l'avenir, la dernière meilleure pratique est l'audit. Aws indique que nous devons toujours activer le suivi dans le cloud dans chaque compte AWS. Si vous ne connaissez pas Cloud Trail, il s'agit d'un service AWS gratuit, à l'exception du stockage. Chaque fois qu'un utilisateur interagit avec votre compte AWS, Cloud Trail enregistre chaque activité, ce qui vous aidera éventuellement lors de l'audit Nous allons découvrir Cloud Trail en détail dans le module de sécurité et de gestion d'AWS. Comprenons avec un exemple. Supposons qu'un utilisateur se connecte à votre compte AWS, crée une instance EC two puis y mette fin. Aws Cloudtrail enregistrera les trois activités. De cette façon, vous aurez un enregistrement de toutes les activités effectuées les utilisateurs sur votre compte. La prochaine bonne pratique de la liste consiste à ajouter des politiques de mot de passe. Aws indique que vous devez toujours configurer les politiques de mot de passe, ce que nous avons fait dans la vidéo précédente. Les politiques relatives aux mots de passe garantissent que chaque utilisateur dispose d'un mot de passe fort. La prochaine bonne pratique est MFA, l' authentification multifactorielle Vous devez toujours activer authentification multifactorielle pour les utilisateurs privilégiés. Je vous recommande d' appliquer le MFA à chaque utilisateur. Vous pouvez créer une politique et associer à tous les groupes. Désormais, chaque fois qu'un utilisateur se connecte à un compte AWS, il doit authentifier son identité deux fois Ils seront alors les seuls à pouvoir faire quoi que ce soit sur votre compte. Il s'agit d'une très bonne pratique pour garantir sécurité de votre compte et des ressources AWS. La meilleure pratique suivante consiste à alterner les informations de connexion. Toute personne accédant à votre compte AWS doit modifier ses informations d'identification utilisateur de temps en temps. Vous pouvez même imposer cette politique aux utilisateurs en leur imposant de changer leurs informations d'identification tous les deux mois, trois mois ou six mois. Cela fait partie de votre politique de mot de passe au sein votre compte AWS, comme nous avons vu dans la démo précédente. En vertu de cette politique, les utilisateurs devront non seulement alterner leurs mots de passe, mais également les clés d'accès et secrètes. Enfin, il y a l'utilisateur root. Vous ne devez pas utiliser l'utilisateur root pour vos activités quotidiennes , car cela pourrait exposer vos informations d'identification d'utilisateur root. En outre, vous devez également limiter l'accès de l'utilisateur root dès que vous avez un compte AWS, stocker les informations d'identification de l'utilisateur root dans un endroit privé et créer un utilisateur IAM, même pour vous-même Étudiants, j'espère que vous comprenez maintenant que la sécurité des comptes est un véritable problème et que vous devez utiliser ces pratiques pour protéger votre compte de toute menace potentielle. C'est tout pour cette vidéo. 19. Aperçu d'Amazon S3: Bon retour. Dans cette vidéo, nous allons découvrir l'un des principaux services AWS, le Simple Storage Service, connu sous le nom de S three. Nous allons commencer par la vue d'ensemble des trois S. Comprenez le compartiment S three ainsi que le dossier. Commençons par ce que S3s3 signifie Simple Storage Service Comme vous pouvez le voir dans les premiers caractères de Simple Storage Service RS, c'est pourquoi il est appelé S trois. Il vous permet de stocker, de récupérer, d'accéder et de sauvegarder n'importe quelle quantité de données à tout moment, n'importe où sur Internet S Three est une solution de stockage parfaite pour stocker d'énormes quantités de données. Par exemple, les fichiers audio, les films, stockage de photos à grande échelle, les grands ensembles de données, etc. Nous pouvons accéder à S Three depuis la console de gestion, commande AWS ou le kit SDK AWS Parlons maintenant de la façon dont nous stockons les données dans S trois. Pour stocker des données dans S three, nous devons créer un compartiment dans un compte AWS. Un bucket S three est un conteneur logique dans lequel les données sont stockées dans S three. Pour stocker des données dans S3, nous devons créer un bucket. Nous pouvons également créer plusieurs compartiments pour organiser nos données. Le bucket est identifié par son nom et doit être unique au monde dans toutes les régions et tous les comptes. Par exemple, si je crée un bucket et que je le nomme mon bucket, personne d'autre ne pourra l' utiliser dans aucun compte AWS. En d'autres termes, une fois qu'un compartiment S three est créé, aucun autre compte AWS ne peut créer le compartiment S three avec un nom similaire. compartiment à trois fonctionne simplement comme un espace de stockage dans lequel nous pouvons stocker un nombre illimité de données soit directement dans le compartiment, soit créer un dossier , puis placer les données dans ce dossier. Voyons maintenant ce qu'est un dossier. Les dossiers sont utilisés pour regrouper et organiser des fichiers. Contrairement à un système de fichiers traditionnel, Amazon S3 n' utilise pas de hiérarchie pour organiser ses fichiers. un souci de simplicité organisationnelle, la console Amazon S Three prend en charge le concept de dossier comme moyen de regrouper les données. Vous pouvez avoir plusieurs dossiers ou fichiers dans un même compartiment. En fait, le dossier est un espace de noms à l'intérieur du compartiment. Comprenons avec un exemple. Dans le compte AWS, nous avons le service S three. Dans ce service, nous pouvons créer des buckets comme nous l'avons appris jusqu'à présent Dans ce compartiment, nous pouvons stocker nos fichiers, images, vidéos ou données. De plus, si nous voulons organiser nos données, nous pouvons créer des dossiers dans le compartiment ainsi que des dossiers dans des dossiers. Ensuite, nous pouvons également stocker nos données dans ces dossiers. Cela aura plus de sens lorsque nous ferons la démonstration dans la prochaine leçon. Un autre concept important de S 3 est l'objet. Lorsque nous stockons des données qui peuvent être des fichiers, des documents , des images, des vidéos, etc., elles sont appelées objets dans AWS Par conséquent, l'objet n'est rien d'autre que votre document de fichier, image, vidéo, etc. Tout ce qui se trouve sur votre disque dur est appelé fichier. Mais lorsque vous téléchargerez ce fichier dans S three, il sera connu sous le nom d'objet. Et le compartiment dans S 3 est similaire au répertoire de fichiers de votre disque dur. Nous allons maintenant parler des caractéristiques des objets que vous devez connaître. La taille maximale d'un seul objet que vous pouvez télécharger sur S three est de 5 téraoctets Veuillez noter que la taille totale des données que vous pouvez télécharger n'est pas de cinq téraoctets taille totale des données que vous pouvez télécharger n'est pas de Il s'agit plutôt de la taille maximale d' un seul fichier que S trois vous permet de télécharger. Mais cela ne signifie pas que vous ne pouvez pas télécharger des objets de plus de 5 téraoctets Si vous avez un objet de plus de 5 téraoctets, vous devez le diviser en plusieurs parties, puis utiliser ce que l'on appelle un téléchargement en plusieurs parties pour les télécharger La taille maximale de l'objet est de 5 téraoctets, mais vous devez utiliser le téléchargement partitionné dès que vous chargez un objet d'une taille supérieure Une autre caractéristique est l'aggravation de l'objet. Ce n'est rien d'autre que de conserver plusieurs variantes du même objet lorsque nous y apportons des modifications. Dans S 3, vous pouvez utiliser des objets pour les protéger de toute action involontaire ou même de la suppression accidentelle d'un objet Cela signifie que vous conservez toujours les versions précédentes d'un objet. La caractéristique suivante est la classe de stockage. Vous pouvez créer plusieurs compartiments et les stocker dans différentes classes ou catégories de données Les classes sont des niveaux de stockage différents dont les coûts varient en fonction de la fréquence à laquelle vous utilisez vos données. Vous pouvez choisir une classe si vous n'utilisez pas beaucoup vos données, vous pouvez choisir une classe moins chère et y laisser vos données, etc. Nous en parlerons en détail prochainement. Enfin, vous pouvez ensuite créer des autorisations pour limiter les personnes autorisées à accéder à vos objets ou à les voir. L'une des politiques les plus courantes de la politique de compartiment est une politique basée sur les ressources que vous pouvez utiliser pour accorder des autorisations à votre compartiment et à ses objets. Au cours de cette session, nous avons examiné les trois objets du dossier de compartiments S et leurs caractéristiques. 20. Disponibilité, durabilité et réplication de données S3: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons comprendre trois concepts importants, à savoir la disponibilité, la durabilité et la réplication des données, qui seront largement utilisés lors de la prochaine session. Tout en comprenant les différentes classes de stockage, commençons par la disponibilité. Il fait référence au temps de disponibilité du système. Cela signifie simplement combien de temps le système est disponible. En d'autres termes, il s'agit de la durée pendant laquelle le système est opérationnel et capable de fournir des données sur demande. Nous mesurons cette disponibilité en pourcentage. Ceci est également connu sous le nom de SLA, qui signifie Service Level Agreement Il s'agit essentiellement d'une promesse que les fournisseurs de services ont à leurs clients quant à la disponibilité de leurs services ou systèmes. S'ils tiennent leur promesse et les clients obtiennent tout dans les délais promis, cela signifie que le SLA est respecté. Prenons un exemple. Les supermarchés disent qu'ils sont ouverts 24 heures sur 24. Cela signifie qu'il est disponible 24 heures sur 24 pour vous. S'ils tiennent leur promesse et sont ouverts toute la journée, la semaine, mois et l'année, nous pouvons dire que leur disponibilité est de 100 % et qu'ils respectent le SLA Le concept suivant est celui de la durabilité. Il fait référence à la protection des données à long terme. Cela signifie simplement dans quelle mesure vos données sont protégées contre toute perte ou corruption éventuelle. Outre la disponibilité, vos données ne doivent pas être perdues ou corrompues si vous les stockez sur un périphérique de stockage pendant une longue période. La durabilité est également mesurée en pourcentage. Comprenons cela à l' aide d'un exemple. Supposons que vous ayez conservé 1 000 kilogrammes de pommes de terre au froid pendant six mois. Quand vous les avez récupérés, ne pesaient que 800 kg. Cela signifie que 200 kg de pommes de terre étaient pourries ou mangés par des rats, Cela signifie que le service d'entreposage frigorifique n'était pas durable. La prochaine fois que vous vous assurerez de conserver les pommes de terre dans une chambre froide bien équipée, il n'y aura aucune perte. C'est ce qu'on appelle la durabilité. Nous comprenons désormais ce que sont la durabilité et la disponibilité des données. Il est également important de savoir comment les données sont stockées dans S three. Il repose sur un concept appelé réplication des données. Comprenons-le. Si vous vous souvenez du dernier laboratoire, nous avons créé un compartiment S three dans la région de Mumbai et téléchargé une image. Lorsque vous chargez des données dans votre compartiment, celles-ci sont transférées vers l'une des zones de disponibilité de la région. Dans notre cas, nous avons créé un bucket dans la région de Mumbai. Notre image a été téléchargée dans l'une des zones de disponibilité. Mais pour sécuriser nos données, AWS crée des copies supplémentaires de nos données et les reproduit dans d'autres zones de disponibilité Les données sont stockées et répliquées dans tous les Jones de disponibilité de la même région. Maintenant, la question se pose pourquoi AWS fait cela ? Ici, nous devons nous rappeler qu'AWS a promis 11 neuf neuf ans de durabilité des données. Cela signifie simplement qu'AWS promet 99 points supplémentaires, soit 9  % de garantie de durabilité des données. Aws ne garantit pas une durabilité des données à 100 %, mais affirme qu'il y a 99 points supplémentaires, 9 % de chances que vos données ne soient pas perdues. Comment AWS s'assure-t-il que lorsque nous téléchargeons des données dans S Three, elle n'en subira aucune perte ? Aws conserve des copies de nos données dans toutes les conditions de disponibilité Jones dans la même région. En cas de perte de données, ils récupèrent les données des autres zones de disponibilité vers la zone perdue. C'est ainsi que les données sont toujours présentes dans toutes les zones de disponibilité d'une région. Et c'est la raison pour laquelle elle promet 119 % de durabilité dans les cas extrêmes. Si une zone de disponibilité tombe en panne, nos données seront toujours disponibles dans les autres zones de disponibilité de cette région en particulier. OK. C'est l'un des principaux avantages de l'utilisation d'Amazon S3. Il s'agit d'un exemple simple de mise en ligne de nouvelles données. Voyons maintenant ce qui se passe lorsque nous apportons des modifications à nos données. Supposons que nous ayons cette image en trois versions disponibles, que nous ayons changé la couleur de cette image et que nous l'ayons téléchargée. AWS met ensuite automatiquement à jour les deux copies restantes de vos données. Dans d'autres Jones, il en va de même pour la suppression. Lorsque vous supprimez vos données de One Joe, elles sont supprimées de toutes les zones de disponibilité de la région. Étudiants, nous avons compris la durabilité de la disponibilité des données et la façon dont AWS promet 11 neuvièmes de durabilité des données grâce à la réplication des données C'est tout pour cette séance. 21. Classes de stockage: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons comprendre les différentes classes de stockage. Cette séance sera riche en faits. Je vous recommande à tous de prendre des notes. Nous avons ajouté des ressources d'apprentissage supplémentaires dans la section des ressources. Assurez-vous d'en faire le meilleur usage possible. Commençons. Dans l'une des vidéos précédentes, nous avons stocké l'image dans un compartiment Amazon S Three. Lors du chargement de l'objet, nous avons remarqué que les classes de stockage apparaissaient sous les propriétés Aws propose différentes options pour stocker nos données dans le cloud. Ces options sont appelées classes de stockage et nous pouvons choisir n'importe quelle classe en fonction de la fréquence à laquelle nous accédons à nos données. Ces trois classes de stockage S sont spécialement conçues pour fournir le stockage le moins coûteux pour différents modèles d'accès. Cela signifie que différents types de classes de stockage sont conçus pour répondre à différents objectifs de stockage de données. Étudiants Ingénieur cloud, il est très important de comprendre ces cours car ils peuvent vous faire économiser du temps et de l'argent. Comprenons-les un par un. Le premier est le standard S 3. Il s'agit d'une classe de stockage à usage général utilisée pour les données fréquemment consultées. Il offre une durabilité, une disponibilité et des performances élevées. La norme S three est conçue pour garantir une disponibilité de 99,999 % et une durabilité de 11 %. En d'autres termes, ils ne représentent que 0,001 %, vos données risquent d'être perdues, etc. Il vous offre une faible latence et des débits élevés et peut supporter jusqu'à deux défaillances simultanées de l'installation Cela signifie que si deux périodes de disponibilité rencontrent des problèmes, vos données sont toujours en sécurité car elles offrent une faible latence et un débit élevé La norme S three convient à une grande variété de cas d' utilisation tels que les applications cloud, les sites Web dynamiques, la distribution de contenu, applications mobiles et de jeu, ainsi que l'analyse des mégadonnées. La suivante est la classe de stockage à accès peu fréquent. Comme son nom l'indique, cette classe de stockage est utilisée pour les données les moins fréquemment consultées. Une donnée à laquelle vous n'accédez qu' une fois de temps en temps. Mais vous souhaitez également que ces données soient immédiatement disponibles chaque fois que vous en avez besoin, elles doivent être disponibles dès que vous en faites la demande. ce cas, vous pouvez utiliser la classe de stockage à accès peu fréquent Il est conçu pour une disponibilité de 99,9 % et une durabilité de 11 %. La disponibilité des cours peu fréquents est inférieure à la norme S 3 car nous n'accédons pas très fréquemment à nos fichiers Il est moins cher que le standard Amazon S Three. Mais lorsque nous accédons aux fichiers, nous payons des frais de récupération par Go C'est le point de départ de ce cours. Nous payons moins pour le stockage , mais nous devons payer frais de récupération chaque fois que nous accédons à nos données Cette combinaison de faible coût et de hautes performances fait S Three un accès peu fréquent standard idéal pour le stockage à long terme, sauvegarde et la reprise après sinistre Nos données de cette catégorie sont également résilientes face aux événements liés à une défaillance complète de la zone de disponibilité. Ensuite, nous avons une zone d' accès peu fréquent. Cette classe est très similaire à la classe d'accès peu fréquent, mais la seule différence est que dans une classe d' accès peu fréquent, les données sont stockées dans un seul Joe de disponibilité, alors que dans la classe d' accès peu fréquent, elles sont stockées dans au moins trois zones données sont stockées dans un seul Joe de disponibilité, alors que dans la classe d' accès peu fréquent, elles sont stockées dans au moins trois elles sont stockées dans En gros, vos données sont moins disponibles car elles ne sont présentes que dans une seule disponibilité, le mois de juin. Le meilleur, c'est que vous bénéficiez toujours d'une faible latence et de performances de débit élevées De plus, comme les données sont stockées en une seule fois en juin, sont 20 % moins chères qu'un accès peu fréquent. L'accès peu fréquent à la zone S31 est idéal pour les clients qui ont besoin d' une option moins coûteuse pour les données fréquemment consultées, mais qui n'ont pas besoin de la disponibilité et de la résilience d'un accès peu fréquent S three standard ou S three standard Il s'agit d'une bonne option pour stocker des copies de sauvegarde secondaires données sur site ou des données qui peuvent être facilement créées. Encore une fois, vous pouvez également utiliser la réplication entre trois régions S pour stocker de manière rentable les données répliquées depuis une autre région AWS Le suivant est S Three Intelligent Tiring. Comme son nom l'indique, cette classe de stockage est dotée d'une intelligence intégrée qui déplace automatiquement les données vers le pneu d'accès le plus rentable fonction de son modèle d'accès Ici, le modèle d'accès indique fréquence d'accès à un ensemble de données Ici, les objets se déplaceront automatiquement d'une classe de stockage à une autre en fonction l'évolution des modèles d'accès de ces objets. Par conséquent, les données à accès fréquent seront déplacées vers le stockage fréquemment consulté et les données rarement consultées seront déplacées dans la bonne catégorie grâce à la hiérarchisation intelligente S Three Il offre la même faible latence et les mêmes performances de débit élevées que le standard S Three. Mais cela est hautement optimisé en termes de coûts. Par exemple, si les données sont déplacées vers la classe d' accès peu fréquent, cela permettra d'économiser jusqu'à 40 % sur les coûts de stockage S'il est transféré dans la classe des glaciers, il permettra d'économiser jusqu'à 68 % sur les coûts de stockage Il est également conçu pour offrir une durabilité de 119 % et disponibilité de 99,9 % sur une année donnée sur plusieurs niveaux de disponibilité Oui, en tant qu'utilisateur de ce service, vous n'avez qu'à payer un petit supplément mensuel de surveillance et de fatigue automatique Cela vous permettra d'optimiser au maximum les coûts sans trop y penser. Il est également résilient face aux événements susceptibles d'affecter l'ensemble de la disponibilité. Joe. Désormais, la classe de stockage suivante est Glacier Amazon S Three. Glacier est la classe de stockage coûteuse du troisième trimestre et prend en charge conservation à long terme et la conservation numérique des données consultées une ou deux fois par an. Il est utile pour les clients, en particulier ceux des secteurs hautement réglementés tels que les services financiers, soins de santé et les secteurs publics. Ces industries conservent les ensembles de données pendant sept à dix ans, voire plus, pour répondre aux exigences de conformité réglementaire. Il est conçu pour garantir une durabilité de 119 % des objets dans plusieurs zones de disponibilité. Comme son nom l'indique, vous vous attendez à ce que vos données soient gelées, ce qui signifie qu'elles seront conservées plus longtemps. Cela signifie que la validité de la récupération d'objets est très longue. AWS prend désormais en charge trois types de glaciers pour un modèle d'accès différent à l'avenir. Comparons maintenant rapidement les différents types de glaciers. Amazon S Three, récupération instantanée sur glacier. Troisièmement, la récupération instantanée sur glacier offre un temps de récupération en millisecondes avec les mêmes performances que la solution standard de récupération flexible sur glacier d'Amazon Three Dans le cadre de la récupération flexible sur glacier, le temps de récupération peut être configuré de quelques minutes à quelques heures. Grâce à la récupération groupée gratuite, il convient parfaitement aux scénarios de sauvegarde et de reprise après sinistre dans lesquels grandes quantités de données doivent être récupérées rapidement et de manière rentable Amazon Es Three Glacier Deep Archive. Dans les archives profondes de Tri Glacier, le délai de récupération des données est de moins de 12 heures Il s'agit de la classe de stockage la moins coûteuse conçue pour la conservation à long terme de données qui seront conservées pendant sept à dix ans. C'est une alternative idéale aux bibliothèques de bandes magnétiques. Étudiants, j'espère que vous comprenez maintenant la classe de stockage. Au cas où vous auriez le moindre doute, je vous recommande de recommencer cette session. 22. Démo de seau S3: Bon retour. Au cours de cette session de démonstration, nous allons apprendre à créer un porte-compartiment S three et à y télécharger des données. Passons à la console de gestion AWS. N'oubliez pas que nous devons d'abord sélectionner la région AWS. Je vais sélectionner la région de Mumbai. Après cela, nous passerons à la console S three. Il existe trois manières de trouver le service S three dans la console. La première méthode consiste à rechercher S trois dans le champ de recherche et cela nous donnera S trois dans le résultat. La deuxième méthode consiste à trouver le S trois dans le menu de tous les services. Développez simplement le menu, localisez le service S three et cliquez pour l'ouvrir. Enfin, si vous avez déjà utilisé S three dans votre compte, celui-ci sera répertorié sous les services récemment visités. Tapons S trois ici et cliquez pour confirmer. Lorsque nous arriverons à la console S Three pour la première fois, nous verrons une liste de buckets au sein du compte AWS Comme S three utilise un espace de noms global, il n'est pas nécessaire de sélectionner une région lorsque vous utilisez la console. Maintenant, si vous vous demandez, pourquoi avons-nous sélectionné la région ? Il existe donc un service mondial. Eh bien, sélectionner la bonne région à chaque fois que vous travaillez sur votre compte est une bonne pratique. Peu importe que le service soit adapté à la région. Passons maintenant à la création d'un compartiment S three. Pour ce faire, cliquez sur Create Bucket et choisissez un nom. maintenant de noter que le nom du bucket doit être unique. Pour rendre ce nom unique, ajoutons des nombres aléatoires à la fin. Il existe maintenant certaines règles que nous devons suivre lors de la dénomination des buckets La première règle est que le nom du compartiment doit être composé de 3 à 63 caractères. Deuxièmement, le nom doit comporter des cliquetis, des chiffres, des points et des crayons hauts Il doit commencer et se terminer par une lettre ou un chiffre. Enfin, le nom de votre compartiment doit être unique sur AWS. Sélectionnez la région dans laquelle vous souhaitez que votre compartiment soit créé, conservez les autres paramètres par défaut et créez le compartiment. Le bucket a maintenant été créé, et cela n'a pas pris plus d'une seconde. Sur cette page, vous pouvez voir le nom du compartiment, la région dans laquelle vous l'avez créé et l'accès à l'objet du compartiment. Passons maintenant au seau. Vous pouvez maintenant voir les différents onglets, y compris les propriétés, les autorisations, les métriques, la gestion et les points d'accès. Voici l'objet contenu dans ce compartiment. C'est ici que nous téléchargeons nos fichiers. Comme nous l'avons appris lors de la dernière session, nous pouvons soit télécharger des objets dans le compartiment S three soit créer des dossiers dans le compartiment pour organiser nos données. Allons-y, créons un dossier et nommons-le démo. Nous pouvons maintenant télécharger notre objet dans le bucket ou dans ce dossier. Cliquons sur Upload. Ici, nous avons deux options. Nous pouvons soit télécharger des fichiers, soit télécharger des dossiers. Nous téléchargerons un fichier ici. Cliquez sur Ajouter des fichiers. Ici, nous pouvons apporter des paramètres supplémentaires à notre objet. Cliquez simplement sur Propriétés et vous verrez la classe de stockage. Il est standard par défaut. Nous aborderons ce sujet en détail prochainement dans ce module. Gardons-le pour le moment et cliquons sur Upload. Maintenant, notre fichier est téléchargé avec succès. Je vais quitter en cliquant sur Fermer. Maintenant, j'ai un objet, mon bucket S three avec le nom demo point jpg. Si nous cliquons sur notre fichier de démonstration d' objet jpg, cela nous amènera au tableau de bord de l'objet, où nous verrons l'autorisation et la version des propriétés de l'objet . Passons à l'onglet Propriétés. Vous trouverez ici tous les détails de notre objet. Par exemple, qui est le propriétaire de l'objet, dans quelle région l' objet a été téléchargé et quand l' objet a-t-il été modifié pour la dernière fois, la taille de l'objet, la clé de type d'objet, l'URL, le tag de nom de ressource Amazon, et voici l'URL de l'objet. Il s'agit du lien vers le fichier. Nous pouvons l'ouvrir en cliquant dessus, mais ouvrons-le dans un nouvel onglet. Comme vous pouvez le constater, l'accès m' refusé car ce compartiment n'est pas public. Et je n'ai pas le droit d'accéder à cet objet. Si le bucket n'est pas public et que vous essayez d'ouvrir le fichier à l'aide de son URL publique, il ne s'ouvrira pas. Revenons maintenant au tableau de bord des objets. Nous avons un autre moyen d'ouvrir cet objet en cliquant simplement sur Ouvrir. Cela ouvrira un nouvel onglet et nous montrera notre photo de démonstration. Maintenant, vous devez vous demander pourquoi cela fonctionne, même si le seau n' est pas public ? Eh bien, lorsque nous ouvrons un objet par le biais de l'ouverture, il s'ouvre car il s' agit d'une URL unique. Comme vous pouvez le constater, l'URL est beaucoup, beaucoup plus longue et ne ressemble pas à une URL publique. Il s'agit d'une URL spéciale pour moi en tant que propriétaire de cet objet, je suis autorisé à accéder à cet objet via cette URL. Maintenant, la dernière chose que je voulais vous montrer c'est comment supprimer un objet de S 3. Pour cela, je vais retourner dans le compartiment, sélectionner l'objet, puis cliquer sur Supprimer. Ici, vous devrez taper Supprimer pour confirmer que vous souhaitez supprimer l'objet, puis supprimer l'objet, cela supprimera définitivement cet objet. Étudiants, j'espère que vous avez maintenant confiance en S three et en sa portée. Au cours de cette session, nous avons assisté à une démonstration laquelle nous avons créé un porte-compartiment S Three, téléchargé l'objet avec succès et l'avons supprimé. Maintenant, vas-y et fais-le toi-même. 23. Aperçu d'EBS (stockage de blocs élastiques): Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons découvrir l'une des options de stockage pour les instances EC two, le stockage par blocs élastiques, également connu sous le nom d'EBS Nous commencerons par la définition et les bases d'EBS puis par ses cas d'utilisation et ses types. Commençons. Amazon EBS ressemble à un disque dur dans le cloud qui fournit un stockage par blocs permanent pour Amazon EC Twin Stances stockage EBS est appelé volumes EBS dans la terminologie AWS Par conséquent, nous l'appellerons désormais volume EBS. Vous pouvez associer des volumes EBS à vos positions jumelles EC et créer un système de fichiers au-dessus de ces Exécutez une base de données ou un serveur au-dessus d'eux, ou utilisez-les de toute autre manière, un stockage par blocs serait utilisé. Mais qu'est-ce que le stockage par blocs ? Il s'agit d'une technologie qui découpe les données en blocs et les stocke séparément. Chaque bloc de données reçoit un identifiant unique, qui permet à un système de stockage de placer les plus petits éléments de données là où cela lui convient le mieux. Un volume de stockage par blocs fonctionne de la même manière qu'un disque dur. Vous pouvez y stocker n'importe quel fichier ou même installer un système d'exploitation complet. Le volume Ebs est un lecteur connecté au réseau. Qu'est-ce que cela signifie ? Eh bien, cela signifie que le volume EBS n'est pas réellement attaché à votre instance C to, physiquement, il est connecté via un réseau au sein d'AWS Comme il est connecté via une liaison réseau, le volume EBS peut facilement être attaché ou détaché Pour les instances C two, cela signifie que vous pouvez déplacer votre volume EBS d' une instance en cours d'exécution à une autre et que le changement se produira en quelques secondes. Vous pouvez considérer EBS comme un disque dur d'ordinateur qui peut être attaché à n'importe quel disque détaché d'une instance et immédiatement rattaché à une autre instance via Maintenant, une question se pose ici sur la raison pour laquelle on appelle cela le stockage par blocs élastiques. Lorsque vous provisionnez un volume EBS, vous devez définir sa taille et ses IOPS Iops signifie simplement les opérations d' entrée-sortie par seconde. Vous devez indiquer à AWS que vous souhaitez un volume EBS de 100 B, capable d'effectuer 1 000 IOPS, soit 1 000 opérations d'entrée/sortie par Mais ce n'est pas parce que vous définissez qu'EBS est de 100 Go que vous êtes bloqué avec un lecteur de 100 Go Vous pouvez modifier la taille ou la capacité d'IOPS des volumes EBS selon vos besoins à tout moment C'est l'élasticité qu'offre l'EBS, et c'est pourquoi l'EBS est un stockage par blocs élastique et pas simplement un stockage par blocs. Examinons maintenant certaines fonctionnalités d'EBS. Un point important à noter à propos d'EBS est qu'il ne peut être attaché qu'à une seule instance C deux à la fois Vous ne pouvez pas avoir deux instances C two connectées à un seul volume EBS Cependant, AWS a récemment publié une fonctionnalité permettant volume IOPS SSD EBS à plusieurs instances Nous n'avons pas besoin d'entrer dans les détails dans ce cours. EBS est essentiellement un lecteur réseau qui peut être déplacé d' une instance à une autre Mais ce processus a ses limites. Les volumes Ebs sont limités au sein d'une zone de disponibilité. Cela signifie que même si les volumes EBS peuvent être rapidement déplacés d' une instance à une autre, ils ne peuvent pas être déplacés dans la zone de disponibilité Par exemple, un volume EBS dans la zone de disponibilité P, sud A, ne peut pas être attaché à une instance EC deux dans AP sud B. Il ne peut être déplacé que d'une instance à l'autre dans le sud de l'AP A. Toutefois, si vous souhaitez déplacer volumes EBS d'une zone de disponibilité à une autre, vous devez en prendre un instantané Nous en apprendrons davantage sur les instantanés dans une rubrique bonus. Types de volumes EBS. Allons de l'avant et comprenons les différents types de volumes EBS Prenons un exemple ici. L'un des critères importants lors de l' achat d'un nouvel ordinateur portable est le stockage, n'est-ce pas ? Lorsque vous parlez de stockage informatique, cela signifie disques durs. disques durs de votre ordinateur peuvent être de différents types, tels que SSD, HDD, etc. De même, le volume EBS est également classé en six types. SSD à usage général, GP deux et GP trois. Vicent IOPSSD, I 10 et I 20 via un disque dur SD one optimisé, un ancien disque dur S, un Une chose à noter ici est que seuls les SSD peuvent être utilisés comme volume de démarrage du système parmi tous ces types volume de démarrage est le volume qui contient le système d'exploitation. Aws n'autorise que les SSD rapides comme volume de démarrage. C'est tout ce que nous devons savoir sur EBS et le type de volume EBS. 24. Aperçu d'EFS (Elastic File System): Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons découvrir l'une des options de stockage des instances EC two, le système de fichiers Elastic, également connu sous le nom d'EFS. Nous allons commencer par les principes de base et une petite description de l'EFS, suivie de ses cas d'utilisation. Commençons donc. Qu'est-ce que le système de fichiers ? Avant de comprendre ce qu'est le système EFS, vous devez savoir ce qu'est un système de fichiers. Un système de fichiers définit la façon dont les fichiers sont nommés, stockés, lus et utilisés sur n'importe quel périphérique de stockage. Il est installé sur tous les périphériques de stockage, qu'il s'agisse d'un lecteur de disque ou d'un CD. Chaque fois que vous effectuez une opération sur un fichier de votre ordinateur, comme la modification, la suppression ou lecture de vos systèmes d'exploitation, le système de fichiers s'en charge. Le stockage est simplement une énorme quantité de données. Sans système de fichiers, car sans système de fichiers, le système d'exploitation ne saura jamais où chercher vos données. Imaginez une pièce de rangement remplie de documents et de pages éparpillés. Vous ne pouvez pas dire quelles pages sont liées à quelles pages appartiennent au même dossier, n'est-ce pas ? Il s'agit simplement de données dispersées de manière aléatoire. C'est ainsi que se comportera un périphérique de stockage sans système de fichiers. En comparaison, une bibliothèque est un exemple concret système de fichiers dans lequel chaque document est organisé. C'est comme si une bibliothèque avait un système. Votre système d'exploitation possède un système de fichiers sur lequel se trouvent vos fichiers sur votre ordinateur. Les systèmes d'exploitation sont dotés d'un système de fichiers conforme aux normes de l'industrie qui est géré en tant que partie intégrante de votre système d'exploitation. Cependant, il est toujours possible de créer votre propre système de fichiers pour les applications. Maintenant que vous savez ce qu'est un système de fichiers, parlons d'EFS. Amazon EFS est un service de stockage de fichiers basé sur le cloud. Comme son nom l'indique, il s'agit d'une solution de stockage évolutive qui s'agrandit automatiquement et les chaînes, vous ajoutez et supprimez des fichiers, n'ont pas besoin de demander à AWS de créer un système de fichiers de 100 Go ou 200 Go. Il vous suffit de créer un fichier EFS qui s'agrandit et réduit au fur et à mesure que vous ajoutez ou supprimez des Cela garantit que votre système EFS dispose toujours du stockage correspondant à vos besoins. Il peut passer automatiquement d' un petit mégaoctet à un système de fichiers à l' échelle du pétaoctet Il n'y a pas de frais minimum pour utiliser EFS. Il vous suffit de payer pour le stockage que vous utilisez. Si vous n'utilisez que 500 Mo d'EFS, vous ne payez que pour les 500 Mo Tout comme EBS, EFS est également un service rattaché au réseau. Cela signifie que le stockage de votre système de fichiers est rattaché aux instances EC two via un réseau et non physiquement, mais contrairement à EBS, qui ne peut être connecté qu'à une seule instance EC deux à la fois, nous pouvons connecter EFS à un nombre quelconque d'instances EC deux L'une des fonctionnalités les plus importantes d'EFS est le stockage de vos données dans toutes les zones de disponibilité. Vous pouvez associer EFS à plusieurs instances EC two dans toutes les zones de disponibilité. Supposons que vous possédiez un EFS dans la région de Mumbai. Cet EFS peut être utilisé par n'importe quel nombre d' instances EC deux depuis n'importe quelle zone de disponibilité de cette région, pas seulement par EC deux. Vous pouvez également utiliser EFS avec des services tels que les fonctions ECS, EKS et Lambda, ou même avec votre ordinateur local Vous pouvez connecter simultanément des centaines d'instances EC two, fonctions Lambda et vos ordinateurs personnels à EFS À l'heure actuelle, EFS n'est compatible qu' avec les instances basées sur Linux. Il est important de noter ici que les instances Windows ne peuvent pas utiliser EFS. Aws dispose d'un système de fichiers différent pour les instances Windows appelé SX. Vous devez maintenant vous demander pourquoi utiliser EFS et ne pas créer votre propre système de fichiers. Oui, il est possible de créer un système de fichiers sur n'importe quel périphérique de stockage. Mais en plus d'être un service hautement évolutif, EFS est également un service géré Cela signifie qu'il gère l' infrastructure de stockage pour vous. Et en tant qu'utilisateur, il vous suffit d' utiliser le système de fichiers. Vous n'avez pas à vous soucier du stockage sous-jacent, de la maintenance ou de l'application de correctifs à votre système de fichiers Efs gérera toutes ces tâches supplémentaires pour vous chaque fois que besoin d'un système de stockage de fichiers pouvant être utilisé sur plusieurs services et ordinateurs locaux. Pensez à EFS, c'est tout pour cette session. 25. Introduction au réseautage: Bonjour et bienvenue dans le cinquième module de cette formation. Dans ce module, nous aborderons le VPC, qui est la section réseau du cloud computing Nous aborderons ici en profondeur des sujets tels que le privé virtuel, le sous-réseau cloud ou VPC, la table de routage de la passerelle Internet, les groupes de sécurité de la passerelle Nat et groupes de sécurité de la passerelle Nat Nous faisons également une démonstration dans AWS pour créer un VPC et des sous-réseaux publics et privés fois ce module terminé avec succès, vous aurez une compréhension complète de la création de VPC et de la création de sous-réseaux privés et publics Vous saurez comment les sous-réseaux public et privé fonctionnent dans VPC et comment la passerelle Internet connecte un VPC à Vous apprendrez également à utiliser les groupes de sécurité et NACL pour contrôler le trafic à destination et en provenance des ressources d'un VPC Étudiants. Pour tirer le meilleur parti de cette formation, nous vous recommandons prendre des notes tout au long de cette formation. J'espère que vous prenez déjà des notes. C'est tout pour cette introduction. 26. Qu'est-ce qu'un VPC ?: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons découvrir le cloud privé virtuel ou VPC. En bref, il s'agit de l' aspect réseau du cloud computing. Et il peut être un peu difficile de le relier à notre vie de tous les jours. Nous essaierons de le rendre aussi simple que possible. Comme il s'agit d'une section très importante et d'un élément de base pour le reste des sujets de ce module. Je vous recommande de porter une attention particulière à ce sujet. Prenons un exemple. Supposons qu'il y ait un immeuble résidentiel comportant de nombreux appartements. Des centaines de personnes vivent dans ces appartements. Disons que je possède l'appartement numéro 810 et que vous êtes propriétaire de l'appartement B 20 dans cet immeuble. Nous pouvons également dire que appartement B 20 est votre section privée du bâtiment où vous conservez vos affaires et vous en avez le contrôle total. Vous pouvez également ajouter des fonctionnalités de sécurité telles qu'une caméra de verrouillage , une surveillance, etc., la même manière que d'autres personnes possèdent des espaces privés Connectons maintenant cet exemple à AWS et à VPC, et remplaçons le bâtiment par des appartements AWS par des VPC Dans notre compte AWS, nous créons et gérons tous les types de ressources, comme EC two RDS, etc. Nous verrons quelles sont ces ressources spécifiques dans les modules suivants. Ces ressources de votre VPC sont exactement comme celles que vous détenez dans votre appartement Le VPC AWS est comme votre espace privé dans AWS dans lequel vous pouvez placer vos ressources et vos services Tout comme un appartement a un niveau de sécurité différent, vous pouvez également attribuer un niveau de sécurité à ces ressources. En d'autres termes, nous pouvons dire qu'il existe des moyens pour vous d' autoriser des personnes à accéder à votre base de données ou à vos ressources cloud, ou de les empêcher de le faire. Voyons maintenant la définition d'AWS VPC, un cloud privé virtuel Un cloud privé virtuel est un réseau virtuel dédié à votre compte AWS. Il est logiquement isolé des autres réseaux virtuels du cloud AWS dans lesquels vous pouvez lancer vos ressources AWS, telles que les deux instances Amazon EC VPC est l'abréviation de Virtual Private Cloud. Il ne s'agit que d'un centre de données virtuel sur les services Amazon Wab C'est privé car c'est uniquement pour vous et vous en avez le contrôle total. Il s'agit d'un réseau logique complètement isolé que vous pouvez utiliser comme vous le souhaitez lorsque vous créez un VPC En gros, vous créez un réseau logiquement isolé. Si je crée un VPC sur mon compte et que vous créez un VPC sur votre compte, s'agit de deux réseaux isolés Même deux VPC ou plus avec des adresses IP différentes au sein du même compte seront également isolés Vous pouvez comprendre l'adresse IP comme étant l'adresse de votre appartement. Cette adresse IP est appelée CIDR, qui signifie Classless Inter Domain Il s'agit d'un ensemble de normes de protocole Internet qui sont utilisées pour créer des identifiants uniques pour les réseaux Lorsque vous créez un VPC, vous spécifiez une plage d'adresses IP pour le VPC sous la forme d'un bloc CIDR Par exemple, 10,0 0,0 0,0 par 16. À l'heure actuelle, vous savez que VPC est un réseau au sein de votre compte AWS Vous pouvez également créer des sous-réseaux au sein d'un réseau, également appelés sous-réseaux Nous aborderons les sous-réseaux dans le prochain laboratoire. 27. Subnet, passerelle Internet, table d'itinéraire et passerelle NAT: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons comprendre le sous-réseau, passerelle Internet et la table de routage. Commençons. Comme nous l'avons indiqué dans la vidéo précédente, VPC est un réseau dans notre compte AWS Nous pouvons également créer des sous-réseaux au sein de notre VPC. Ces sous-réseaux sont également appelés sous-réseaux. Regardons notre exemple précédent. Nous possédons un appartement dans l'appartement, et cet appartement est notre section privée. Nous avons une chambre, un salon et une cuisine dans cet appartement. Il s'agit essentiellement de différentes sous-sections de notre appartement utilisées à des fins diverses. De même, dans AWS, VPC, nous créons un sous-réseau tel que public submit et private submit Lorsque nous créons une soumission, nous spécifiez le bloc d'adresse CIDR pour la soumission, qui est un sous-ensemble du bloc d'adresse CIDR du VPC Si le CID de notre VPC est de 10,0 0,0 0,0 par 16, nous pouvons utiliser 10,0 0,0 0,0 par 24,10 0,0 0,1 0,0 par 24 En tant que CIDR de notre soumission, nous pouvons lancer des ressources AWS dans un envoi spécifique, par exemple des instances faciles à utiliser Un point important à retenir est que chaque sous-réseau doit résider entièrement dans une seule disponibilité, Joe, et ne peut pas s'étendre sur Jones C'est ce que nous allons voir en faisant les mains sur la carte, il existe deux types de sous-réseaux Soumission publique et soumission privée. Nous pourrions le relier à notre appartement. Nous disposons d'une chambre d'hôtes avec accès direct depuis l'extérieur. C'est comme une soumission publique, alors que notre chambre est totalement privée pour nous. Voyons maintenant ce qu'est un sous-réseau public. Il s'agit d'un sous-réseau qui interagit avec Internet et est accessible via Cela signifie que toutes les ressources créées dans votre sous-réseau public, par exemple les serveurs Wab, seront accessibles via Étant donné que les sous-réseaux publics interagissent avec Internet, nous déploierons notre équilibreur de charge ou nos applications connectées à Internet dans le cadre de la soumission publique J'aborderai cela en détail dans le module EC two. Le suivant est le sous-réseau privé. Il s'agit d'un sous-réseau qui n'est pas accessible depuis Internet. Cela signifie que nous pouvons créer les ressources AWS qui ne sont utilisées dans le VPC qu'à des fins internes. Maintenant, mettons tout cela ensemble. Nous avons une région dans notre compte AWS, et il y aura un VPC dans cette région. Le VPC aura ce que l' on appelle une plage d'adresses CIDR, c' est-à-dire une plage d'adresses IP autorisées au sein de notre Le VPC peut également traverser deux zones de disponibilité, Availability Joe 1 et Availability Joe 2 Availability Joe one contient une soumission publique et une soumission privée. De même, Availability Joe Z two contient également une soumission publique et une soumission privée. Nous avons donc deux Jones de disponibilité, un VPC et quatre sous-réseaux Dans cet exemple, vous devez maintenant vous demander quelle est la différence entre une soumission publique et une soumission privée ? Eh bien, il n'y a aucune différence entre ces architectures. Le processus de création est exactement le même. Mais ce que vous configurez à l'intérieur détermine si un sous-réseau est public ou privé Vous devez apporter deux modifications à un sous-réseau pour le rendre public Tout d'abord, vous devez ajouter une passerelle Internet. Il s'agit d'un composant géré par AWS qui est attaché à votre VPC. Il agit comme une passerelle entre votre VPC et Internet, essentiellement le monde extérieur. Ajoutons une passerelle Internet ici. Nous avons maintenant une passerelle Internet attachée à notre VPC, qui établira une connexion depuis Internet Maintenant, si vous pensez qu' une soumission publique a désormais accès à Internet, ce n'est pas vrai. Il existe un autre composant appelé routeur dans le VPC. Ce qui détermine où le trafic entrant sera dirigé. Ce processus est connu sous le nom de routage. Le routeur utilise ce que l'on appelle des tables de routage pour contrôler le trafic réseau. Par conséquent, chaque sous-réseau au sein VPC doit être associé à une table de routage Chaque fois que nous créons un sous-réseau, il est fourni avec une route par défaut, qui est une route locale Comme nous pouvons le voir, cette table de routage possède un champ de destination et un champ cible. Le champ de destination contient l'adresse de destination que vous essayez d'atteindre. La cible spécifie la route, cette destination, ce qui signifie que toute demande au sein l'adresse IP du VPC est locale Pour effectuer une soumission publique, nous devons ajouter l' adresse de destination en tant qu'Internet, qui est 0.0 0.0 0.0 x zéro, et la cible en tant que passerelle Internet. Cette nouvelle route présente dans la table des itinéraires a une destination de 0.0 0.0 0.0 x zéro. Cela signifie que toute adresse IP inconnue dans la table de routage l' envoie à cette cible. Dans ce cas, cette cible est la passerelle Internet. Cette partie est simplement l' ID de la passerelle Internet. Cela signifie que tout trafic autre que le réseau VPC sera dirigé vers la passerelle Internet Par conséquent, cette soumission est désormais une soumission publique. Maintenant, ces deux sous-réseaux sont des sous-réseaux publics et les deux autres sont des sous-réseaux privés J'espère que c'est clair pour toi. Si vous avez une instance dans un sous-réseau privé, elle ne sera pas accessible via Internet Cependant, vous souhaiterez peut-être lui donner accès à Internet pour télécharger des fichiers ou obtenir les mises à jour du système d'exploitation. Dans ce cas, nous pouvons utiliser ce que l'on appelle un At Gateway, qui est géré par AWS ou une instance. Il peut également être autogéré, ce qui vous permet d'accéder à Internet depuis votre sous-réseau privé At Gateway est un service géré AWS à haute disponibilité qui permet à vos instances situées dans un sous-réseau privé de se connecter à Internet Nous créons un At Gateway dans notre soumission publique. Nous créons une route à partir des sous-réseaux privés vers la passerelle At et de la passerelle At vers la passerelle Internet Cela permettra à vos sous-réseaux privés de se connecter à Internet. C'est tout pour cette séance. J'espère que vous comprenez maintenant le BPC et ses éléments. En cas de doute, je vous recommande de suivre cette session une fois de plus, car elle est très importante pour votre entretien de certification et en général également. 28. Groupes de sécurité et NACL: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons découvrir pourquoi nous avons besoin d'un groupe de sécurité et d'une NCL Quels sont-ils et quelles sont les différences entre eux ? Les groupes de sécurité et les NSL agissent tous deux comme des pare-feux virtuels. Ils contrôlent le trafic à destination et en provenance des ressources d'un BPC en suivant certaines règles entrantes et sortantes entrant ou sortant représente la direction du trafic entre les réseaux La direction est définie par rapport à un réseau de référence. trafic entrant fait référence aux informations entrant sur un réseau Ici, le réseau de référence est votre réseau interne. Il peut s'agir de votre ordinateur. De plus, comme vous pouvez le constater, les données circulent d' Internet vers votre ordinateur. C'est ce qu'on appelle le trafic entrant. trafic sortant fait référence aux informations sortant du réseau Encore une fois, vous voyez ici que les données circulent en dehors du réseau de référence qui est votre ordinateur. Encore une fois, le trafic de données circule de votre réseau vers Internet. C'est ce qu'on appelle le trafic sortant. Revenons maintenant au groupe de sécurité et à la NSA. Nous allons d'abord commencer par le groupe de sécurité. Un groupe de sécurité est une solution de pare-feu AWS permettant filtrer le trafic entrant et sortant d'un EC vers une instance. Il agit comme un pare-feu virtuel pour les instances C two afin contrôler le trafic entrant et sortant fonction de certaines règles définies Il garantit la sécurité au niveau de l'instance Les règles entrantes et sortantes fonctionnent indépendamment. Par exemple, une règle entrante peut autoriser le trafic provenant d'une adresse IP spécifique à accéder à l'instance uniquement Alors qu'une règle sortante peut autoriser tout le trafic à sortir de l'instance car groupes de sécurité fonctionnent au niveau de l'instance, dans un VPC, nous pouvons également appliquer un groupe de sécurité à une ou plusieurs instances De même, une instance peut également être associée à un ou plusieurs groupes de sécurité. Regardons NSR maintenant. Il est l'abréviation de Network Access Control, qui contrôle le trafic à destination ou en provenance d'une soumission conformément à certaines règles définies. Cela signifie qu'il ajoute une couche de sécurité supplémentaire au niveau de la couche de soumission. Par exemple, une règle entrante peut refuser le trafic entrant provenant d'une plage d'adresses IP, tandis qu'une règle sortante peut autoriser tout le trafic à quitter le Comme les NSL fonctionnent au niveau des soumissions d'un VPC, nous pouvons appliquer une NCL à une ou plusieurs Toutefois, chaque envoi ne doit être associé qu'à une seule NCL Voyons maintenant quelle est la différence entre le groupe de sécurité et NSL. Le groupe de sécurité fonctionne au niveau de l'instance, mais NSL fonctionne au niveau de la soumission Le support des groupes de sécurité autorise uniquement les règles, tandis que la NSL autorise les règles et refuse les règles Le groupe de sécurité est dynamique, ce qui signifie que le trafic de retour est automatiquement autorisé, quelles que soient les règles Comme nous l'avons déjà indiqué, il n'existe aucun moyen d' ajouter une règle sortante Tout le trafic autorisé revient par défaut, il maintient l'état du trafic autorisé. C'est pourquoi on l'appelle state full NSL is stateless. Cela signifie que le trafic aller-retour n'est pas autorisé par défaut, il devrait y avoir des règles explicitement autorisées pour l'autoriser. Le groupe de sécurité s'applique à une instance uniquement si quelqu'un le spécifie. lançant l'instance ou associant le groupe de sécurité à l'instance ultérieurement, NSL s'applique automatiquement à En lançant l'instance ou en associant le groupe de sécurité à l'instance ultérieurement, la NSL s'applique automatiquement à toutes les instances du sous-réseau auquel elle est associée. Elle fournit ainsi un niveau de défense supplémentaire si les règles du groupe de sécurité sont trop Cependant, les groupes de sécurité et les NSL opèrent à différentes couches du VPC, ce qui constitue le meilleur moyen de sécuriser votre réseau, groupes de sécurité ou les NSL La défense approfondie repose sur des couches de groupes de sécurité, et les NSL ne sont que deux Par conséquent, une meilleure solution consiste à implémenter les deux pour verrouiller votre réseau. C'est tout pour cette séance. 29. Créer un sous-réseau VPC, public et privé: Bonjour étudiants. Bon retour. Dans cette démo, nous allons créer un VPC dans notre compte AWS. Nous examinerons également les paramètres et les options proposés par AWS pour créer un VPC. Nous créerons également une passerelle Internet et configurerons les soumissions publiques et privées. À la fin de cet atelier, vous aurez parfaitement compris comment créer des VPC et effectuer des soumissions privées et publiques. Commençons par accéder à la console AWS. Tout d'abord, nous devons sélectionner la région. Je vais choisir Mumbai car je souhaite créer un VPC dans la région Asie-Pacifique de Mumbai. Pour accéder au tableau de bord du VPC, nous allons rechercher le VPC dans la recherche et cliquer sur VPC pour ouvrir le tableau de Comme vous pouvez le voir ici sur le tableau de bord, un VPC a déjà été créé dans notre compte Il s'agit du VPC par défaut créé par AWS. Ce VPC dispose d'un câble de routage et d'une passerelle Internet dans toutes les régions Nous pouvons utiliser le VPC par défaut à des fins de démonstration, mais il est toujours recommandé de créer votre propre VPC pour l'environnement de développement, de test et de production obtenir la configuration la plus adaptée Si vous vous rendez dans n'importe quelle région, vous trouverez un VPC des tables de routage et une passerelle Internet qui lui sont associées Créons maintenant notre propre VPC. Cliquez sur VPC, puis sur Créer un VPC. Nous lui donnerons le nom de Pa up. L'option suivante pour nous est de sélectionner si nous voulons adresses IPV quatre ou IPV six dans notre Nous opterons pour l'IPV 4 et donnerons 10,0 0,0 0,0 x 16 comme plage d' adresses IP privées pour ce Ensuite, nous avons le bail, qui précise où votre infrastructure est mise à disposition Si nous sélectionnons la location par défaut, nos instances C two se trouveront sur matériel partagé avec d'autres utilisateurs d'AWS Si vous souhaitez un VPC où toutes les instances C two se trouvent sur du matériel dédié, vous pouvez choisir de créer un VPC dédié L'option suivante est celle des tags. Comme vous pouvez le constater, AWS a déjà créé un badge nominatif pour nous. Nous n'aurons plus besoin de tags. Cliquons sur Create VPC. Nous avons désormais créé notre propre VPC dans cette région. Revenons à la page VPC. Vous pouvez voir que nous avons maintenant deux VPC dans cette région. Nous allons maintenant créer une passerelle Internet et l'associer à notre VPC. Pour cela, cliquez sur Internet Gateway. Et comme vous pouvez le constater, nous avons déjà une passerelle Internet. Pour le VPC par défaut, cliquez sur Create Internet Gateway et donnez-lui votre nom de pack, IGW Cliquez maintenant sur Créer une passerelle Internet. Ensuite, nous devons associer cette passerelle Internet à notre VPC. Nous pouvons le faire directement en cliquant sur Attached to VPC dans la barre verte supérieure ici Ou en cliquant sur le bouton d' actions ici. Cliquez sur Attacher au VPC et sélectionnez votre VPC. Si vous utilisez AWC LI, vous pouvez cliquer sur cette barre de défilement et l'associer à votre VPC Comme nous n'utilisons pas AWS C, L, I, nous pouvons cliquer ici et connecter directement cette passerelle Internet. Nous disposons désormais d'un VPC doté d'une passerelle Internet. Mais nous ne pouvons toujours pas créer d'infrastructure dans le VPC. Pour cela, nous avons besoin de sous-réseaux. Créons des sous-réseaux. Cliquez sur les sous-réseaux ici en fonction de la région dans laquelle vous vous trouvez. Vous verrez 34 sous-réseaux ici. Il s'agit des sous-réseaux publics par défaut attachés au VPC par défaut Ensuite, nous allons créer des sous-réseaux pour cela, cliquez sur Créer des sous-réseaux Tout d'abord, nous devons choisir le VPC. Nous avons choisi le Pat Cup VPC que nous avons créé. Ajoutez maintenant un nom à notre page Soumettre. Soumettez-en un en public. Nous allons sélectionner le point d'accès sud, une zone de disponibilité, et attribuer une plage d'adresses IP de 10,0 0,0 0,0 x 24 à l'envoi Ignorons les tags pour le moment et cliquons sur. Créez un sous-réseau. Nous pouvons maintenant voir notre envoi dans la liste, nous allons créer trois autres sous-réseaux Sélectionnez le VPC compressé, donnez le nom de sous-réseau public pour sélectionner zone de disponibilité P one et donnez une plage d'adresses IP de 10,0 0,1 0,0 Cliquez à nouveau sur Créer un sous-réseau et répétez le processus. Cette fois, nous allons donner le nom de sous-réseau privé , un, une disponibilité, un P, un, et la plage d'adresses IP de 10,0, 0,2, 0,0 x 24 Je le répète une dernière fois. Donnez le nom de sous-réseau privé à la zone de disponibilité P. Donc, une plage d'adresses IP de 10,0 0,3 0,0 x 24 Notez que les plages d'adresses IP ne peuvent pas se chevaucher dans les sous-réseaux Nous disposons désormais de quatre sous-réseaux répartis dans deux zones de disponibilité dans la région de Mumbai. Mais quelle est la différence entre nos sous-réseaux privés et publics Nous les avons créés en utilisant la même méthode , mais leurs noms sont différents. À l'heure actuelle, les quatre sous-réseaux que nous avons créés sont privés La différence entre les sous-réseaux privés et publics réside dans le fait que les tables de routage des sous-réseaux publics comportent une entrée de passerelle Internet Si nous voyons les détails des tables de routage dans nos sous-réseaux, nous n'avons qu'une seule entrée, 10.0 0.0 0.0 x 16 local Cela signifie simplement que toutes les demandes destinées à des itinéraires compris dans cette plage doivent être acheminées au sein du VPC Allons-y et créons une table de routage publique pour nos sous-réseaux Pour cela, cliquez sur la table de routage, et comme vous pouvez le voir, nous avons déjà deux tables de routage dans notre compte. L'un est attaché au VPC par défaut de la région et l'autre au nouveau VPC que nous avons créé Si vous voyez la table de routage par défaut du VPC par défaut dans la section Route, vous pouvez voir qu'il existe une entrée vers la passerelle Internet Cela signifie que tous les sous-réseaux par défaut du VPC par défaut ont cette route, ce qui les rend publics. Si vous voyez la table de routage de notre VPC, nous n'avons que la route locale qui rend nos sous-réseaux privés Cliquez maintenant sur Create Route Table et nommez-la Pat Cup, Arch Public. Ensuite, nous sélectionnons notre VPC et cliquons sur Créer une table de routage. Nous avons maintenant une autre table de routage privée. Nous devons maintenant ajouter le chemin de la passerelle Internet à la table. Pour cela, cliquez sur Modifier les itinéraires, puis sur Ajouter un itinéraire. Sélectionnez 0.0 0.0 0.0 by zero comme destination. Choisissez la passerelle Internet comme cible. Et sélectionnez le pack , IGWCreated. Cliquez ensuite sur Safe Changes. Nous avons une nouvelle table de routage publique dans notre VPC. Associons maintenant notre table de routage aux sous-réseaux publics. Nous pouvons le faire en cliquant sur Actions, sur Modifier les associations de sous-locations, en sélectionnant le public Submit 1.2, puis en cliquant sur Enregistrer les Passons à la page des sous-réseaux et examinons nos sous-réseaux Vous verrez que les sous-réseaux publics sont associés à la nouvelle table de routage, qui contient l'entrée de passerelle Internet Vous pouvez également le faire en cliquant sur ce bouton Modifier l'association de tables de routage pour modifier les tables de routage d'un sous-réseau Nous avons maintenant créé un VPC avec deux sous-réseaux publics et deux sous-réseaux privés que nous utiliserons tout au long de cette session Comme je l'ai dit, la création et la gestion tables de routage et de passerelles Internet VPC sont totalement gratuites Vous n'avez pas besoin de les supprimer, étudiants. J'espère que tu as compris tout ça. Ce que nous avons fait dans cette démo, c'est tout pour cette session. 30. DNS et Amazon Route 53: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons découvrir DNS et le service DNS d'AWS, l'Amazon Route 53. Nous commencerons par comprendre DNS et Route 53, puis nous examinerons ses fonctionnalités et ses cas d'utilisation. Commençons. DNS est l'abréviation de Domain Name System. C'est l'annuaire téléphonique d'Internet. Il s'agit d'un système qui vous permet de vous connecter à sites Web en faisant correspondre un nom de domaine lisible par l'homme, comme Google.com ou Facebook.com. En gros, il traduit le nom de domaine Comprenons maintenant cela avec un exemple. Lorsque vous téléphonez à votre ami, vous recherchez son numéro de téléphone dans l'application de contact, n'est-ce pas ? Mais comme il est difficile de se souvenir d'un numéro de téléphone, nous enregistrons les numéros de téléphone dans l'application de contact. Tout comme les numéros de téléphone, les sites Web et les applications ont des adresses IP. Avez-vous déjà utilisé l'adresse IP de Google.com ou Youtube.com pour vous connecter à ces sites ? Non, car encore une fois, c' est difficile de s'en souvenir. Cela est simplifié avec le DNS. Comme je l'ai dit, le DNS est similaire à notre annuaire téléphonique, qui stocke l'adresse IP des sites Web. Les serveurs DNS traduisent simplement les noms de domaine en adresses IP. Lorsque vous accédez à Youtube.com la demande est d'abord envoyée à un serveur DNS, puis à l'adresse IP de Youtube.com. Maintenant, nous comprenons le DNS et son fonctionnement Aws propose également un service DNS appelé Route 53. La Route 53 effectue une tâche similaire. Comprenons maintenant la Route 53 en détail. Route 53, service DNS hautement disponible et évolutif d'AWS. C'est également le seul service sur AWS qui revendique une disponibilité de 100 %. Cela signifie que le service Route 53 ne tombe jamais en panne. Supposons que vous ayez une application Web dans votre compte AWS exécutée sur une instance EC Two Si vous souhaitez héberger ce site Web sur le domaine yourname.com, vous pouvez créer un enregistrement DNS dans Route 53 pour faire pointer le domaine vers l'adresse IP d' Maintenant, il existe également quelques fonctionnalités supplémentaires. Le premier est l' enregistrement du domaine. Route 53 est également un bureau d'enregistrement de domaines. Cela signifie qu'il vous permet également d'acheter de nouveaux noms de domaine depuis la console Route 53 elle-même si vous avez acheté votre nom de domaine sur un autre site Web tel que Go Daddy. Route 53 dispose également d'une fonctionnalité permettant de transférer les noms de domaine d'autres bureaux d'enregistrement de domaines vers Route 53 Le suivant est un conteneur hébergé que nous pouvons créer. The Hosted Jones Hosted Joe est un conteneur pour les enregistrements qui incluent informations sur la façon d' acheminer le trafic vers un domaine. La fonctionnalité suivante est le bilan de santé. Route 53 permet également d'effectuer des bilans de santé de vos ressources. Il utilise ces contrôles de santé pour déterminer l'état de vos ressources et envoyer trafic uniquement vers des ressources saines. Le dernier est la fluidité du trafic. Il existe également ce que l'on appelle le flux de trafic, qui vous donne un autre niveau d'automatisation pour la façon dont vous envoyez votre trafic vers vos ressources. C'est tout ce que vous devez savoir sur Amazon Route 53. 31. AWS VPN et AWS Direct: Bonjour, étudiants. Bon retour. Au cours de cette session, nous examinerons différentes options de connectivité entre AWS et les centres de données sur site. Commençons. Comprenons avec un exemple. Supposons que votre organisation envisage de migrer une application critique vers le cloud AWS contenant des données de conformité. Votre équipe de sécurité insiste pour que vous puissiez déplacer l'application vers le cloud, mais les données doivent rester sur site et répondre à toutes les exigences de conformité. Vous avez maintenant choisi la région de Mumbai et créé un VPC dans votre compte AWS Afin de déployer votre application, vous avez créé une instance EC two. Votre application utilise également d'autres services AWS tels qu'Amazon, S Three, Cloudwatch, etc. Il s'agit de votre centre de données sur site où vous disposez d'une base de données. Enfin, vous avez configuré votre application qui s' exécutait sur un EC pour créer une instance de base de données sur site. Votre équipe de sécurité s'est rendu compte que cette base de données se connecte à l' application via l'Internet public. Ils se plaignent que cela va à l' encontre des consignes de sécurité. Cette connexion doit être privée et sécurisée. Vous pouvez utiliser plusieurs options dans AWS pour rendre cette connexion privée. L'un d'eux est le VPN site à site. C'est ce que l'on appelle un VPN site à site car nous connectons un site AWS à un autre centre de données de site. Un VPN est l'abréviation de Virtual Private Network. Vpn crée un tunnel que vous utilisez pour accéder à Internet et contourner votre fournisseur de services Internet, c'est-à-dire votre FAI Ce processus chiffre toutes les données que vous envoyez et utilise différentes mesures de sécurité pour garantir la sécurité de toutes les données Ce que nous faisons, c'est créer un VPN entre le VPC de votre compte AWS et votre réseau local Il y a quelques composants que nous devons configurer. Du côté du VPC, nous avons une passerelle privée virtuelle déployée dans AWS Ensuite, nous avons la passerelle client, qui est déployée dans le centre de données de l' entreprise. Il s'agit maintenant d'un appareil du centre de données de l'entreprise que vous avez configuré d'une certaine manière. Mais la véritable passerelle client est créée au sein d'AWS. Il s'agit essentiellement d'un élément de configuration que vous créez qui pointe votre passerelle privée virtuelle vers périphérique VPN de votre centre de données d'entreprise. Une fois que vous les avez, vous pouvez établir une connexion réseau privé virtuel. Il s'agit d'une connexion cryptée qui passe par Internet. Vous bénéficiez de la protection du chiffrement, mais vous utilisez toujours Internet. Encore une fois, vous avez un audit de sécurité et ils se plaignent que cette connexion est cryptée, mais qu'elle passe toujours par Internet. Conformément aux consignes de sécurité, cette connexion doit être privée. Maintenant, il existe un autre service. Nous avons AWS Direct Connect. Il s'agit en fait d'une connexion privée entre AWS et votre centre de données ou bureau. AWS Direct Connect est une connexion haut débit à faible latence qui vous permet d'accéder aux services cloud AWS publics et privés depuis votre infrastructure locale, c' est-à-dire sur site. La connexion est activée via des lignes dédiées contourne l' Internet public pour aider à réduire l'imprévisibilité et la congestion du réseau Vous connectez une extrémité du câble à votre routeur et l'autre extrémité à un routeur AWS Direct Connect. Grâce à cette connexion, vous pouvez créer des interfaces virtuelles directement connectées à Amazon. emplacement AWS Direct Connect du VPC permet d'accéder à AWS dans la région à laquelle il est associé Cela utilise une connexion privée entre votre centre de données et l'emplacement de connexion directe AWS , puis une connexion privée à AWS. Aujourd'hui, c'est plus cher que d'avoir un VPN. Le principal point à retenir est que la connexion directe est une connexion privée, ce qui signifie que vous bénéficiez expérience réseau cohérente, alors qu'un VPN est public, et même s'il est crypté, il est public. C'est tout pour cette séance. 32. Services informatiques dans AWS: Bonjour et bon retour. Le calcul est une autre des principales offres du cloud computing. De plus, AWS propose différents services de calcul flexibles et économiques pour répondre à différentes exigences. Dans cette leçon, nous allons comprendre ce qu'est exactement calcul et quels sont les différents services de calcul disponibles dans AWS. Prenons un exemple. Imaginez que vous avez obtenu l'emploi de vos rêves en tant qu'architecte dans une entreprise de technologie spatiale, où votre travail consiste à travailler avec l'équipe de science des données et à traiter les données. Pour donner un sens aux choses, l' équipe de recherche de votre entreprise a collecté d'énormes quantités de données d' images qui pourraient mener à la découverte d'eau sur Mars. Il incombe désormais à votre équipe de traiter ces données d'image et d'en tirer les conclusions. Mais lorsque vous avez commencé à traiter les données, vous vous êtes rendu compte que vous ne disposiez pas de serveurs gratuits pour effectuer le travail. Qu'est-ce que cela signifie de ne pas avoir de serveurs gratuits ? Eh bien, nous avons besoin d'ordinateurs puissants pour traiter les énormes données, et dans ce cas, la puissance de traitement dont vous avez besoin pour traiter les données n'est pas disponible. Cette puissance de traitement est connue sous le nom de calcul ou de tout programme ou application que vous souhaitez exécuter. Vous avez besoin de mémoire pour ouvrir le programme et un processeur pour traiter les commandes que vous donnez dans le programme. Par conséquent, la combinaison de la mémoire et du processeur est ce que nous appelons ici le calcul. Cela pourrait également inclure d'autres ressources telles que le stockage en réseau, etc. Selon le type d' application que vous utilisez, cloud computing vous permet d'obtenir facilement la puissance de calcul quand vous le souhaitez, configurer en fonction de vos besoins et de ne payer que pour ce que vous utilisez. Aws propose différents services de calcul à différentes exigences, mais il est important de comprendre quelles ressources de calcul conviennent le mieux à votre charge de travail et quelles sont les différentes options de calcul disponibles dans AWS. Tout d'abord, voyons ce qu'est le calcul AWS. Aws propose un service informatique à la demande pour exécuter des applications basées sur le cloud. Il s'agit d'applications qui peuvent être déployées sur un serveur distant et accessibles via Internet. Aws fournit des ressources informatiques telles que des instances et des conteneurs. Les instances ne sont que des machines virtuelles. Aw fournit également des solutions informatiques sans serveur pour exécuter des applications pour lesquelles vous n'avez pas besoin d' installer ou de configurer une infrastructure Lorsque vous optez pour une option de calcul sans serveur AWS, les ressources de calcul sont disponibles à la demande et peuvent être créées d'un simple clic de souris Vous ne paierez que pour les ressources que vous utilisez et uniquement tant que vous les utiliserez. Les ressources de calcul AWS sont généralement classées en trois catégories. instances, qui sont des machines virtuelles, des conteneurs et l'informatique sans serveur Dans ce module, nous les aborderons toutes. Cela vous aidera à décider quel est le meilleur service informatique pour vos besoins. Pour en savoir plus sur AWS Compute, consultez le lien fourni dans la section des ressources. Le document contient différents exemples et scénarios dans lesquels vous pourriez utiliser différents services de calcul. Nous savons maintenant ce qu'est le calcul et les services disponibles dans AWS. C'est ainsi que nous terminons cette vidéo. 33. Machine virtuelle: Bonjour et bon retour. à présent, dans cette formation, nous avons utilisé le terme « machines virtuelles » à quelques reprises . J'espère que vous en avez déjà une idée. Mais avant d'entrer dans le vif du sujet, examinons les machines virtuelles en détail. Qu'est-ce qu'une machine virtuelle ? Une machine virtuelle est un environnement virtuel qui fonctionne comme un ordinateur dans un ordinateur. Cela semble complexe, non ? Décomposons-le. En gros. Une machine virtuelle est communément appelée machine virtuelle. Il n'est pas différent de tout autre système physique comme un ordinateur portable ou un smartphone. Il dispose d'un processeur, de disques mémoire pour stocker vos fichiers et d'un réseau pour se connecter à Internet. Votre ordinateur portable et votre smartphone semblent réels parce qu'ils sont physiques, machines virtuelles peuvent être considérées comme des ordinateurs virtuels au sein d'un ordinateur physique Vous devez maintenant réfléchir à la manière dont il est possible d'avoir un ordinateur virtuel au sein d'un ordinateur physique. Disons que vous avez un ordinateur portable. Il possède le système d'exploitation Windows. Maintenant, tu as envie d'apprendre Linux. Pour cela, vous avez besoin d'un système d'exploitation Linux. Que ferais-tu ? Achèteriez-vous un nouvel ordinateur portable et installeriez-vous le système d'exploitation Linux ? Non Une méthode plus simple et plus efficace consiste à utiliser la technique de virtualisation pour virtualiser votre ordinateur portable existant et y installer le système d'exploitation Linux En gros, vous pouvez utiliser les deux systèmes d'exploitation sur le même ordinateur portable. Maintenant, comment utiliser techniques de virtualisation pour créer une machine virtuelle ? Et cette animation est votre ordinateur physique. Cet ordinateur physique peut être votre ordinateur personnel, un serveur distant ou un serveur. Dans le centre de données d'un fournisseur de cloud, nous utilisons un logiciel appelé Hypervisor, également connu sous le nom de Virtual Machine Manager Dans votre cas, vous pouvez utiliser Oracle VM Virtual Box. L'hyperviseur créera une version logicielle ou virtuelle d' un ordinateur avec quantité souhaitée de mémoire CPU et de stockage La machine virtuelle emprunte toujours mémoire du processeur et de la mémoire à l'ordinateur hôte physique Cela signifie qu'une partie du processeur, de la RAM et du stockage de votre ordinateur fonctionnera désormais comme un ordinateur autonome Pour mieux comprendre, supposons que vous disposiez d'un ordinateur physique doté de huit Go de RAM, deux processeurs et d'un disque dur de 40 Go Vous pouvez utiliser un outil de virtualisation pour créer au moins deux machines virtuelles et répartir mémoire du processeur et le disque dur entre ces deux machines virtuelles. Nous avons ici deux machines virtuelles, machine virtuelle 1 et la machine virtuelle 2. Ils ont quatre Go de RAM, un processeur et 20 Go de disque dur. Chacun, et plus important encore, deux systèmes d'exploitation différents. Comme vous pouvez le constater, une machine virtuelle agit comme un ordinateur réel et possède un système d'exploitation différent. Malgré l'utilisation du même matériel, la machine virtuelle est complètement isolée du reste du système. La machine virtuelle logicielle interne ne peut pas interagir avec l'ordinateur hôte ou une autre machine virtuelle sur le même ordinateur physique. Les machines virtuelles fonctionnent comme ordinateurs individuels dotés de systèmes d'exploitation distincts. Ils restent totalement indépendants d' une autre machine virtuelle et de la machine hôte physique. Les machines virtuelles étant indépendantes les unes des autres, elles sont également très portables Cela signifie que vous pouvez déplacer instantanément une machine virtuelle d'un hyperviseur vers un autre hyperviseur sur une machine complètement différente Les machines virtuelles sont flexibles et portables. Ils offrent de nombreux avantages tels que la réduction des coûts. Vous pouvez exécuter plusieurs machines virtuelles sur un seul hôte physique. Cela peut réduire considérablement le coût de votre infrastructure physique, car vous devrez acheter moins d'ordinateurs physiques. Agilité et rapidité. Le lancement d'une machine virtuelle est une tâche relativement simple et rapide. C'est bien plus simple que de fournir une toute nouvelle machine physique à vos développeurs C'est ainsi que la virtualisation accélère considérablement le processus d' exécution des scénarios de test de Dave. Ensuite, le temps d'arrêt est réduit. Les machines virtuelles sont tellement portables et faciles à déplacer d' une machine à l'autre. Cela signifie qu'ils constituent une excellente solution de sauvegarde en cas de panne inattendue des machines hôtes. Les machines virtuelles évolutives vous permettent de faire facilement évoluer vos applications, car il est plus facile de créer une machine virtuelle que de configurer une machine physique Vous pouvez simplement ajouter des serveurs virtuels et répartir la charge de travail sur plusieurs machines virtuelles C'est ainsi que vous pouvez améliorer la disponibilité et les performances de vos applications. Ce sont là tous les avantages des machines virtuelles. 34. Cloud informatique élastique dans EC2: Bonjour et bon retour. Dans cette leçon, nous allons commencer par le service informatique le plus courant proposé par AWS. Il s'agit de l'Elastic Compute Cloud, communément appelé EC two. Commençons. Ec two est l'abréviation d' Elastic Compute Cloud. Il fournit une option informatique évolutive dans le cloud Amazon. Mais qu'est-ce que la capacité de calcul ? Eh bien, nous avons déjà appris qu'il ne s'agit que de machines virtuelles, et EC two est un service de calcul dans AWS. C two est évolutif. Cela signifie que vous pouvez augmenter ou diminuer la taille d'une machine virtuelle en fonction de vos besoins. Si cela ne fonctionne pas, vous pouvez également créer des machines virtuelles supplémentaires. En utilisant Amazon EC Two. Vous pouvez éviter complètement de configurer le matériel pour exécuter votre application et développer et déployer des applications plus rapidement. Un autre avantage de l'utilisation d'un EC Two est que vous n'avez pas besoin d'investir dans du matériel. Vous pouvez disposer de machines virtuelles de la capacité souhaitée auxquelles vous pouvez accéder à l'aide de vos ordinateurs habituels. Ec Two est une infrastructure IAAS en tant que service, car vous louez une machine virtuelle auprès d'AWS, et AWS se chargera de l' achat et de la maintenance du matériel Vous pouvez obtenir la capacité souhaitée sans avoir à vous soucier du matériel. Il est conçu pour permettre aux le cloud computing à l'échelle du Web développeurs de mieux comprendre le cloud computing à l'échelle du Web. Revenons à l'époque où le cloud computing n'était pas là pour héberger une application, fallait configurer un centre de données ou louer un serveur physique. C'est tout à fait possible pour les grandes organisations. Mais pensez aux entreprises de taille moyenne, aux start-up ou même aux développeurs individuels comme vous et moi, ont pas les moyens d'acheter les centres de données et le matériel. Mais après le cloud computing, il est devenu beaucoup plus facile pour les développeurs de se procurer toutes les machines virtuelles. Grâce au cloud computing, vous pouvez utiliser Amazon C two pour lancer autant ou aussi peu de machines virtuelles que vous le souhaitez. Il n'y a aucune limite. Si vous voulez une machine virtuelle, vous pouvez en obtenir une. Si vous avez besoin de 1 000 machines virtuelles, vous pouvez obtenir 1 000 machines virtuelles. Amazon C. Two facilite le dimensionnement à la hausse ou à la baisse des machines virtuelles pour gérer des charges inattendues. Vous n'avez pas besoin de prévoir le trafic, vous pouvez augmenter ou réduire les machines virtuelles en fonction du trafic et de la popularité de vos applications. Amazon C two possède une fonctionnalité de mise à l'échelle automatique que nous verrons plus tard Nous pouvons configurer le dimensionnement automatique pour augmenter ou diminuer le nombre de machines virtuelles en fonction de la charge de votre application. Il vous permet de contrôler totalement vos ressources informatiques et fonctionner sur l'environnement informatique éprouvé d'Amazon. Comme nous le savons maintenant, deux machines virtuelles EC sont situées dans le centre de données Amazon. La sécurité étant très importante pour vos applications, AWS vous donne le contrôle total de ces serveurs afin que vous puissiez sécuriser votre application comme vous le souhaitez. Il existe également d'autres moyens de sécuriser ces serveurs que nous aborderons dans des vidéos ultérieures. Il est compatible avec Macos. Récemment, Amazon Web Services a également commencé à prendre en charge les machines virtuelles basées sur le système d'exploitation Mac . Si vous avez besoin de machines virtuelles basées sur Mac OS, vous pouvez également les obtenir sur AWS Students. Voici quelques-uns des principaux avantages d'Amazon EC two. 35. Composant d'Amazon EC2: Bienvenue aux étudiants. Dans la dernière vidéo, nous avons présenté Elastic Compute Cloud C two et ses avantages. Nous poursuivrons la même discussion afin de comprendre les éléments d'Amazon C two. Mais avant de commencer, récapitulons la définition de l'EC 2 Il s'agit d'une machine virtuelle dans Amazon Web Services, mais AWS ne les appelle pas machines virtuelles. Au lieu de cela, il utilise des termes spécifiques car l'EC 21 de ces termes est l'instance qui n'est rien d'autre qu'une machine virtuelle Amazon C two. Lorsque nous lançons une machine virtuelle sur Amazon, nous disons que nous avons lancé une instance C two à l'avenir. Au lieu de l'appeler machine virtuelle E two, nous l'appellerons instance EC two. AM I est un autre élément important d'Amazon C two. Il s'agit d'Amazon Machine Image, qui est essentiellement un modèle contenant un système d'exploitation et logiciels supplémentaires nécessaires au lancement des instances EC two. Simplifions-nous les choses. L'instance C two est une machine virtuelle, non ? Et une machine virtuelle, c'est comme votre ordinateur portable. Supposons que vous ayez acheté un nouvel ordinateur portable. Vous devez installer le système d'exploitation et certains logiciels généraux tels que les pilotes, les navigateurs, les lecteurs multimédias, etc., n'est-ce pas ? Parce que sans ces systèmes d'exploitation et logiciels, votre ordinateur portable n'est qu'une boîte. Il en va de même pour l'instance EC two. Il est également similaire à votre ordinateur et c'est pourquoi il a besoin d' un système d'exploitation et logiciels supplémentaires pour pouvoir l'utiliser dans AWS. Vous pouvez le faire en utilisant l'AMI. Une fois que vous avez lancé une instance EC two, vous souhaiterez y accéder afin installer votre application ou de procéder à une configuration. Pour accéder à votre instance EC two, vous avez besoin de certaines informations d'identification et ces informations d'identification ne sont rien d'autre qu'un paiement clé dont nous discutons actuellement. Un payeur de clés se compose d'une clé publique et d'une clé privée. Il s'agit d'un ensemble d' informations de sécurité que vous utilisez pour prouver votre identité lorsque vous vous connectez à un Amazon EC. Deux instances, lorsque vous lancez une instance, AWS demande un keypayeur Vous pouvez choisir une paire de clés existante ou en créer une nouvelle. Lorsque nous créons une paire de clés, AWS vous permet de télécharger la clé privée et elle conserve la clé publique. Lorsque vous lancez une instance EC two, Amazon stocke par défaut la clé publique sur votre En gros, vous utiliserez votre clé privée pour vous connecter à votre instance. Nous verrons cela lors de la démonstration d'EC. est important de noter que puisque vous utilisez une clé privée pour vous connecter à vos instances EC Two, toute personne possédant cette clé privée peut également se connecter à vos instances. Assurez-vous de stocker votre clé privée dans un endroit sûr. Un autre élément essentiel de l' EC 2 est le groupe de sécurité. Il s'agit d'un autre service que vous pouvez utiliser pour renforcer la sécurité de vos instances. Le groupe de sécurité vous permet de contrôler qui peut accéder à vos instances EC two. Il agit comme un pare-feu virtuel pour vos instances EC two qui contrôle le trafic entrant et sortant L'entrée signifie que vous pouvez configurer qui peut se connecter à votre instance EC two depuis l'extérieur, et la sortie signifie à quoi vos deux instances peuvent se connecter Les tags constituent un autre élément d' EC two. Une balise est une étiquette de vos ressources AWS. Il peut être attribué par vous ou par AWS. Et chaque balise est composée d'une clé et d'une valeur. Lorsque vous créez une instance EC two, vous pouvez attribuer des noms différents à vos machines virtuelles. Il peut s'agir de l'environnement, propriétaires du centre de coûts ou du nom de l'application. Ces balises vous aideront à identifier vos serveurs lorsque des milliers de serveurs fonctionnent sur votre compte. Chaque clé de balise doit être unique pour chaque ressource. Et chaque clé de balise ne peut avoir qu'une seule valeur. Vous pouvez utiliser des balises pour organiser vos ressources dans votre compte et pour suivre vos coûts AWS en utilisant des balises de répartition des coûts. Comprenons les balises de répartition des coûts. Certaines organisations disposaient auparavant d'un centre de coûts lorsque vous exécutiez plusieurs applications un seul compte AWS. Vous pouvez étiqueter les instances EC two avec le centre de coûts, la clé et la valeur, ce qui vous aidera à suivre le coût par centre de coûts. Jusqu'à présent, voici les différents termes et fonctionnalités que vous devez connaître et comprendre concernant Amazon EC two. Concluons cette leçon ici. 36. Naming d'instance EC2: Bonjour étudiants. Bon retour. Lors de la dernière session, nous avons compris les différents éléments d'une instance EC two , tels qu' Amazon Machine Image ou AMI Security Group, payeur de clés et les taxes. Il reste une autre caractéristique importante de l'instance EC Two que nous devons comprendre. C'est le type d'instance EC two. Mais avant cela, nous allons comprendre la convention de dénomination des instances C à deux. Il vous apprendra à lire les noms des instances EC two. Dans cette vidéo, vous allez d'abord découvrir la convention de dénomination des deux instances d'EC. Vous ne trouverez pas d'explication claire à ce sujet sur Internet, même pas dans la documentation AWS. Je vous demande de porter une attention particulière à cette vidéo, car elle vous aidera également beaucoup lors de votre voyage avec le cloud AWS. Commençons. Le nom de l'instance Aws ressemble à celui affiché sur l' écran M 6.2 large. Comme vous pouvez le constater, le nom contient des caractères et des chiffres. Le nom complet n'a pas vraiment de sens. Nous allons le décomposer et essayer de lui donner un sens. Une chose est claire, si nous mettons tout ensemble, il s'agit d'un type d'instance. Si vous regardez un type d'instance, ce sera quelque chose comme ça. Maintenant, décomposons-le. Le nom de ce type d' instance est composé de quatre composants : instance, famille, génération d'instance, fonctionnalité supplémentaire et côté instance. Vous pouvez mettre la vidéo en pause ici ou en prendre une photo ou une capture d'écran pour référence ultérieure. Passons-les en revue un par un. La première lettre du type d'instance représente la famille d'instances EC two. Ici, le M représente la famille d'instances. Cette instance AWC two appartient à la famille d'instances informatiques à usage général Type AWS comprend quatre catégories principales de types d'instances. Ils sont optimisés pour le calcul à usage général, la mémoire et le stockage. Nous allons les aborder en détail dans la prochaine leçon. Il existe également des sous-classifications au sein de ces quatre familles d' instances, mais cela n'est pas essentiel à ce niveau, nous les ignorerons ensuite. Le chiffre six dans M six représente la génération de l'instance AWS C two. La dernière génération ou la dernière génération d' instances AWS C two est toujours meilleure. Elle est également moins chère que la génération précédente. C'est pourquoi AW recommande toujours d'utiliser le type d'instance de dernière génération. On peut l'associer à une voiture. L'entreprise lance toujours nouveaux modèles de voitures dotés de nouvelles fonctionnalités supplémentaires. Elle recommande les derniers modèles à ses clients car ils incluent de nouvelles fonctionnalités à un meilleur prix. Ensuite, nous avons le même qui représente la capacité supplémentaire de l'instance EC two. Ce tableau possède toutes ces fonctionnalités. Amd et Graviton deux sont les deux processus à l'intérieur de ces deux instances EC Si le processeur répond également à vos besoins, vous pouvez également sélectionner une instance C two basée sur un processeur. Aws propose également un stockage SSD NVME local, qui est directement connecté à EC two pour améliorer les performances du réseau Par conséquent, une mise en réseau élevée et une capacité supplémentaire sont les deux fonctionnalités de ce type d'instance. Le dernier et le plus important composant de ce type d'instance est la taille de l'instance. Les deux x large de M 6,2 x large représentent la taille de l'instance. Voyons ce que signifient les deux x plus grands. Les deux x grands indiquent la représentation de la taille du t-shirt de l'instance AWS C two Il représente la quantité de mémoire du processeur, stockage et les performances réseau d'une instance C two. Cette instance deux grande aura deux fois plus de ressources de mémoire CPU et de stockage par rapport à la taille de base qui est X grande. Comment fonctionne-t-il ? Comprenons-le. En dimensionnant chaque instance deux fois plus grande, nous disposerons de deux fois plus de CPU et de mémoire que la taille précédente C'est grand, 26 fois grand équivaut à 162 fois De même, 262 x large est égal à 154 x large. Examinons-le maintenant du point de vue de la capacité. Si vous consultez la documentation AWS et accédez aux six types d'instances, vous verrez cette image. X large possède deux fois plus de CPU et de mémoire qu'un grand. Le coût R à la demande est également deux fois plus élevé. Maintenant, vous devez vous demander dois-je opter pour une instance 12 fois plus grande ou deux instances plus grandes ? Pour cela, examinons le prix et la capacité de chaque instance. Comme vous pouvez le constater, il n'y a aucune différence entre eux. Que vous en choisissiez deux ou 12 fois plus, vous obtiendrez la même capacité pour un coût égal Mais il est toujours préférable d'utiliser une taille d'instance plus petite plutôt qu' une plus grande, sauf si vous avez des besoins spécifiques. Il existe beaucoup trop de classifications de positions d'AWS, EC 2. Nous aborderons les points essentiels dans la prochaine vidéo Bien que cela ne soit pas bien documenté nulle part, AWS C two possède une excellente convention de dénomination. J'espère que cette vidéo vous a aidé à comprendre cela, au cas où vous auriez une quelconque confusion, je vous recommande de la regarder à nouveau. C'est tout pour cette leçon. 37. Types d'instance: Bonjour, étudiants. Bon retour. Dans la dernière leçon, nous avons appris la convention de dénomination des types d'instances. Vous avez découvert la taille de l'instance EC, la génération de familles et les fonctionnalités supplémentaires. Tous ces éléments vous aideront à choisir le type d'instance EC à utiliser pour votre application. Dans cette vidéo, nous allons approfondir un peu plus la compréhension des différents types d'instances EC two. Une fois cette leçon terminée avec succès, vous serez en mesure de décider quel type d'instance correspond le mieux à vos besoins. Commençons par un bref récapitulatif de ce qu'est le type d' instance EC two Il s'agit d'une combinaison de mémoire CPU, de stockage et de capacité réseau. disposer de différentes combinaisons vous aide à choisir la combinaison appropriée pour vos applications. Lorsque vous lancez, le type d' instance C two est l'un des éléments obligatoires dont vous avez besoin pour déterminer pourquoi il est si important. Comprenons à l' aide d'un exemple. Lorsque vous achetez un ordinateur portable, vous définissez d'abord vos besoins. Et en fonction de ces exigences, vous sélectionnez une configuration pour votre ordinateur portable, comme la mémoire, le stockage, les cartes graphiques, etc. Il en va de même pour l'instance EC Two. Lorsque vous lancez une instance C two sur Amazon, vous devez fournir un processeur, une mémoire, un stockage et configurations réseau pour vous faciliter la tâche. Aws propose des types d'instances avec des entiers différents en termes de mémoire du processeur, de stockage et de mise en réseau. Chaque type d'instance dispose de plusieurs options de taille pour différentes charges de travail. Nous avons déjà abordé la question de la taille de l'instance. Dans la dernière leçon, vous devez lancer types d' instance les mieux adaptés à vos applications. Comprenez maintenant ce que nous entendons par « meilleur ajustement » ici. Chaque application est conçue différemment et nécessite une configuration matérielle spécifique. Certains ont besoin de plus de mémoire, d'autres de plus de processeur, etc. Par conséquent, vous devez utiliser la capacité de calcul adaptée à votre application. Il est facile de sélectionner la meilleure configuration pour vos applications dans AWS. Comme Amazon, les types d'instances sont regroupés en familles pour répondre à différents cas d'utilisation, nous allons examiner quatre types d'instance de base et essentiels. Ils incluent une instance à usage général, une instance optimisée pour le calcul, une instance optimisée pour la mémoire et une instance optimisée pour le stockage. Commençons par le type d'instance à usage général. Il fournit un équilibre entre la mémoire de calcul et les ressources réseau et peut être utilisé pour diverses charges de travail Comme son nom l'indique, il s'agit du type d'instance AWS le plus basique et le plus complet. Nous utilisons des instances à usage général où nous ne savons pas si l'application a besoin de plus de processeur ou de mémoire, car cela implique un équilibre entre mémoire, calcul et réseau Si nous découvrons plus tard que cette application est davantage optimisée pour la mémoire ou le calcul, nous pouvons opter pour des types d'instances spécifiques. Examinons maintenant les meilleurs cas d'utilisation des instances à usage général. Ils conviennent aux serveurs Web, aux flottes de mise en cache et aux applications de stockage de données distribué Comme ces applications nécessitent un bon équilibre entre mémoire, processeur et réseau, elles conviennent également aux applications d' environnement de développement et de démonstration. Le type d'instance suivant est une instance optimisée pour le calcul. Ils sont idéaux pour les applications liées au calcul qui bénéficient de processus à hautes performances. Ce type d'instance est optimisé pour le processeur par rapport à d'autres puissances de calcul telles que la mémoire, le stockage et le réseau. Par conséquent, le type d'instance qui possède processeurs les plus puissants entre dans cette catégorie. Parlons de leurs cas d'utilisation. C'est la meilleure solution pour les applications qui nécessitent une puissance de calcul élevée. Les instances optimisées pour le calcul sont parfaitement adaptées au traitement par lots de supports, transcodage, aux serveurs Wave hautes performances, au calcul haute performance, à la modélisation scientifique, aux serveurs de jeu dédiés, aux moteurs de serveur d' ajout, à l'inférence par apprentissage automatique et à d'autres applications gourmandes en calcul Viennent ensuite les instances optimisées pour la mémoire. Ils sont conçus pour fournir des performances rapides pour les charges de travail qui nécessitent une mémoire importante pour traiter de grands ensembles de données Ces instances sont optimisées en termes mémoire ici lorsque nous examinons les types d'instances mémoire optimisée » et « famille optimisée pour la mémoire ». Plus de mémoire que le stockage, le processeur et le réseau. En d'autres termes, les types d'instances optimisés pour la mémoire sont optimisés pour la mémoire par rapport aux autres fonctionnalités. Examinons leurs cas d'utilisation. Les instances optimisées pour la mémoire sont utilisées dans des applications telles que les bases de données open source, les caches de mémoire et les analyses de mégadonnées en temps réel La prochaine concerne les instances optimisées pour le stockage. Les instances optimisées pour le stockage sont conçues pour les charges de travail qui nécessitent un séquentiel élevé en lecture et en écriture accès séquentiel élevé en lecture et en écriture à des ensembles de données volumineux et Ils sont optimisés pour fournir des dizaines de milliers d'opérations d' entrée/sortie aléatoires à faible latence par seconde aux applications. Ce type d'instance est optimisé côté réseau de l'instance EC two. Il prend en charge davantage d'actions de lecture et d' écriture sur le disque. Lorsque notre application effectue beaucoup de lecture et d' écriture sur la base de données de disques ou le réseau, nous devons utiliser un type d'instance optimisé pour le stockage. Ce type d'instance maximise le nombre de transactions traitées par seconde ou les charges de travail critiques pour l'entreprise à forte intensité d'entrées/sorties travail critiques pour l'entreprise à forte intensité d' transactions par seconde correspond au nombre de transactions que le réseau peut traiter en une seconde. Si l'instance EC two est capable d'effectuer dix transactions à destination et en provenance du stockage sans délai, vous pouvez dire qu' elle peut traiter un maximum de dix transactions par seconde. Examinons ses cas d'utilisation. L'application possède des ensembles de données de taille moyenne qui nécessitent des performances de calcul élevées et un débit réseau élevé Il s'agit notamment des bases de données relationnelles telles que Mysql, Mariadb, Post Gray Sql et des bases de données NOSQL, notamment Ke, DB, Ilab Ce type d'instance est également idéal pour les charges de travail qui nécessitent un accès très rapide à ensembles de données de taille moyenne sur le stockage local, tels que les moteurs de recherche et les charges de travail d'analyse de données Il y a tellement d'informations. Permettez-moi de le résumer, cela vous aidera à prendre la meilleure décision quant au type d'instance. Le plus important est de comprendre ces quatre classifications principales. Une fois que vous les aurez comprises, il répondra à vos cas d'utilisation les plus courants. En outre, lorsque vous sélectionnez type d'instance pour votre application, demandez-vous si votre application fait beaucoup de travail en mémoire ou en calcul. Cela nécessite-t-il beaucoup de travail ? Ou s'agit-il simplement du travail générique qu'il effectuera ? Une fois que vous avez compris la classification principale, la sous-classification peut venir naturellement Comme dans une instance optimisée pour la mémoire, il se peut que vous ayez besoin d'une plus grande quantité de RAM ou d'une mémoire optimisée plus importante. Enfin, une fois que vous connaissez le type d'instance, vous devez toujours choisir l'instance de plus petite taille pour exécuter l'expérimentation en fonction de l'expérience et du test, puis décider de la taille réelle de l'instance comme règle générale. Choisissez toujours une taille d'instance plus petite pour économiser de l'argent. C'est tout pour cette leçon. 38. Lancer votre première instance EC2: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons lancer notre première instance EC two via la console AWS. Nous examinerons également les différentes étapes et fonctionnalités proposées AWS lors du lancement des deux instances EC. À la fin de cette vidéo, vous serez en mesure de lancer les instances EC two via la console de gestion. Regardez la vidéo jusqu'à la fin, puis essayez-la vous-même. Accédez à la console de gestion AWS, tapez EC two dans la barre de recherche et cliquez sur le résultat de recherche EC two. Accédez directement au tableau de bord EC Two. Comme vous pouvez le constater, je n'ai aucune instance dans mon compte. Si nous cliquons sur les instances ici, vous serez redirigé vers la page des instances. Cette page contient la liste de toutes les instances de cette région. Comme nous n'avons aucune instance, la liste est vide. Lancez notre première instance EC two. Tout d'abord, assurez-vous de choisir une région proche de vous ou de votre client. Comme je suis en Inde, je vais sélectionner la région de Mumbai. Cliquez sur Launch Instances. Tout d'abord, nous devons choisir une AMI appelée Amazon Machine Image. Voici une liste d' AMI parmi lesquelles choisir. Il comprend Amazon, Linux, deux, Max OS, Red Hat et bien d'autres. Si vous regardez le tableau de bord sur votre gauche, vous verrez d'autres options. Passons à mes AMI ici, vous verrez la liste de vos propres AMI personnalisées. le moment, aucune AMI n' a été créée sur notre compte. Aucune AMI n'est répertoriée ici. L'option suivante est AWS Marketplace, où nous avons des milliers d' AMI créées par des fournisseurs tiers. Ensuite, nous avons les AMI communautaires, qui sont développées par AWS et ses utilisateurs. Ils sont gratuits pour tous. Notez que vous devez toujours être prudent lorsque vous utilisez des AMI créées par des personnes autres qu' AWS ou des fournisseurs AWS de confiance. Il pourrait y avoir des failles de sécurité. Il existe également un filtre pour afficher uniquement le pneu libre. Cela ne nous montrera que les AMI éligibles aux pneus gratuits . Si nous les vérifions dans le cadre de cette démonstration, nous créerons une instance Linux avec Amazon Linux Two. Ami. Cette AMI est éligible aux pneus gratuits, ce qui signifie que nous pourrons lancer l'instance sans dépenser d'argent pour cela. Sélectionnez Amazon, Linux deux, cela nous amènera à la deuxième étape. Choisissez un type d'instance. Maintenant, comme vous pouvez le constater, de nombreux types d'instances sont disponibles. Faites simplement défiler la page vers le bas et vous verrez une longue liste d'instances. Nous avons la possibilité de filtrer ces instances en fonction de leur famille et de leur génération. Nous avons une variété d' instances basées sur différentes exigences. La liste inclut des instances optimisées pour la RAM , pour le processeur, pour le GPU, etc. Dans cette démo, nous utiliserons Two point Micro car nous n' avons aucune exigence particulière et nous voulons également rester dans le pneu gratuit. Comme vous pouvez le constater, Two Point Micro est la seule instance disponible gratuitement. Dans certaines régions, vous verrez également Three Point Micro. Si vous ne faites que vous entraîner, assurez-vous de toujours choisir le type d'instance éligible à Free Tire afin d'éviter tout code. Nous pouvons maintenant passer en revue et lancer notre instance immédiatement en cliquant simplement ici. Mais avant cela, passons à la configuration des détails de l' instance. Cela ouvrira de nombreuses options. Explorons certains des paramètres importants un par un. La première option est le nombre d'instances. Si vous avez besoin de plusieurs instances, vous pouvez modifier cela et créer plusieurs instances C two avec la même configuration. Nous pouvons également lancer une instance C two dans le groupe Launch into Autoscaling en cliquant sur le lien Launch into Autoscaling Pour l'instant, restons-en à une instance. C'est un point que nous aborderons dans le prochain module. Ensuite, nous avons l' option réseau pour choisir nos VPC. Choisissons le Pat Cup VPC que nous avons créé dans le laboratoire précédent Sélectionnez le sous-réseau dans lequel nous voulons lancer l'instance. Puisque nous voulons que notre instance soit accessible depuis Internet, nous devons choisir un sous-réseau public L'option suivante nous demande si nous voulons qu'AWS attribue une adresse IP publique à cette instance. Laissons cette option activée pour le moment. Le prochain paramètre important est le rôle. Le rôle est utilisé pour donner des autorisations quant aux personnes autorisées à accéder à cette instance EC two. Nous allons sélectionner le rôle que nous avons créé dans notre premier laboratoire. Si vous souhaitez créer un nouveau rôle, vous pouvez accéder à IAM en cliquant sur le lien Créer un nouveau rôle IAM, puis créer un Cliquez sur Suivant pour passer à la page suivante, Ajouter du stockage. Comme vous pouvez le constater, nous avons déjà sélectionné un volume EBS pour nous Il s'agit du volume racine qui contient le système d'exploitation et les autres logiciels. Pour cette instance, ajoutons un nouveau stockage à notre instance. Cliquez sur Ajouter un nouveau volume, spécifiez les paramètres de notre volume. Sous la colonne des appareils, nous pouvons voir le chemin du SDB C'est le chemin où notre volume sera attaché. Laissons-le comme valeur par défaut pour le moment et passons à autre chose. Dans l'option snapshot, nous pouvons choisir de créer un nouvel EBS partir d'un instantané que nous avons créé auparavant Comme nous n'avons pas de telles exigences, nous allons le laisser vide pour le moment. Vient ensuite le côté volume. Passons notre volume à dix Go. La colonne suivante est le volume. Nous avons le choix entre tous les SSD, les disques durs et le stockage magnétique Si nous examinons le type de volume pour le volume racine, vous verrez que nous avons moins d'options ici. Cela est dû au fait que seuls les SSD peuvent être un volume racine. Pour une instance EC two, nous n'avons pas l' option HDD pour le volume racine. Pour en revenir à notre nouveau volume, laissez-le au GP 2, qui est le SSD à usage général. L'option suivante est IOPS. Comme vous pouvez le constater, nous n'avons aucune option pour changer cela. Revenons en arrière et changeons notre type de volume. Si nous choisissons IO 102 ou GP 3, nous avons la possibilité de fournir des IOPS Cela est dû au fait que les IOPS sont fixes pour le GP 2, le volume étant de trois IOPS par Go. Comprenons-le. Si nous sélectionnons GP 2, encore une fois, vous pouvez voir l'IOPS 100, soit plus de trois IOPS par Go. Comme la taille de notre volume est de dix Go, trois fois dix signifient que nous ne devrions avoir que 30 IOPS Cela est dû au fait que nous avons un minimum de 100 IOPs pour le deuxième GP. Si nous changeons le volume à, disons, 100 Go, vous pouvez voir que nous avons 300 IOPS Remettons maintenant le côté à dix et choisissons le type de volume GP Two. L'option suivante est le débit, qui nous indiquera le débit de notre volume Je parlerai du débit dans l'écran EBS. Nous ne pouvons modifier cela que pour un seul type de volume, le type GP à trois volumes. L'option suivante est la case à cocher Supprimer en cas de résiliation. Il s'agit de l'option qui permet de spécifier ce qu'il faut faire avec le volume EBS une fois que l'instance EC two est terminée Si l'option Supprimer à la résiliation est cochée, le volume sera également supprimé lorsque notre instance sera résiliée. N'oubliez pas que si vous souhaitez que vos données soient conservées même après la résiliation de l'instance, n'oubliez pas de décocher cette case pour cette démonstration Laissez-le par défaut, ce qui signifie que lorsque EC two est arrêté, le volume racine sera également supprimé. La page suivante est l'ajout de balises. Oublions cela pour le moment et passons à la page suivante. Configurez le groupe de sécurité. La première option consiste à créer un nouveau groupe de sécurité ou à utiliser un groupe existant. Comme nous n'avons créé aucun groupe de sécurité dans notre compte, créons-en un ici. Vous pouvez modifier le nom et la description du groupe de sécurité comme vous le souhaitez. L'option suivante et la plus importante consiste à configurer les règles du groupe de sécurité. Comme vous pouvez le constater, AWS a déjà ajouté un S par défaut qui est un groupe de sécurité Secure Shell. Ce groupe nous permet d'accéder en SSH à notre instance EC two. Mais pourquoi avons-nous toujours un avertissement ? En effet, si vous voyez la colonne source, cette règle SH est ouverte à toutes les adresses IP, c'est un problème. Remplaçons cette valeur par quelque chose comme 123,123 0,123 0,123 Et l'avertissement a disparu Comme nous n'avons aucun système critique ici, ramenons-le à 0.0 0.0 0.0 par zéro. Ce n'est pas la meilleure pratique d'autoriser le SSH à partir de n'importe quelle adresse IP dans le monde. Si vous avez deux instances EC de production, assurez-vous de remplacer cette valeur par votre propre plage d'adresses IP. Ajoutons une nouvelle règle pour autoriser les connexions HTTP à notre instance. Comme vous pouvez le constater, le choix du protocole HTTP fixé nos protocoles au TCP et au port 28, qui sont le protocole et le port HTTP par défaut Nous voulons que tout le monde puisse établir des connexions HTTP avec cette instance. Nous allons laisser la source par défaut ici. La dernière colonne sert à ajouter une description à la règle. N'ajoutons aucune règle ici. Maintenant que nous avons configuré le groupe de sécurité de l'instance C two, passons à la révision et au lancement. Vous pouvez voir tous les paramètres de notre instance C two. Cliquez ici sur Lancer. Nous devons maintenant spécifier une paire de clés, étant donné que nous n'en avons aucune pour notre compte. Créons-en une, choisissons de créer une nouvelle paire de clés et d'ajouter un nom de paire de clés pour de clés et d'ajouter un nom de paire de clés Nous nommerons la paire de clés emballée. Cliquez sur le gestionnaire de téléchargement, vous verrez qu'un fichier Pm est téléchargé. Il est important de protéger ce fichier car il sera nécessaire pour accéder à notre instance EC two. N'oubliez pas non plus qu'il ne peut pas être téléchargé à nouveau. Cliquez sur Launch Instance, et cela nous amènera à la dernière page. Si vous cliquez sur Afficher l'instance, vous verrez qu'AWS est en train de créer une instance EC two pour vous. Tout l'avantage du Cloud, c'est que je pouvais lancer 100 instances de ce type en quelques clics. cloud computing est très flexible et vous permet d'accéder rapidement à la puissance de calcul chaque fois que vous en avez besoin. Comme vous pouvez le constater, l' instance est en cours d'exécution. Maintenant, si vous cliquez sur la case à cocher, vous trouverez tous les détails de l' instance, les groupes de sécurité IP publics, les bilans de santé, etc. Chaque fois que vous avez besoin de détails sur les instances EC two, c'est ici que vous les chercherez. Si vous cliquez sur les options de volumes dans le tableau de bord de gauche, vous pouvez également voir les deux volumes EBS que nous avons créés un volume racine de huit Go et un volume supplémentaire de dix Go que nous avons créés séparément à la fin de cet atelier Dans le prochain atelier, nous installerons HTTTD sur notre instance EC two et verrons un petit site Web HTTDP Étudiants, c'est ainsi que nous lançons les instances EC two. Dans la leçon suivante, nous poursuivrons cette discussion et verrons comment évaluer H dans notre instance, etc. Merci. 39. Instance SSH EC2, installer Httpd: Dans la vidéo précédente, nous avons créé notre première instance EC two et avons examiné plusieurs paramètres et options lors de la création de l'instance. Dans cette vidéo, nous allons accéder à l'instance C two en utilisant le système d'exploitation Linux ou Mac, installer le service STTDP et démarrer une application de test sur Nous verrons également comment mettre fin à l'instance pour éviter tout coût imprévu. Si vous vous demandez ce qu'est le SSH, alors le SSH est un moyen de contrôler une machine distante à l'aide de la ligne de commande En utilisant SSH, nous pouvons nous connecter à l'instance EC two et effectuer toutes sortes d' opérations comme sur nos ordinateurs portables Commençons par accéder à la console AWS. Tapons maintenant EC deux dans la barre de recherche et cliquez sur EC deux pour accéder directement au tableau de bord EC deux. Comme vous pouvez le constater, notre instance est en cours d'exécution. Si vous vous souvenez du laboratoire précédent, je vous ai demandé de conserver le fichier Pm téléchargé lors de la création de l'instance. Ce n'est pas que sans le fichier Pm nous ne pouvons pas accéder à l'instance par SSH Si vous avez perdu ou supprimé le fichier, vous devrez recréer l'instance avec un nouveau payeur de clés La prochaine chose importante à vérifier est que votre groupe de sécurité dispose règles autorisant le protocole SSH sur le port 22 et le protocole STTP sur le port 80 Trouvons l' adresse IP publique de cette instance. Cliquez sur la case à cocher ici, vous pouvez maintenant voir tous les détails concernant l'instance EC two sélectionnée Voici mon adresse IP publique. Copions cette valeur. Passons maintenant à notre instance en SSH. Pour cela, vous devez ouvrir un terminal et taper la commande S C two en tant qu'utilisateur à l'adresse IP ate. C two user est le nom d'utilisateur par défaut pour toutes les AMI Amazon Linux. Laissons exécuter cette commande. Comme vous pouvez le constater, la commande a échoué et l'autorisation a été refusée. Cela est normal car nous ne voulons pas que quiconque puisse accéder à notre instance EC two uniquement à partir d'une adresse IP publique. C'est ici que nous utiliserons le fichier Pm que nous avons téléchargé. Nous allons aller dans le dossier où j'ai stocké le fichier. Comme vous pouvez le voir, j'ai mon fichier pm dans ce dossier. Nous allons maintenant exécuter la même commande, mais nous allons également ajouter le fichier clé. Maintenant, la commande est C two user à l'adresse IP. Nous faisons maintenant la même chose qu'avant, mais ici nous indiquons également à AWS que nous avons un fichier clé à insérer dans l'instance. Cliquez sur Enter. Nous recevons maintenant une autre erreur d' autorisation refusée. Il s'agit d'une étape importante et d'une question fréquemment posée dans les examens AWS. Pourquoi cet accès nous est-il refusé ? Il indique un avertissement Fichier de clé privée non protégé. Lorsque nous téléchargeons le fichier pour la première fois depuis AWS vers une instance Linux, il dispose des autorisations 0644 Comme vous pouvez le voir ici, ces autorisations sont trop ouvertes pour un fichier clé car elles ne sont pas appropriées. Aws ne vous permet pas d'accéder à la machine par SSH. Le correctif que vous pouvez exécuter est le mod 0400 emballé. Payez. Cela modifiera les autorisations du fichier, 0644-0400, qui est l' Laissons exécuter la même commande. Encore une fois, comme vous pouvez le constater, la commande s'est maintenant exécutée avec succès et nous sommes dans l'instance EC Two. La première chose à faire lorsque nous nous connectons à l'instance EC two est d'exécuter la commande pseudo, um, update. Cette commande mettra à jour tous les packages obsolètes de l'instance. S'il y en a un à installer, exécutez la commande pseudo install STTPDasy exécutez la commande pseudo install Maintenant, le protocole STTDP est installé sur notre machine EC to machine, mais nous devons également démarrer le service STTTDP Pour démarrer le service STTDP, nous devons exécuter une autre commande, pseudo système Démarrez STTDP. Cette commande n'a aucune sortie. Laissez-nous vérifier l' état du STT DP en exécutant le pseudo système CTL status Comme vous pouvez le constater, un processus est en cours d'exécution. Passons maintenant au tableau de bord EC two et sélectionnons l'instance EC two. Nous devons copier l'adresse IP publique et la coller dans notre navigateur. Vous pouvez maintenant voir l'application STTDP par défaut déployée sur votre instance EC two Mettons maintenant fin à l'instance EC Two. Vous pouvez le faire en cliquant sur l'instance. Accédez à Accents, cliquez sur Gérer l'état de l'instance et mettez fin à l'instance. Cela mettra fin à votre instance EC two. Si vous vous souvenez, nous avons attaché un volume EBS à notre instance dans le laboratoire précédent sur lequel l' indicateur de suppression à la fin n'avait pas Cela signifie que même si notre instance est résiliée, l'une des instances EBS restera Jetons un coup d'œil au tableau de bord Volumes. Vous pouvez voir à la fois la racine et le volume supplémentaire. Si vous actualisez quelque temps, le volume racine, qui était de huit Go, disparaît de la liste, mais nous avons toujours le volume de dix Go dans le tableau de bord. Allons-y et supprimons également le volume EBS. Vérifions maintenant le groupe de sécurité. Comme vous pouvez le constater, même le groupe de sécurité que nous avons créé n'a pas non plus été supprimé. Ne le supprimons pas. Les groupes de sécurité sont gratuits. n'y a aucun mal à avoir un groupe de sécurité à portée de main pour nos prochains laboratoires. De même, le Keypair emballé n'a pas été supprimé et vous pouvez le conserver dans votre compte sans frais Au cours de cette session, nous avons réussi à évaluer H dans le cadre d'une installation STTDP d'une instance EC Two et à y accéder depuis un navigateur C'est tout pour cette séance. 40. Créer une instance EC2 Windows: Dans les deux dernières vidéos, nous avons lancé une instance Linux C installée sur deux instances et nous y avons accédé depuis notre navigateur Web Dans cette vidéo, nous allons vous expliquer les étapes à suivre pour lancer une instance Windows C deux et comment y accéder. Cela va être assez similaire à l'instance Linux C Two, démo pratique, seules quelques configurations seront différentes. Commençons. Accédez à la console de gestion AWS, tapez C deux dans la barre de recherche et cliquez sur le résultat de recherche EC two pour accéder directement au tableau de bord EC two. Comme toujours, il est important de choisir une région proche de vous ou de votre client. Je vais sélectionner la région de Mumbai. Cliquons sur Launch Instances. Tout d'abord, nous devons choisir une AMI appelée Amazon Machine Image. Cette fois, nous allons sélectionner Windows AMI. Tapons Windows dans l'option de recherche et appuyons sur Entrée. Nous pouvons voir l'AMI Windows ici, et cette AMI est éligible au pneu gratuit, ce qui signifie que nous pourrons la lancer sans dépenser d'argent pour cela. Sélectionnons-le et nous passerons à la deuxième étape. Choisissez un type d'instance. L'AMI fait uniquement la différence entre lancement d'instances EC Two basées sur Linux et Windows. Le reste de la configuration sera identique ou vous pouvez modifier d'autres éléments si vous le souhaitez. Maintenant, comme vous pouvez le constater, de nombreux types d'instances sont disponibles. Encore une fois, nous utiliserons un micro à deux points parce que nous n' avons aucune exigence particulière et que nous voulons également rester dans le pneu libre. Cliquez sur Configurer les détails de l' instance. Comme vous le savez ici, nous fournirons toutes les configurations relatives aux instances. Passons à la configuration par défaut et vérifions simplement si l'adresse IP publique attribuée automatiquement est activée. Comme nous avons besoin d'une adresse IP publique pour accéder à l'instance EC two, cliquez sur Suivant pour passer à la page suivante, Ajouter du stockage. Comme vous pouvez le constater, nous avons déjà sélectionné un volume EBS pour nous Il s'agit du volume racine qui contient le système d'exploitation de cette instance. La page suivante s'intitule Ajouter des balises. Oublions cela pour le moment et passons à la page suivante. Configurez le groupe de sécurité. Nous allons modifier le nom et la description du groupe de sécurité comme vous le souhaitez. Vous voyez que nous avons un type RDS au lieu d' port SSH. La plage de ports est de 3398 au lieu Cela est dû au fait que Linux et Windows utilisent des technologies différentes pour établir une connexion à distance. Nous n'aurons rien d'autre à faire ici, passons à l' examen et au lancement. Vous pouvez voir tous les paramètres de notre instance EC two. Cliquez ici sur Lancer. Nous devons maintenant spécifier une paire de clés. J'utiliserai la même clé que celle que j'ai créée la dernière fois. Je l'accepte, j'ai la clé. Cliquez sur Launch Instance, et cela nous amènera à la dernière page. Si vous cliquez sur l'instance, vous verrez qu'AWS est en train de créer une instance EC pour vous. L'état de l'instance est en attente, ce qui signifie que l' instance est en cours de création. Il faudra quelques minutes pour passer à l'état en cours d'exécution. Comme vous pouvez le constater, l'instance est actuellement en cours d'exécution et si vous cliquez sur la case à cocher, vous trouverez tous les détails de l' instance, les groupes de sécurité IP publics, les bilans de santé, etc. Chaque fois que vous avez besoin de détails sur les instances EC two, c'est ici que vous les chercherez. Nous allons sélectionner l'instance EC two. Ici, en haut, vous cliquez sur Connecter. Nous avons maintenant trois options pour nous connecter à cette instance EC two. Je vais sélectionner le deuxième onglet, client RDP. Vous pouvez télécharger ici le client RDS que nous utiliserons pour RDS sur l'instance Cliquez maintenant sur Obtenir le mot de passe. Vous pouvez soit copier et coller contenu clé ici, soit le télécharger en cliquant sur le navigateur. Je vais télécharger et cliquer sur Décrire le mot de passe. C'est maintenant le mot de passe que je vais utiliser pour me connecter à l'instance C two. Copiez le mot de passe ici. Ouvrons maintenant le client que vous avez téléchargé en fonction système d'exploitation de votre ordinateur portable ou de votre ordinateur. Il aura une interface différente. J'utilise un Mac. Je publierai le mot de passe ici. Il a déjà sélectionné un utilisateur pour moi et continuera. Je vais à nouveau cliquer sur Continuer. Maintenant, je suis dans mon ordinateur Windows EC two. C'est à peu près ce que vous faites pour lancer une instance Windows. C'est ainsi que nous sommes arrivés à la fin de ce laboratoire. C'est tout pour cette séance. 41. Service de récipient élastique dans ECS: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons découvrir l'un des services informatiques d'AWS, Elastic Container Service, également connu sous le nom d'ECS. Nous comprendrons ce qu'est l'ECS, ses types et, surtout, ses cas d'utilisation. Commençons. Avant de comprendre le service Elastic Container, voyons rapidement ce qu'est un conteneur. Parce que ECS est développé sur la base de la technologie des conteneurs. Lorsque nous développons des applications, elles fonctionnent sur notre ordinateur. Mais elles se cassent dès que nous déplaçons ces applications sur une autre machine. Cela peut être dû à plusieurs raisons. Il peut s'agir d'un système d'exploitation différent, d'une version différente de la dépendance, etc. Comment résoudre ce problème ? Eh bien, les conteneurs sont la solution à ce problème. Les conteneurs d'applications sont des unités de support qui contiennent le code et les dépendances de l'application , la configuration, le réseau et parfois même une partie du système d'exploitation. Essentiellement, tous les logiciels nécessaires à l' exécution de votre application sont placés dans un conteneur. Les conteneurs vous permettent d' exécuter vos applications sur n'importe quelle machine. Vous pouvez être assuré que s'il fonctionne dans un système, il fonctionnera dans tous les systèmes. Docker est la plateforme logicielle la plus utilisée qui permet à ses utilisateurs de créer des applications et des conteneurs Vous pouvez installer Docker sur votre machine et créer un conteneur pour n'importe quelle application Nous n'avons pas besoin de discuter de Docker en détail à ce stade. Passons à autre chose et comprenons ce qu'est l'ECS. Amazon ECS est un service d' orchestration de conteneurs entièrement géré qui facilite le déploiement, gestion et le dimensionnement des applications conteneurisées Cela signifie qu'ECS facilite l' utilisation et la gestion des conteneurs Docker Lorsque vous utilisez ECS, vous n'avez pas besoin d'installer, exploiter ou de dimensionner vos conteneurs. Ecs s'occupe de toutes ces tâches pour vous. S' intègre parfaitement au reste de la plateforme AW pour fournir une solution sécurisée et facile à utiliser pour exécuter des charges de travail de conteneurs dans le cloud Pour comprendre ECS, vous devez connaître certains termes fréquemment utilisés dans la définition des tâches ECS. La définition des tâches est un script Jason qui contient plusieurs paramètres pour exécuter votre application. En termes simples, la définition des tâches indique à ECS comment exécuter un conteneur. Par exemple, vous pouvez définir exactement la quantité de RAM et de processeur un conteneur aura besoin ou sur quel port EC votre application doit démarrer. Ecs veillera ensuite à ce que toutes vos exigences soient satisfaites lorsqu'ECS gère un conteneur. Selon la définition de votre tâche, il est connu sous le nom de rôle de tâche. Vos conteneurs peuvent exécuter plusieurs opérations sur AWS. Par exemple, un conteneur peut avoir besoin de lire des messages depuis un SQSQ ou d'interagir avec S three ou tout autre service AWS Par conséquent, vous devez autoriser l'exécution de vos tâches. Cela se fait en utilisant le rôle de tâche. Un rôle de tâche est un rôle AWS IAM défini dans la définition de la tâche Ce rôle est utilisé pour fournir à AWS un accès aux tâches ECS. Voyons maintenant à quoi tout cela ressemble dans ECS. Vous avez besoin d'un cluster ECS pour exécuter votre application conteneur. Ce cluster ECS est composé d'au moins deux instances EC two appelées instances de conteneur. Ensuite, nous avons des services qui s'étendent sur ces deux instances disponibles. C'est là qu'ECS crée une tâche ou un conteneur Docker. L'une des premières choses à faire lors de l'utilisation d' ECS est de fournir et de maintenir l'infrastructure. Ecs se charge ensuite de démarrer et d'arrêter les conteneurs pour vous. Vous pouvez le faire de deux manières en utilisant les types de lancement ECS qui sont du type de lancement lointain et du type de lancement EC deux. Dans le type de lancement C two, nous configurons et déployons des instances EC two dans votre cluster pour exécuter vos conteneurs. Ecs gère les conteneurs sur ces deux instances EC. Pour utiliser le type de lancement EC two dans ECS, vous devez créer des instances EC two manuellement ou utiliser des groupes de mise à l'échelle automatique Type de lancement cible, il s'agit d'une option de paiement à l' utilisation sans serveur. Vous pouvez exécuter des conteneurs sans avoir à gérer votre infrastructure. Nous pouvons utiliser le type de lancement Farget et oublier de créer EC two Nous indiquons à ECS le nombre de conteneurs à exécuter et la quantité de RAM et de processeur qu'un conteneur doit avoir. Ecs Farget veille à ce que nous disposions toujours de suffisamment de ressources pour lancer des conteneurs C'est tout pour cette séance. 42. Haricot élastique AWS: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons découvrir l'un des services informatiques d' AWS, Elastic Beanstock J'aborderai ce qu'est Elastic Beanstock, ses fonctionnalités et, surtout, ses applications . Commençons. Aws est un leader du cloud computing avec près de 200 services. C'est pourquoi il faut connaître la plupart des services. Pour déployer des applications sur AWS et les gérer efficacement. Vous devez d'abord connaître différents services AWS et savoir comment les utiliser de manière rentable. Cela convient lorsque vous avez plusieurs applications ou une seule grande application. Mais que se passe-t-il si vous n' avez qu'une application Web ? Passer des jours à apprendre à utiliser AWS uniquement pour déployer une application Web n' est pas une approche très efficace. Même après avoir appris AWS, vous devez vous efforcer de maintenir votre infrastructure sur AWS. En tant que développeur, vous ne devez pas vous soucier de l' évolutivité de l'infrastructure, configuration des connexions, des bases de données, etc. Vous souhaitez déployer et reposer rapidement des applications. C'est le problème qu' Elastic Beanstock résout avec AWS. Elastic Beanstock est un service facile à utiliser pour déployer et faire évoluer des applications Web Elle est également connue sous le nom de B. s' agit d'une plateforme en tant que service proposée par AWS. Pour utiliser Elastic Beanstock, vous créez une application, téléchargez une version de l'application sous la forme d'un bundle de sources d'application, par exemple un fichier Java dans Elastic Beanstock, puis vous fournissez des informations sur Elastic Beanstock lance automatiquement un environnement et crée et configure les ressources AWS nécessaires à l'exécution nécessaires à Une fois votre implication lancée, vous pouvez gérer votre environnement et déployer de nouvelles versions d'applications. Une fois que vous avez créé et déployé votre application, informations relatives à celle-ci, notamment les métriques, les événements et l'état de l'environnement, sont disponibles via l'API de la console Elastic Beanstock ou les interfaces de ligne de commande, y compris l'interface de ligne de commande AWS unifiée En tant que développeur, si vous utilisez EB, vous pouvez déployer des applications sans provisionner l'infrastructure sous-jacente Aws veillera à ce que votre infrastructure soit prête et hautement disponible. En interne, EB Re utilise tous les composants que nous avons vus auparavant tels que RDS, les équilibreurs de charge, EC Two pour exécuter des applications, mais vous pouvez utiliser EB sans aucune autre connaissance de ces composants internes Il s'agit d'un service gratuit en soi, mais vous payez pour l'infrastructure sous-jacente fournie en utilisant du haricot Voyons maintenant comment Elastic Beanstock fonctionne dans AWS Nous avons un compte AWS et un VPC en son sein. Ici, nous allons créer un environnement Beanstock élastique. Comme nous le savons, Beanstock créera toutes les infrastructures sous-jacentes telles que EC, deux instances, les équilibres de charge, les bases de données, le groupe de sécurité, etc. En tant que développeur, vous ne vous souciez que de votre code. Ils veulent s'assurer qu'ils passent leur temps à écrire du code de qualité, le tester et gérer toute l'infrastructure sous-jacente pour eux. Dans ce cas, nous avons un développeur qui possède un fichier war avec son code. Il n'est vraiment pas nécessaire que ce soit un fichier de guerre. Il peut également s'agir d'un code Zip ou Github. Il peut déployer ce fichier de guerre à l'aide la console de gestion EB ou de l'EVCLI Beanstock déploiera ensuite l'application et effectuera le reste de la configuration, comme l'équilibrage de charge élastique, le groupe Auto Scaling, les instances et même une base de données, c'est Désormais, Elastic Beanstock prend en charge le dimensionnement des applications, la mise à niveau du système d'exploitation , les correctifs , les métriques de journalisation , les métriques de En tant que développeur, vous pouvez vous concentrer sur les fonctionnalités de votre application et de votre entreprise. Examinons maintenant les fonctionnalités d' Elastic Beanstock. Il prend en charge différents langages de programmation tels que Java.net PHP, Node JS, Python, Ruby, Go et Docker Il s'intègre à Amazon VPC et lance des ressources AWS telles que des instances EC two dans le VPC Il s'intègre à la gestion des identités et des accès AWS et vous aide à contrôler en toute sécurité l'accès à vos ressources AWS. Vous pouvez également intégrer le cloud front. Cloudfront peut être utilisé pour distribuer le contenu dans S three après la création et le déploiement d'un haricot élastique Il prend en charge l'exécution d'instances RDS dans l'environnement Elastic Beanstock, idéal pour le développement Elastic Beanstock est un excellent choix pour déployer votre application sur le cloud AWS en quelques Vous n'avez pas besoin d' expérience ni de connaissances en matière de cloud computing pour démarrer avec Elastic Beanstock Vous créez des environnements d'applications EV et spécifiez certains paramètres, et vous avez terminé. C'est tout pour cette vidéo. 43. Informatique sans serveur: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons comprendre le concept de réduction des serveurs et pourquoi il est plus populaire dans le cloud computing. Commençons. Dans la plupart des services que nous avons vus jusqu'à présent, le processus de développement et de déploiement a été le même. Développez votre application, allouez l'infrastructure, puis déployez et exécutez l'application sur cette infrastructure allouée. C'est ainsi que cela devrait être. Vous avez toujours besoin d'un serveur sous-jacent pour exécuter le code de votre application. Il a toujours été nécessaire de fournir et d'entretenir notre infrastructure. C'est là que le serverless entre en jeu. Serverless a été le maître-mot. Dans le monde du cloud computing, de nombreuses applications suivent une architecture sans serveur Le terme vient de l'idée que l'infrastructure utilisée pour exécuter vos applications n'a plus besoin d'être provisionnée ou maintenue par vous ou votre équipe serveur peut également être source de confusion, car dans les architectures sans serveur, les serveurs existent Cela ne signifie pas que votre application ne possède aucun serveur sous-jacent. C'est juste qu'il n'y a pas lieu de s'inquiéter de la gestion du serveur. Si vous êtes un utilisateur final, il se peut qu'il n' existe pas car vous n' avez jamais à vous soucier des serveurs, où le terme sans serveur Mais il existe un serveur dont le provisionnement et la maintenance sont entièrement pris en charge par le fournisseur Si nous l'utilisons dans la terminologie d'AWS, vous n'avez plus besoin de créer une instance facile à utiliser, de configurer et de gérer un système d'exploitation pour votre application. Cela signifie que nous déléguons toutes les responsabilités liées à la gestion du serveur sous-jacent et que tout est pris en charge. Le serveur peut évoluer automatiquement et vous facturer en fonction de votre consommation. Les services sans serveur sont devenus extrêmement populaires auprès de nombreuses applications cloud modernes Examinons maintenant les avantages du mode sans serveur. Avec le mode sans serveur, il n'y a aucune instance à gérer. Vous n'avez pas besoin de provisionner de matériel. Il n'y a aucune gestion des systèmes d'exploitation ou des logiciels. Le provisionnement des capacités et l'application des correctifs sont tous gérés automatiquement pour vous Il peut également être très peu coûteux d'exécuter des services sans serveur. Vous n'êtes facturé que pour ce que vous utilisez. Le code ne s'exécute que lorsque le serveur a besoin de fonctions moins le serveur d'applications évolue automatiquement et de manière élastique Il intègre également une haute disponibilité. Il vous suffit de déployer le code en tant que développeur et il évolue automatiquement en fonction des besoins. Supposons qu'une fonction doive être exécutée dans plusieurs instances. Dans ce cas, les serveurs commenceront à fonctionner et s'arrêteront selon les besoins, souvent à l'aide de conteneurs. Par conséquent, une application sans serveur traitera un nombre anormalement élevé de demandes Mais dans une application structurée traditionnelle avec un espace serveur limité , elle est submergée par une augmentation soudaine de l'utilisation. C'est tout pour cette vidéo. 44. AWS Lambda: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons comprendre AWS Lambda. Commençons. Lambda est un service sans serveur qui vous permet d' exécuter du code sans provisionner ni gérer Contrairement à deux instances où notre application doit s'exécuter en continu, AWS Lambda nous permet d'écrire fonctions qui peuvent être exécutées à la demande Les fonctions Aws Lambda peuvent être déclenchées par des événements internes ou externes au compte AWS, et il n'est pas nécessaire qu'elles continuent de fonctionner Par exemple, vous pouvez écrire une fonction pour effectuer une tâche de traitement de fichier. Et il sera déclenché lorsque les données seront téléchargées dans le service S three. Chaque fois qu'un fichier est chargé sur S three, vous disposez désormais d'une fonction qui exécute et traite automatiquement ce fichier. Vous pouvez également avoir une fonction lambda qui extrait des valeurs d' une base de données pour votre application frontale Il existe plusieurs manières d' utiliser les fonctions lambda. Il peut être utilisé pour tout, de l'exécution de petites tâches individuelles au remplacement d'applications dorsales complètes. Notez également que fonctions AWS Lambda ne sont destinées qu'à de courtes exécutions Vous ne pouvez exécuter du code dans Lambda que pendant 15 minutes au maximum , ce qui est une durée raisonnable pour la plupart des cas d'utilisation Veuillez noter ici que cela change constamment. Je recommande de consulter la documentation AWS pour connaître les mises à jour récentes. Mais si vous avez un seul processus dont l'exécution prend plus de 15 minutes, vous devrez le déployer un serveur tel que des instances ou un conteneur EC two. Jetons un coup d'œil à d'autres fonctionnalités d'AWS Lambda. La première fonctionnalité arrive ici, la mise à l'échelle automatique. Lorsque nous utilisons des instances EC two, même si nous disposons d'un groupe de dimensionnement automatique pour faire évoluer notre infrastructure, nous devons toujours créer des politiques de dimensionnement manuellement Nous devons demander à AWS d'ajouter ou supprimer des instances en fonction des alarmes de surveillance du cloud. En comparaison, AWS Lambda peut évoluer automatiquement. Prenons le même exemple du traitement de fichiers Lambda qui s'exécute chaque fois qu'un fichier est téléchargé sur S three. Que se passe-t-il lorsque vous importez, disons, 500 fichiers ? Vous disposerez de 500 fonctions Lambda exécuter vos tâches de traitement de fichiers C'est la puissance du mode sans serveur. Vous n'avez pas à vous soucier de la mise à l'échelle de votre infrastructure. Aws garantit que vous disposez toujours de suffisamment de ressources pour exécuter votre code. Notez ici qu'AWS a une limite de quota de service de 1 000 Lambdas exécutant simultanément par région. Dans notre exemple, vous pouvez rencontrer des échecs Lambda lorsque vous téléchargez plus de 1 000 fichiers sur le S3. Cette limite a été fixée pour éviter toute utilisation abusive de votre compte et éviter tout frais indésirable. Si vos cas d'utilisation nécessitent l' exécution simultanée de plus de 1 000 fonctions Lambda, vous pouvez obtenir une augmentation de cette limite auprès du support AWS La fonctionnalité suivante est le prix par utilisateur. fonctionnalité suivante et la plus lucrative de Lambda est le paiement à l'utilisation. Cela signifie que vous payez pour le temps d'exécution de votre code. Aucuns frais ne sont facturés lorsque votre code n'est pas en cours d'exécution. Supposons que votre Lambda de traitement de fichiers s'exécute pendant 1 minute. Vous ne payez que le coût de calcul d'une minute. Si dix Lambdas fonctionnent pendant 1 minute, vous payez 10 minutes de temps de calcul, etc. La fonctionnalité suivante est Ram. Les fonctions Lambda peuvent obtenir des ressources allant jusqu'à plusieurs Go de RAM. Il est également important de noter que lorsque vous augmentez la RAM de votre fonction Lambda, votre processeur et les capacités réseau de Lambda s'améliorent également C'est un sujet d'examen tendance. Comment allez-vous augmenter le processeur et le réseau de Lambda ? La réponse est d' augmenter la RAM. La fonctionnalité suivante est l'intégration. Comme je l'ai déjà dit, AWS Lambda propose de nombreux cas d'utilisation et a été intégré à de nombreux services AWS Jetons un coup d'œil à certaines des principales intégrations et à leurs cas d'utilisation Le premier cas d'utilisation dans S trois, comme dans l'exemple que nous avons pris jusqu'à présent, vous pouvez exécuter un lambda sur différents types d' événements dans S trois. Le suivant est Dynamodb. Vous pouvez créer un déclencheur afin que Lambda se déclenche chaque fois qu'un événement se produit dans notre Dynamodb, qui est un La prochaine est la passerelle API. intégration de Lambda et de passerelle API est l'un des cas d'utilisation les plus utilisés de Lambda Api Gateway est un service AWS utilisé pour créer des API REST. Dans AWS, vous pouvez placer Lambda derrière une passerelle d'API et créer un point de terminaison d'API Rest pour appeler votre fonction Lambda Le suivant est SNS, vous pouvez avoir une fonction lambda qui réagit aux notifications dans une rubrique SNS Sns est également intégré à éventuellement toutes sortes d' événements dans la console AWS. Grâce à cette intégration, tous ces événements peuvent être utilisés pour déclencher des fonctions Lambda Le suivant est SQS. Lambda peut être utilisé pour traiter les messages dans SQS QS. Le dernier concerne les événements Cloud Watch. Vous pouvez également exécuter fonctions Lambda avec des événements Cloud Watch Voyons enfin quelques petits exemples de fonctions Lambda Comme vous pouvez le constater, notre application frontale s'exécute sur des instances EC two. Ensuite, nous avons une passerelle API qui appelle nos fonctions lambda pour le back-end Cette fonction lambda a également été intégrée RDS et récupère et stocke les données dans la base de données l'autre côté, nous avons l'application frontale, tâches vers les repères SQS, qui a été intégrée à un autre Lambda Pour le traitement des messages, vous pouvez créer un événement cloudwatch qui se déclenche à intervalles réguliers Comme vous pouvez déclencher Lambda à partir d'un événement Cloudwatch, vous pouvez avoir une fonction Lambda qui s'exécute régulièrement Il s'agit d'un cas d'utilisation populaire et d'une question d'examen sur la façon d'exécuter un Lambda pour exécuter une tâche basée sur des commandes La réponse réside dans les déclencheurs d' événements Cloudwatch. C'est tout pour cette séance. 45. Types de données: Bonjour, étudiants. Bon retour. Comme vous le savez, ce module est entièrement consacré aux bases de données. Mais avant d' entrer dans les bases de données, nous allons rapidement comprendre les données et leurs types. Nous choisissons une base de données appropriée en fonction de la nature de nos données. Il est donc très important de comprendre les données et leur type. Commençons par les types de sources de données. Il existe trois types de sources de données : structurées, non structurées et semi-structurées Comprenons d'abord les données structurées. Il s'agit de données dont les types de données sont prédéfinis et qui sont stockées dans un format spécifié. Découvrons le type de données prédéfini et le format spécifique à l'aide d'un exemple d'annuaire téléphonique. Dans ce tableau, vous pouvez voir que la ligne du haut porte des noms différents qui définissent type de données présent dans les différentes colonnes. Par exemple, le numéro de série représente le nombre d'ensembles de données dont nous disposons. La colonne du prénom contiendra le prénom de chaque entrée de nos données. agit d'un format si nous voulons ajouter d'autres informations personnelles à ces données, nous devrons créer une nouvelle colonne pour celles-ci. Supposons que vous souhaitiez également ajouter une adresse. Dans ce cas, vous devez ajouter un en-tête supplémentaire, nommé adresse. Vous êtes le seul à pouvoir ajouter des adresses à ces données. En gros, il s'agit d'un format spécifique. Voyons maintenant quels sont les types de données. Comme vous pouvez le constater, nous avons des chiffres dans les colonnes du numéro de série et du numéro de téléphone, et les colonnes du prénom et du nom de famille ont des correcteurs Conformément aux colonnes définies, vous devez saisir des chiffres dans les colonnes du numéro de série et du numéro de téléphone et des caractères dans la colonne prénom et nom de famille. Cela signifie qu'il est défini le type de données que nous pouvons saisir dans différentes colonnes. Les données de structure sont stockées sous la forme d'une série de valeurs de données dans des tables définies gérées par un moteur de base de données tel que my Esque. Ces données sont très structurées. C'est pourquoi il est très facile à analyser et peut être utilisé dans des requêtes très complexes. Le type de données suivant est celui des données non structurées. Les données non structurées ont une structure interne, mais ne contiennent pas de modèle de données prédéfini Prenons l'exemple d'une vidéo. Il s'agit également de données, mais leur mode de stockage est différent de celui des données structurées. Ce type de données prend généralement la forme de fichiers stockés dans un espace de stockage tel que Dropbox. Dropbox est comme une unité de stockage où vous pouvez stocker des fichiers texte, des photos, des vidéos, etc. Les données non structurées dans leur ensemble ne sont pas pertinentes messages texte, les documents, les vidéos, les photos et autres images sont des exemples de données non structurées documents, les vidéos, les photos et autres images sont des Ces fichiers ne sont pas organisés, ils ne peuvent être placés que dans un système de fichiers ou un magasin d'objets. Si vous souhaitez obtenir des informations pertinentes à partir de ces données, vous devez les traiter. Vous avez besoin d'outils spéciaux pour interroger et traiter les données non structurées Le dernier type de données est celui des données semi-structurées. Les données semi-structurées sont une forme de données structurées. La seule différence est que les données semi-structurées sont flexibles et peuvent être mises à jour sans modifier le schéma de chaque enregistrement d' Il s'agit d'un exemple de données semi-structurées. Comme vous pouvez le voir ici, il existe deux ensembles de données qui se ressemblent, n'est-ce pas ? Si vous remarquez que la deuxième donnée contient une adresse d'information supplémentaire. semi-structurées permettent à un utilisateur de capturer des données dans n'importe quelle structure à mesure que les données évoluent et Semi-temps, les données de structure sont stockées dans des fichiers Jason qui sont chargés dans un moteur de base de données tel que Mongo Devi Ces données sont très flexibles car la structure n'est pas stricte et peut être modifiée selon les besoins dans le tableau. Vous pouvez également analyser des données semi-structurées. C'est tout ce que je voulais aborder au cours de cette session. 46. Bases de données relationnelles: Bonjour étudiants. Bon retour. Dans la dernière vidéo, vous avez compris trois types de données : structurées, non structurées et semi-structurées La nature de ces données étant différente, elles seront stockées différemment. Dans cette vidéo, nous allons comprendre où et comment ces données seront stockées. À la fin de cette vidéo, vous saurez pourquoi nous stockons données structurées dans une base de données relationnelle Commençons par un exemple. Nous utilisons souvent une feuille ex Cel pour stocker des données, n'est-ce pas ? En effet, il est plus facile d'organiser et gérer les données dans Excel que dans n'importe quel autre outil. Ce type de données est connu sous le nom de données de structure. Nous en avons discuté lors de la dernière séance. Les feuilles Excel conviennent parfaitement aux données personnelles, mais si vous pensez aux grandes entreprises, monde est complètement différent. Ils traitent d'énormes quantités de données, ce qui est très difficile à stocker et à gérer. Lorsque les données augmentent, cela entraîne souvent également des incohérences et des redondances Supposons qu'une feuille de calcul stocke les données d'inscription aux cours des étudiants Maintenant, regardez l'étudiant de Sham Singh dont numéro d' étudiant 101 est enregistré plus d'une fois. C'est ce que l'on appelle la redondance des données. Un autre problème pourrait être que Samsung change de nom de famille. Dans ce cas, son nom de famille doit être changé partout dans nos données. Dans le cas contraire, cela pourrait entraîner des incohérences dans les données. Pour les petits systèmes de données, cela pourrait être plus facile à résoudre. Mais lorsque le système de données est énorme, il est difficile de gérer les données. Afin d'éviter ces problèmes, nous utilisons une technologie basée sur les données. Il s'agit d'un ensemble organisé de données qui peut être facilement accessible et géré. Supposons maintenant que vous souhaitiez envoyer un e-mail à Kishor. Ainsi, il existe une autre feuille contenant les détails des étudiants tels que le courrier électronique, identifiant, le numéro de téléphone, etc. Dès la première feuille, nous savons que Kiss travaille dans les ressources humaines, mais nous ne trouvons pas Kiss dans la fiche de renseignements sur les étudiants. Cela signifie que nos données ne sont pas cohérentes. Nous pouvons résoudre ce problème avec certaines règles, comme le fait qu'un étudiant ne peut pas s'inscrire au cours sans inscription. De cette façon, nous aurons toutes les feuilles remplies pour chaque étudiant. Le point ici est que les deux feuilles Excel ont une relation et suivent une certaine règle pour organiser les données. C'est ce que l'on appelle les données relationnelles, où le concept de base de données relationnelle Une base de données est un ensemble organisé de données connexes. Il s'agit d'une collection organisée car dans une base de données, tous les ensembles de données sont décrits et liés les uns aux Les données sont organisées en relations comme dans une base de données relationnelle Chaque table possède un ensemble qui définit la structure de données, schéma de données stocké dans la table. Un enregistrement est un ensemble de champs d'une table. Vous pouvez considérer les enregistrements comme des lignes ou tuples de la table et les champs comme des colonnes Dans cet exemple, vous avez une table de données sur les étudiants, chacune représentant un dossier étudiant et chaque colonne représentant un champ du dossier étudiant. Un champ spécial ou une combinaison de champs qui détermine l'enregistrement unique est appelé clé primaire. Par exemple, carte d'étudiant. Il est unique pour chaque élève. Cette clé est généralement le numéro d'identification unique des enregistrements. Il utilise une structure qui lui permet d'identifier et d'accéder aux données relatives à une autre donnée de la base de données. Comme vous pouvez le constater, chaque étudiant possède un identifiant unique qui permet retrouver le dossier du même étudiant dans l'inscription des étudiants. Comme vous le voyez, ces données ont une certaine structure, appelée schéma. bases de données relationnelles stockaient des données de structure, elles vous permettent de collecter rapidement des et des données interrogées à l'aide d'un modèle de données structuré L'utilisation de tables pour stocker les données en colonnes et en lignes facilite l' accès aux données et leur gestion. Aws propose une solution de base de données pour les bases de données relationnelles que nous aborderons dans l' introduction au module RDS. C'est tout pour cette séance. 47. Bases de données NoSQL: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons comprendre la base de données Nosql. Commençons par un bref aperçu de la vidéo précédente. Nous avons compris que les données d' une base de données relationnelle sont organisées de telle sorte que les valeurs d'une table peuvent définir ou modifier les valeurs d'une autre table En d'autres termes, il existe une relation entre les différentes tables de données. Prenons le même exemple d' une base de données relationnelle stockant les informations d'inscription aux cours des étudiants Un tableau contient des informations sur les étudiants et un autre définit le cours auquel les étudiants se sont inscrits dans une base de données relationnelle Vous pouvez exécuter une seule requête SQL qui renvoie un résultat indiquant tous les étudiants inscrits en comptabilité, même si les données se trouvent dans deux tables. C'est le super pouvoir des bases de données relationnelles. Parlons maintenant des bases de données non relationnelles. Ce type de base de données stocke les données différemment. En raison de la nature des données, nous stockons les données semi-structurées dans une base de données non relationnelle Prenons maintenant le même exemple de base de données d'inscription aux cours pour étudiants . Si vous devez stocker les données d'inscription aux cours des étudiants dans une base de données non relationnelle, toutes les informations d'un étudiant, y compris le cours associé, seront stockées dans un seul élément de la table de base de données Examinons maintenant en profondeur et comprenons comment les données sont stockées dans une base de données non relationnelle Supposons qu'après un an, le collège ait décidé d'ajouter la note standard 12 au tableau d'inscription des étudiants dans la base de données. Comment chaque type de base de données devrait-il changer ? Eh bien, dans le cas des bases de données relationnelles, vous devez mettre à jour le schéma pour ajouter les notes des étudiants Cela signifie l'ajout d'une nouvelle colonne pour la note. Une fois que vous aurez ajouté la nouvelle colonne, elle sera vide pour les données existantes, n'est-ce pas ? Ce qui peut poser problème. Parce qu'en règle générale, bases de données relationnelles nécessitent que vous saisissiez des valeurs dans chaque colonne si cela est défini pour prouver la validité de la base de données Vous devez créer un processus pour ajouter la note pour chaque enregistrement du tableau. Une fois ce processus terminé, vous commencerez à ajouter de nouveaux enregistrements pour la note. C'est bon. Des suppositions sur ce que vous devez faire dans une base de données non relationnelle Eh bien, pas besoin de deviner. Il vous suffit de créer de nouveaux objets. Avec les nouveaux attributs, vous pouvez revenir en arrière et consulter les enregistrements existants. Vous n'êtes pas obligé d'en faire quoi que ce soit. C'est l'un des avantages des non relationnelles par rapport aux bases de données relationnelles schémas non relationnels ne vous obligent pas à définir de nouveaux attributs de données avant de les utiliser Dans une base de données relationnelle, vous devez mettre à jour le schéma avant de pouvoir ajouter de nouveaux champs de données Lorsqu'il s'agit de stocker et de traiter des semi-structurées ou non structurées, le choix se porte souvent sur une base de données non relationnelle C'est tout pour cette leçon sur les bases de données non relationnelles. 48. Hébergement de base de données sur site vs Cloud: Bonjour, étudiants. Bon retour. Dans cette vidéo, vous découvrirez comment nous gérons les bases de données dans le scénario sur site, et quelles sont les différentes options de base de données dans le cloud AWS. Commençons par les bases de données sur site. Ils fonctionnent sur du matériel que votre organisation possède et gère. Ces systèmes sont gérés par une équipe d'administrateurs de base de données, les administrateurs données, qui sont responsables l'ensemble de la configuration et de l'utilisation de la base de données Dans le cas d'une installation sur site, l'entreprise déploie plusieurs serveurs et appareils réseau pour gérer la charge maximale du système Une fois qu'ils ont obtenu le serveur auprès de l'équipe d'infrastructure, ils installent le système d'exploitation et préparent un calendrier d'application des correctifs du système d'exploitation La prochaine étape est l'installation d'un logiciel de base de données. Encore une fois, ils doivent planifier et appliquer les correctifs de base de données. Une fois la base de données prête, elle peut être utilisée par l'application. Désormais, ces bases de données doivent être gérées, mises à jour, mises à niveau et optimisées au fil du temps. L'effort considérable suivant la sauvegarde des bases de données et la configuration de haute disponibilité pour les applications critiques de l'entreprise en cas de configuration haute disponibilité. Encore une fois, la base de données de votre équipe doit suivre les mêmes étapes pour votre équipe doit suivre les mêmes étapes pour un autre serveur de base de données qui servira de réserve pour les scénarios de basculement En outre, vous êtes désormais responsable de la mise à l'échelle de votre serveur de base de données. Et puis c'est beaucoup de travail. Maintenant, en ce qui concerne le cloud, deux options s'offrent à nous. La première est similaire à une base de données sur site dans laquelle vous louez une machine virtuelle dotée d'un réseau et un serveur géré et pris en charge par AW. Cependant, le reste sera géré par vous-même. Encore une fois, cela demande des efforts et une équipe de base de données pour s' occuper des correctifs du système d'exploitation, de l'installation et de l'application des correctifs du logiciel de base de données, de la sauvegarde de la base de données, de la mise à l'échelle de la haute disponibilité, etc. Le second est Amazon RDS. Amazon RDS est une base de données gérée par AWS dans laquelle vous pouvez obtenir la base de données prête à l'emploi en quelques clics, ce que nous aborderons dans la leçon suivante C'est tout pour cette séance. 49. Service de base de données relationnelle Amazon: Bonjour étudiants. Bon retour. Dans cette vidéo, vous découvrirez le service de base de données relationnelle Amazon, communément appelé Amazon Ardis Commençons. Jetons un coup d'œil à la présentation d'Amazon Ardis Il s'agit d'un service de base de données relationnelle qui dirige, configure, exploite et fait évoluer une base de données relationnelle dans le cloud Comme vous le savez, gérer une base de données dans une instance sur site ou facile à utiliser n'est pas une tâche facile. Amazon Ardis est conçu pour minimiser les efforts liés à la gestion des tâches liées aux bases de données relationnelles telles que le provisionnement du matériel, configuration des bases de données, l'application de correctifs aux sauvegardes, etc. Il vous suffit de sélectionner la base de données que vous souhaitez lancer et nous aurons une base de données prête en quelques clics. Comprenons à l' aide d'un exemple. Supposons que vous ayez une équipe de quatre personnes et que vous souhaitiez lancer une application qui sera soutenue par une base de données My SQL. Vous avez installé mon code SQL sur l'instance EC two. Comme nous savons que la mise en place de la sauvegarde et de l'application de correctifs de la base de données du système d'exploitation demande beaucoup de travail , il est probable que le travail de développement prenne du retard, ce qui pourrait retarder davantage le lancement de l'application car seules deux personnes peuvent se concentrer sur le développement Imaginez à nouveau le même exemple, mais cette fois avec Amazon RDS. RDS étant un service géré, AWS se chargera de toutes les tâches liées à la base de données pour vous Vos développeurs peuvent se concentrer sur le développement d'applications. Rds a été conçu pour vous aider à réduire les coûts de gestion de base de données Il s'agit d'un service géré qui automatise le provisionnement des bases de données Aws s'occupera de la mise à jour du système d'exploitation. Vous disposerez de sauvegardes continues et d'options de restauration avec une restauration ponctuelle. Vous disposerez également de tableaux de bord de surveillance pour voir si notre base de données fonctionne bien Vous pouvez redimensionner les lectures en créant une réplique du Rid et en améliorant les performances du Rid. Vous aurez un moyen de configurer des zones de disponibilité multiples pour vous assurer que votre application dispose d'un plan reprise après sinistre au cas où une zone de disponibilité complète tomberait en panne. Enfin, vous pouvez également configurer des fenêtres de maintenance pour les mises à niveau et effectuer une mise à l'échelle verticale ou horizontale. La seule chose que nous ne pouvons pas faire avec une base de données RDS c'est que nous ne pouvons pas accéder par SSH à votre instance de base de données RDS. Examinons maintenant certaines fonctionnalités et certains éléments d'Amazon RDS. Jetons un coup d'œil à la première disponibilité du RDS. Amazon Adis offre une disponibilité et durabilité accrues grâce à l'utilisation de déploiements Jones à disponibilité multiple Cela signifie qu' Amazon Dias crée plusieurs instances de la base de données dans différentes zones de capacité En cas de défaillance de l'infrastructure, Amazon Adis passe automatiquement en mode veille dans les autres zones de disponibilité Les opérations de base de données reprendront dès que le basculement sera terminé Amazon Dias utilisant un service DNS pour identifier la nouvelle instance principale, pas nécessaire de mettre à jour terminaison de connexion à la base de données C'est une très bonne fonctionnalité. Le second est le type d'instance Dias. Lorsque vous créez votre première base de données Amazon Dias, vous devez prendre quelques décisions clés abord, vous devez choisir le type d'instance de base de données, qui détermine les ressources de votre base de données telles que le processeur et la mémoire. C'est un peu similaire au type d'instance AW, EC two. Le suivant est le moteur de base de données Dias. Vient ensuite le type de moteur de base de données que vous souhaitez exécuter. Vous pouvez choisir entre Postgresql, SQL, Maria DB, Oracle Database, Quel server et Amazon Aurora Amazon Aurora est une base de données relationnelle compatible avec MyEsqul et Post GrayQUL une base de données relationnelle compatible avec MyEsqul et Post GrayQUL conçue pour le cloud. La base de données est conçue et développée par AWS pour fournir des performances de base de données de niveau professionnel. Chaque moteur de base de données possède ses propres caractéristiques et fonctionnalités que vous pouvez sélectionner fonction des exigences de votre application et de votre entreprise. Maintenant, jetez un coup d'œil à la réduction des prix. Désormais, l'un des principaux avantages d' Amazon Ardis est que vous payez au fur et à Le processus de facturation d'Amazon Ardis comprend deux parties : le coût de l'instance La première chose que vous payez est l'instance qui héberge les bases de données. Il existe deux modèles de tarification : le modèle à la demande et le modèle réservé à la demande. La tarification des instances vous permet de payer la capacité de calcul sur une base horaire. C'est le cas lorsque votre base de données s'exécute par intermittence ou est un peu imprévisible La tarification des instances réservées est idéale lorsque vous avez une bonne idée de la consommation de ressources de votre base de données. Avec ce type d'instance, vous pouvez obtenir une durée d'un ou trois ans et bénéficier d'une réduction significative par rapport à la tarification à la demande. Examinons maintenant le coût du stockage. Ensuite, le fait que vous payez pour le stockage et la consommation par le stockage de votre base de données sont facturés au gigaoctet et par mois. By est facturé par million de demandes. J'espère que vous avez une bonne connaissance d'Amazon Dis. Regardez à nouveau la vidéo. Si vous avez le moindre doute, c'est tout pour cette vidéo. 50. Amazon DynamoDB: Bonjour, étudiants. Bon retour. Au cours de cette session, nous allons comprendre la base de données AWS NOSQL proposant Dynamo DV. Commençons. Jetons un coup d'œil à la présentation de Dynamo DV Il s'agit d'un service de base de données Nosql entièrement géré qui fournit des performances rapides et prévisibles avec une évolutivité sans faille Dynamo DB est l'une des meilleures options pour stocker les données de structure des semis NOSQL Comme il s'agit d'une base de données entièrement gérée, vous n'avez pas à vous occuper du provisionnement matériel, de la configuration, de la réplication, des correctifs logiciels ou de la mise à l'échelle du cluster lorsque vous utilisez Dynamo DB Un autre avantage de Dynamo DB est qu' il propose le chiffrement au repos Cela élimine la charge opérationnelle et la complexité liées à la gestion des cryptages. Des cris pour protéger les données sensibles. Si cela n'a pas de sens, ne vous inquiétez pas, souvenez-vous simplement qu'il supporte le cryptage par défaut. J'aborderai le chiffrement en détail dans le module de gestion AWS. Nous créons une table de base de données dans Dynamo DB pour stocker et récupérer nos données Il est important de comprendre ici, laissez-moi simplifier les choses. Lorsque vous créez une instance Amazon RDS, vous créez une base de données à l'intérieur de celle-ci, puis vous créez une table dans la base Mais dans le cas de Dynamodb, vous créez la table directement dans Lorsque vous accédez au tableau de bord Dynamodb, vous créez un Une table Dynamodb peut être redimensionnée horizontalement. Il distribue les données sur différents serveurs principaux afin que vous puissiez évoluer chaque fois que cela est nécessaire et obtenir d'excellentes performances Voyons maintenant comment nous stockons les données dans Dynamodb. Une table Dynamo DB est composée de trois composants différents Tableaux, éléments et attributs. Tout d'abord, vous avez la table elle-même, et c'est là que toutes vos données sont stockées dans la table. Une table est un ensemble d'objets. Chaque élément est un ensemble d'attributs. Les éléments sont comme des lignes dans une base de données relationnelle. Par exemple, l'étudiant dont le numéro d' étudiant est 101 est un objet. Chaque élément est associé à une série d' attributs. Ce sont les données que nous voyons dans ces champs ici, telles que le nom de famille, prénom et l'e-mail. Dynamo DB utilise des clés primaires pour identifier de manière unique les éléments d'une table, et des index secondaires pour offrir une plus grande flexibilité aux requêtes Vous pouvez utiliser les flux Dynamo DB pour capturer événements de modification de données dans les tables Dynamodb performances des tables Dynamodb sont basées sur la capacité de débit Vous pouvez augmenter ou diminuer la capacité de débit de vos tables sans interruption ni dégradation des performances Vous pouvez utiliser la console de gestion AWS pour surveiller l'utilisation des ressources et les indicateurs de performance. Dynamo DB fournit la fonctionnalité de sauvegarde à la demande qui vous permet de créer des sauvegardes complètes de vos tables à des fins conservation et d' archivage à long terme pour répondre aux exigences de conformité réglementaire Vous pouvez également créer des sauvegardes à la demande et activer restauration ponctuelle pour votre table Amazon Dynamodb Point in Time Recovery permet de protéger vos tables contre les droits accidentels ou les opérations de suppression. Avec Point In Time Recovery, vous pouvez restaurer une table à n'importe quel moment au cours des 35 derniers jours. Il vous permet également de supprimer automatiquement les éléments expirés des tables afin réduire l'utilisation du stockage et le coût du stockage des données qui ne sont plus pertinentes. Examinons maintenant quelques cas d'utilisation de Dynamodb. Grâce à son modèle de données flexible et à ses performances fiables, il convient parfaitement aux applications mobiles, aux applications Web, aux applications de jeu, aux applications technologiques et aux applications IoT. Vous pouvez également utiliser Dynamodb pour d'autres applications. Étudiants, j'espère que vous comprenez maintenant les fonctionnalités et les applications d' Amazon Dynamodb 51. Créer une instance RDS: Bonjour, étudiants. Bon retour. Au cours de cette session, nous allons créer une instance RDS. Nous verrons quelles autres ressources et configurations sont nécessaires pour lancer une instance SQL RDS Passons maintenant à la console AWS. Tapez RDS dans la barre de recherche. Cliquez sur l'option RDS pour accéder tableau de bord RDS. La première chose à faire lors de la création d' instances RDS est de créer un groupe de soumission Un groupe de sous-réseaux est simplement un regroupement logique de sous-réseaux dans lequel vous approvisionnez l'instance Dias Passons à la page des groupes de sous-réseaux en cliquant ici. Comme vous pouvez le constater, je n'ai aucun groupe de sous-réseaux dans mon compte. Cliquez sur Créer un groupe de sous-réseaux attribuer un nom au groupe de sous-réseaux Vous devrez ajouter une description ici car il s'agit d'un champ obligatoire. Je vais ajouter Submit Group pour ma base de données SQL. Ensuite, sélectionnez BPC. Je n'en ai qu'un et je vais choisir celui-ci. Ici, vous devez sélectionner la zone de disponibilité. Sélectionnez les zones de disponibilité dans lesquelles vous souhaitez que les instances Ardis soient déployées Pour moi, je n'ai que des soumissions dans P one et P South One B. Si vous avez des soumissions dans l' autre zone de disponibilité, vous pouvez également sélectionner AP South One. Ensuite, nous sélectionnons les sous-réseaux dans ces zones de disponibilité. Comme vous pouvez le constater, j' ai une soumission publique et une soumission privée dans chacune des zones de disponibilité. Généralement, pour créer des instances RDS dans des soumissions privées, sélectionnez les sous-réseaux privés Ici, les instances RDS sont généralement créées dans des sous-réseaux privés et accessibles depuis les VPC Dans les applications de production, vous ne souhaitez pas que vos bases de données soient accessibles via Internet. Cliquez maintenant sur Créer. Comme vous pouvez le constater, nous avons créé avec succès un groupe de sous-réseaux pour notre base de données Créons maintenant la base de données RDS. Cliquez sur les bases de données. Pour le moment, je n'ai aucune base de données RDS sur mon compte Avant de passer au bouton Créer une base de données ici, si vous voyez à côté de ce bouton, nous avons une restauration à partir du bouton S 3. Lorsque nous effectuons des sauvegardes de nos bases de données RDS, elles sont restaurées dans AWS S3. En cliquant sur ce bouton ici, nous pouvons créer une nouvelle instance à partir de l'une de nos sauvegardes dans S3. Pour revenir à la création de la base de données, cliquez sur Créer une base de données. La première option que vous pouvez voir est Standard Create ou As Create. Si vous choisissez l'option As Create, AWS utilisera certaines valeurs par défaut pour créer votre base de données. Laissez-nous y jeter un œil. J'ai sélectionné As Create. Maintenant, les seules options que j'ai sont les types de base de données et d' autres options. Ici, si nous faisons défiler la page vers le bas et ouvrons la liste déroulante, les paramètres par défaut pour As Create, nous pouvons voir qu'AWS a codé en dur certaines valeurs pour nous. Je ne veux pas créer notre B comme ça. Revenons à la création standard et choisissons nous-mêmes les paramètres. Cliquez sur Standard Create. En haut, choisissez le type My SQL Engine. Ensuite, nous avons la possibilité de choisir la version My SQL. Je vais choisir la dernière version disponible pour moi en ce moment, qui est ma 8.0 0.28. La prochaine option nous avons est de choisir le modèle selon notre cas d'utilisation Si vous choisissez la production ici, AWS choisira certaines options par défaut pour nous. Pour des raisons de simplicité, par exemple lorsque j'ai sélectionné un modèle de production et que je fais défiler la page vers le bas jusqu'à disponibilité et durabilité, vous pouvez voir que l' option par défaut sélectionnée pour moi est de créer une instance de secours. Maintenant, lorsque je change le modèle en Dave et que je fais défiler à nouveau la page vers le bas, vous remarquerez que la valeur par défaut choisie pour moi n'est pas de créer une base de données de secours. La sélection d'un modèle définira simplement certaines valeurs par défaut pour nous. Restons-en au pneu gratuit et sélectionnons le modèle de pneu gratuit. L'option suivante est l'identifiant de base de données. Il s'agit du nom de notre instance de base de données. Notez ici qu'il ne s'agit pas du nom de la base de données mais du nom de l'instance RDS Permettez-moi de le remplacer par le cloud advisory, ma base de données SQL. Ensuite, nous devons créer le nom d'utilisateur et le mot de passe principaux pour l'instance RDS. En changeant le nom d'utilisateur en RDS master, je vais taper mon mot de passe ici Nous pouvons faire en sorte qu'AWS génère automatiquement le mot de passe pour ce nom d'utilisateur ici Pour l'instant, permettez-moi d'ajouter mon propre mot de passe. L'option suivante consiste à sélectionner la classe d'instance pour notre base de données. Comme nous avons sélectionné le modèle de pneu gratuit, nous ne pouvons pas modifier les types d' instances ici. Comme vous pouvez le constater, nous n'avons qu' une seule option, le micro à deux points. Si nous sélectionnons les modèles Dave ou Prod, nous obtiendrons toutes les options d' instance ici Ensuite, nous devons sélectionner le type de stockage pour notre instance RDS. L'option actuelle que nous avons est le SSD GP two à usage général. Nous pouvons remplacer cette valeur par I 01 pour les charges de travail plus complexes. Passons maintenant au type de SSD GP two. Nous pouvons également activer le dimensionnement automatique pour notre stockage RDS. Si cette case est cochée, nous pouvons ajouter le stockage maximum Nous voulons que notre instance RDS augmente jusqu'à ce que la valeur par défaut de ce champ soit de 1 000 ZB Si l'espace de stockage de ma base de données est plein, AWS le redimensionnera automatiquement jusqu'à 1 000 Go. L'option suivante est la disponibilité et la durabilité. Nous avons vu précédemment que nous avions cette option lorsque nous avions sélectionné le Dave et les modèles de production. Toutefois, cette option n'est pas prise en charge dans Free Tire. Ensuite, nous avons la possibilité de sélectionner la connectivité pour notre instance RDS. Nous pouvons sélectionner le VPC dans lequel nous avons créé notre groupe de sous-réseaux, puis sélectionner le groupe de soumission Dans l'option suivante, nous avons l'option suivante. Si nous voulons que notre instance RDS soit accessible en dehors du VPC Aws nous offre ici une autre option pour ne pas autoriser l'accès public à notre base de données. Ensuite, nous devons spécifier le groupe de sécurité pour notre RDS. Choisissons de créer un nouveau SG. Donnez-lui le nom RDS, my SQL SG. Nous pouvons voir le port par défaut de ma base de données SQL ici. Laissons les choses telles quelles. L'option suivante est l'authentification de base de données. Trois options s'offrent à nous. Nous allons choisir l'authentification par mot de passe. Si vous souhaitez renforcer la sécurité et le contrôle de l'accès RDS, vous pouvez choisir les autres options ici Voyons également les options supplémentaires pour RDS en cliquant sur ce menu déroulant ici. La première option est le nom de la base de données. Si vous vous souvenez plus tôt, nous avions la possibilité d'ajouter l'identifiant de base de données qui était le nom de l'instance de base de données RDS Ici, nous pouvons demander à AWS de créer une base de données telle que les utilisateurs, les employés, etc., dans le cloud, ma base de données SQL Si nous laissons cette valeur vide, AWS ne créera pas de base de données pour nous. Et nous devrons le faire en utilisant mes commandes SQL lorsque nous nous connecterons à cette instance. Laissez-nous créer une base de données utilisateur. Pour notre exemple, je laisse les autres valeurs par défaut. Ensuite, nous avons l'option de sauvegarde automatique. Nous pouvons choisir ici la fréquence à laquelle nous voulons effectuer des sauvegardes de notre base de données et même spécifier la fenêtre temporelle pour la sauvegarde. L'option suivante est la surveillance améliorée. C'est une question courante dans les examens AW. La différence entre la surveillance Cloudwatch normale et la surveillance améliorée réside dans le fait que dans le cas d' une surveillance normale, RDS collecte les métriques auprès de l'hyperviseur Pour une instance de base de données, surveillance améliorée collecte ses métriques auprès d'un agent présent sur l'instance Si vous souhaitez obtenir des statistiques au niveau du système d'exploitation, vous devez activer surveillance améliorée pour notre cas d'utilisation, nous ne sélectionnerons pas l'option de surveillance améliorée. Nous pouvons maintenant choisir les exportations du journal. Vous pouvez demander à AWS d'envoyer des journaux aux journaux de Cloud Watch en sélectionnant les options. Ici, nous avons l' option suivante pour autoriser WS à effectuer des mises à niveau de versions mineures sur notre base de données et à sélectionner les fenêtres temporelles pour ces mises à niveau. Laissons ces valeurs par défaut. La dernière option que nous avons est d'activer la protection contre la suppression. L'option simple ne nous permettra pas de supprimer notre instance RDS. Cliquez sur Créer une base de données. Maintenant, sur la page de base de données, nous pouvons voir la création de notre base de données My SQL. Permettez-moi de sauter la vidéo jusqu'à ce que cette instance soit créée. Comme vous pouvez le voir, mon instance RDS est maintenant créée. Cliquons maintenant sur l'instance voir les détails de la connexion. Dans l'onglet Connectivité et sécurité, vous pouvez voir le point de terminaison et le port de cette instance RDS Ces valeurs seront nécessaires pour accéder à l'instance RDS. Nous arrivons ainsi à la fin de la session. Nous avons examiné tous les paramètres dont nous disposions lors la création des groupes de sous-réseaux et des bases de données RDS Nous avons créé notre propre base de données RDS. C'est tout pour cette séance. Je vous verrai lors de la prochaine leçon. 52. Amazon Elasticache: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons découvrir l'un des principaux services AWS, Amazon Elastic Cache. Commençons par les MS de base impliqués dans Elastic Cache. La mise en cache des services est la technique stocker des données dans un cache Il vous permet de réutiliser des données précédemment récupérées. La future demande de données Dat est traitée plus rapidement au lieu d'être récupérée depuis l'emplacement principal Maintenant, vous devez vous demander ce qu'est un cache. Un cache est un emplacement de stockage réservé qui collecte des données temporaires. Il peut s'agir de la mémoire de l'ordinateur ou de votre application elle-même. Un exemple simple sera le stockage de documents sur un ordinateur de bureau. Le plus souvent, nous conservons une copie du document fréquemment consulté sur le bureau. Nous n'avons pas besoin de nous rendre à l'emplacement du document à chaque fois. Un autre bon exemple sera un signet. Ajoutez à vos favoris les liens que nous utilisons le plus souvent. Il n'est pas nécessaire de chercher à chaque fois. Voyons maintenant ce qu'est le cache élastique. Elastic Cache est une solution de mise en cache de base de données en mémoire entièrement gérée d'AWS Il prend en charge une variété de cas d'utilisation personnalisables et en temps réel. Le cache élastique convient à la mise en cache, ce qui améliore les performances des applications et des bases Nous l'avons placé devant d'autres bases de données, peut-être devant RDS ou devant Dynamo DB. Il peut également être utilisé comme magasin de données principal pour des cas d' utilisation tels que les boutiques CSN, les jeux, les classements, streaming et les analyses qui ne nécessitent pas de durabilité. cache élastique est l' implémentation des moteurs de base de données open source connus sous le nom de Dies et Memcached Examinons maintenant quelques cas d'utilisation d'Elastic Cache. Elle accélère les performances des applications. Comme je l'ai mentionné, Elastic Cache fonctionne comme un stockage de données en mémoire et un cache pour prendre charge les applications les plus exigeantes nécessitant des temps de réponse inférieurs à la milliseconde Le cas d'utilisation suivant est qu'il s'agit chargement de la base de données principale indépendamment de l'application. Cela permet également de réduire la charge sur la base de données. Une fois que vous aurez mis en cache les données d' accès fréquent dans Elastic Cache, cela réduira considérablement appels de base de données et réduira la pression sur votre base de données principale. Ensuite, il crée des magasins de données à faible latence. Il s'agit d'une excellente solution pour une base de données à faible latence lorsque vous souhaitez stocker ensembles de données non durables en mémoire et prendre en charge des applications en temps réel avec une latence de l'ordre de la microseconde Voyons maintenant comment fonctionne Elastic Cache. Vous avez configuré et installé une application sur EC pour créer une instance dans votre compte AWS. Cette application utilise la base de données RDS pour stocker les données du backend. L'application va maintenant écrire des données sur RDS. L'application peut également lire base de données sur la base de données RDS. Que peux-tu faire maintenant ? Placez Elastic Cache entre l'application et RDS et stockez la session, ou accédez fréquemment aux données sur Elastic Cache Ces données sont ensuite chargées dans Elastic Cache. Cela signifie que la prochaine fois que l'application besoin de lire les données de la base de données, elle obtiendra ici ce que l' on appelle un cache. Cela signifie qu'il se trouve dans la base de données et qu'il sera récupéré beaucoup plus rapidement que celui provenant de RDS. C'est tout pour cette séance. 53. Amazon Redshift: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons comprendre ce qu' est un entrepôt de données et pourquoi nous en avons besoin. Service d'entrepôt de données AWS, Red Shift. Commençons. Vous avez probablement entendu parler des entrepôts de données, mais vous ne savez pas exactement de quoi il s'agit. Laisse-moi t'expliquer. Comme son nom l'indique, il s'agit d'un entrepôt de données. Il vous permet de stocker grandes quantités de données provenant de sources multiples. Cela peut provenir de fichiers journaux d' applications, de systèmes transactionnels, de bases de données relationnelles, de marketing, de ventes, de finances, d'applications destinées aux clients, systèmes de partenaires externes et d'autres sources En fait, un entrepôt de données est un vaste ensemble de données commerciales utilisées pour aider les organisations à prendre des décisions. Vous devez maintenant vous demander comment ces données aideront-elles à prendre une décision commerciale ? L'objectif de chaque entreprise est de prendre de meilleures décisions commerciales que ses concurrents, n'est-ce pas ? Comment prendre une meilleure décision ? Soit cela vient de l'expérience, soit vous pouvez faire quelques calculs mathématiques. Accepte de faire des mathématiques, tu as besoin de données. Lorsqu'il s'agit de grandes entreprises et organisations, elles utilisent des outils de business intelligence. Les outils B I analysent les données et génèrent le rapport. De nos jours, la plupart des utilisateurs professionnels s'appuient sur des rapports, des tableaux de bord et des outils d'analyse pour extraire des informations de leurs données Les entrepôts de données alimentent ces tableaux de rapports et outils d'analyse en stockant les données de manière efficace. L'entrepôt de données n'est pas un nouveau concept et il existe depuis les années 90 ou 80, mais il n'est pas utilisé en raison du coût énorme du stockage des données sur site. Le cloud computing révolutionne cela car le stockage des données dans le cloud est facile et peu coûteux C'est là qu'AWS propose un service appelé Amazon Redshift. Qu'est-ce qu'Amazon Redshift ? Amazon Redshift est une offre d'entrepôt de données rapide et entièrement gérée à l'échelle du pétaoctet et entièrement gérée à l'échelle du pétaoctet proposée par Ses pétaoctets lui permettent de répondre aux besoins d'évolutivité de la plupart des entreprises Il n'est pas limité à des téraoctets, mais à 1 000 multiples de Ce niveau d' évolutivité est difficile à atteindre avec une mise en œuvre sur site Il s'agit d'un service simple et rentable permettant d' analyser efficacement les données à analyser efficacement les données l'aide d'outils de business intelligence. Il s'agit d'un entrepôt de données basé sur SQL dont le principal cas d'utilisation concerne les charges de travail Analytics Redshift utilise deux instances en C. Vous devez choisir un type d' instance et une famille. Il est payé au fur à mesure en fonction des instances que vous avez mises en service. Redshift conservera toujours des copies gratuites de vos données et fournira des sauvegardes continues et incrémentielles Chaque fois que vous constaterez que la base de données doit être un entrepôt et que vous pouvez effectuer des analyses dessus, Redshift sera la solution C'est tout pour cette leçon. 54. Autoscalage: Bonjour, étudiants. Bon retour. Dans cette vidéo, vous allez découvrir ce qu'est le dimensionnement automatique. Qu'est-ce que le dimensionnement automatique dans AWS ? Et quels sont les avantages de l' utilisation des services de mise à l'échelle ? Mais avant de commencer, voyons comment fonctionne la mise à l'échelle dans un centre de données traditionnel. Eh bien, la mise à l'échelle est réactive et manuelle. Dans les centres de données traditionnels, mise à l'échelle réactive signifie que les serveurs sont montés et descendus manuellement en fonction de l' évolution de la charge de travail. Cela signifie que lorsque la charge de travail augmente, nous ajoutons de nouveaux serveurs, et lorsque la charge de travail diminue, nous les supprimons. Comprenons cela à l' aide d'un exemple. Supposons que les utilisateurs de l'application accèdent à des serveurs d'applications. Comme le nombre d'utilisateurs de cette application augmentera au fil du temps, la charge sur le serveur augmentera également si le nombre d'utilisateurs continue d'augmenter. À un moment donné, votre serveur atteindra sa pleine capacité et il n'y aura pas assez de mémoire et de processeur pour servir les nouveaux utilisateurs. L'administrateur de l'application doit surveiller la capacité du serveur. Il peut le surveiller manuellement ou à l' aide de n'importe quel outil. Lorsqu'il constate que le serveur d'applications a atteint sa pleine capacité, il ajoute un nouveau serveur et configure l'application sur le nouveau serveur. Encore une fois, ce processus peut prendre un certain temps en fonction de la disponibilité des serveurs ou de la disponibilité des serveurs. Les ingénieurs ajoutent le serveur. Parfois, la mise à l'échelle implique l'achat de nouveaux serveurs. Pour ce faire, vous devrez obtenir l'approbation de la direction. L'arrivée des serveurs peut prendre plusieurs mois . Comme vous pouvez le constater, ce processus prend du temps et n'est pas durable. Un autre problème lié à ce processus est qu'une fois la charge du serveur diminuée, vous devrez supprimer le serveur supplémentaire, sinon il sera inactif. Le cloud computing résout tous ces problèmes car il est beaucoup plus facile d' ajouter et de supprimer des ressources de calcul en fonction de la charge de l'application. Maintenant, la principale question est : comment cela se passera-t-il automatiquement ? Eh bien, cela se fait grâce à la mise à l'échelle automatique. Il s'agit d'une fonctionnalité du cloud computing qui ajoute et supprime automatiquement des ressources informatiques en fonction des utilisations et de la demande réelles. Cette fonctionnalité n'est disponible que dans un environnement cloud. La mise à l'échelle automatique apporte flexibilité et élasticité à vos demandes de calcul Par conséquent, on l'appelle aussi parfois élasticité. L'élasticité signifie l' ajout ou la suppression ressources informatiques en fonction des utilisations et de la demande. Si la demande augmente, elle augmentera le nombre de ressources, et si elle diminue, elle supprimera des ressources. La mise à l'échelle automatique garantit une augmentation continue des ressources lorsque la demande augmente et une diminution continue lorsque la demande Par conséquent, il garantit performances applicatives cohérentes à moindre coût. La mise à l'échelle automatique est si efficace qu'elle n'ajoute des ressources que lorsque la demande augmente, et les supprime immédiatement en cas de baisse. Encore une fois, vous n'avez pas besoin de continuer à utiliser des ressources supplémentaires en permanence pour répondre à la demande aux heures de pointe. L'autoscaling est un terme général utilisé dans le cloud computing. Voyons maintenant ce qu'est l'autoscaling dans AWS. Aws. Autoscaling est un service qui surveille votre application et ajuste automatiquement sa capacité afin de maintenir des performances applicatives stables et prévisibles au moindre coût L'essentiel est qu'il surveille votre application et, en fonction des besoins, qu'il ajoute ou supprime de la capacité supplémentaire afin maintenir les performances de l'application au moindre coût possible. Comment surveille-t-il exactement votre application ? Aws Auto Scaling utilise un service AWS appelé Cloudwatch pour surveiller la demande des applications Et il déclenche des alarmes pour augmenter ou diminuer les ressources en fonction des besoins de votre application. Nous aborderons Cloudwatch en détail dans le prochain module Pour l'instant, Cloudwatch est un service de surveillance. Et il surveille les indicateurs des applications tels que l'utilisation du processeur , le réseau de mémoire, etc. Vous pouvez définir une valeur de seuil et le service déclenchera une alarme lorsqu'il atteindra ce seuil. Par exemple, si l'utilisation du processeur dépasse 80 %, il ajoutera un serveur et le supprimera. S'il est inférieur à 30 %, Auto Scaling utilise Cloud Watch pour surveiller l'application et, en fonction des besoins, elle supprime ou supprime des serveurs pour répondre à la demande. Examinons maintenant certains avantages d'AWS Auto Scaling. Avec l'aide du groupe AWS Auto Scaling, nous pouvons automatiser l' ajout et la suppression instances EC two pour répondre à la demande réelle. Il s'agit de l'une des plus importantes réussites du cloud. Comme je l'ai mentionné précédemment, cela permet d'ajouter et de supprimer des ressources avec agilité pour répondre à la demande des clients. Il supprime ainsi tout le travail réactif centres de données traditionnels. L'optimisation des coûts constitue un autre avantage non négligeable. Il s'agit là encore d'une grande victoire dans le cloud. Vous n'avez pas besoin de ressources supplémentaires pour répondre à la demande de pointe. Cela garantira que vous ne payez que ce qui est nécessaire pour servir votre client. Vous n'avez plus besoin de payer pour les ressources non utilisées. Le dernier et le plus important concerne les performances des applications. Parce qu'elle vous permet d'ajouter et de supprimer des ressources pour répondre à la demande, l'application fonctionne toujours mieux. Votre client ne sera confronté à aucune latence ni lenteur dans l'application C'est tout pour cette séance. 55. Groupe de mise à l'échelle automatique EC2: Bonjour étudiants. Bon retour. Nous allons continuer avec la mise à l'échelle automatique dans cette vidéo et comprendre les éléments du groupe de mise à l'échelle automatique EC Two Commençons. Jusqu'à présent, vous avez compris que l'autoscaling ajoute et supprime des instances EC deux Voyons maintenant comment cela fonctionne. Vous devez créer un groupe de dimensionnement automatique qui redimensionnera deux instances Amazon C. C'est là que l'autoscaling ajoute et supprime des instances EC two Cela signifie que le groupe de mise à l'échelle automatique EC two garantit que vous disposez suffisamment d'instances Amazon C two pour gérer la charge de votre application Cela se fait avec la configuration du groupe C Two Autoscaling. Il existe trois configurations : taille minimale, capacité souhaitée et taille maximale. Sur la base de ces configurations, l'autoscaling ajustera le nombre d' instances dans les limites du nombre minimum et maximum d'instances EC deux La configuration de capacité souhaitée déterminera la taille d' un groupe de mise à l'échelle automatique. Par définition, un groupe de dimensionnement automatique est un ensemble de deux instances Amazon C regroupées manière logique pour un dimensionnement et une gestion automatiques C'est assez clair, c'est ce dont nous avons discuté jusqu' à présent. Un groupe de dimensionnement automatique vous permet également d'utiliser deux fonctionnalités de dimensionnement automatique d' Amazon EC, telles que remplacement des bilans de santé et les politiques de dimensionnement Il maintient le nombre d'instances en effectuant des contrôles de santé périodiques sur les instances. Si une instance devient défectueuse, le groupe de mise à l'échelle automatique met fin l'instance défectueuse et lance une autre instance pour la remplacer Une autre politique de mise à l'échelle des fonctionnalités que j'aborderai lors de la prochaine session. Voyons maintenant la configuration de la taille de groupe avec mise à l'échelle automatique Car il est essentiel de le comprendre du point de vue de la certification et de l'entretien d'un praticien du cloud la certification et de l'entretien d'un praticien du cloud. taille minimale définit le nombre minimal d' instances qui doivent être exécutées dans un groupe de mise à l'échelle automatique. Dans ce cas, nous en avons un. La taille minimale garantit que vous disposez toujours d'un nombre fixe d'instances en cours d'exécution. Le groupe Autoscale ne mettra jamais fin aux instances inférieures à ce nombre La capacité souhaitée détermine le nombre d'instances EC two que vous souhaitez exécuter. Idéalement, dans ce cas, nous en avons deux. Autoscaling essaiera de maintenir deux instances C two en permanence. La capacité souhaitée est redimensionnable entre les limites de taille minimale et maximale Elle doit être supérieure ou égale à la taille minimale du groupe et inférieure ou égale à la taille maximale du groupe. La taille maximale est le nombre d' instances EC two autorisées à s'exécuter. Il s'agit du nombre maximal d' instances exécutées dans le groupe de mise à l'échelle automatique Les groupes Autoscale ne créeront jamais plus que le nombre maximum d' instances spécifié En résumé, le groupe Amazon C two Auto Scaling gère le nombre d' instances et effectue une mise à l'échelle automatiquement. C'est tout ce que je voulais aborder dans cette vidéo. 56. Politiques d'autoscalage EC2: Étudiants, bon retour. Jusqu'à présent, nous avons compris que l'autoscaling nécessite groupe d' autoscaling pour maintenir et dimensionner C deux instances, Cela dépend essentiellement configuration du groupe de mise à l'échelle automatique Comme la taille minimale, la taille maximale et la capacité souhaitée. Nous avons également compris dans la dernière vidéo que la capacité souhaitée devait changer en fonction de la charge et du trafic de votre application. Maintenant, la question se pose : comment va évoluer ce chiffre ? Comment le nombre d'instances augmente-t-il ou diminue-t-il ? Eh bien, le dimensionnement commence par un événement ou une action de dimensionnement indique au groupe de dimensionnement automatique de lancer ou de mettre fin à Amazon EC Dans deux cas, c'est là que politiques d' autoscaling entrent en vigueur. Il existe différents types de politiques de mise à l'échelle automatique conçues à des fins diverses. Comprenons-les. À noter que c'est un sujet très important par exemple et du point de vue de l' entretien. Je recommanderai de porter une attention particulière et de prendre des notes. J'ajouterai également un lien d'apprentissage supplémentaire dans la section des ressources. La première politique de dimensionnement automatique est le dimensionnement manuel, et il s'agit de la méthode la plus élémentaire pour dimensionner vos ressources Ici, vous pouvez modifier vos groupes de mise à l'échelle automatique , la capacité maximale, minimale ou souhaitée, Amazon C two Auto Scaling gère le processus de création ou de terminaison des instances en fonction de ces mises à Si vous savez quand davantage de trafic est susceptible d'être acheminé vers votre application, vous pouvez modifier manuellement la taille d'un groupe d' autoscaling existant Vous pouvez soit mettre à jour la capacité souhaitée du groupe de mise à l'échelle automatique, soit mettre à jour les instances associées au groupe de mise à l'échelle automatique La balance manuelle peut être utile lorsque vous devez maintenir un nombre fixe d'instances. Le suivant est la mise à l'échelle dynamique. Dans le cadre de la mise à l'échelle dynamique, nous définissons comment adapter la capacité du groupe de mise à l'échelle automatique en réponse à l'évolution de la demande. Cela signifie que vous pouvez augmenter le nombre d'instances pendant les pics de demande, également appelé scalage externe, et diminuer le nombre d'instances pendant la demande de charge, également appelé dimensionnement intégré. Comprenons maintenant avec un exemple. Supposons que vous ayez une application Web qui s'exécute actuellement sur deux instances C Two. Votre objectif est de maintenir l'utilisation du processeur de ces instances à environ 50 % quelle que soit la charge des applications. Cela signifie que vous devez ajouter une instance EC two supplémentaire chaque fois que l'utilisation du processeur dépasse 50 %, mais vous ne savez pas quand elle atteindra 50 %, ne vous inquiétez pas. Vous pouvez configurer votre groupe de dimensionnement automatique pour qu'il évolue de manière dynamique afin de répondre à ce besoin en créant une étape de suivi des cibles ou une politique de dimensionnement simple Découvrons maintenant ces politiques de dimensionnement dynamique. l'échelle par étapes et la mise à l'échelle simple vous permettent de choisir les mesures de dimensionnement et les seuils pour l'alarme Cloudwatch qui initie le dimensionnement Nous allons apprendre à surveiller le cloud dans le module de gestion AWS. Vous définissez la manière dont votre groupe de dimensionnement automatique doit être redimensionné lorsqu'un seuil atteint un certain nombre de fois. Prenons le même exemple. Chaque fois que l'utilisation moyenne du processeur de toutes les instances C two dépasse 50 % pendant 5 minutes, ajoutez 12 instances au groupe de dimensionnement automatique. Sinon, chaque fois que l'utilisation du processeur est inférieure à 30 % pendant 10 minutes, supprimez une instance C two du groupe de mise à l'échelle automatique Il s'agit d'une procédure simple ou progressive, car nous définissons le point de déclenchement pour agir et le nombre d'instances à ajouter ou à supprimer. Vous sélectionnez une métrique de mise à l'échelle et définissez une valeur cible dans la cible. Le suivi des politiques de dimensionnement, c'est tout. C'est un moyen très simple de définir une politique de dimensionnement dynamique. Désormais, Amazon C two Auto Scaling créera et gérera les alarmes Cloudwatch qui déclenchent la politique de dimensionnement Et calculez l'ajustement d' échelle en fonction de la métrique et de la valeur cible. La politique de dimensionnement ajoute ou supprime deux instances pour maintenir la métrique à ou près de la valeur cible spécifiée. Par exemple, vous pouvez configurer une politique de dimensionnement du suivi des cibles afin de maintenir de votre groupe à 50 %. Ensuite, l'ASG procédera à une mise utilisation moyenne agrégée du processeur à 50 %. Ensuite, l'ASG procédera échelle automatique pour s'assurer qu'il reste autour cet objectif de 50 %. La prochaine étape est le dimensionnement planifié Le dimensionnement planifié permet de configurer votre calendrier de dimensionnement en fonction des variations de charge prévisibles. Par exemple, supposons que chaque semaine le trafic vers votre application wave commence à augmenter le mercredi, reste élevé le jeudi et commence à diminuer le vendredi. Vous pouvez configurer un calendrier pour Amazon EC Two, mise à l'échelle automatique pour augmenter la capacité le mercredi ou diminuer la capacité le vendredi. Cela est très utile lorsque nous savons que des changements vont se produire à l'avance. Nous prévoyons une mise à l'échelle en fonction du modèle connu des utilisateurs. La prochaine étape est la mise à l'échelle prédictive. Il permet d'évoluer plus rapidement en lançant la capacité avant la charge prévue La différence est que la mise à l'échelle dynamique est réactive et qu'elle évolue lorsque la demande se fait sentir. D'autre part, la mise à l'échelle prédictive permet d'ajuster la capacité en fonction à la fois de mesures en temps réel et de données historiques. Prenons l'exemple d'une application très utilisée pendant les heures de bureau et peu utilisée. mise à l'échelle prédictive du jour au lendemain peut augmenter la capacité avant le premier afflux de trafic au début de chaque jour ouvrable. Il aide votre application maintenir une disponibilité et des performances élevées lors du passage d'une période d' utilisation plus faible à une période d'utilisation plus élevée. Il n'est pas nécessaire d'attendre le dimensionnement dynamique pour réagir à l'évolution du trafic. Vous n'avez pas non plus à perdre du temps à examiner les modèles de charge de vos applications et à essayer de planifier la bonne quantité de capacité à l'aide d'un dimensionnement planifié. La mise à l'échelle prédictive utilise donc l'apprentissage automatique pour prévoir à l'avance le trafic futur. Il examinera les modèles de trafic passés et prévoira ce qu'il adviendra du trafic à l'avenir. Il fournira automatiquement le nombre correct d' instances EC two à l'avance pour correspondre à cette période prévue. C'est avantageux lorsque vous êtes confronté à des modèles de charge de travail récurrents ou à des applications dont l' initialisation prend du temps et qui entraînent une latence notable Revenons maintenant en arrière et comment se déroule la politique de dimensionnement automatique. Le processus de mise à l'échelle automatique. Comme nous le savons, le dimensionnement automatique dépend de divers facteurs tels que les événements, les métriques et les seuils Et en fonction de nos besoins, nous avons configuré une politique de dimensionnement automatique. Cette politique indique à Auto Scaling d'ajouter et de supprimer des instances C two C'est tout pour cette séance. 57. Modèle de lancement et de lancement: Bonjour, étudiants. Bon retour. Jusqu'à présent, nous avons compris que l'autoscaling augmente et diminue le nombre d' instances EC Two pour répondre à la demande Comme vous le savez, lorsque vous lancez l'instance EC two, nous devons fournir une certaine configuration. Nous devons également prédéfinir cette configuration pour le dimensionnement automatique C'est ce que nous faisons avec configuration de lancement et le modèle de lancement. Allons-y et comprenons cela plus en détail. La configuration de lancement et le modèle de lancement définissent les caractéristiques de l'EC. Deux instances que nous voulons lancer lorsque la demande se fait sentir. Aws a introduit la configuration de lancement en 2014 et depuis lors , nous utilisons configuration de lancement avec deux groupes de mise à l'échelle automatique EC. D'autre part, le modèle de lancement a été introduit récemment et il effectue une tâche similaire à celle de la configuration du lancement. Le modèle de lancement étant le dernier service, il possède des fonctionnalités et des capacités supplémentaires pour nous faciliter un peu la tâche. Commençons par une configuration de lancement, puis nous passerons au modèle de lancement. Une configuration de lancement est un modèle de configuration d'instance E two dans lequel nous définissons configurations de notre instance EC two que nous voulons lancer automatiquement lorsque la demande arrive. configuration est le modèle de configuration instances EC two qu'autoscaling utilisera pour lancer de nouvelles instances EC two Lorsque nous créons une instance EC two, soit à partir de la console de gestion AWS, soit à l'aide de l'AWS CLI, fournissez différentes configurations d'instance EC two, telles que l'ID AM, la taille du type d'instance, la configuration du stockage. Quelle instance utilise la paire de clés utilisée pour se connecter à cette Nous définissons également la configuration réseau et les groupes de sécurité. Cela permet de décider de l'adresse IP et du port à partir desquels l'instance sera accessible. Nous pouvons définir les données utilisateur, c' est-à-dire un ensemble de commandes ou de scripts exécutés lors du lancement d'une instance. Nous pouvons également définir les rôles IAM, qui seront attachés à l'instance et autoriseront l' accès aux services Cela inclut essentiellement tout ce que nous définissons habituellement lors du lancement d'une instance. Nous pouvons définir et enregistrer tous les paramètres dans la configuration de lancement, qui servira de modèle pour dimensionnement automatique lors du lancement de nouvelles instances. La configuration de lancement n' est pas modifiable. Vous ne le définissez qu'une seule fois et cette configuration est enregistrée. Si nous souhaitons ajuster la configuration d'une configuration de lancement, vous devez en créer une nouvelle et utiliser cette nouvelle configuration de lancement. Certains problèmes liés à configuration de lancement sont améliorés dans le modèle de lancement. Comme nous l'avons vu précédemment, le modèle de lancement est similaire à la configuration de lancement. Il fournit une configuration EC two qui est utilisée par le groupe de mise à l'échelle automatique EC two lors du lancement d'instances C two. En outre, le modèle de lancement peut également être utilisé pour lancer des instances EC two ou un parc d'instances EC two directement depuis la console de gestion AWS ou l'interface de ligne de commande AWS. Le modèle de lancement étant le dernier service, il inclut plusieurs fonctionnalités supplémentaires. En plus des fonctionnalités de configuration, examinons les une par une. Cela nous permet de créer plusieurs versions du modèle de lancement grâce à différentes configurations. Nous pouvons spécifier plusieurs types d' instances, même des types d'instance basés sur attributs de type d' instance tels que la mémoire, stockage du processeur, etc. Il est capable d'utiliser à la fois des instances à la demande et des instances ponctuelles, ce qui permet de réaliser d'énormes économies. Il couvre également deux par trois fonctionnalités illimitées. groupes de placement, la capacité , les réservations, les graphismes élastiques et les fonctionnalités d'hôte dédiées sont disponibles dans le modèle de lancement, mais ces fonctionnalités étaient absentes de la configuration de lancement. Il permet en outre l'EBS, le balisage des volumes et l'interface élastique Aws recommande d'utiliser un modèle de lancement plutôt qu'une configuration de lancement, car il offre davantage d'avantages architecturaux. Voyons maintenant où se situent la configuration de lancement, un modèle de lancement, dans le processus de dimensionnement automatique. Si vous vous souvenez de la session précédente, dimensionnement automatique dépend de divers facteurs tels que les événements, les métriques et les seuils Sur la base de nos besoins, nous avons configuré une politique de mise à l'échelle automatique Cette politique indique à Auto Scaling d'ajouter et de supprimer des instances EC two autoscaling a désormais besoin de la configuration de lancement de l'instance pour lancer l'instance EC two Hein ? Pour lancer les instances C two, nous utilisons la configuration de lancement et le modèle de lancement pour fournir les configurations EC two groupe de mise à l'échelle automatique Chaque fois que l'autoscaling lance une instance EC two, cela fait référence à la configuration de lancement que nous configurons avec l'autoscaling C'est tout pour cette leçon sur la configuration de lancement et le modèle de lancement. 58. Équilibreur de charge: Bonjour, étudiants. Bon retour. Dans la dernière vidéo, nous avons compris comment le dimensionnement automatique d'EC two augmentait ou diminuait automatiquement vos instances EC two en fonction de la demande. Dans cette leçon, nous allons apprendre le concept général de l'équilibrage de charge, qui servira de base notre prochaine vidéo, Elastic Load Balancer Commençons. Supposons que vous entriez dans un hôtel cinq étoiles pour l'enregistrement. Dix réceptionnistes vérifient les réservations, les arrivées et les départs La plupart des clients font la queue, ce qui se traduit par une répartition inégale des clients par ligne, tandis que d'autres réceptionnistes ne font qu' attendre les Les clients entrent et ils ne savent pas où aller. Mais si vous réfléchissez à la situation, il serait utile que nous ayons un hôte à l'entrée. Tous les clients qui se présentent doivent savoir laquelle compte le moins de personnel et qui est efficace. heure actuelle, les clients seront accueillis par un hôte à la porte. Il les dirigera vers la ligne appropriée de l' hôtel pour l' enregistrement et le départ. L'hôte surveille les réceptionnistes et compte le nombre de personnes dans la file que chaque réceptionniste sert Désormais, tout nouveau client sera dirigé vers la réceptionniste dont la file d'attente est la plus courte, c' est-à-dire la moins fréquentée. Par conséquent, il y aura même files d'attente parmi les réceptionnistes, ce qui permettra aux clients d'être servis le plus efficacement possible Pensez maintenant à AWS, Auto Scaling Group. Plusieurs instances EC two exécutent la même application. Lorsqu'une demande arrive, comment sait-elle quelle instance EC two la traitera ? Comment pouvez-vous garantir une répartition uniforme de la charge de travail entre les instances C Two ? Vous avez besoin d'un moyen d'acheminer les demandes de manière égale vers différentes instances pour traiter ces demandes. C'est là qu' intervient l'équilibreur de charge. Il s'agit d'une solution réseau qui répartit le trafic sur plusieurs serveurs afin d' améliorer les performances des applications. Encore une fois, il s'agit d'un logiciel que vous pouvez installer, gérer, mettre à jour et faire évoluer. Un équilibreur de charge peut être installé pour deux instances C two ou plus, mais le problème réside dans son évolutivité Comprenons cela. Vous avez un équilibreur de charge devant deux instances C deux et le nombre d' instances EC deux augmentera en fonction de la charge Surtout si vous avez une mise à l'échelle trop importante, il n'y a aucune limitation sur les instances C deux. Cela peut passer de rien à 100 instances C deux, voire plus, n'est-ce pas ? Maintenant, comment un équilibreur de charge gérera-t-il toutes les demandes ? Il doit également être redimensionné, n'est-ce pas ? C'est là qu'AWS fournit un autre service appelé Elastic Load Balancer 59. Qu'est-ce qu'un équilibreur de charge élastique (ELB) ?: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons découvrir un autre service AWS, à savoir Elastic Load Balancer Ce service fonctionne en étroite collaboration avec Auto Scaling pour répartir le trafic de manière égale sur deux instances. Commençons. Qu'est-ce qu'un équilibreur de charge élastique ? Il s'agit d'un service AWS utilisé pour répartir la charge. Il est conçu pour répondre aux exigences indifférenciées liées à l'équilibrage de charge Dans la leçon précédente, vous avez découvert un équilibreur de charge responsable la distribution du trafic entrant entre les instances EC two disponibles Elb évolue automatiquement au fur et à mesure que le trafic vers vos serveurs change en cas d'augmentation du trafic Elb permet à l'équilibreur de charge de gérer la charge supplémentaire en la distribuant chaque fois que votre groupe de mise à l'échelle automatique EC two augmente et ajoute une nouvelle instance EC two, le service de mise à l'échelle automatique envoie une notification à l'équilibreur de charge élastique indiquant qu' une nouvelle instance est prête à De même, lorsque le groupe de mise à l'échelle automatique EC two qui s'y trouve indique qu'il lance le processus de mise hors service d'une instance, il envoie une notification à Elastic Load Balancer Il revient désormais à ELB d' arrêter d' envoyer le trafic vers l'instance sélectionnée Ensuite, il attend que les demandes existantes soient terminées Une fois que toutes les demandes existantes sont satisfaites, Auto Scaling met fin aux instances sans déranger les clients existants L'équilibreur de charge élastique achemine automatiquement le trafic applicatif entrant entre différentes instances Il sert de point de contact pour le trafic entrant. Tout trafic arrivant vers votre application passe d'abord par l'équilibreur de charge , puis est envoyé à une instance disponible Il surveille également l' état des instances EC two en cours d'exécution car il envoie les demandes de trafic uniquement aux instances saines. Bien, vous savez maintenant comment Elastic Load Balancer achemine trafic externe vers vos instances EC Two Non seulement cela, mais il est également utilisé pour le routage du trafic interne. Comprenons avec un exemple de ML. Supposons que de nombreux utilisateurs utilisent leur compte Gmail. Ils ouvrent l'Invox, puis la page agit comme un serveur Web Un utilisateur compile le message et clique sur le bouton d'envoi. Si nous parlons de ce qui se passe sur le serveur de messagerie, un serveur d'applications traite vos e-mails, notamment en les stockant dans une base de données, les envoyant aux utilisateurs respectifs, etc. Si de plus en plus d'utilisateurs commencent à utiliser Gmail, le nombre de serveurs Web augmentera également. Par conséquent, C to Auto Scale devra également augmenter le nombre de serveurs d'applications. doit être Chaque serveur AB doit être informé qu' un nouveau serveur d'applications est disponible pour accepter le trafic. Imaginez maintenant que vous avez potentiellement des centaines d' instances de serveur sur les deux pneus. Nous pouvons également résoudre le chaos du trafic du serveur d'applications avec un ELB interne Elb dirigera le trafic vers le serveur d'applications qui a le moins de demandes en suspens Le serveur Wave ne sait pas combien d' instances Appserver sont en cours d'exécution et ne s'en soucie pas combien d' instances Appserver sont en cours d'exécution et ne s'en soucie Seul ELB gère le transfert du trafic vers les Apservers disponibles C'est ce que l'on appelle l' architecture découplée. Dans cette architecture, tous les composants informatiques restent complètement autonomes et ne se rendent pas compte autres exécutent indépendamment la tâche demandée. Elastic Load Balancer est le service que nous pouvons utiliser devant un serveur Waveserver pour distribuer le Il est également appelé équilibreur de charge public. Nous pouvons également utiliser l'équilibreur de charge élastique situé derrière le serveur Waveserver pour répartir le trafic de manière égale vers le serveur d' Comme cela fonctionne en interne, on parle d'équilibreur de charge privé interne Étudiants, c'est tout pour cette vidéo. 60. Équilibre de charge élastique (ELB): Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons comprendre les différents types d'ELB Commençons. Aws, Elastic Load Balancing, prend en charge quatre équilibreurs de charge, des équilibreurs charge d' applications, des équilibreurs de charge réseau, des équilibreurs charge classiques et un équilibreur de charge de passerelle Comprenons-les un par un. Ces équilibreurs de charge fonctionnent avec différents modèles OSI. modèle de référence Osi est l' abréviation de Open System Interconnection Reference Il décrit comment les informations sont transformées d' un logiciel d'un ordinateur à un autre à l'aide d'un réseau. Ceci est réalisé en divisant la communication de données en plusieurs couches, ce qui permet de contrôler l'envoi de données d'une couche à l'autre. Comme son nom l'indique, équilibreurs de charge des applications fonctionnent à la septième couche du modèle OSI, la couche application L'équilibreur de charge réseau fonctionne au niveau de la couche quatre, qui est la couche réseau L'équilibreur de charge classique est le plus ancien et le premier service d'équilibreur de charge élastique Il est conçu pour fonctionner à la fois au niveau de l'application et au niveau du réseau. L'équilibreur de charge Gateway est le service le plus récent de la famille des équilibreurs de charge élastiques Il fonctionne à la couche 3.4. Ensuite vient le listeur de protocoles, est-à-dire les différents protocoles sur lesquels ces équilibreurs de charge peuvent écouter équilibreur de charge d'application prend uniquement en charge les protocoles HTTP et STTPS L'équilibreur de charge réseau gère les protocoles TCP et UDP. L'équilibreur de charge Gateway n'écoute que sur IP. Comme nous l'avons mentionné précédemment, un équilibreur de charge classique peut fonctionner à la fois sur les acteurs de l'application et sur le réseau Par conséquent, il prend en charge à la fois les protocoles d'application et de lecteur réseau tels que TCP, SSL par TLS, TTP, TTPS Examinons maintenant différents cas d' utilisation de ces équilibreurs de charge Le cas d'utilisation le plus courant de l' équilibreur de charge d' application concerne les applications Web Une application Web basée sur le framework de microservices peut utiliser ALB comme équilibreur de charge avant que le trafic entrant n'atteigne votre EC, deux instances ou les conteneurs hébergés pour un réseau de services équilibreur de charge couvre les autres scénarios selon lesquels ALB, par exemple les applications qui dépendent d'un protocole autre que le protocole STTP, applications sensibles au temps, le flux de données en temps réel et les applications dépendantes du streaming audio, vidéo, de codes de devises, etc., bénéficiera de l'utilisation bénéficiera L'équilibreur de charge de passerelle fonctionne au niveau de la troisième couche. Il permet de déployer, de dimensionner et de gérer la disponibilité d'appareils virtuels tiers de manière simple et rentable dimensionner et de gérer la disponibilité d'appareils virtuels tiers de manière simple et . L'équilibreur Lode classique peut être utilisé dans presque tous les cas d' utilisation de l'équilibreur Lode d' application et de réseau Mais comme l'application et l'équilibreur réseau Lode sont les plus récents et sont conçus dans un but précis, vous les utilisez pour en tirer le meilleur parti Aws retire l'équilibreur de charge classique 15 août 2022 Son utilisation n'est pas recommandée. Le suivant est le type de cible, est-à-dire l'endroit où l'équilibreur de charge peut diriger le trafic Il peut s'agir d'instances C, d'adresses IP fixes, AWS, de fonctions Lambda, entre autres Vous pouvez simplement relier cela aux cas d'utilisation ci-dessus. L'équilibreur de charge d'application prend en charge deux instances IP C et l'équilibreur de charge réseau Lambda prend en charge deux instances IP C. De plus, l'équilibreur de charge d'application peut également envoyer du trafic vers ALB L'équilibreur de charge Gateway prend en charge les instances IP et EC deux L'équilibreur de charge classique prend également en charge les instances IP et EC two Nous pouvons entrer dans les détails de chaque équilibreur de charge, mais cela n'est pas nécessaire pour ce cours vous suffit de vous souvenir ces quatre types d'équilibres de charge, de types, de protocoles et de cas d'utilisation. C'est tout pour cette leçon. 61. Utiliser ELB et l'échelle automatique ensemble: Bonjour, étudiants. Bon retour. Dans le laboratoire précédent, dans le module EC two, nous avons déployé le service STTDP l'instance EC two, que nous avons créée à partir de la console AWS Dans cet atelier, nous allons créer des instances EC two à l'aide du groupe AWS Autoscaling Nous verrons comment configurer les groupes d'autoscaling AWS. Il déploiera automatiquement le service STTDP sur toutes les instances du groupe de mise à l'échelle automatique et verra l'accès aux applications STTDP qui en groupe de mise à l'échelle automatique et verra l' résulte via l'équilibreur de charge de l'application via Accédez à la console AWS et tapez C deux dans la barre de recherche. Cliquez sur C two pour accéder directement au tableau de bord EC two. Dans le tableau de bord de gauche, cliquez sur Lancer les modèles. Ils spécifient la configuration des instances EC two. Allons y jeter un œil. Cliquez sur Créer. Modèle de lancement. Ajoutez un nom de modèle de lancement emballé, Elting. Ajoutons un modèle de lancement pour le dimensionnement automatique. Démo comme description, nous pouvons ajouter des taxes en cliquant sur ce bouton déroulant ici. Si vous souhaitez copier, modifier ou créer un nouveau modèle à partir d'un modèle de lancement existant, vous pouvez le faire en cliquant sur le menu déroulant suivant ici. L'option suivante consiste à choisir l'AMI. Tapons Amazon, Linux, deux dans la barre de recherche et sélectionnons la première AMI. Comme vous pouvez le constater, cette AMI est éligible aux pneus gratuits, ce qui signifie que nous n'aurons rien à payer pour cela. L'option suivante consiste à choisir le type d'instance. Nous pouvons voir plusieurs types d' instances si vous faites défiler cette page. Comme nous n'avons aucune exigence particulière en matière d'instance et que nous voulons également rester dans le pneu gratuit, choisissons la micro-instance à deux points. Ensuite, nous devons choisir la paire de clés. Nous en aurons besoin lorsque nous évaluerons H dans l'instance. Vous devez également spécifier une paire de clés, car nous n'évaluerons pas H par rapport à l'instance dans ce laboratoire Laissez-nous le définir par défaut. Si vous souhaitez essayer SSH et exécuter des commandes vous-même, vous pouvez choisir une paire de clés existante comme celle-ci ou créer une nouvelle paire de clés en cliquant sur ce lien Nous devons spécifier les paramètres réseau pour nos instances EC two. Il n'est pas nécessaire de sélectionner des sous-réseaux ici. Laissons cette valeur par défaut pour le moment. Ensuite, nous devons configurer le groupe de sécurité. Veuillez noter que ce groupe de sécurité sera finalement attaché aux deux instances EC que nous créons. À partir de ce modèle de lancement, nous pouvons créer un nouveau groupe de sécurité ou sélectionner un groupe de sécurité existant. J'ai le groupe de sécurité du laboratoire précédent. Je peux choisir ça. Mais laissez-moi vous montrer le processus de création d'un groupe de sécurité. Cliquez à nouveau sur Créer un groupe de sécurité, ajoutez le nom et la description du groupe de sécurité. Choisissez le bon VPC. Ensuite, nous ajouterons des règles. Cliquez sur Ajouter une règle de groupe de sécurité, puis sur Ajouter des règles de groupe de sécurité. Sélectionnez STTP dans la colonne de type de cette source. Sélectionnez N'importe où. Je n'ai pas ajouté la règle SSH car nous ne le ferons pas dans ce laboratoire Si vous envisagez d'essayer SSH, vous devez sélectionner un payeur clé et ajouter la règle SSH. Nous avons maintenant configuré le groupe de sécurité pour notre modèle de lancement. Ensuite, nous pouvons ajouter la configuration des volumes EBS ici. Laissons cela de côté. Pour cet atelier, nous pouvons accéder au modèle de lancement en cliquant ici, mais aucune exigence de ce type n'est requise. Oublions cela également. Cliquez sur Options avancées. Il n'est pas nécessaire de modifier les options ici. Passez à autre chose et faites glisser votre souris vers le bas de la page. Vous verrez l'option des données utilisateur ici. Ici, nous pouvons entrer les commandes que nous voulons exécuter au démarrage de notre instance. Dans le laboratoire précédent, nous avons installé le STTDP manuellement. Dans cet atelier, nous allons ajouter nos commandes dans cette zone de texte ici Aws les exécutera automatiquement au démarrage de notre instance. Lors de la mise à jour des commandes suivantes. Il s'agit de mettre à jour les packages par défaut dans notre instance, d'installer STTPdoy Cette commande installera STTDP sur notre système d'instance, Démarrez STTDP. Cette commande démarrera le service sTTPd sur les deux instances EC Cette commande à l'écran nous montrera une page STML personnalisée Cliquez sur le bouton Créer un modèle de lancement. Nous avons créé avec succès un modèle de lancement. Cliquez pour afficher les modèles de lancement. Vous pouvez maintenant voir votre modèle de lancement dans la liste. Passons maintenant au tableau de bord d' Autoscaling Group. Cliquez sur Groupes de mise à l'échelle automatique dans le tableau de bord de gauche, puis sur Créer un groupe de mise à l'échelle automatique Entrez le nom ASG emballé et choisissez le modèle de lancement que nous venons de créer Notez que vous pouvez également accéder à la page Créer un modèle de lancement à partir de ce lien. Cliquez sur Suivant, choisissez le VPC compressé et sélectionnez public submt 1 et public submate Sélectionnez deux sous-réseaux par défaut dans la liste. Si votre propre VPC n' à votre compte, cliquez sur Suivant Nous pouvons ajouter un équilibreur de charge à notre groupe de mise à l'échelle automatique, directement depuis cette page, mais nous le ferons ultérieurement à partir du tableau de bord de l' équilibreur de charge Oublions cela pour le moment. Cliquez sur Suivant, nous voyons trois options importantes et utiles. Capacité souhaitée. Cette valeur indique le nombre d'instances que vous souhaitez avoir. Modifions-le à trois. Ensuite, nous avons la capacité minimale. Cette valeur indique le nombre minimum d'instances que vous souhaitez attribuer au groupe Auto Scaling. Si vous disposez d'une capacité minimale de deux, AWS veillera à ce que vous disposiez toujours d'un minimum de deux instances. Remplaçons cette valeur par deux. Ensuite, nous avons la capacité maximale. Cette valeur indique le nombre maximal d'instances que vous souhaitez attribuer au groupe de mise à l'échelle automatique lorsqu'il augmente son échelle Si vous avez une capacité maximale de quatre, laissez-nous changer cette valeur à quatre instances. Nous pouvons ajouter la politique de dimensionnement du suivi des cibles en sélectionnant l'option ici. Par exemple, nous ajouterons des politiques de dimensionnement simples à notre groupe de dimensionnement automatique ultérieurement Cliquez sur Suivant, nous pouvons ajouter une notification sur cette page. Par exemple, nous pouvons créer une rubrique SNS qui nous envoie un e-mail chaque fois que le groupe autoscaling est redimensionné ou réduit, ce n' Cliquez sur Suivant, nous pouvons ajouter une balise ici, ignorons cela. Cliquez sur Suivant, passez en revue votre groupe de mise à l'échelle automatique, puis sur Créer un groupe de mise à l'échelle automatique Nous pouvons voir notre groupe de mise à l'échelle automatique répertorié avec la capacité souhaitée de trois, capacité minimale de deux et une capacité maximale de quatre Le statut, donc la mise à jour de la capacité étant donné que nous avons la capacité souhaitée de trois et ce groupe de mise à l'échelle automatique n'a actuellement aucune instance, il essaiera de créer trois instances C deux pour nous Vous pouvez l'afficher en sélectionnant votre groupe de mise à l'échelle automatique et en cliquant sur l'activité Vous verrez trois lancements d' instance réussis. Dans la colonne des causes, vous pouvez voir que le service Autoscaling Group essaie d'augmenter la capacité de 0 à 3. Avant de passer au tableau de bord EC two et de voir nos instances, ajoutons des politiques de dimensionnement au groupe Autoscaling Cliquez sur l'onglet de mise à l'échelle automatique. À côté de l'onglet Activité, vous verrez qu' aucune politique n' a été ajoutée à notre groupe de mise à l'échelle automatique Créons une politique de mise à l'échelle dynamique. Choisissez une mise à l'échelle simple parmi le type de politique et ajoutez le nom. Ajoutez une instance. Lorsque l'utilisation du processeur est inférieure dimensionnement automatique, le groupe a besoin d'une alarme Cloudwatch pour suivre l'utilisation du processeur Laissez-nous créer l' alarme en cliquant ici sur la page de l'alarme CW Cliquez sur Sélectionner une métrique, puis cliquez sur deux. Pour les métriques C two, nous avons besoin de la métrique globale du groupe de mise à l'échelle automatique et non de la métrique par instance pour cette alarme Sélectionnez par groupe de mise à l'échelle automatique et recherchez l'utilisation du processeur sous le nom de la métrique Sélectionnez la ligne d'utilisation du processeur et cliquez sur Sélectionner une métrique. Vous pouvez voir le graphique d'utilisation du processeur sur votre gauche. Nous voulons que notre groupe de mise à l'échelle automatique s'agrandisse. L'utilisation du processeur est supérieure à 80 %. Faites défiler la page vers le bas et dans la zone de condition, sélectionnez la valeur supérieure et entrez la valeur 80. Cela signifie que notre alarme se déclenche lorsque la valeur d'utilisation du processeur est supérieure à 80. Il n'est pas nécessaire de modifier les autres paramètres de l'alarme. Cliquez sur Suivant, nous pouvons ajouter des notifications et des actions sur cette page, mais ignorons cela pour le moment. Nous ajouterons une action d'alarme sur la page du groupe Autoscaling Cliquez sur Suivant, entrez le nom et la description et créez à nouveau l'alarme sur la page Autoscaling Group Actualisez l'option d'alarme. Trouvez votre alarme de montée en puissance dans la liste. Sélectionnez l'alarme dans l'action. Choisissez d'ajouter une unité de capacité. Cela ajoutera une instance à notre ASG chaque fois que cette alarme se déclenchera Nous avons créé notre politique de mise à l'échelle simple pour agrandir la salle de mise à l'échelle automatique. Créons une autre politique de réduction. Cliquez sur Créer une politique de dimensionnement dynamique. Sélectionnez Mise à l'échelle simple. Ajoutez le nom. Supprimez une instance lorsque l'utilisation du processeur est inférieure à 30. Nous devrons également créer une nouvelle alarme. Cliquez sur le lien Créer une alarme. Cliquez sur Sélectionnez Metric. Ec pour mesurer par groupe Autoscaling et sélectionner la métrique d'utilisation du processeur Cette fois, nous voulons que notre alarme se déclenche lorsque l'utilisation du processeur est inférieure à 30 % dans le boîtier d'état de l'alarme. Sélectionnez une valeur inférieure et ajoutez la valeur 30. Cliquez sur Suivant, ignorez les notifications, ajoutez un nom et une description, puis créez l'alarme sur la page Autoscaling Group Actualisez, sélectionnez l'alarme. Choisissez de supprimer une unité de capacité et de créer la politique. Voyons ces politiques en action. Nous venons d'ajouter une politique de réduction lorsque l'utilisation du processeur est inférieure à lorsque l'utilisation du processeur est 30 %. Comme nous n'avons aucune charge de travail sur notre EC 2, l' utilisation moyenne du processeur sera inférieure à 30 %, ce qui déclenchera cette alarme Si vous voyez l'onglet d'activité de votre groupe Auto Scaling, vous remarquerez rapidement qu'AWS a réduit la capacité souhaitée de 3 à 2 et met maintenant fin à l'instance Dans la section des cas, vous verrez que cela est dû au fait que nous venons de créer la politique même après la réduction de notre ASG. Si vous le voyez dans l'onglet Cloudwatch, l'alarme de réduction est toujours déclenchée. Cela est dû au fait qu'aucun processus n'est toujours en cours d'exécution sur nos instances EC two et que l'utilisation du processeur est faible. Idéalement, AWS supprimera une autre instance de notre ASG. Mais comme nous avons spécifié une capacité minimale de deux, AWS ne réduira pas votre instance AWS modifie la capacité souhaitée concerne les politiques de dimensionnement, mais il ne modifie jamais les valeurs de capacité minimale et maximale. Si vous modifiez le groupe de mise à l'échelle automatique et que vous remplacez la valeur de capacité minimale par un, vous verrez très bientôt une autre instance se terminer. Ne le faisons pas et maintenons nos deux instances en activité. Accédez à la page de l'instance depuis le tableau de bord de gauche. Nous pouvons voir que nous avons deux instances dans l'état en cours d'exécution et une instance dans l'état terminé. Sélectionnez l'une des instances en cours d'exécution et copiez leur page d'adresses IP publiques les adresses IP du navigateur d'instances. Vous constaterez que même si nous n'avons exécuté aucune commande manuellement dans l'instance, HTTTD est installé et fonctionne Créons maintenant un équilibreur de charge d' application et consultons cette page Web à partir de l'URL de l'équilibreur de charge Cliquez sur Load Balancers. Sur le tableau de bord de gauche, vous pouvez voir que nous n'avons aucun équilibreur de charge dans notre compte pour le moment Cliquez sur Create Load Balancer, sélectionnez Application Load Balancer, entrez le nom Cloud Advisory ALB L'option suivante consiste à choisir si nous voulons un équilibreur de charge interne ou connecté à Internet Les équilibres de charge internes ne sont accessibles que localement au sein du VPC. Comme nous voulons consulter notre site Web via l'ALV depuis n'importe où dans le monde, nous devons sélectionner l'option Internet dans la boîte réseau Choisissez le VPC et les sous-réseaux publics dans la section des groupes de sécurité Créons un nouveau groupe de sécurité. Ajoutez le nom et la description. Sélectionnez le même VPC que les deux instances EC. Et ajoutez une règle STTP pour autoriser les connexions STTP depuis Recréez le groupe de sécurité sur la page de l'équilibreur de charge. Actualisez l'option du groupe de sécurité. Choisissez celui que vous venez de créer. Les Alb ont besoin de ce que l' on appelle le groupe cible. Un groupe cible est un groupe d'instances C, de deux instances ou d'autres ressources où ALB transmet ses demandes Créons un nouveau groupe cible en cliquant sur ce lien ici. Entrez le nom du groupe cible et laissez les autres valeurs par défaut. Cliquez sur Suivant, choisissez vos instances et ajoutez-les comme étant en attente ci-dessous. Cliquez sur Groupe cible, de retour sur la page de création de l'ALB. Reformulez l'option Groupe cible et choisissez celui que vous venez de créer Cliquez sur Créer l'équilibreur de charge. Nous avons créé notre ALB avec succès. Cliquez sur Afficher les équilibreurs de charge. Nous pouvons maintenant voir notre équilibreur de charge dans la console. Cliquez sur l' équilibreur de charge, le coquelicot, la valeur DNS et collez-la dans votre navigateur Vous pouvez voir la page de chemin et l'adresse IP de l'instance qui répond à notre demande. Étant donné que l'équilibreur de charge transmet nos demandes de manière aléatoire aux deux instances EC, vous verrez que l'adresse IP change à chaque fois que nous rechargeons la page C'est ainsi que vous déployez des applications Web dans le monde réel. Nous avons déployé avec succès une architecture hautement disponible et évolutive à l' aide du groupe Autoscaling et d'ALB Allons-y maintenant et supprimons notre infrastructure. Pour cela, accédez à la console du groupe de mise à l'échelle automatique et supprimez le groupe de mise à l'échelle automatique en cliquant sur Actions Supprimez l'équilibreur de charge sur la page de l'équilibreur de charge. Supprimez le groupe cible sur la page du groupe cible de la page du groupe de sécurité. Supprimez tous les groupes de sécurité à l'exception du groupe de sécurité par défaut de votre VPC C'est tout pour cette séance. À bientôt. Écoutez.