Transcription
1. Comptes AWS: Bonjour les étudiants,
bienvenue dans une autre vidéo. Avant de passer à AWS et de
commencer à explorer ses services, nous avons tout d'abord besoin d'un compte AWS. Mais avant de créer
votre compte AWS, il y a quelques éléments que vous devez savoir. Dans cette vidéo. Nous
parlerons des éléments d' un compte AWS et des éléments
dont nous avons besoin pour créer un
compte pour nous-mêmes. Allons-y directement. Il s'agit d'un compte AWS. Je suppose que vous n'
avez pas déjà de compte. Nous allons donc en créer
un dans la prochaine leçon. Et le compte AWS est un
conteneur dans lequel vous créez et gérez toutes vos ressources et services
AWS. La première chose dont vous avez besoin
pour créer et gérer un compte AWS est une identité. Nous couvrirons
l'identité dans le module IAM. Mais pour l'instant, vous pouvez le
comprendre en tant qu'utilisateur. Cet utilisateur contrôlera et
gérera l'intégralité de son compte. Vous allez alors créer
un compte pour vous-même. Vous agirez comme une identité. En tant qu'utilisateur,
vous allez maintenant créer
des ressources dans votre compte qui
finiront par générer des factures. Vous pouvez également gérer tous les types de facturation sur le même
compte. Par conséquent, chaque compte possède ses ressources AWS, son
identité et son bâtiment. Un compte AWS est un environnement naturellement
sécurisé. Personne en dehors de votre compte ne peut accéder à vos ressources et
vous recevrez les factures. Uniquement pour les ressources que vous
fournissez dans votre compte. Vous pouvez commencer votre parcours AWS
avec un seul compte. Mais lorsque votre organisation
augmente en taille et en complexité, il peut être difficile de tout
gérer sur
un seul compte. C'est pourquoi AWS recommande
d'utiliser plusieurs comptes. Par exemple, vous pouvez créer des comptes distincts
pour les équipes de développement, de
test et de production
de votre organisation. Parce qu'il simplifie
le processus de contrôle de sécurité et de facturation
pour chaque équipe et offre à différentes équipes la flexibilité requise pour
qu'elles puissent se concentrer sur l'innovation. Voyons maintenant ce dont
vous avez besoin pour créer
un compte AWS. Tout d'abord, vous
avez besoin d'un identifiant e-mail, qui doit être unique. Cela signifie qu'il ne doit pas être utilisé dans aucun autre compte AWS. Vous avez également besoin d'une
carte de crédit ou de débit, qui est nécessaire à des fins de
facturation. Avec ces deux
informations, vous pourrez
créer un compte AWS. Lorsque vous créez un
nouveau compte AWS, vous créez essentiellement
un utilisateur qui
contrôle tous les services et
ressources de votre compte. Cette identité ou cet utilisateur est connu
sous le nom de compte AWS,
l'utilisateur racine. L'utilisateur racine peut se connecter
avec l'adresse e-mail et mot de passe que vous avez utilisés lors la
création du compte
. Nous parlerons en
détail de l'utilisateur racine dans le module
de sécurité AWS. Lorsque vous vous
connectez à votre compte AWS, le premier tableau de bord
que vous voyez s' appelle AWS Management Console. Il s'agit d'une console Web à laquelle vous pouvez accéder
via un navigateur Web. Il existe également d'autres moyens d'
accéder aux comptes AWS,
que nous verrons
dans le prochain module. vous sera également
demandé d'authentifier votre identité lorsque vous vous
connectez pour la première fois. Il s'agit essentiellement de la gestion des identités
et des accès, communément appelée service IAM, qui garantit un accès sécurisé à votre compte AWS et
aux ressources qu'il contient. Nous allons également explorer en
détail dans un module ultérieur. Nous sommes donc tous prêts à
créer un compte AWS.
2. Créer un compte AWS: Bonjour les étudiants, bienvenue. Dans cette vidéo, nous allons créer
un compte AWS Free Tier. L'objectif d'AWS Free permettre aux clients et aux
nouveaux utilisateurs d'explorer
AWS et d'acquérir expérience pratique
requise avant commencer à construire
leur infrastructure Cloud. Ainsi, comme son nom
l'indique, le temps libre se compose de
services et de ressources libres d'utilisation dans AWS avec certaines
conditions générales. Nous en avons discuté dans
la vidéo précédente. Vous avez besoin d'un identifiant e-mail unique et d'une carte de crédit pour créer
votre compte AWS. Vous aurez également besoin d'un formulaire pour recevoir un code de
vérification par SMS, qui fait partie de l'
ouverture du compte. Maintenant, vous
pensez peut-être que si vous n'utilisez que des services CAS
gratuits, pourquoi devez-vous entrer les détails de
votre carte ? Eh bien, c'est parce que le
pneu gratuit est une offre limitée. Et au cas où vous
épuisez la limite ou service
utilisateur qui ne
tombe pas sous le pneu libre. Nous avons une jolie
couleur la quantité. Par conséquent, il est
obligatoire de configurer notre méthode de facturation, comme la
création de votre compte AWS. Mais ce n'est pas quelque chose
à craindre. Dans cette formation. Nous n'
utiliserons que des services désastreux. Et si vous vous en tenez à ce que
nous faisons dans cette formation, vous ne serez pas facturé
pour en assurer davantage. Nous allons également définir un budget
pour notre compte et configurer une alerte pour recevoir une notification. Si nous traversons le projet CIP. Ouvrons un navigateur Web et commençons à créer
notre compte gratuit. J'ai ouvert un navigateur
Web ici, et je l'ai fait pour le niveau gratuit d'
AWS. Et le tout premier résultat ici, temps libre
AWS est ce que nous voulons. La première page
vous aide à comprendre ce qu' est
un compte gratuit et quels sont les services qui
relèvent du régime gratuit ? Je vais couvrir une
retraite stupide au cours de la prochaine leçon. Nous allons donc les ignorer et
créer un compte gratuit. Vous devrez ensuite remplir
les informations requises. Votre adresse e-mail unique
pour l'utilisateur racine, puis choisissez un nom
pour votre compte. Vous pouvez également modifier le nom
et la lettre LES. Si vous voulez. Cliquez ensuite sur Vérifier, adresse
e-mail,
vérifiez votre e-mail. Entrez le code de vérification
ici et cliquez sur Vérifier. Vous serez accueilli. C'est vous, votre adresse e-mail
a été entièrement vérifiée. Saisissons maintenant un mot de passe pour l'utilisateur racine et
confirmons le mot de passe. Et cliquez sur Continuer. Vous avez terminé la première étape. Ensuite, il nous faudra
passer à la première question. Comment prévoyez-vous d'utiliser AWS ? Il suffit de choisir Poznan. Ajoutez ensuite votre nom, numéro de
téléphone, votre pays
ou votre région, votre adresse. Cliquez ensuite sur Accepter les conditions générales et
passez à l'étape suivante. trouverez ensuite la page de facturation dont vous avez besoin pour remplir
vos informations de facturation. Entrez votre
numéro de carte de crédit, la date d'expiration, nom et la formule du
titulaire de la carte, risque à la
hausse, puis
passez à l'étape quatre. Il se peut que vous soyez invité à
confirmer votre identité. Encore une fois, vous devrez entrer votre numéro de téléphone et
le contrôle de sécurité. Et vous recevrez un devis sur votre téléphone que vous
devez entrer ici. Je n'ai pas eu mon code
de vérification ici. Et cliquons sur Continuer. Nous avons ici le plan de soutien. C'est un moyen d'obtenir de l'aide en temps
réel d'
AWS concernant vos
ressources et services. Pour notre objectif, nous
choisirons le support de base. Il est entièrement
gratuit et ne vous
aide que pour résoudre les problèmes liés au compte
ou à la facturation. Enfin, cliquez sur Terminer l'inscription. Et c'est tout. Nous pouvons désormais accéder à la console de gestion
AWS. Cliquez sur le bouton situé
au milieu de l'écran. Ici, il nous demandera un identifiant de
compte ou un alias de compte. Nous n'avons spécifié
aucun alias pour le compte. Et je ne sais pas quel est
l'ID de compte. Nous n'avons pas non plus de nom
d'utilisateur car il s'agit d'un nom d'utilisateur IAM. Ce que nous avons, c'est
l'e-mail de l'utilisateur racine. Nous allons donc choisir de vous
connecter à l'aide du routage, d'un e-mail et d'entrer l'adresse e-mail avec laquelle nous
venons de nous inscrire. Saisissez le mot de passe
et cliquez sur Connexion. Félicitations. Le Vietnam s'est connecté à notre compte. Et il s'agit de la console
de gestion. Il est donc maintenant temps de créer un compte pour vous permettre de
poursuivre cette formation. C'est tout pour cette leçon. Nous comprendrons les offres
AWS Free Gyre
lors de la prochaine session. voit bientôt.
3. AWS tier gratuit: Bienvenue aux étudiants. Dans la dernière vidéo, vous avez créé
un nouveau compte AWS et ajouté les
détails de votre carte à des fins de facturation. Cela nous rappelle
que nous devons utiliser les services
AWS de manière
planifiée. Sinon, vous finirez par
payer certains services. Eh bien, ne vous inquiétez pas. Au cours de cette session, je
vais vous expliquer comment utiliser votre compte AWS
afin de ne pas être facturé les
deux prochaines sessions. Je vous aiderai également à
sécuriser votre compte, définir un budget pour votre
compte et à déclencher une alarme. Vous êtes donc averti si vous
dépassez la limite budgétaire. Commençons donc
avec AWS Free Tire. Le pneu gratuit vous permet
d'essayer certains services AWS pendant une période déterminée sans
avoir à payer quoi que ce soit. Cela signifie qu'AWS fournit une liste
de services AWS que vous pouvez utiliser gratuitement sur la plateforme AWS pour acquérir
une expérience pratique. Maintenant, permettez-moi de vous emmener sur la page Web du niveau gratuit d'
AWS. Il s'agit de la page de niveau gratuit d'AWS. Vous pouvez voir tous les détails
sur AWS Free Tire, qui est classé
en trois catégories. Le premier est celui des essais gratuits. Dans le cadre de cette offre, vous pouvez utiliser certains services AWS
pendant une courte période. Et puis ces services, et à la fin de cette période, le second est gratuit de
12 mois. Cela signifie que vous disposez de 12 mois pour essayer ces services gratuitement. Et cela commence à
partir de la date à laquelle vous avez créé votre compte AWS. Le dernier est toujours gratuit. Ces services sont
disponibles pour toujours, mais il existe une
limite quant à la quantité de nourriture que vous pouvez
utiliser ces services. Ils n'expirent donc jamais tant que vous n'avez pas
franchi la limite disponible. Ensuite, nous avons ici la
possibilité de filtrer les produits
AWS en fonction différentes catégories
et d'essai gratuit. Assez simple, non ? Essayons ça pour mieux
comprendre. Nous allons sélectionner Toujours gratuit. Ici, vous
ne pouvez voir que ces services qui sont toujours gratuits dans
une certaine limite. Maintenant, prenez AWS Lambda. Il s'agit d'une option de
calcul sans serveur,
que nous verrons dans un module ultérieur. Mais ici, vous pouvez
également le filtrer à partir de la catégorie de produits.
À partir d'aujourd'hui. Il permet d'accueillir 1 million de patients
invoqués par mois. Cela signifie que si vous restez moins d'un
million d'invocations, il sera toujours gratuit. Ce temps libre n'expire jamais. Sélectionnez maintenant 12 mois gratuits. Dans cette catégorie,
Voyons voir, stockage. S3 par exemple. Il s'agit d'un
service de stockage d'objets gratuit pendant 12 mois ou jusqu'à cinq
gigaoctets de stockage. Après cela, vous devrez
payer un certain montant. S3 est une excellente option pour
essayer un site Web statique. Nous le verrons dans le
modèle de stockage de cette formation. Le dernier exemple est Amazon EC2, que vous utilisez pour déployer
votre application. Aws offre un
essai de douze mois pouvant atteindre 750 heures d'utilisation par mois pour
le type de micro-instance T2, ce qui signifie que vous pouvez exécuter votre
application gratuitement pendant 12 mois. Il s'agit d'une
période importante pour maîtriser AWS. Vous pouvez essayer et apprendre
presque tous les services de base. Et j'espère que vous en tirerez
le meilleur parti. C'est tout pour cette leçon. Je vous recommande de consulter
cette page avant. lorsque vous utilisez les services AWS, il existe tellement de services que
vous pouvez essayer gratuitement, mais veillez à connaître la disponibilité gratuite du
service avant de l'utiliser. C'est tout pour cette vidéo.
4. Sécuriser un compte AWS: Bonjour les étudiants. Dans cette vidéo, nous allons comprendre
comment sécuriser votre compte AWS avec une stratégie de
mot de passe et une authentification
multifacteur, ou MFA en bref. Nous examinerons également l'accès et la clé secrète plus loin
dans cette vidéo. Commençons donc par l'authentification
multifacteur. C'est-à-dire, MFA. Vous disposez d'un identifiant e-mail et mot de passe pour vous connecter à
votre compte AWS. Une fois que vous vous êtes connecté, vous pouvez accéder à AWS
Management Console et y effectuer différentes
opérations. Supposons que quelqu'un ait
volé votre mot de passe. Maintenant, cette personne peut se connecter et faire n'importe quoi sur
votre compte, n'est-ce pas ? En particulier s'il dispose d'un accès
administrateur, il peut supprimer des ressources de
production, transférer
des données confidentielles, modifier la
configuration de l'application, etc. Alors, comment
protéger votre compte en
plus du mot de passe ? Eh bien, vous pouvez utiliser une
authentification multifacteur ou un MFA. Qu'est-ce que
l'authentification multifacteur ? Il s'agit d'une méthode d'
authentification qui exige que tout utilisateur fournisse au moins
deux types de vérification, appelés facteurs permettant d'
accéder à un
compte ou à une ressource tel qu'un site Web ou un
téléphone mobile. application ou services. Outre le nom d'utilisateur
et le mot de passe, les utilisateurs devront saisir
un mot de passe unique ou OTP, envoyé par SMS, e-mail ou une application d'authentification telle que Google et Microsoft
Authenticator. Un bon exemple d' authentification à deux facteurs
est la connexion Gmail à partir d'un nouvel appareil. Chaque fois que quelqu'un essaie de se
connecter à votre compte Gmail, il demande le mot de passe et un mot de
passe unique généré par le système, c'est-à-dire OTP. Il est envoyé sur le numéro de téléphone portable
enregistré. L'authentification multifacteur
est utilisée dans la combinaison d'
un mot de passe et d'un dispositif de sécurité que vous possédez, comme votre téléphone. Une fois que vous aurez configuré MFA
sur votre compte AWS, vous devrez fournir un
jeton MFA chaque fois que vous vous connectez à votre
compte AWS. Mfa ajoute essentiellement une couche
de sécurité supplémentaire à votre mot de passe. Donc, même si quelqu'un a le
mot de passe de votre compte, il ne pourra toujours pas s'y
connecter car il besoin de MFA aussi pour faire quoi ? Il est donc recommandé de
configurer MFA dans
votre compte AWS. Le MFA et la sécurité sont des sujets
importants
du point de vue de l'entretien et de l'examen. Vous pouvez vous attendre à des questions telles que :
comment ajouter une
couche de sécurité supplémentaire à votre utilisateur AWS Route ou IAM ? La réponse à cette question sera l'
authentification multifacteur. Outre la console de
gestion, nous pouvons également accéder à AWS
via l'interface de ligne de commande et le kit SDK. Nous comprendrons cela dans la rubrique suivante, en
interagissant avec AWS. Mais lorsque vous accédez à AWS via
l'une de ces méthodes, vous utilisez une clé d'accès
et une clé secrète. Ces clés ressemblent aux
codes présents à l'écran, qui peuvent ne pas être faciles à utiliser en tant que
nom d'utilisateur et mot de passe. Mais vous devrez les utiliser dans
votre code pour vous connecter
à votre compte AWS, soit via l'interface de ligne de commande ou le kit SDK. Ces clés sont connues sous le nom de clés d'accès, et elles sont utilisées pour l'accès
programmatique. Nous créerons quelques clés
d'accès plus tard dans le cours et verrons comment les
utiliser pour vous connecter. Passons maintenant
à la rubrique suivante,
qui est la stratégie de mot de passe. La
stratégie de mot de passe permet
d'appliquer un mot de passe fort pour
votre compte AWS, car votre compte est plus sécurisé lorsque vous disposez d'
un mot de passe fort. Nous pouvons y parvenir
via une politique de mot de passe. Il vous suffit d'activer
toutes les règles que vous
souhaitez que vos utilisateurs respectent
lors de la création ou de la
réinitialisation de leur mot de passe. Et c'est tout. Dans la stratégie de mot de passe. Vous pouvez définir une règle de longueur minimale
de mot de passe. Vous pouvez ensuite appliquer
des types de caractères spécifiques. Par exemple,
il se peut que vous souhaitiez avoir au moins
une lettre majuscule , une lettre minuscule et un chiffre. dehors de cela, vous pouvez également spécifier des
caractères non alphanumériques tels que pourcentage, Rue, etc., qui doivent être inclus. Vous pouvez alors activer l'expiration du
mot de passe, ce qui signifie que l'utilisateur doit faire pivoter son mot de passe
après certains jours. Par exemple, après 90
jours, 120 jours, etc. Ensuite, vous pouvez autoriser l'utilisateur
à modifier son mot de passe, ou vous pouvez également opter pour que seul l'administrateur
change le mot de passe. Enfin, vous pouvez également empêcher réutilisation des mots de
passe afin que les utilisateurs, lorsqu'ils changent
leur mot de passe, ne
le modifient pas par celui qu'ils avaient déjà utilisé dans le passé. C'est donc génial. Une politique de mot de passe est vraiment utile à
tous mes collègues. Tentez sur votre compte. La politique de mot de passe est un sujet
important sous sécurité
AWS du point de vue de l'examen de
certification ou de l'entretien. C'est tout ce que je voulais
couvrir dans cette vidéo.
5. Configurer MFA et politique de mot de passe: Bonjour les étudiants. J'espère que vous avez créé
votre compte AWS. Dans cette vidéo, nous sécuriserons nos
comptes en ajoutant authentification
multifacteur et en
configurant une stratégie de mot de passe. Avant de commencer
la configuration, comprenons rapidement ce qu'est MFA. Il s'agit d'une
méthode d'authentification qui valide l'identité de l'utilisateur. Ainsi, lorsqu'un utilisateur essaie d'accéder à quelque chose qui est
sécurisé par MFA, il faut fournir
deux éléments
de preuve ou plus pour y accéder. Passons donc à notre
compte AWS et sécurisons le avec MFA. Pour cela, nous devons nous adresser au service
de
gestion des identités et des accès. Nous voici donc dans
le tableau de bord IAM. Et comme vous pouvez le constater, nous avons déjà reçu quelques recommandations de
sécurité de la
part d'AWS. La première chose qu'il
dit, c'est que vous devez ajouter un MFA
pour l'utilisateur racine. Ajoutons donc sélectionner mon compte, puis cliquer sur les informations d'identification
de sécurité. Vous trouverez ici les détails du
compte. Défilons un peu vers le bas. Ici. Vous pouvez constater que nous n'
avons aucun appareil affecté. Cliquons donc sur
Gérer l'appareil MFA. Nous allons utiliser un appareil MFA
virtuel ici. Vous devrez installer une application d'authentification sur votre appareil mobile
ou votre ordinateur. J'utilisais l'application Google
Authenticator sur mon téléphone car elle est
entièrement gratuite. Je vais donc m'en servir. Mais si vous n'en avez
pas encore installé sur votre téléphone, installez l'application Google
Authenticator, puis cliquez sur Continuer. La prochaine chose à faire est de
cliquer sur Afficher le code QR. Une fois que vous voyez le
QR sur votre écran, il
suffit de le scanner à l'aide de votre téléphone. Et il devrait ouvrir l'application
Google Authenticator. Si vous le faites correctement. Il générera un code et
l'affichera sur votre écran. Il vous suffit donc d'ajouter ce code ici. Comme j'ai ajouté le mien. Ensuite, vous devez
attendre l'expiration de ce code. Parce qu'il va
générer un nouveau code. Vous devrez entrer le nouveau code dans la boîte à outils du code
MFA. Une fois cela fait, cliquez sur Attribuer un MFA. Vous avez maintenant
activé MFA pour votre compte. Et vous pouvez voir que
nous avons un nom de ressource ARN ou Amazon pour
notre appareil virtuel ici. Il est donc très facile d'activer
MFA dans votre compte. Maintenant, allons également configurer
une stratégie de mot de passe. Allons sur le tableau de bord IAM. Une fois encore. Vous trouverez le paramètre de mot de passe dans
les paramètres du compte. Dans le côté gauche,
nous cliquons sur
Modifier la politique de mot de passe et appliquer une politique sur notre compte. Vous pouvez modifier beaucoup de
choses concernant le mot de passe. Par exemple, la longueur minimale du
mot de passe. Passons à 16. L'utilisateur a-t-il besoin de
majuscules, de minuscules ou de chiffres ? Vous pouvez sélectionner tous
ou n'importe lequel d'entre eux. Je vais sélectionner tout comme. Il est recommandé d'utiliser des
lettres majuscules et minuscules dans le mot de passe. Et je vous recommande de faire de même. Vous pouvez personnaliser
votre stratégie de mot de passe comme vous le souhaitez, puis cliquer sur Enregistrer les modifications, ce qui fera le travail. Désormais, chaque nouvel utilisateur de
votre compte doit respecter cette politique de mot de passe lors création ou de la réinitialisation de
son mot de passe, ce qui améliorera la sécurité de
votre compte. Donc, les étudiants, ce sont
les quelques mesures
de sécurité initiales que tous les
ingénieurs du cloud devraient connaître. sécurité du cloud en général
est un sujet très important, tant du point de vue de leur examen
de
certification du point de vue interviewé. Et j'espère que vous le
comprendrez parfaitement. C'est tout pour cette vidéo.
6. Configurer le budget et l'alerte: Bonjour les étudiants, bienvenue. Vous disposez désormais de notre propre compte
d'essai gratuit et vous l'avez sécurisé avec une authentification
multifacteur
et une stratégie de mot de passe. Vous comprenez également AWS, Free Tire et les différentes
offres sous tarif. Dans cette formation, nous utiliserons
uniquement des services gratuits pour ajouter des services pour une
pratique pratique dans AWS. Donc, si vous respectez
ces offres gratuites
uniquement, vous ne serez pas facturé. Mais juste au cas où vous
utilisiez accidentellement un service payant ou oubliez de supprimer un service qui pourrait être payé
après un certain temps. Il est essentiel de fixer
un budget et une facturation. Vous recevez beaucoup notifications par e-mail ou SMS lorsque vous atteignez
une certaine limite. Dans cette vidéo, nous
allons configurer le budget et l'alerte
de notre compte AWS. Passons donc à la console
de gestion AWS. Comme vous pouvez le constater, je me suis connecté à mon
compte avec l'utilisateur root. Et en haut à
droite, ici,
sous le nom de mon compte, nous sélectionnerons le tableau de bord de
facturation. Cela nous amènera
au tableau de bord. Défilons vers le bas jusqu'à la section Gestion des coûts
et cliquez sur Budgets. Nous avons ici quelques informations
supplémentaires sur le budget et les alertes, comme son fonctionnement,
ses avantages et ses fonctionnalités. Cliquez sur Démarrer si
vous souhaitez le lire plus en détail. Je vous recommande vivement de le faire , car
cela
vous donnera des informations supplémentaires. Maintenant, nous allons revenir en arrière et
cliquer sur créer un budget. Ici. Le budget de coûts recommandé
est sélectionné par défaut. Nous allons donc cliquer sur Suivant. Laissez tout par défaut. Et ici, entrez votre montant
budgétisé. Nous allons entrer dans notre
budget. Pour cette démo. Je vais sélectionner 3$. Faites défiler l'écran vers
le bas et entrez le nom de votre budget. Il est important de nommer votre budget, car il
se peut que vous ayez plusieurs
budgets à l'avenir. Appelons-le une alerte de 3$. Il sera donc facile de l'
identifier ultérieurement et de cliquer sur Suivant. Maintenant, cliquez sur Ajouter un seuil d'alerte. Ici, vous pouvez créer
plusieurs seuils. Par conséquent, si nous entrons 50
dans le seuil, cela signifie
que vous recevrez
une notification lorsque vos dépenses AWS atteindront
50 % de 3$, soit 1,5$. Dans ce cas. Vous pouvez également ajouter
plusieurs seuils. Ajoutons un
seuil supplémentaire pour recevoir
une notification de plus avant que une notification de plus avant le montant atteigne
la limite fixée. Nous ajouterons 80 % cette fois. Ici. Dans l'option de notification. Nous avons quelques options quant
à la façon dont nous voulons être notifiés. Optons pour une
notification par e-mail. Saisissez l'adresse e-mail sur laquelle nous souhaitons
recevoir l'e-mail. Puis cliquez sur Suivant. Laissez tout par défaut dans la
page d'action Joindre, puis cliquez sur Suivant. Passons maintenant en revue tout ,
puis cliquez sur Créer un budget. Cela prendra quelques
secondes et nous verrons un message indiquant que le budget
a été créé avec succès. Ici, vous pouvez voir que l'état du
seuil est correct. Vous pouvez utiliser ce lien
budgétaire pour voir les détails et le graphique
de nos dépenses. Actuellement, nous ne
disposons pas de détails ici, car il faut environ 24 heures
pour remplir les données. Donc, lorsque vous créez un budget, je
vous suggère de revenir ici après un jour ou deux
et de voir ces DJ. Allons faire défiler vers le haut. Et dans le coin supérieur,
vous pouvez également modifier et supprimer
le budget. C'est très important
, car vous
devrez peut-être ajuster le
budget à l'avenir. Allez-y et
essayez-le. Pour cette vidéo. C'est à peu près une
question de budget. Nous recevrons la première alerte lorsque notre facture AWS atteindra 50 % de 3$. Et la deuxième alerte à 80 %. Selon l'alerte, nous pouvons revenir vérifier
quels services sont en cours d'exécution. Et si nous n'en avons pas besoin, nous pouvons les mettre fin
pour économiser les coûts. Dans la vidéo suivante, nous résumerons le sujet comprenant le
compte AWS et le pneu gratuit. On se voit dans le prochain.
7. Méthodes d'interaction avec AWS: Bonjour les étudiants, bienvenue. Plus tôt, nous avons discuté des différents modèles de
déploiement Cloud, IS Pass et dit, mais saviez-vous
que nous pouvons également utiliser services
AWS comme n'importe lequel de
ces modèles si vous ne le faites pas. Eh bien, pas de soucis. Comprenons
cela dans cette vidéo. Ici, nous allons
comprendre quelles sont
les différentes méthodes
pour interagir avec votre compte et vos services AWS. Jusqu'à présent, nous avons interagi avec AWS via
Management Console, qui est une interface Web. De plus, nous avons deux autres façons d'
interagir avec AWS. première est l'interface de ligne
de commande AWS CLI . Il s'agit d'un outil que vous installez et configurez
sur votre ordinateur, qui vous permet d'accéder
aux services AWS et de les automatiser via
les scripts
terminaux de votre ordinateur. La deuxième méthode est SDK, qui signifie Software
Development Kit. Il est utilisé par les programmeurs
et les développeurs pour interagir avec les services AWS directement
à partir du code de l'application. Si cela n'est pas tout
à fait logique, ne vous inquiétez pas. Nous
les comprendrons en détail. Commençons par
la console AWS. Une fois encore. Il s'agit d'une interface Web permettant
d'interagir avec les services AWS. Et comme il est accessible
via votre navigateur Web, c'est le moyen le plus simple de
gérer les ressources sur AWS. Il suffit de vous connecter à votre compte AWS
et de faire ce que vous voulez. En outre,
la version mobile d' AWS Management Console
est également disponible. Vous pouvez l'installer
sur votre téléphone et accéder à presque tous les
services AWS depuis votre téléphone. N'est-ce pas génial ? Examinons maintenant
certains avantages de l'utilisation d'AWS Management Console. Si vous êtes débutant, AWS Management Console
est le bon début. Comme vous pouvez
interagir très facilement avec les services AWS. C'est comme naviguer sur
un autre site Web. Mais comme nous l'avons dit, c'est plus facile grâce à son interface
utilisateur très propre, étape par étape. Pour toutes ces raisons, la console de gestion
est le meilleur choix pour effectuer des
tâches administratives en tant que débutant. Maintenant, blanc uniquement pour les débutants. Eh bien, c'est parce que
certaines opérations dans la console AWS ou dans le
manuel prennent du temps. Il n'est donc pas possible d' automatiser tout via
la console de gestion. C'est pourquoi nous utilisons une interface de ligne de
commande ou une CLI. Maintenant, comprenons cela. L'interface de ligne de commande AWS, ou CLI, est un outil unifié pour
gérer vos services AWS. Il s'agit d'une
interface de ligne de commande qui vous permet de gérer votre service AWS à
l'aide de votre terminal informatique. Il s'agit d'un outil que vous pouvez facilement
installer sur votre ordinateur. Il prend en charge les systèmes d'exploitation Windows, Mac et Linux. Vous pouvez faire tout ce
que vous pouvez faire avec l'exemple AWS Management
Console. Si vous souhaitez répertorier tous les
utilisateurs de votre compte, vous ouvrirez un terminal sur
votre ordinateur et
saisissez les utilisateurs de la liste AWS. Vous obtiendrez une liste de tous les utilisateurs
disponibles sur votre compte. Et si vous
souhaitez supprimer un utilisateur, vous pouvez utiliser la
commande AWS delete user, name, et elle supprimera
cet utilisateur de votre compte. Vous pouvez également combiner ces deux commandes pour exécuter
quelles tâches en une seule étape. C'est un
avantage important de l'utilisation d' AWS CLI par rapport à la console
de gestion. Vous pouvez automatiser les tâches dans l'interface de ligne de commande. Supposons que vous ayez 50
utilisateurs sur votre compte. Et vous voulez supprimer les utilisateurs
dont le nom commence par M. Si vous devez le faire
depuis AWS Management Console, vous devrez trouver chaque utilisateur et supprimer
un par un, n'est-ce pas ? Mais ce n'est pas le
cas avec l'interface de ligne de commande. Ici, vous pouvez écrire
le script et utiliser les deux commandes ci-dessus pour
effectuer la même tâche. Et cela se fera rapidement. De même, vous pouvez gérer plusieurs services AWS
à l'aide du même script. Pour accéder à AWS via l'interface de ligne de commande, vous devez vous
authentifier, tout comme dans AWS
Management Console. Mais ici, au lieu
d'utiliser un nom d'utilisateur et un mot de passe, vous devrez
fournir un accès et la clé d'accès à clé
secrète agit comme le nom d'utilisateur et la
clé secrète est votre mot de passe. Si quelque chose semble déroutant. Nous allons
installer et configurer AWS CLI dans la prochaine leçon. Examinons maintenant certains
avantages de l'utilisation de l'interface de ligne de commande AWS. C'est un excellent moyen d'
interagir avec AWS via un terminal
informatique et constitue un excellent moyen d'automatiser tâches et de réaliser une
infrastructure sous forme de code. Enfin, nous avons le SDK, qui signifie Software
Development Kit. Dave Kid. En bref, comme son nom l'indique, il s'agit d'un ensemble d'outils logiciels et programmes utilisés par les développeurs
pour créer des applications. Maintenant, si vous pensez que
c'est similaire à AWS CLI, ce n'est pas vrai
car vous ne pouvez pas utiliser AWS SDK dans votre terminal
informatique. Il est uniquement utilisé pour lire ou dans votre code
d'application, ce qui permet
à votre application d' interagir avec les services AWS. Sdk prend en charge de nombreux langages de
programmation différents, tels que C plus plus,
Java , javascript.net, Node.js,
PHP, Python et Ruby. Il existe également des SDK mobiles pour Android et iOS ont un niveau. Comprenons cela
avec un exemple. Supposons que vous développiez une application mobile qui
permettra aux utilisateurs de
partager leurs photos. Pour cela, vous utiliserez
Amazon S3 comme stockage. Nous parlerons de S3 en
détail dans un autre module. Mais dans ce cas, votre application doit
interagir avec AWS, service
Amazon S3, n'est-ce pas ? Vous ne pouvez pas utiliser AWS Management
Console ou AWS CLI dans ce scénario car vous souhaitez que votre code d'application
interagisse avec le service AWS. Par conséquent, vous utilisez AWS SDK. Il vous permettra d'accéder à vos services AWS et de
les gérer
via votre code d'application. Vous connaissez peut-être déjà les
avantages de l'utilisation du SDK. C'est un outil parfait
pour interagir avec AWS via le code d'application. Il est idéal pour interagir avec AWS dans le code d'application. J'espère donc que vous
comprenez maintenant les trois méthodes
d'interaction avec AWS.
8. Utiliser la console de gestion AWS: Bonjour les étudiants, bienvenue. Dans la dernière leçon, nous avons examiné différentes manières d' interagir avec les services AWS. Dans cette leçon,
nous allons
approfondir la console de
gestion AWS et comprendre quelles sont
les différentes manières se connecter à AWS
Management Console. Comment créer un compte, les ERP, comment sélectionner une
région AWS dans notre compte et comment accéder à
divers services AWS
et à leur tableau de bord. Alors, allons-y directement. abord, vous devez vous connecter à
votre compte AWS pour accéder à
la console de gestion AWS. Les informations d'identification
que vous utilisez pour vous connecter déterminent le type
d'utilisateur que vous êtes. À l'heure actuelle. Vous connaissez l'utilisateur racine qui
est le propriétaire du compte. Cet utilisateur a accès à toutes les ressources et
services du compte. Il y a ensuite d'autres
types d'utilisateurs dans votre compte
appelés utilisateurs IAM. Ces utilisateurs ont un
accès limité aux ressources
et aux services. Comprenons maintenant
la différence entre utilisateur
racine et l'utilisateur IAM. L'utilisateur racine est l'utilisateur qui a été créé lors de la création du compte pour la première fois
. Par conséquent, si nous nous connectons à l'aide des informations d'identification
racine, nous aurons accès à
l'ensemble du compte. D'autre part, les utilisateurs IAM sont créés par l'utilisateur racine. Nous en parlerons davantage dans
les modules ultérieurs. Connectez-vous à AWS. En tant qu'utilisateur racine, vous avez besoin de l'ID e-mail et du
mot de passe que nous avons utilisés, ainsi l'authentification
multifacteur que nous avons
activée lors de
la création du compte AWS. Cependant, connectez-vous en tant qu'utilisateur IAM, vous avez besoin d'un nom d'utilisateur, d' passe et
d'un code
AWS à douze chiffres, d'un identifiant de compte
ou d'idées de compte. Comme nous n'avons ni
utilisateur IAM ni compte. Alors connectons-nous avec l'utilisateur
racine que nous avons déjà
créé et
créons un compte LES. Nous sommes ici sur la page de signature
AWS. Je vais entrer l'
identifiant de l'e-mail, puis je clique sur Suivant. Je vais donner mon mot de passe. Cliquez ensuite sur Connexion. Comme j'ai configuré l'authentification
multifacteur, je devrai entrer
un code unique en plus de mon mot de passe
pour pouvoir me connecter. Je vais donc entrer le code. Maintenant, je suis connecté
à la console AWS. Maintenant que nous sommes dans la console, il y a quelques éléments que
nous devrions vérifier rapidement. L'un d'eux est le compte. Vous pouvez voir ici les paramètres de
compte qui contiennent les détails de votre compte, tels que les informations de
contact, autres contacts pour la facturation, les
opérations et la sécurité. Vous vous souvenez de la mise en place du budget ? Dans la dernière rubrique, nous allons rapidement consulter
notre tableau de bord de facturation. Cliquez sur le tableau de bord de facturation. Vous verrez le résumé de la
facturation et d'autres détails, y compris la
facture du mois en cours, les versions
précédentes
et le contrôle budgétaire. Bien que je pense que vous avez
configuré un budget et
activé une
alerte, je vous recommande de consulter
régulièrement cette page pour voir si vous
avez des factures indésirables. Maintenant, revenons en arrière et créons un alias de compte de type IAM
dans cette zone de recherche ici, puis cliquez sur le tableau de bord IAM Identity and Access Management
Service. Et comme vous pouvez le voir
à droite ici, nous avons un ID de compte et l'alias du compte est en
dessous. Veuillez noter que
l'alias du compte est le même que l'ID de compte. Voici donc notre numéro de compte à 12
chiffres. Mais se souvenir que c'est
peut-être un défi. Nous allons donc créer un alias beaucoup
plus facile à mémoriser. Pour cela, cliquez sur
Créer, ajoutez votre ID, le Cloud Advisory 2050, puis enregistrez les modifications. Cela créera une pièce d'identité pour vous. Nous utiliserons cet identifiant ou cet alias chaque fois que nous nous connecterons
à l'aide de l'utilisateur IAM. Revenons maintenant au lien
du compte utilisateur. Pour ce faire, il suffit de cliquer
sur le logo AWS. Ensuite, nous avons une autre liste déroulante pour
sélectionner la région AWS. Nous allons donc sélectionner une
région pour notre compte. Nous sommes actuellement
en Virginie du Nord. Nous sommes à l'Est, l'une est
la raison appelée. Chaque région possède un code
spécifique et nous utilisons
ce code lors de l'utilisation d'
AWS, de l'interface de ligne de commande et du SDK. Nous en parlerons lors
des prochaines sessions. Nous avons déjà discuté de l'infrastructure mondiale
AWS. Et vous pouvez constater qu'AWS compte
de nombreuses régions et régions
prises en charge. Nous allons vous connecter à AWS
Management Console, sélectionner une région AWS pour créer ces services
dans une région spécifique. C'est la première chose que vous faites lorsque vous créez un nouveau service, l'exception de quelques-uns qui
ne sont pas sensibles à la région. Si nous basculons et sélectionnons
la région Asie-Pacifique, qui n'est rien d'autre
que la région de Mumbai. Tous les services que nous créons maintenant seront lancés uniquement dans la région de
Bombay. Il est donc essentiel de
décider et de sélectionner la région dans laquelle vous souhaitez
créer vos services AWS. Et surtout, si vous créez
des ressources AWS et que vous ne les voyez pas
dans la console. Cela signifie que vous l'avez créé dans région
différente et que vous
devrez passer à leur
région pour les voir. Allons maintenant de l'avant et voyons comment naviguer vers les services AWS. La
console de gestion AWS offre plusieurs façons de naviguer
vers des tableaux
de bord de service individuels. Dans la zone de recherche de
la barre de navigation, entrez le nom du service. Vous verrez les résultats. Choisissez le service souhaité dans
la liste des résultats de recherche. Par exemple, passons
au service S3. Nous pouvons simplement saisir
la dette et nous
obtiendrons une liste de tous les
services qui incluent S3. Dans ce cas, nous
chercherions ici juste S3. Et si nous cliquons dessus, il nous amènera au tableau
de bord de ce service particulier. Ensuite, nous pouvons également revenir à la page d'accueil en cliquant
sur le logo AWS. Ensuite, choisissez les services pour ouvrir
une liste complète des services. Ici, en haut
à droite de la page. Choisissez un groupe pour voir les
services répertoriés par catégorie, ou choisissez un jet pour voir
une liste alphabétique. Sélectionnez ensuite le
service que vous souhaitez. Par exemple, faites défiler vers le
bas et sélectionnez la catégorie de stockage qui
inclut AWS Backup, EFS, S3 et bien d'autres. J'en parlerai davantage
dans l'un des derniers modules. Mais cela nous donne une
approche de haut
niveau des services en
fonction de leur catégorie. Vous trouverez ensuite l'onglet récemment
visité. Vous pouvez voir ici les derniers services que j'ai
visités dans la console, notamment S3, RDS, ec2. Ce sont donc les services avec
lesquels j'ai récemment travaillé. Dans le cas où vous ne travaillez qu'avec
une poignée de services. Cela peut être un
moyen très rapide de cliquer dessus et d'accéder aux tableaux de bord des
services spécifiques. C'est tout pour cette session.
9. Installez AWS CLI: Bienvenue aux étudiants. Nous poursuivrons
notre discussion sur la façon d'interagir
avec les services AWS. Et dans cette vidéo de démonstration, nous allons installer AWS
CLI sur notre système. Puisque j'ai un Mac, je vais suivre les instructions
d'installation de Mac. Cependant, le processus reste le même pour les autres systèmes
d'exploitation, y compris Windows et Linux. Allons donc dans le navigateur et trouvons la
documentation d'installation. Dans cette barre de recherche. J'ai installé AWS CLI sur Mac. Vous pouvez également rechercher
vos systèmes d'exploitation tels que AWS CLI installé en ligne. Ensuite, installez AWS CLI
sur Windows également. Nous allons ouvrir la voie rapide, installer et mettre à jour
leur test était une interface de ligne de commande AWS. Cette page contient des instructions d'installation pour les trois systèmes d'exploitation, y compris Linux, Mac
OS et Windows. J'irai pour Mac OS
et je suivrai le processus. Défilons vers le bas. Et voici les instructions
d'installation. Nous avons besoin d'un fichier EKG sombre, qui est un installateur graphique. Je vais donc télécharger
le fichier à partir d'ici. Une fois que vous l'avez téléchargé,
ouvrez-le et cliquez sur, continuez, continuez,
continuez et acceptez. Autorisez l'installation à tous les utilisateurs de cet ordinateur. Cliquez sur Continuer et
cliquez sur, installez-le. Nous avons installé l'
interface de ligne de commande sur votre système. Attendons
que tout soit fait. Le système est en train d'écrire les fichiers. Enfin, l'installation
est maintenant couronnée de succès. Puisque je n'ai plus besoin de
l'installateur, je vais le déplacer à la corbeille. Vérifiez l'installation. Je vais ouvrir un terminal, accéder à l'option Rechercher et taper une minute. Ensuite, j'ajouterai AWS. Si vous disposez d'une
CLI en cours d'exécution sur votre système, elle doit renvoyer une version
de la table d'exécution AWS. Attendons un peu. Nous avons ici la
réponse à notre commande, qui montre que tout
a été installé correctement. Veuillez télécharger l'interface de ligne de commande sur votre système car nous
l'utiliserons dans les prochaines leçons. En cas de problème, jetez un coup d'œil à ce type.
10. Utiliser le AWS CLI: Bonjour les étudiants, bienvenue. Nous poursuivrons
notre discussion sur la façon d'interagir
avec les services AWS. Et dans cette démonstration, vous
apprendrez comment utiliser AWS CNI pour interagir
avec les services AWS. Commençons donc. Laissez-moi ouvrir le
terminal de mon ordinateur portable. Tout d'abord, assurez-vous avoir déjà installé AWS CLI. Vous pouvez vérifier en tapant. Aws n'était pas sur votre terminal et
restitue facilement l'interface de ligne de commande AWS. Deuxièmement, vous devez authentifier AWS CLI pour accéder aux services AWS. Et comme nous l'avons mentionné, utilisateurs de l'
AWS CLI accèdent aux
clés d'authentification. Nous aborderons en
détail l'authentification
et l'autorisation dans la rubrique Gestion des identités et des
accès. Mais pour cette démonstration, accédons à la console de
gestion AWS et créons une clé d'accès. Ici. Cliquez sur Compte, puis sur les informations d'identification
de sécurité. Nous sommes maintenant dans la clé
d'accès de mes identifiants de sécurité. Et ici, nous pouvons créer de
nouvelles clés d'accès. Les clés d'accès sont essentielles car elles sont utilisées pour
contrôler l'authentification et l'autorisation lors de l'utilisation l'interface de ligne de commande et du kit SDK pour
accéder au compte AWS. Maintenant, à titre de note, nous allons créer des clés
d'accès ici. Cependant, je vais supprimer ces clés immédiatement
après ce tableau. Vous ne devez pas non plus utiliser clés d'accès utilisateur
racine au jour
le jour. Ce n'est pas une bonne pratique. Encore une fois, nous apprendrons cela en détail dans la rubrique Gestion des identités et des
accès. Pour l'instant, cliquez sur
Créer une nouvelle clé d'accès
, puis affichons la clé d'accès. Ici, nous avons à la fois notre axe
et notre clé d'accès secrète. C'est ce que nous
utiliserons pour accéder à nos ressources AWS
via l'interface de ligne de commande. Copions les deux
clés dans un fichier texte. Vous pouvez également le télécharger en
cliquant sur Télécharger et autoriser. Revenons maintenant à l'AWS CLI
et saisissons le terminal. Configuration AWS. Maintenant, entrez d'abord la
clé d'accès et la clé d'accès secrète. Entrez maintenant le nom de la région
par défaut. Et dans ce cas,
choisissons celui de sel API. Enfin, nous choisirons
le format de sortie par défaut. Dans ce cas, choisissons
le format gestuel. Une fois que tout cela est
en place, appuyez sur Entrée. Nous avons configuré avec succès l'interface de ligne de commande AWS, ce qui signifie que nous
devrions être en mesure utiliser l'AWS CLI pour obtenir des informations sur
les ressources AWS. Nous allons le vérifier rapidement. Nous allons exécuter une commande qui
répertorie le compartiment S3. Saisissons AWS. Et il retournera
une liste de tous
les différents compartiments S3 que j'ai créés
dans ce compte. Si vous n'avez pas de seau, il ne retournera rien. Par conséquent, pour passer rapidement en revue ce que nous
avons fait dans cette leçon, nous avons créé des clés d'accès pour
nos utilisateurs avec la prudence que nous ne voulons généralement pas créer de clés d'accès
pour l'utilisateur racine. Toujours
le créer pour cette démo. Mais tant que vous le supprimez,
cela devrait bien se passer. Enfin, nous accédons au S3 pour vérifier que nous pourrions
accéder aux ressources AWS. C'est tout pour cette vidéo.
11. Régions AWS et zones de disponibilité: Bonjour les étudiants, bienvenue. Dans cette vidéo, nous
découvrirons les régions AWS, les différentes
zones de disponibilité et l'importance des régions
et des joules de disponibilité. Commençons donc. Supposons que vous souhaitiez héberger
notre application Web. Pour cela, vous auriez besoin de
votre propre centre de données, n'est-ce pas ? Maintenant que vous connaissez AWS
et d'autres services Cloud, vous n'avez plus besoin de
configurer notre centre de données et pouvez facilement héberger votre
application dans le cloud AWS. Mais supposons que vous
utilisez toujours un centre de données sur site. Voici maintenant une question. Que se passe-t-il si un sinistre
frappe votre centre de données ? C'est un coussin valide, non ? Tout peut arriver. Et puisque vous possédez et
gérez le centre de données, vous devrez déterminer ce que vous ferez dans
une situation aussi extrême. Une façon d'éviter un arrêt
complet de votre application consiste à exécuter un deuxième centre de données à un
autre emplacement. Donc, quand l'un tombe en panne, l'autre sera
là en tant que secours. Mais la maintenance d'
un autre centre de données permettra de doubler les coûts matériels
et de maintenance. Ne vous inquiétez pas. Ce n'
était qu'un exemple. Un AWS offre une meilleure solution
à cette possibilité, c'
est-à-dire la région AWS. Une région AWS n'est
rien d'autre que les
emplacements géographiques du monde entier, nous sommes différents
centres de données en cluster. Cela signifie qu'AWS gère plusieurs centres de données
au même endroit. Selon les normes AWS, il doit y avoir au moins deux
centres de données dans une région. Et chaque centre de données doit
disposer d'électricité, de
refroidissement, de chauffage, de mise en réseau
et de connectivité redondants . Encore une fois, toutes
ces régions sont connectées via le réseau principal
AWS, qui est essentiellement un réseau à
très haut débit. Chacune de ces régions possède des noms et des codes
différents. Ces noms sont basés sur leur situation
géographique mondiale. L'emplacement géographique désigne emplacement
physique
comme Mumbai, Tokyo ,
Francfort,
Amérique du Nord, Amérique du Sud,
Chine, Afrique du Sud
et Moyen-Orient. Ce sont là quelques exemples. Eh bien, mon AP South. Moon Bay est un
lieu physique, non ? Ils appellent donc cela une
région à sens unique et cela a
appelé l'épisode un. Il en va de même pour Singapour
et d'autres endroits. Singapour, API
sud-est, une, Sydney, API sud-est jusqu'au
Cap, sud. Ainsi, lorsque vous possédez un compte AWS, vous pouvez choisir la raison pour
laquelle vous souhaitez déployer
vos services AWS, que vous
souhaitiez
le lancer à Mumbai ou à Tokyo. Cela dépend également de
différents facteurs dont je vais
parler dans cette vidéo. En termes simples, vous pouvez dire qu'AWS est un fournisseur de services cloud et qu'il possède des centres de données
dans le monde entier. À l'heure actuelle, il existe 26 régions géographiques avec 84 zones de disponibilité
à travers le monde. Et AWS continue
d'ajouter de nouvelles régions. Par conséquent, au moment où vous
regardez cette session, ces chiffres ont peut-être changé. Vous pouvez donc consulter
le lien fourni dans la section Ressources cette vidéo et vérifier le
dernier numéro d'AWS. Allons de l'avant et
parlons de la disponibilité Jones. Maintenant, quelle que soit notre
disponibilité Jones, il s'agit d'un ou de plusieurs centres de données
distincts
séparés individuellement centres de données
distincts
séparés avec une alimentation, une mise en
réseau et une connectivité redondantes dans une région AWS. En d'autres termes, il ne s'agit
que d'un centre de données isolé. En raison de la raison, la seule
différence réside dans le fait qu' il dispose d'une alimentation, d'un
réseau et d'une connectivité redondants. Chaque
zone de disponibilité possède donc un ensemble de
centres de données isolés des
autres zones de disponibilité. Je crois donc que nous l'avons fait. Joan n'est qu'un
groupe de centres de données. En outre, conformément à AWS Standard, une région AWS doit comporter
deux zones de disponibilité. Prenons donc un exemple de
la région de Moon Bay. Il dispose de trois zones de disponibilité. Comme nous l'avons vu plus tôt. Chaque région avait
un code spécifique. De même, la disponibilité
Jones a également code
correspondant
qui consiste en
un code de région
suivi de l'alphabet. Si vous vous souvenez, le code
régional de Bombay est ap salt one. Voyons maintenant. Le code de la zone de
disponibilité, la disponibilité John one a
le code API South one. De même, la disponibilité
John code deux est un pièce1 et la zone de disponibilité troisième
a l'épisode de code 1. Vous voyez, j'espère qu'il est clair
que le code de région suivi de l'alphabet rend
la disponibilité juin froide. Nous savons donc de loin que chaque région AWS a deux ou
plus de disponibilité Jones, tout comme Mumbai possède
trois zones de disponibilité. La Virginie du Nord possède l'
avenue de Jones et ainsi de suite. Comprenons maintenant pourquoi ces zones de disponibilité
sont importantes pour nous. Nous savons donc qu'une région est composée de plusieurs zones de
disponibilité. Ici. Permettez-moi de vous dire que chaque disponibilité de juin
n'est pas un centre de données unique, mais qu'il s'agit de grappes
de centres de données. Certaines disponibilités Jones
peuvent avoir deux centres de données, tandis que d'autres peuvent en
avoir trois ou plus. Toutes ces
zones de disponibilité sont situées entre 5 200
kilomètres de distance. Pour revenir à l'importance
de la disponibilité Jones, supposons que si une
zone de disponibilité tombe en panne, tout
le cluster de
centres de données s'y trouverait. Mais les centres de données situés dans d'autres zones de disponibilité
continueront de fonctionner. Par conséquent, vous ne serez pas confronté un arrêt complet de votre
application ou de votre site Web. L'infrastructure Aws
est conçue pour garantir la haute disponibilité
des applications. Et si vous pensez, quelle est l'importance pour
vous, laissez-moi vous le dire. Supposons que vous
souhaitiez déployer votre application dans
la région de Bombay. Et comme vous le savez,
une région de Moon Bay possède trois zones de
disponibilité différentes. La première chose que vous
feriez est donc de lancer un serveur dans n'importe lequel des Jones
selon vos besoins. Une fois le serveur lancé, vous pouvez désormais y
accéder via Internet. Vous n'avez pas
à vous soucier de la zone de disponibilité dans laquelle vous
avez lancé votre serveur, tant que vous pouvez
y accéder via Internet. Mais supposons que
la zone de disponibilité dans laquelle vous avez lancé votre serveur
tombe complètement en panne. Cela signifie que l'application
sera également effectuée. Mais ce n'est pas ça. Vous ne pourrez pas non plus accéder aux données de
votre application. Si vous ne possédez pas ces données, vous ne pourrez pas
relancer votre application. Ainsi, pour éviter de telles situations, AWS dispose de Jones. Jetons un coup d'œil aux avantages de
la disponibilité Jones. Le premier avantage est la disponibilité
plus élevée. Lorsque vous concevez
vos applications, vous vous assurez que
tous vos serveurs et
bases de données sont placés tous vos serveurs et dans plusieurs zones de
disponibilité. Donc, si l'une d'elles tombe en panne, vous avez une autre zone
à couvrir pendant une seconde. Si vous vous souvenez, nous avons
parlé de la distance entre deux zones se situant
entre 5 200 kilomètres. Supposons maintenant que vous ayez une base de données
principale dans un seul John. Dans ce cas, vous pouvez avoir le réplica de cette base de données
dans le Jones secondaire. Il est également possible d'avoir une réplication
synchrone
entre deux bases de données. Cela copiera toutes vos données dans deux bases de données
simultanément. Maintenant, si un John tombe en panne, nous en avons un autre
pour fonctionner normalement, ce qu'on appelle la tolérance aux pannes. Veuillez noter qu'il ne s'agit pas
d'une conception par défaut d'AWS. Vous devrez concevoir
votre application dans plusieurs zones de disponibilité pour obtenir une haute disponibilité
et une tolérance aux pannes. Étudiants, j'espère que la zone de
disponibilité est claire. Voyons maintenant un exemple d'architecture
dans lequel nous
verrons comment utiliser la disponibilité Jones pour rendre notre application
hautement disponible. Supposons que dans une région AWS, nous ayons deux
zones de disponibilité que nous
appellerons zone de disponibilité 1
et zone de disponibilité deux. La première chose que nous
ferions est de lancer un serveur EC2 et la base de données correspondante dans
la zone de disponibilité 1. De même, nous lancerions un autre serveur Web et base de données
correspondante dans
la zone de disponibilité. Maintenant, votre application et votre
base de données sont toutes deux hautement disponibles et elles peuvent être maintenues en
cas de panne d'un John. Désormais, les étudiants, en bref, la région AWS est l'emplacement
géographique à travers le monde et la disponibilité Joan est le cluster
de centres de données. Région particulière.
Très bien, alors allons maintenant de l' avant et comprenons pourquoi il y a un besoin de
tant de régions aujourd'hui. Bien sûr, il vous offre
la flexibilité nécessaire pour déployer votre application
dans n'importe quelle région AWS qui vous est bénéfique. dehors de cela,
la principale raison est l'accès
à faible latence aux applications. Si votre base d'utilisateurs se trouve aux États-Unis, déploiement de votre application
aux États-Unis n'a que du sens. De même, si vous avez
votre base d'utilisateurs en Inde, vous choisirez la région
Moon Bay. La deuxième raison est la conformité
réglementaire. Différents pays
ont des règles différentes pour réglementer les données. Par conséquent, le fait d'avoir
plusieurs régions
vous donne la liberté de choisir
ce qui vous convient le mieux. La troisième raison est de soutenir
tout type de catastrophe. Toutes ces régions AWS
se trouvent dans le monde entier et la distance minimale entre deux régions doit
être de 300 kilomètres, ce que nous appelons site de reprise
après sinistre. Cela permet de s'assurer que votre application s'exécute
sur l'un des sites. Et l'autre côté doit
être
éloigné d'au moins 300 kilomètres pour s'assurer qu' ils ne font pas partie
des mêmes systèmes. Par conséquent, vous pouvez également tirer parti des avantages
de plusieurs régions. Outre les exigences en matière de
latence, conformité
réglementaire
et de reprise après sinistre, vous
pouvez également prendre en compte certaines
considérations supplémentaires lorsque vous
utilisez plusieurs régions. Par exemple, pour l'application
globale, les entreprises souhaitent offrir la meilleure expérience utilisateur à
leurs utilisateurs du monde entier. Un moyen d'y
parvenir consiste à déployer votre application dans la région
plus près de vos audiences. Par exemple,
une application basée aux États-Unis utilisera la région de
Mumbai pour offrir à l' utilisateur
indien une meilleure expérience. Le coût est un autre avantage de
l'utilisation de plusieurs régions. Étant donné que chaque pays a
une économie différente, la tarification de l'utilisation d' AWS varierait d'un
pays à l'autre. Par conséquent, vous obtiendrez des services
moins chers
dans certains pays. Et en tant qu'organisation, c'est un excellent moyen d'
économiser de l'argent. Ensuite, vous avez un rayon d'explosion
réduit. De nombreuses personnes et
organisations veulent qu'en cas de défaillance d'une
région complète, elles peuvent vouloir tirer parti une autre région en tant que reprise
après sinistre. Plusieurs fois, ils
répartissent également leurs charges de travail entre les régions au cas où quelque chose arriverait
à une région. Une autre région est
active et c' ainsi qu'elles réduisent le
rayon d'explosion de la catastrophe. Donc, les étudiants, c'était tout
au sujet des régions AWS et de
la disponibilité Jones s'
assure que vous
comprenez
bien tout , car ils sont importants
du point de vue de l'entretien. C'est tout pour cette vidéo.
12. Emplacements de bord AWS: Bonjour les étudiants, bienvenue. Dans la dernière vidéo, nous avons compris les régions AWS
et les zones de disponibilité. Dans cette vidéo, nous aborderons un autre aspect important de l'infrastructure mondiale
Amazon, à savoir l'emplacement périphérique. Commençons par
comprendre
la région AWS et
comment choisir une région
pour votre application ? Le
choix d'une région AWS repose sur de nombreux facteurs. Le critère principal est la proximité avec vos clients
cibles. Nous choisissons toujours
une région la
plus proche de nos clients cibles. Mais que faire si vous avez des
clients dans le monde entier ? Supposons simplement que vous disposez d'une application de
streaming vidéo sur laquelle les utilisateurs peuvent publier le time-lapse du paysage
indien. Vous avez conservé
votre application et ses données à Mumbai,
puisque vos clients
sont originaires d'Inde. Mais après quelques mois, qui a vu beaucoup de
trafic venant du Japon ? À ce jour, vous ne répondez que toutes les demandes des clients japonais de la région de Moon Bay. Mais en raison de la grande distance
entre l'Inde et le Japon, vos utilisateurs japonais peuvent ne pas bénéficier une bonne expérience utilisateur en
raison d'un problème de faible latence. Vous pouvez désormais
déployer correctement votre application
au Japon en copiant vos données
dans une région Cloud au Japon, Tokyo dans le cas d'AWS. C'est ainsi que vous pouvez
servir vos clients là-bas. Il s'agissait d'un exemple de mise en cache. Par définition, le jaillissement est
le processus consistant à stocker une copie de données dans notre emplacement de
stockage temporaire ou en cache. Il est donc accessible
plus rapidement. Dans ce cas,
vous pouvez donc mettre vos données en cache dans
le centre de données de Tokyo et nous
offrir une expérience utilisateur fluide
aux clients japonais. Un autre concept que vous devez comprendre est le réseau de
diffusion de contenu, communément appelé cdn. Il ne s'agit que d'un terme
technique que nous utilisons pour cache des copies de données dans un centre de données plus
proche des clients. Veuillez noter que CDN n'est pas
un terme spécifique à AWS. Un
réseau de diffusion de contenu ou un CDN, cache du contenu
tel que des images, des vidéos ou des pages Web dans des
serveurs proxy
situés plus près des
utilisateurs finaux que des serveurs d'origine. Encore une fois, ces serveurs proxy
vivent dans un centre de données, et ces centres de données sont
appelés emplacements périphériques. Maintenant, vous devez vous demander
quelle est la différence
entre la région et l'
emplacement périphérique comme nos deux
centres de données, n'est-ce pas ? La différence est que les emplacements
périphériques sont plus petits centres de données et qu'ils sont disponibles dans toutes les grandes
villes du monde. Si vous comparez, le nombre
total d' emplacements
périphériques est supérieur à
12 fois le nombre de régions. Vous avez donc plus d'
options pour mettre en cache vos données et les résoudre
rapidement auprès de vos clients. La deuxième différence est que les
emplacements périphériques sont
séparés des régions et sont
situés à d'autres emplacements. Cela vous permet de
transférer votre contenu
des régions vers un ensemble d'emplacements périphériques à
travers le monde. La différence est que le
service spatial de l'hôte d'AWS Edge pour fournir ce contenu plus rapidement s'appelle
Amazon CloudFront. Alors que la région AWS héberge
presque tous les services AWS. Autre que CloudFront. emplacements Edge Aws exécutent également
notre service de noms de domaine, ou DNS, appelé
Amazon Route 53. Nous couvrirons Cloudfront et
Route 53 dans des modules ultérieurs. Très bien, il y a
bien plus que cela à propos de l'infrastructure mondiale AWS. Mais gardons les choses
simples et examinons rapidement les points clés de l'infrastructure mondiale AWS. Premièrement, les régions sont des emplacements
géographiquement isolés où vous pouvez accéder aux services AWS nécessaires
à l'exécution de votre application. Numéro deux, les régions contiennent des zones
de
disponibilité physiquement séparées. Bâtiments avec leur
chauffage électrique, leur refroidissement et leur réseau. Availability Jones vous
aide à résoudre haute disponibilité et de
reprise après sinistre scénarios de
haute disponibilité et de
reprise après sinistre sans effort
supplémentaire. numéro trois, AWS, emplacements
périphériques du numéro trois, AWS, exécutent
Amazon CloudFront pour
aider à rapprocher le contenu vos clients,
où qu'ils se trouvent dans la nature. C'est tout pour cette vidéo.
13. Qu'est-ce que la gestion d'Identity et d'accès ?: Bonjour, étudiants. Bon retour. Savez-vous pourquoi vos établissements
d'enseignement vous
délivrent la carte d'identité ? Parce que les cartes d'
identité d'un institut
lui permettent de contrôler qui peut
accéder à ses installations. Votre carte d'identité sert de
preuve que vous étudiez
dans ce collège, et vous pouvez donc utiliser
leurs installations. De même, AWS propose
un service qui aide les entreprises à gérer leur
identité dans le cloud. Dans cette vidéo, nous allons découvrir les concepts des services de
gestion des identités et des accès liés à l'IAM, à l'
identification, à l'authentification
et à l'autorisation Commençons par ce qu'est la gestion des
identités et des accès ? gestion des identités et des accès La gestion des identités et des accès est un cadre qui garantit que les bonnes personnes de
votre organisation peuvent accéder au seul service dont
elles ont besoin pour faire leur travail. N'oubliez pas qu'il n'est pas recommandé d'utiliser votre compte root pour toutes
vos tâches et celles de votre équipe, car cela pourrait entraîner de
graves problèmes de sécurité. Faisons une analogie ici. Supposons que vous
travailliez dans une organisation
et que chaque jour, lorsque vous
entrez par l'entrée principale, vous deviez présenter votre carte d'identité
au gardien de sécurité ou vous
devez utiliser votre carte de connexion De cette façon, votre organisation
s'assure que vous êtes la bonne personne qui peut accéder aux locaux de l'
organisation. Et c'est exactement
ainsi que fonctionne IAM. Lorsque vous présentez votre carte d'identité, vous prouvez que vous
êtes la bonne personne. En tant que personne, vous êtes une identité. Maintenant, lorsque vous montrez votre
carte d'identité au gardien de sécurité, il regarde la photo de votre carte d'
identité et votre visage et vérifie
si les deux correspondent Une fois la vérification
effectuée avec succès, vous pouvez
y accéder tout au long de ce processus. En tant que personne, vous avez accès
aux locaux appropriés.
Ce n'est pas ça. Cette carte d'identité
sert de preuve pour accéder
à de nombreux autres services et installations de
votre organisation. Par exemple, certaines personnes ne
peuvent utiliser que la section
compte, tandis que d'autres ne peuvent utiliser que les ressources
humaines, etc. Il existe un
système bien défini qui peut utiliser quoi de la même manière. La gestion des identités et des accès, ou IAM, est un service d'AWS qui garantit que la bonne personne a accès à la bonne chose Aws IAM fournit un contrôle d'accès à tous les
services et ressources AWS Vous pouvez spécifier qui
peut accéder à quels services et ressources et
dans quelles conditions. Il existe également le
concept de politique IAM, que vous pouvez utiliser pour
gérer les autorisations accordées à
votre personnel et à votre système afin de garantir les autorisations du moindre
privilège Si cela n'a aucun
sens, ne vous inquiétez pas. Je vais aborder tout cela dans les
prochains sujets. Pour l'instant, comprenons trois concepts importants de gestion des identités et des accès, d'identification, d'autorisation
et d'authentification. Ces trois termes
sont étroitement liés, mais ils ne sont pas identiques. Comprenons-les maintenant. L'identification est la capacité d'identifier un utilisateur de manière unique. Cela signifie comment une personne ou un
système peut être identifié. Dans le dernier exemple, vous vous identifiez à l'
aide d'une carte d'identité. Hein ? Et cela
varie d'un système à l'autre. Lorsque vous vous connectez à
votre compte bancaire, vous utilisez un nom d'utilisateur et un mot de passe. Vous vous identifiez sur le portail bancaire à l'aide de votre
nom d'utilisateur et de votre mot de passe. Votre identification est votre nom d'utilisateur et l'identification par
mot sert
essentiellement à identifier chaque utilisateur unique qui
accède à vos services
ou installations. Le second concept
parle d'authenticité. L'authentification est le processus de
reconnaissance de l'identité d'un utilisateur. Lorsque vous présentez votre carte d'identité
au gardien de sécurité,
celui-ci vérifie la
photo de votre carte d'identité avec votre visage C'est l'authentification. Lorsque vous vous connectez à
votre compte bancaire, vous fournissez votre
nom d'utilisateur et votre mot de passe. Le système
principal bancaire compare votre nom d'utilisateur et votre mot de passe aux
nom d'utilisateur et aux mots de passe enregistrés dans leur système Le système s'assure que vous avez reçu le bon
nom d'utilisateur et le bon mot de passe. Si vous connaissez le
nom d'utilisateur et le mot de passe corrects, vous êtes le propriétaire
du compte. Si vous avez reçu
une identité unique, il doit y avoir un
système pour la reconnaître chaque fois que vous utilisez
votre identité unique. Ce processus de reconnaissance de l'authenticité
de votre identité est connu sous le nom d'authentification. Enfin, l'autorisation
est le processus donner
à quelqu'un l'autorisation d'accéder à quelque chose. Une fois que vous êtes autorisé, vous pouvez entrer dans les locaux
du bureau et vous rendre dans votre zone de bureau. Mais vous ne pouvez pas aller à la cuisine de la cantine parce que
vous n'êtes pas autorisé ou parce que nous pouvons dire que vous n'êtes pas
autorisé à accéder à la cuisine
de la cantine conformément à votre fonction professionnelle Découvrons maintenant la gestion
des identités et des accès dans le cadre d'AWS. gestion des identités et des
accès AWS La gestion des identités et des
accès AWS est un service AWS qui aide une organisation à
gérer l'accès son compte et aux
services AWS pour le personnel de son
organisation. Il fournit un
contrôle d'accès précis à tous les services AWS Une définition précise signifie que vous
pouvez spécifier qui peut accéder à quels services et ressources et dans
quelles conditions Si vous souhaitez que la personne accède uniquement au
service AWS EC two et que la personne Y accède uniquement au service
S three, c'est tout à fait possible. Cela se fera
avec la politique IAM.
14. Utilisateurs, groupes et rôles: Bonjour, étudiants. Bon retour. Dans la dernière vidéo, nous avons
découvert AWS IAM. Dans cette leçon, nous
allons
parler des éléments de l'IAM, notamment les
groupes d'utilisateurs et les rôles Commençons par les utilisateurs. Un utilisateur est une personne qui utilise un service AWS dans
un compte AWS Comme nous l'avons indiqué dans
la leçon précédente, AWS possède deux types d'utilisateurs l'utilisateur
root et l'utilisateur IAM Le nom d'utilisateur root lui-même
indique qu'il s'agit
de l'utilisateur spatial. Il est créé lors de la création du compte
AWS. Lorsque vous créez un compte AWS, AWS crée une
identité ou un utilisateur pour vous. Cet utilisateur d'identité est
appelé utilisateur root d'AWS. Cet utilisateur a accès à tous les services et
ressources AWS du compte. Quelques points importants
concernant les utilisateurs root d'AWS. Vous pouvez vous connecter en tant qu'
utilisateur root à l'aide de l'adresse e-mail et mot de passe que vous avez utilisés
pour créer le compte. L'utilisateur root dispose d'un accès complet à tous les services et
ressources AWS du compte. Il n'est donc pas recommandé d' utiliser l'utilisateur root
pour les tâches quotidiennes. Vous ne devez jamais partager les informations d'identification de l'utilisateur
root
avec tout le monde. Seules très peu de personnes fiables devraient avoir les informations d'identification
root. Nous savons maintenant que nous ne pouvons pas utiliser l'utilisateur root pour
notre travail quotidien. C'est là que l'utilisateur IAM
entre en scène. L'utilisateur Iam est une entité
que vous, en tant qu'utilisateur root, créez dans un
compte AWS pour représenter l'utilisateur qui interagit avec ressources
AWS de votre Comprenons maintenant
cela à l'aide d'un exemple. Imaginons que vous êtes
le chef d'équipe d' une organisation et que vous
possédez un compte AWS. Vous avez deux développeurs, Ram Sham, et deux
administrateurs, Ta et Geta Dans votre équipe, votre équipe doit
avoir accès à un compte AWS pour héberger une application, car vous ne souhaitez pas leur donner
accès à votre compte root. Vous pouvez créer des utilisateurs IAM
pour les membres de votre équipe et leur
fournir l'accès aux services dont ils ont
besoin pour leur travail Ici, chaque membre de l'équipe
représente un utilisateur IAM, car chaque membre de l'équipe doit
interagir avec un
compte AWS pour faire son travail Vous allez créer quatre utilisateurs IAM
pour Ram Shamtha et Geta. OK, maintenant nous comprenons
l'utilisateur de la messagerie instantanée. Examinons le fonctionnement des utilisateurs
IAM et la manière dont nous attribuons des autorisations
aux différents utilisateurs IAM Lorsque vous créez un utilisateur,
celui-ci dispose d'un
nom d'utilisateur, d'un mot de passe et de clés d'accès
que vous partagez avec les personnes concernées pour
accéder au compte AWS. nom d'utilisateur et le mot de passe
seront utilisés pour accéder à la console de gestion
AWS et à la clé d'
accès pour un accès programmatique avec l'AWS CLI Chaque utilisateur a été ajouté
à un seul compte AWS Chaque utilisateur possède ses
propres informations d'identification pour accéder au compte AWS. Maintenant, la question importante est quel type de
ressources AWS ils peuvent utiliser. Eh bien, aucun nouvel utilisateur IAM
ne dispose d' aucune
autorisation par défaut pour accéder à vos ressources AWS afin de fournir à vos utilisateurs IAM les autorisations nécessaires
dont vous avez besoin pour leur accorder les autorisations
requises Vous pouvez le faire en ajoutant des
politiques IAM à chaque utilisateur IAM. politique Iam définit les
autorisations
accordées à tout utilisateur interagissant
avec un compte AWS Nous aborderons la
politique IAM dans la rubrique suivante. En résumé, vous
créez des utilisateurs IAM, vous attachez des politiques pour
accorder des autorisations, et l'utilisateur peut utiliser ces informations d'identification pour
accéder à ces ressources est important
de noter que utilisateur
IAM n'a pas à
représenter une personne réelle Il peut s'agir d'une application. Supposons également que vous ayez une application sur châssis qui doit accéder à un service AWS. Vous pouvez configurer la clé
d'accès dans
l' application pour
accéder aux services AWS. C'est un autre cas
d'utilisation important de la clé d'accès. Bien,
comprenons maintenant le groupe IAM. Un groupe IAM est un ensemble d' utilisateurs et d'autorisations
attribuées à ces utilisateurs Revenons au
même exemple. Dans votre équipe, vous avez deux développeurs Sham et deux
administrateurs, Ta et Gier. Hein ? Les deux développeurs utiliseront les mêmes services AWS et y
accéderont. Il en va de même pour
les deux administrateurs. Au lieu d'attribuer des autorisations
à des utilisateurs individuels, vous pouvez
également les regrouper et attribuer des autorisations
à ce groupe en une seule fois Dans notre cas, vous pouvez
créer deux groupes. Un groupe pour les développeurs et
un groupe pour les administrateurs. Iam Group fournit
un moyen simple de gérer les autorisations des utilisateurs en fonction de leurs
fonctions Lorsque vous créez un utilisateur, vous lui attribuez une politique. Mais dans le cas d'un groupe, vous ajoutez une politique
au groupe et l' autorisation s'appliquera à
tous les utilisateurs de ce groupe. Prenons un autre bon cas
d'utilisation pour le groupe IAM. Comme vous le savez, tout utilisateur
d'un groupe d'utilisateurs spécifique dispose
automatiquement
des autorisations attribuées
au groupe d'utilisateurs. Si un nouvel utilisateur rejoint votre organisation et a besoin de privilèges d'
administrateur, vous pouvez attribuer les autorisations
appropriées en ajoutant simplement le nouvel utilisateur à ce groupe
d'administrateurs. De même, si un employé
existant passe à un nouveau projet, dans un nouveau rôle au sein de la
même organisation, au lieu de modifier l'autorisation de cet
utilisateur, vous pouvez
le supprimer de l'ancien groupe d'utilisateurs et l'
ajouter aux
nouveaux groupes d'utilisateurs appropriés. Le groupe de messagerie instantanée permet d'associer des politiques à plusieurs
utilisateurs à la fois. Lorsque vous associez une politique
basée sur l'identité à un groupe d'utilisateurs, tous les utilisateurs
du groupe d'utilisateurs reçoivent l'autorisation,
le groupe d'utilisateurs. Voyons maintenant le rôle de l'IAM. Un rôle IAM est une
identité IAM que vous pouvez créer dans votre compte et
qui dispose d'autorisations spécifiques Un rôle IAM est similaire à
un utilisateur IAM attaché politique
IAM qui détermine
ce qu' un rôle peut et
ne peut pas faire Vous devez maintenant vous demander
quelle est la différence
entre le rôle IAM et l'utilisateur ? Bien, laisse-moi t'expliquer. Un utilisateur IAM est une
personne unique qui possède un nom d'utilisateur, mot de passe et une clé d'accès avec les autorisations qui
y Toutefois, le rôle IAM ne
possède ni nom d'utilisateur, ni mot de
passe, ni clé d'accès Le rôle IAM ne peut pas être directement lié à une
personne ou à un service Au lieu de cela, il peut être assumé par une personne ou une ressource
pour une session définie. Qu'est-ce que cela signifie ? Laissez-moi vous expliquer avec cet exemple d'image. Supposons qu'
une application s'exécute sur une instance EC two. Et une instance EC two doit accéder à une
image depuis S trois. Dans ce cas, EC two assume le rôle et, conformément à
la politique, il accèdera à
l'image depuis S trois. Comme je l'ai mentionné, les rôles ne sont pas associés
à des clés d'accès ou à des informations d'identification. Les informations d'identification sont temporaires et attribuées de manière aléatoire par AWS Aws fournit les
informations d'identification temporaires au rôle pour effectuer la
tâche lorsque cela est nécessaire. C'est tout pour cette vidéo.
15. Créer un utilisateur et un groupe IAM: Aidez les étudiants. Bon retour. Dans cette leçon, nous allons
créer des utilisateurs et des groupes IAM. À la fin de cet atelier, vous serez en mesure de
créer ces entités IAM et de
naviguer confortablement dans la console AWS IAM Commençons. Nous voici sur la page d'accueil de
la console AWS. Passons à IAM en utilisant
l' option de recherche en
haut de la console AWS Comme vous pouvez le constater, vous pouvez utiliser la
barre de navigation de gauche pour naviguer dans les groupes d'utilisateurs, les politiques, les rôles et l'identité fournis
dans le cadre de cet atelier Nous ne travaillerons qu'avec les
groupes d'utilisateurs et leurs politiques. Commençons par créer
deux utilisateurs, Ram et Sham. Dans notre exemple, Ram
est développeur et Sham est
administrateur AWS. Vous pouvez accéder à
la page de l'utilisateur
en cliquant sur les options utilisateur
dans le tableau de bord IAM Il s'agit de la
page de l'utilisateur où vous
verrez tous les utilisateurs créés
pour votre compte. Créons maintenant
notre premier utilisateur AWS en
cliquant sur le bouton
Ajouter des utilisateurs. Nous commençons par donner un
nom d'utilisateur à votre utilisateur. Appelons cet utilisateur Ram. Lorsque vous créez plusieurs
utilisateurs dans les mêmes propriétés, vous pouvez simplement ajouter
un autre nom d'utilisateur
en cliquant sur le bouton Ajouter
un autre utilisateur. Cependant, pour cet exemple, nous allons le faire un par un. L'option suivante que nous voyons est
le type d'identifiant AWS. Vous devez sélectionner Cess, Key Programmatic access pour
permettre à cet utilisateur d'accéder aux commandes de l'
AWS CLI ou d'utiliser le SDK
AWS et l'API AW Nous n'en avons pas besoin
pour notre exemple. Nous sélectionnerons uniquement mot de passe d'accès à
la console de gestion AWS, qui permettra à
l'utilisateur Ram d'accéder à AWS via
la sélection de
la console de gestion. Cela nous donne d'autres options. Vous pouvez demander à AWS de créer un
mot de passe généré automatiquement ou vous pouvez ajouter manuellement un
mot de passe simple pour cet utilisateur. Pour notre exemple, nous allons laisser AWS nous donner un mot de passe
généré automatiquement. L'option suivante est d'
exiger la réinitialisation du mot de passe. Vous devez cocher
cette case si vous souhaitez que votre utilisateur réinitialise son mot de passe lors de son
premier accès à la console. Nous allons décocher cette démo, puis cliquer sur Autorisations suivantes Nous avons ici trois options. Vous pouvez ajouter des utilisateurs
à un groupe d'utilisateurs. Vous pouvez copier les autorisations d' un utilisateur existant
déjà associées à votre compte, ou vous pouvez joindre des
politiques directement. Nous n'avons aucun utilisateur ou
groupe d'utilisateurs dans notre compte, nous n'avons aucune option. Mais si vous cliquez sur
la troisième option, joignez directement
les politiques existantes, vous verrez une
liste complète des politiques même si vous n'en avez jamais créé
une dans votre compte. Il s'agit des politiques
gérées par AWS. Cela signifie que ces
politiques sont gérées par AWS et que si
des modifications sont nécessaires, elles seront apportées par AWS. Ils sont très utiles pour les applications
simples dans lesquelles
vous ne souhaitez pas créer et gérer vos propres politiques et laisser A s'occuper de
tout cela pour vous. Nous pouvons sélectionner
ici une politique telle qu'Amazon S Three, Read Only Access, et donner
cette autorisation à notre utilisateur. Créons d'abord un
utilisateur sans autorisation. Cliquez sur Next Tags. Ici, nous pouvons ajouter des
tags à nos utilisateurs. Ajoutons un exemple de
balise, Department Finance. Cliquez ensuite sur Suivant, ce qui ouvrira
la page d'évaluation, où vous verrez les derniers
détails concernant votre utilisateur. Cliquez sur Créer un utilisateur. Cela nous amène à l'
étape finale de la création d'un utilisateur AWS. Ici, nous pouvons voir que l'
utilisateur Ram a été créé. Vous pouvez même consulter le
mot de passe de cet utilisateur. Cliquez sur Télécharger le fichier CSV pour télécharger un fichier CSV contenant les
informations d'identification de l'utilisateur sur votre ordinateur. Il est important de savoir
que vous devez enregistrer ces informations d'identification quelque part
après avoir créé l'utilisateur. Si vous parvenez
à quitter cette page, vous ne pourrez plus
récupérer les informations d'identification. Cliquez sur Fermer, nous pouvons voir que notre utilisateur Ram est ajouté
à la page utilisateur. Créons un autre utilisateur, Sam. Nous suivons le même processus. Ajoutez le nom d'utilisateur Sham. Autorisez l'accès à AWS via la console. Laissez toutes les valeurs par défaut, sauf la réinitialisation du
mot de passe. Et cliquez sur Suivant, nous n'
ajouterons aucune autorisation. Cliquez sur Suivant, nous
ajouterons la balise d'exemple, comme
nous l'avons fait pour les finances
des services utilisateurs. Cliquez sur Suivant, puis sur Créer un utilisateur Télécharger le CSB
pour enregistrer les informations d'identification Veuillez noter à nouveau que
vous ne pourrez pas
obtenir d'informations d'identification après avoir
fermé cette page Maintenant que nous avons
créé nos deux utilisateurs, Ram et Sham,
créons notre groupe d'utilisateurs. Cliquez sur Groupes d'utilisateurs,
puis sur Créer un groupe pour créer
notre premier groupe d'utilisateurs, ajoutez le nom « développeurs ». Nous pouvons ajouter des utilisateurs à ce
groupe à partir du tableau ci-dessous. Ajoutons Ram, qui est
développeur, à ce groupe. L'étape suivante consiste à ajouter des
politiques à ce groupe. Nous voulons que nos développeurs
puissent accéder
pleinement à C deux et S trois. Nous allons donc vérifier l'accès complet à Amazon C
two et l'accès complet à Amazon S trois
dans le tableau des politiques ici
et cliquer sur Create Group. Nous avons maintenant un
groupe de développeurs qui n'en a qu'un. Créons également un groupe d'
administrateurs. Cliquez sur Créer un groupe, entrez le
groupe, nommez Administrateurs. Cette fois, nous n'ajouterons pas faux à ce groupe pour le moment. Créons un groupe
sans utilisateurs. Attachons maintenant
des politiques à ce groupe. Nous allons joindre la politique
d'accès de l'administrateur. Cliquez sur Créer un groupe, et nous pouvons voir que notre
groupe est créé. Mais le
groupe des administrateurs
ne compte aucun utilisateur pour le moment. Ajoutons maintenant Sham à cela. Accédez à la page de l'utilisateur. Il a à la fois les
utilisateurs Ram et Sham. Cliquez sur Sham, vous pouvez voir que cet utilisateur
n'a aucune autorisation. Passez des autorisations aux groupes
d'onglets de groupe. Cela vous donnera une
liste des groupes d'utilisateurs. Ajoutons Sham à son groupe
d'administrateurs ici. Maintenant, si vous revenez à
l'onglet des autorisations, vous pouvez voir que l'
autorisation a été ajoutée à ce masque d'utilisateur. Maintenant
, la politique d'
accès des administrateurs est-elle attachée au groupe d'
administrateurs ? Nous avons créé deux groupes
dotés d'un accès AWS. Ces utilisateurs ont attribué des politiques gérées par
AWS. C'est tout ce que je voulais
aborder dans cette station.
16. Identifiez-vous avec IAM User et créer un rôle: Bonjour étudiants. Bon retour. Dans cette leçon, nous
allons nous connecter avec l'utilisateur
IAM à la
console AWS et créer un rôle Je suppose que vous avez
terminé la dernière démo et que vous avez un utilisateur nommé
Sham et son mot de passe. Commençons. Identifions-nous d'abord en tant qu' administrateur Sham et
utilisons-le pour créer un rôle. Ouvrons maintenant le fichier CSV vous avez téléchargé lors de la
création d'un masque d'utilisateur. Vous voyez ici qu'il
contient le nom d'utilisateur, le
mot de passe, l'ID de clé d'accès, ID de clé
secrète et le
lien de connexion à la console, car nous n'avons pas sélectionné l'accès
par programmation C'est pourquoi la clé d'accès
et la clé secrète sont vides. Copions le
lien de connexion à la console et ouvrons-le dans le navigateur. Ici, vous voyez que l'
alias du compte est déjà renseigné, et c'est quelque chose que nous avons
créé dans une autre démo. Vous pouvez également utiliser l'identifiant du compte. Si vous vous en souvenez, ajoutez votre nom d'utilisateur et votre
mot de passe comme indiqué dans le fichier CSV. Cela nous mènera
à la console AWS. Nous pouvons maintenant voir la
console AWS comme avant, mais si vous voyez le
coin supérieur droit de votre écran, vous pouvez voir que nous sommes
connectés en tant qu'utilisateur fictif. Accédez à la console IAM. Encore une fois, cliquez sur l'option Rôles dans le tableau
de bord de gauche,
puis sur le bouton Créer un rôle. La première option consiste
à sélectionner l'entité de confiance. Cela signifie que nous devons sélectionner à
quoi sert ce rôle. Qui ou quel service
va utiliser ce rôle. La première option est
le service AWS. Vous devez choisir à quel moment vous
souhaitez attribuer ce rôle aux services
AWS tels que EC
Two Lambda ou ECS C'est ce que nous allons faire ici. Ensuite, il y a le compte AWS. Ceci est utilisé pour
créer un rôle accessible depuis
d'autres comptes AWS. Si vous souhaitez que quelqu'un
puisse se connecter au vôtre à
partir d'un autre compte, choisissez cette option. L'option suivante est l'entité B. C'est à ce moment que vous souhaitez que
les utilisateurs puissent assumer ce rôle et accéder à la console AWS via une entité B telle que
Google Facebook login. L'option suivante est la fédération
SAML 2.0. Saml est un
service de maintenance utilisateur utilisé par les grandes organisations pour permettre à leurs employés d'accéder aux différents services
des organisations Cela peut être intégré à AWS pour donner accès
à la console AWS. La dernière option que nous avons
est une politique de confiance personnalisée. Vous pouvez l'utiliser pour définir
une politique de confiance de Jason. Ne vous inquiétez pas si les trois
dernières options n'ont pas de sens pour vous. Les deux premières options sont
importantes pour ce cours. Choisissez le service AWS
et sélectionnez EC Two. À partir des options ci-dessous, nous allons créer un rôle qui peut être attaché à une instance
EC two. Cliquez sur Suivant, nous pouvons
voir ici la liste des politiques que nous
pouvons associer à ce rôle. Joignez la politique d'accès
complet à Amazon S3. Et cliquez sur Suivant,
entrez le nom du rôle. Vous voyez une description déjà remplie d'un message
significatif. Autorisez les instances EC two à appeler les services AWS
en votre nom. Passez en revue le rôle et
cliquez sur Créer un rôle. Cela prendra quelques secondes. Vous pouvez maintenant voir le rôle que vous avez
créé sur la page des rôles. Nous utiliserons ce
rôle dans les prochaines démos. Étudiants et utilisateurs d'IAM sont les mieux placés pour donner accès
à votre compte AWS, même si vous devez l'utiliser Je vous recommande de vous
créer un utilisateur IAM avec l'autorisation de
l'administrateur et de l'utiliser à l'avenir Et assurez-vous également d'activer le
MFA pour les utilisateurs IAM. Je pense que vous avez déjà supprimé votre accès utilisateur root
et votre clé secrète, que nous avons créés
lors de la dernière démo. À ce stade, vous
savez que vous pouvez également créer une clé d'accès et une
clé secrète pour votre IAM Vous trouverez le lien dans
la section des ressources. C'est tout pour cette séance.
17. Politiques IAM: Bon retour aux étudiants. La dernière session portait sur les utilisateurs, les groupes et les rôles d'
IAM Nous avons également brièvement discuté politiques
IAM relatives à l'
octroi d'autorisations, mais cela ne suffit pas Comprendre
les politiques est essentiel pour travailler efficacement avec l'IAM Dans cette leçon, nous aborderons les politiques IAM en détail, notamment leur
définition et leurs types Commençons.
Permettez-moi de vous poser une question. Qu'est-ce qui vous vient à l'esprit lorsque
vous entendez le mot politique ? Si vous avez pensé à des règles
ou à des directives. J'ai bien compris. La politique IAM est plus ou
moins la même chose. Lors de la session précédente, vous auriez
remarqué que nous avions accordé certaines autorisations
aux groupes d'utilisateurs et aux rôles que nous avions créés. Ils étaient alors les seuls à pouvoir effectuer les actions conformément aux
autorisations accordées. Ces autorisations ne
sont rien que des
politiques dont nous allons
parler au cours de cette session. Par définition, la
politique IAM est une entité qui, lorsqu'elle est attachée à une identité
ou à une ressource, définit
ses autorisations Comme je l'ai déjà dit, les politiques contiennent des
autorisations qui déterminent si une demande
est autorisée ou refusée. Cela signifie que quelle que soit l'action
effectuée par une identité, l'autorisation est
donnée par sa politique. Vous pouvez utiliser la
politique IAM lorsque vous devez
définir les autorisations pour
une identité dans IAM Comprenons maintenant cela
avec le même exemple. Vous avez une équipe de
deux développeurs, Ram et Sham, et de deux
administrateurs, Ta et Geta Vous avez créé deux groupes, le groupe des
développeurs et le groupe des
administrateurs. Selon le rôle
et l'autorisation du poste, les développeurs de
votre organisation peuvent démarrer et arrêter l'instance EC deux et
les administrateurs peuvent créer et supprimer
l'instance EC deux. C two n'est rien d'autre qu'un service de
calcul dans AWS. Nous en parlerons
dans les prochains modules. Vous allez créer deux politiques. Une politique pour les
développeurs qui
autorisera le démarrage et l'
arrêt de la liste C à deux instances. Une autre politique pour
les administrateurs qui leur
permettrait de créer et de
supprimer des instances EC two. Vous associerez ces politiques
aux groupes respectifs. Ce qui se passerait ici,
c'est que la politique
serait appliquée en conséquence à
tous les membres de ces groupes. Cela signifie que Ram
et Sham auront des autorisations en tant que développeurs et
Ta et Geta en tant qu'administrateurs Ainsi, dans cet exemple, associant une politique de développement
au groupe de développeurs, nous autorisons les
membres du groupe à effectuer des actions spécifiques
et rien de plus. Nous savons maintenant comment fonctionnent les politiques. Découvrons les différents
types de politiques IAM. Si nous revenons à la définition de la
politique, stratégie
IAM est une entité qui, lorsqu'elle est attachée à une identité
ou à une ressource, définit
ses autorisations Selon la définition, une politique peut être attachée à des identités
ou à des ressources. Comme vous le savez déjà,
l'identité n'est
rien d'autre que des utilisateurs, des groupes et des rôles IAM La ressource désigne les services AWS tels que C two instance S
three bucket lambda, que nous aborderons dans des modules ultérieurs Sur la base des deux manières dont une
politique peut être attachée. Il est de deux types politique basée sur
l'identité et la politique basée sur les
ressources. Nous allons maintenant comprendre
les deux un par un. Les
politiques basées sur l'identité sont associées à une identité composée d'IAM, groupe
d'utilisateurs et de rôle Ces politiques contrôlent les
actions et les identités qui peuvent
être effectuées sur quelles ressources
et dans quelles conditions. Veuillez noter que ces
politiques sont spécifiques à l'utilisateur, ce qui lui permet d'accéder
aux ressources AWS depuis
son propre compte. Un groupe d'utilisateurs
ou un rôle IAM peut avoir plusieurs politiques qui, ensemble représentent les autorisations accordées
à cet utilisateur en particulier Par exemple, vous pouvez associer la politique à l'utilisateur IAM nommé Ram indiquant qu'
il est autorisé à exécuter l'action Amazon C two
run instance Vous pouvez également indiquer
que Ram est autorisé à obtenir des objets d'un compartiment
Amazon S Three. Mon bucket, combinant
les deux autorisations, Ram ne peut lancer que l'instance C
two et y accéder. Mon seau. L'autre type
est la politique basée sur les ressources. Ces politiques sont associées
à une ressource AWS, telle qu'un compartiment Amazon C à deux instances ,
S, trois, etc. Ces politiques
contrôlent l'action qu' un service ou une
identité AWS spécifique peut effectuer sur d'autres ressources et
dans quelles conditions. Comprenons à l'
aide d'un exemple. Parfois, il
peut arriver que l'instance EC two souhaite
accéder au compartiment S three. Vous devez également
attacher la politique à l'instance C two et donner l'autorisation requise
pour accéder à S three. De plus,
les politiques basées sur l'identité sont de deux types les politiques
gérées et les politiques
intégrées La politique gérée est
également classée dans AWS, politique
gérée et politique gérée par
le client. Regardons-les maintenant un par un. Les politiques gérées par AWS sont des
politiques créées
et gérées par AWS. Comme son nom l'indique, sachez que
cette politique est créée et
gérée par AWS et que vous
ne pouvez y apporter aucune modification. Par exemple, Amazon S Three Read Only Access ou
S Three Full Access. Ils sont essentiellement conçus
pour s'aligner étroitement sur les fonctions professionnelles
couramment utilisées dans le
secteur informatique telles que l'administrateur, le
développeur ou le lecteur. Vous pouvez accorder à S three
un accès complet à l'administrateur et S
three un accès en lecture seule
à l'auditeur. L'objectif est
de faciliter l'octroi d'autorisations pour ces fonctions professionnelles
standard. politiques gérées par AWS
ne peuvent pas être modifiées et AWS gérera et mettra à jour
les politiques si nécessaire. Les politiques gérées par le client sont créées et gérées
par le client. Fondamentalement, en tant que client, vous pouvez créer et
gérer ces politiques. Si vous souhaitez une politique entièrement
contrôlée que vous pouvez maintenir, vous pouvez utiliser une politique
gérée par le client, que vous créez et gérez
dans votre compte AWS. Elle fournit un contrôle
plus précis de vos politiques que les politiques gérées par
AWS. Un autre avantage de la politique gérée par le
client est que vous pouvez vous associer à plusieurs entités
au sein de votre compte, ce qui facilite grandement son évolutivité. Par exemple, votre compte compte
quatre utilisateurs de lecteurs appartenant
à une équipe différente qui ont tous besoin du même type d'Amazon
C pour accéder en lecture seule. Vous pouvez créer une politique gérée par le
client et l'associer aux quatre utilisateurs. Si vous devez
modifier cette politique, vous pouvez la modifier en une seule
politique qui s'applique à tout qu'elle vous fournit
en matière de gestion intégrée et centralisée des
modifications. Pour ces politiques gérées, vous avez un contrôle total
et vous pouvez gérer les autorisations à tous les niveaux
que vous jugez nécessaires. Ensuite et dernier point, il y a la politique en ligne. La politique intégrée est directement
attachée à l'utilisateur ou au groupe. Il entretient
une relation individuelle stricte avec la
politique et l'identité. Cela signifie qu'une politique intégrée est attachée à une seule entité Il est généralement créé
lorsque vous créez une identité et supprimé lorsque
vous supprimez l'identité. Il est avantageux
de
donner une autorisation à un utilisateur ou à un groupe
temporaire. Vous créez une politique intégrée
lors de la création d'un utilisateur ou d'un groupe Et lorsque vous supprimez l'utilisateur, la politique sera également supprimée. D'accord, c'est à
peu près une question de politiques. Résumons rapidement ce que
nous avons appris au cours de cette session. Une politique est essentiellement une
autorisation
qui décide des mesures à
prendre dans les comptes AWS. Nous découvrons également les différents
types de politiques IAM,
qui sont des politiques basées sur l'identité
et des politiques basées sur les ressources Les politiques basées sur l'identité sont ensuite divisées en deux types, les politiques
gérées et les politiques
intégrées Les politiques gérées peuvent être gérées par
AWS ou gérées par le client.
18. Meilleures pratiques de l'IAM: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons découvrir quelques bonnes pratiques en matière d'IAM pour garantir la sécurité
de nos comptes AWS Commençons. La première bonne pratique IAM
consiste à éviter de partager les informations de
connexion Au lieu de partager les informations d'identification de l'utilisateur
root avec
les différents utilisateurs de votre organisation. Vous devez créer des utilisateurs IAM pour les personnes qui
utiliseront vos ressources AWS Comprenons cela à l'
aide d'un exemple. Supposons que votre équipe
compte deux développeurs et deux administrateurs
. Ce que les gens
font parfois, c'est créer un utilisateur de messagerie instantanée et partager les informations d'identification de
l'utilisateur avec ces quatre personnes. Mais ce n'est pas une bonne pratique. Nous devrions plutôt créer quatre
utilisateurs différents en fonction rôles de ces membres de l'équipe et partager les
informations d'identification des utilisateurs avec eux. L'objectif est que
chaque utilisateur dispose ses
propres informations d'identification IAM
pour accéder à votre compte Peu importe ils accèdent au compte via la console de
gestion, qu'ils
utilisent
l' interface de ligne de commande AWS ou un kit de développement logiciel (SDK) La meilleure pratique suivante
consiste à créer des groupes. Il est toujours recommandé
de créer des groupes et de n'attribuer que les
autorisations requises à ces groupes. Cela signifie que si
plusieurs utilisateurs de
votre organisation le même rôle professionnel, au lieu d'attribuer des autorisations
à des utilisateurs individuels, vous pouvez créer un groupe, attribuer une autorisation
à ce groupe et ajouter tous les utilisateurs ayant le même
rôle professionnel dans le groupe Chaque utilisateur assumera
ces autorisations. Comprenons cela
avec le même exemple. Supposons que l'équipe
compte deux développeurs et deux administrateurs
. Au lieu d'accorder des autorisations à ces quatre utilisateurs individuels, vous devez créer deux groupes. Un pour les administrateurs et un autre pour les développeurs, et ajoutez les
autorisations requises à ces groupes. Vous pouvez désormais ajouter des utilisateurs à
leurs groupes respectifs. Les utilisateurs assumeront
automatiquement les autorisations attribuées à
leurs groupes respectifs. Cette pratique vous
aidera à gérer
les autorisations au niveau
du groupe
plutôt qu'au niveau de l'étiquette utilisateur. Passons à la
meilleure pratique suivante , à savoir
l'autorisation. Aws recommande de toujours créer une autorisation pour ce dont l'utilisateur a besoin en fonction de son rôle. Ces autorisations sont connues sous le
nom d'autorisations du moindre privilège. Par exemple, si le travail d'un utilisateur consiste à démarrer et à arrêter les instances
EC two, au lieu de donner un accès
complet à EC two, nous devrions uniquement
autoriser démarrage et l'arrêt de l'instance
EC two. Nous devons toujours créer autorisation et la
politique du
moindre privilège lors de
la conception de l'autorisation. À l'avenir, la dernière meilleure
pratique est l'audit. Aws indique que nous
devons toujours activer le suivi dans le cloud dans chaque compte AWS. Si vous ne connaissez pas Cloud Trail, il s'agit d'un service
AWS gratuit, à
l'exception du stockage. Chaque fois qu'un utilisateur interagit
avec votre compte AWS, Cloud Trail enregistre
chaque activité, ce qui vous
aidera éventuellement lors de l'audit Nous allons découvrir Cloud Trail en
détail dans le module de sécurité
et de gestion d'AWS. Comprenons
avec un exemple. Supposons qu'un utilisateur se connecte à
votre compte AWS, crée une instance EC
two puis y mette fin. Aws Cloudtrail enregistrera
les trois activités. De cette façon, vous
aurez un enregistrement de toutes les activités effectuées les
utilisateurs
sur votre compte. La prochaine bonne pratique de
la liste consiste à ajouter des politiques
de mot de passe. Aws indique que vous devez toujours configurer les politiques
de mot de passe, ce que nous avons fait dans
la vidéo précédente. Les politiques relatives aux mots de passe garantissent que chaque utilisateur dispose d'un mot de passe
fort. La prochaine bonne pratique est MFA, l'
authentification multifactorielle Vous devez toujours activer authentification
multifactorielle
pour les utilisateurs privilégiés. Je vous recommande d'
appliquer le MFA à chaque utilisateur. Vous pouvez créer une politique et associer
à tous les groupes. Désormais, chaque fois qu'un utilisateur se
connecte à un compte AWS, il doit authentifier
son identité deux fois Ils seront alors les seuls à pouvoir faire quoi que ce soit sur votre compte. Il s'agit d'une très bonne
pratique pour garantir sécurité de
votre compte et
des ressources AWS. La meilleure pratique suivante consiste à alterner les informations de connexion. Toute personne accédant à
votre compte AWS doit modifier ses
informations d'identification utilisateur de temps en temps. Vous pouvez même imposer
cette politique aux utilisateurs en leur imposant de changer leurs informations d'identification
tous les deux mois, trois mois ou six mois. Cela fait partie de votre politique de mot de
passe au sein votre compte AWS, comme nous avons vu dans
la démo précédente. En vertu de cette politique, les utilisateurs devront non seulement alterner
leurs mots de passe, mais également les clés d'accès et
secrètes. Enfin, il y a l'utilisateur root. Vous ne devez pas utiliser
l'utilisateur root pour vos
activités quotidiennes , car cela pourrait exposer
vos informations d'identification d'utilisateur root. En outre, vous devez
également limiter l'accès de l'utilisateur root dès que
vous avez un compte AWS, stocker les
informations d'identification de l'utilisateur root dans un endroit privé et créer un utilisateur IAM,
même pour vous-même Étudiants, j'espère que
vous comprenez maintenant que la sécurité des comptes
est un véritable problème et que vous devez utiliser
ces pratiques pour protéger votre compte
de toute menace potentielle. C'est tout pour cette vidéo.
19. Aperçu d'Amazon S3: Bon retour. Dans cette vidéo, nous allons découvrir l'un
des principaux services AWS,
le Simple Storage Service, connu sous le nom de S three. Nous allons commencer par
la vue d'ensemble des trois S. Comprenez le
compartiment S three ainsi que le dossier. Commençons par ce que S3s3 signifie Simple
Storage Service Comme vous pouvez le voir dans les
premiers caractères de Simple Storage Service RS, c'est pourquoi il est appelé S trois. Il vous permet de stocker, de
récupérer, d'accéder et de
sauvegarder n'importe quelle quantité de données à tout moment,
n'importe où sur Internet S Three est une solution
de stockage parfaite pour stocker d'énormes
quantités de données. Par exemple,
les fichiers audio, les films, stockage de photos à
grande échelle, les grands ensembles de données, etc. Nous pouvons accéder à S Three
depuis la console de gestion, commande
AWS ou le kit SDK AWS Parlons maintenant de la façon dont
nous stockons les données dans S trois. Pour stocker des données
dans S three, nous devons créer un compartiment
dans un compte AWS. Un bucket S three est
un conteneur logique dans lequel les données
sont stockées dans S three. Pour stocker des données dans S3, nous devons créer un bucket. Nous pouvons également créer plusieurs
compartiments pour organiser nos données. Le bucket est identifié par
son nom et doit être unique au monde dans
toutes les régions et tous les comptes. Par exemple, si je crée un
bucket et que je le nomme mon bucket, personne d'autre ne pourra l'
utiliser dans aucun compte AWS. En d'autres termes, une fois qu'un compartiment S
three est créé, aucun autre compte AWS ne peut créer le compartiment S three
avec un nom similaire. compartiment à trois fonctionne simplement comme un espace de stockage dans lequel nous pouvons stocker un nombre illimité de données soit
directement dans le compartiment, soit créer un dossier ,
puis placer les données
dans ce dossier. Voyons maintenant
ce qu'est un dossier. Les dossiers sont utilisés pour regrouper
et organiser des fichiers. Contrairement à un système de
fichiers traditionnel, Amazon S3 n'
utilise pas de hiérarchie pour
organiser ses fichiers. un souci de simplicité
organisationnelle, la
console Amazon S Three prend en charge le concept de dossier comme
moyen de regrouper les données. Vous pouvez avoir plusieurs dossiers ou fichiers dans un même compartiment. En fait, le dossier est un espace de
noms à l'intérieur du compartiment. Comprenons
avec un exemple. Dans le compte AWS, nous avons le service S three. Dans ce service, nous pouvons créer des buckets comme nous l'avons
appris jusqu'à présent Dans ce compartiment, nous
pouvons stocker nos fichiers, images, vidéos ou données. De plus, si nous
voulons organiser nos données, nous pouvons créer des dossiers dans le compartiment ainsi que
des dossiers dans des dossiers. Ensuite, nous pouvons également stocker nos données
dans ces dossiers. Cela aura plus de sens lorsque nous ferons la démonstration dans
la prochaine leçon. Un autre concept important
de S 3 est l'objet. Lorsque nous stockons des données qui
peuvent être des fichiers, des documents , des
images, des vidéos, etc., elles sont appelées
objets dans AWS Par conséquent, l'objet n'est
rien d'autre que votre document de fichier, image, vidéo, etc. Tout ce qui se trouve sur votre
disque dur est appelé fichier. Mais lorsque vous téléchargerez
ce fichier dans S three, il sera connu sous le nom d'objet. Et le compartiment dans S 3 est similaire au répertoire de fichiers
de votre disque dur. Nous allons maintenant parler des caractéristiques des objets
que vous devez connaître. La taille maximale d'un
seul objet que vous pouvez télécharger sur S three
est de 5 téraoctets Veuillez noter que la taille totale des
données que vous pouvez télécharger
n'est pas de
cinq téraoctets taille totale des
données que vous pouvez télécharger
n'est pas de Il s'agit plutôt de la taille
maximale d' un seul fichier que S trois vous
permet de télécharger. Mais cela ne
signifie pas que vous ne pouvez pas télécharger des objets de
plus de 5 téraoctets Si vous avez un objet de
plus de 5 téraoctets, vous devez le diviser
en plusieurs parties,
puis utiliser ce que l'on appelle un téléchargement en plusieurs parties
pour les télécharger La taille maximale de l'objet
est de 5 téraoctets, mais vous devez utiliser le téléchargement
partitionné dès que
vous chargez un objet d'une
taille supérieure Une autre caractéristique
est l'aggravation de l'objet. Ce n'est rien d'autre que de conserver
plusieurs variantes du même objet lorsque nous y
apportons des modifications. Dans S 3, vous pouvez utiliser des objets
pour les protéger de toute action involontaire ou même de la
suppression accidentelle d'un objet Cela signifie que vous
conservez toujours les
versions précédentes d'un objet. La caractéristique suivante
est la classe de stockage. Vous pouvez créer plusieurs
compartiments et
les stocker dans différentes
classes ou catégories de données Les classes sont des
niveaux de stockage
différents dont les coûts varient en fonction de la fréquence à laquelle vous
utilisez vos données. Vous pouvez choisir une classe si vous
n'utilisez pas beaucoup vos données, vous pouvez choisir une classe moins chère et
y laisser vos données, etc. Nous en parlerons en
détail prochainement. Enfin, vous pouvez ensuite créer des
autorisations pour
limiter les personnes autorisées à accéder à vos objets
ou à les voir. L'une des politiques
les plus courantes de la politique de compartiment est une politique basée sur les ressources
que vous pouvez utiliser pour accorder des autorisations à votre
compartiment et à ses objets. Au cours de cette session, nous avons examiné les trois objets du
dossier de compartiments S et leurs caractéristiques.
20. Disponibilité, durabilité et réplication de données S3: Bonjour étudiants. Bon retour. Dans cette vidéo, nous
allons comprendre
trois concepts
importants, à savoir la disponibilité, la durabilité et la réplication des données, qui seront largement utilisés lors
de la prochaine session. Tout en comprenant les
différentes classes de stockage, commençons par la disponibilité. Il fait référence au temps de disponibilité du système. Cela signifie simplement
combien de temps le système
est disponible. En d'autres termes, il s'agit de la
durée pendant laquelle le système est opérationnel et capable de
fournir des données sur demande. Nous mesurons cette
disponibilité en pourcentage. Ceci est également connu sous le nom de SLA, qui signifie Service
Level Agreement Il s'agit essentiellement d'une promesse
que les fournisseurs de services ont à leurs clients
quant à la disponibilité de leurs
services ou systèmes. S'ils tiennent leur promesse et les clients obtiennent tout
dans les délais promis, cela signifie
que le SLA est respecté. Prenons un exemple. Les supermarchés disent qu'ils
sont ouverts 24 heures sur 24. Cela signifie qu'il est disponible
24 heures sur 24 pour vous. S'ils tiennent leur promesse et sont ouverts toute
la journée, la semaine, mois et l'année,
nous pouvons dire que leur disponibilité est de 100 %
et qu'ils respectent le SLA Le concept suivant est celui de la durabilité. Il fait référence à la protection des données
à long terme. Cela signifie simplement dans
quelle mesure vos données sont protégées contre toute
perte ou corruption éventuelle. Outre la disponibilité, vos données ne doivent pas
être perdues ou corrompues si vous les stockez sur un
périphérique de stockage pendant une longue période. La durabilité est également
mesurée en pourcentage. Comprenons cela à l'
aide d'un exemple. Supposons que vous ayez conservé 1 000 kilogrammes de pommes de terre au froid
pendant six mois. Quand vous les avez récupérés, ne pesaient que 800 kg. Cela signifie que 200 kg de
pommes de terre étaient pourries ou
mangés par des rats, Cela signifie que le
service d'entreposage frigorifique n'était pas durable. La prochaine fois que vous vous assurerez de conserver les pommes de terre dans une
chambre froide bien équipée, il n'y aura aucune perte. C'est ce qu'on appelle la durabilité. Nous comprenons désormais ce que sont la durabilité
et la disponibilité des données. Il est également important de savoir comment les données sont stockées dans S three. Il repose sur un concept
appelé réplication des données. Comprenons-le. Si vous vous souvenez
du dernier laboratoire, nous avons créé
un compartiment S three dans la région de Mumbai
et téléchargé une image. Lorsque vous chargez
des données dans votre compartiment, celles-ci sont transférées vers l'une des zones de disponibilité de la région. Dans notre cas, nous avons créé un
bucket dans la région de Mumbai. Notre image a été téléchargée dans l'une
des zones de disponibilité. Mais pour sécuriser nos données, AWS crée des copies supplémentaires de nos données et les reproduit
dans d'autres zones de disponibilité Les données sont stockées
et répliquées dans tous les Jones
de disponibilité de la même région. Maintenant, la question se pose pourquoi AWS fait cela ? Ici, nous devons nous
rappeler qu'AWS a promis 11 neuf neuf ans de durabilité
des données. Cela signifie simplement qu'AWS promet
99 points supplémentaires, soit 9
% de garantie de
durabilité des données. Aws ne garantit pas une durabilité des données à
100 %, mais affirme qu'il y
a 99 points supplémentaires, 9 % de chances que vos
données ne soient pas perdues. Comment AWS s'assure-t-il que lorsque nous téléchargeons des
données dans S Three, elle n'en subira
aucune perte ? Aws conserve des copies de nos données dans toutes les conditions de disponibilité Jones dans la même région. En cas de perte de données, ils récupèrent les données des autres
zones de disponibilité vers la zone perdue. C'est ainsi que les données sont toujours présentes dans toutes les
zones de disponibilité d'une région. Et c'est la raison pour laquelle elle promet 119 % de durabilité
dans les cas extrêmes. Si une
zone de disponibilité tombe en panne, nos données
seront toujours disponibles dans les autres zones
de disponibilité de cette région en particulier. OK. C'est l'un des principaux avantages
de l'utilisation d'Amazon S3. Il s'agit d'un exemple simple de
mise en ligne de nouvelles données. Voyons maintenant ce qui se passe lorsque nous apportons
des modifications à nos données. Supposons que nous ayons cette image
en trois versions disponibles, que nous ayons changé la couleur de
cette image et que nous l'ayons téléchargée. AWS met ensuite automatiquement à jour les deux
copies restantes de vos données. Dans d'autres Jones, il en
va de même pour la suppression. Lorsque vous supprimez vos
données de One Joe, elles sont supprimées de toutes les
zones de disponibilité de la région. Étudiants, nous avons compris la
durabilité de la disponibilité
des données et la façon dont AWS promet 11 neuvièmes de durabilité des données
grâce à la réplication des données C'est tout pour cette séance.
21. Classes de stockage: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons comprendre les différentes classes
de stockage. Cette séance
sera riche en faits. Je vous recommande à tous de prendre des notes. Nous avons ajouté des ressources
d'apprentissage supplémentaires dans la section des ressources. Assurez-vous d'en faire le meilleur usage possible.
Commençons. Dans l'une des vidéos précédentes, nous avons stocké l'image dans un compartiment
Amazon S Three. Lors du chargement de l'objet, nous avons remarqué que les classes
de stockage
apparaissaient sous
les propriétés Aws propose différentes options pour stocker nos données dans le cloud. Ces options sont appelées classes
de stockage et nous pouvons choisir n'importe quelle classe en
fonction de la fréquence à laquelle
nous accédons à nos données. Ces trois
classes de stockage S sont spécialement conçues pour fournir le stockage le moins coûteux pour différents modèles d'accès. Cela signifie que différents types
de classes de stockage sont conçus pour répondre à différents
objectifs de stockage de données. Étudiants Ingénieur cloud,
il est très important de comprendre ces cours car ils peuvent vous faire économiser
du temps et de l'argent. Comprenons-les un par un. Le premier est le standard
S 3. Il s'agit d'une classe de stockage à
usage général utilisée pour les données fréquemment
consultées. Il offre une durabilité, une
disponibilité et des performances élevées. La norme S three est conçue pour garantir une disponibilité de
99,999 %
et une durabilité de 11 %. En d'autres termes, ils ne représentent que 0,001 %, vos données
risquent d'être perdues, etc. Il vous offre une faible latence
et des débits élevés et peut
supporter jusqu'à deux défaillances
simultanées de l'installation Cela signifie que si deux périodes de disponibilité
rencontrent des problèmes, vos données sont toujours en sécurité car elles offrent une faible
latence et un débit élevé La norme S three
convient à une grande variété de cas d' utilisation tels que les applications
cloud, les sites Web
dynamiques, la distribution de
contenu, applications
mobiles et de jeu, ainsi que l'analyse des mégadonnées. La suivante est la classe de stockage
à accès peu fréquent. Comme son nom l'indique, cette classe de stockage est utilisée pour les données les moins fréquemment
consultées. Une donnée à laquelle vous n'accédez qu'
une fois de temps en temps. Mais vous souhaitez également que ces données soient immédiatement disponibles
chaque fois que vous en avez besoin, elles doivent être disponibles
dès que vous en faites la demande. ce cas, vous pouvez utiliser la classe de stockage
à accès peu fréquent Il est conçu pour une
disponibilité de 99,9 % et une durabilité de
11 %. La disponibilité des
cours peu fréquents est inférieure à la norme S 3 car nous
n'accédons pas
très fréquemment à nos fichiers Il est moins cher que le standard
Amazon S Three. Mais lorsque nous accédons aux fichiers, nous payons des frais de
récupération par Go C'est le point de
départ de ce cours. Nous payons moins pour le stockage
, mais nous devons payer frais
de récupération chaque
fois que nous accédons à nos données Cette combinaison de faible coût et de hautes
performances fait S Three un accès
peu fréquent standard idéal pour le stockage à long terme, sauvegarde et la reprise après sinistre Nos données de cette catégorie
sont également résilientes
face aux événements liés à
une défaillance complète de la
zone de disponibilité. Ensuite, nous avons une zone d'
accès peu fréquent. Cette classe est très similaire à la classe d'accès
peu fréquent, mais la seule
différence est que dans une classe d'
accès peu fréquent, les données sont stockées dans un
seul Joe de disponibilité,
alors que dans la classe d'
accès peu fréquent, elles sont
stockées dans au moins trois zones données sont stockées dans un
seul Joe de disponibilité,
alors que dans la classe d'
accès peu fréquent, elles sont
stockées dans au moins trois elles sont
stockées dans En gros, vos données
sont moins disponibles car elles ne sont présentes que dans une
seule disponibilité, le mois de juin. Le meilleur, c'est
que vous bénéficiez toujours d'une faible latence et de performances de
débit élevées De plus, comme les données sont stockées
en une seule fois en juin, sont 20 % moins chères qu'un accès
peu fréquent. L'accès peu fréquent à la zone S31 est idéal pour les clients qui ont besoin d'
une option moins coûteuse pour les données fréquemment consultées, mais qui n'ont pas besoin de la
disponibilité et de la résilience d'un accès peu fréquent S three standard ou S three standard Il s'agit d'une bonne option pour stocker des copies de
sauvegarde secondaires données
sur site ou des données
qui peuvent être facilement créées. Encore une fois, vous pouvez également utiliser la
réplication entre trois régions
S pour stocker de manière
rentable les
données répliquées depuis
une autre région AWS Le suivant est S Three
Intelligent Tiring. Comme son nom l'indique, cette classe de stockage est dotée d'une intelligence intégrée
qui
déplace automatiquement les données vers le pneu d'accès le plus
rentable fonction de son modèle d'accès Ici, le
modèle d'accès indique fréquence d'accès à un ensemble de
données Ici, les objets
se déplaceront automatiquement
d'une classe de stockage à une autre en fonction l'évolution
des modèles d'accès de ces objets. Par conséquent, les données à accès
fréquent seront déplacées vers le stockage
fréquemment consulté et les données rarement
consultées seront déplacées
dans la bonne catégorie grâce à la hiérarchisation intelligente
S Three Il offre la même faible
latence et les mêmes performances de débit élevées que le standard S Three. Mais cela est hautement optimisé en termes de
coûts. Par exemple, si les données sont déplacées vers la classe d'
accès peu fréquent, cela permettra d'économiser jusqu'à
40 % sur les coûts de stockage S'il est transféré dans
la classe des glaciers, il permettra d'économiser jusqu'à
68 % sur les coûts de stockage Il est également conçu
pour offrir une durabilité de 119 % et disponibilité de
99,9 % sur une année donnée sur
plusieurs niveaux de disponibilité Oui, en tant qu'utilisateur de ce service, vous n'avez qu'à payer un petit supplément mensuel de surveillance
et de fatigue automatique Cela vous permettra d'optimiser au
maximum les coûts sans
trop y penser. Il est également résilient face aux événements susceptibles
d'affecter l'ensemble de la disponibilité. Joe. Désormais, la classe
de stockage suivante est Glacier Amazon S Three. Glacier est la
classe de stockage coûteuse du troisième trimestre et prend en charge conservation à
long terme et la conservation
numérique des données consultées une
ou deux fois par an. Il est utile pour les clients, en particulier ceux des secteurs
hautement réglementés tels que les services financiers, soins de
santé et les secteurs publics. Ces industries
conservent les ensembles de données pendant sept à dix ans, voire plus, pour répondre aux exigences de
conformité réglementaire. Il est conçu pour garantir une durabilité de
119 % des objets dans plusieurs zones de
disponibilité. Comme son nom l'indique, vous vous attendez à ce que vos
données soient gelées, ce qui signifie qu'elles seront conservées
plus longtemps. Cela signifie que la
validité de la récupération d'objets est très longue. AWS prend désormais en charge trois types de glaciers pour un
modèle d'accès différent à l'avenir. Comparons maintenant rapidement les
différents types de glaciers. Amazon S Three, récupération
instantanée sur glacier. Troisièmement, la récupération instantanée sur glacier offre un temps de récupération
en millisecondes avec les mêmes performances que
la solution standard de récupération flexible sur glacier d'Amazon Three Dans le cadre de la récupération flexible sur glacier, le temps de récupération peut être configuré de
quelques minutes à quelques heures. Grâce à la récupération groupée gratuite, il convient parfaitement aux scénarios de
sauvegarde et de
reprise après sinistre dans lesquels grandes quantités de données doivent
être récupérées rapidement
et de manière rentable Amazon Es Three
Glacier Deep Archive. Dans les archives profondes de Tri Glacier, le délai de récupération des
données est de moins de 12 heures Il s'agit de la classe
de stockage la moins coûteuse conçue pour la conservation à
long terme de données qui seront conservées
pendant sept à dix ans. C'est une alternative idéale
aux bibliothèques de bandes magnétiques. Étudiants, j'espère que vous
comprenez maintenant la classe de stockage. Au cas où vous auriez le moindre doute, je vous recommande de recommencer
cette session.
22. Démo de seau S3: Bon retour. Au cours de
cette session de démonstration, nous allons apprendre à créer un porte-compartiment S three
et à y télécharger des données. Passons à la console
de gestion AWS. N'oubliez pas que nous devons
d'abord sélectionner la région AWS. Je vais sélectionner la région de Mumbai. Après cela, nous passerons
à la console S three. Il existe trois manières de
trouver le
service S three dans la console. La première méthode consiste à
rechercher S trois dans le champ de recherche et cela nous
donnera S trois dans le résultat. La deuxième méthode consiste à trouver le S trois dans le menu de
tous les services. Développez simplement le menu, localisez le service S three et cliquez pour l'ouvrir. Enfin, si vous avez déjà utilisé S
three dans votre compte, celui-ci sera répertorié sous les services
récemment visités. Tapons S trois ici
et cliquez pour confirmer. Lorsque nous arriverons à
la console S Three pour la première fois, nous verrons une liste de buckets
au sein du compte AWS Comme S three utilise un espace de noms
global, il n'est pas nécessaire de sélectionner
une région lorsque
vous utilisez la console. Maintenant, si vous vous demandez, pourquoi avons-nous sélectionné la région ? Il existe donc un service mondial. Eh bien, sélectionner la
bonne région à chaque fois que vous
travaillez sur votre compte
est une bonne pratique. Peu importe que
le service soit adapté à la région. Passons maintenant à la
création d'un compartiment S three. Pour ce faire, cliquez sur Create
Bucket et choisissez un nom. maintenant de noter
que le nom du bucket
doit être unique. Pour rendre ce nom unique, ajoutons des
nombres aléatoires à la fin. Il existe maintenant certaines règles que nous devons suivre
lors de la dénomination des buckets La première règle est
que le nom du compartiment doit être composé de 3 à 63 caractères. Deuxièmement, le nom doit
comporter des cliquetis, des
chiffres, des points et des crayons hauts Il doit commencer et se terminer par
une lettre ou un chiffre. Enfin, le nom de votre compartiment
doit être unique sur AWS. Sélectionnez la région dans laquelle vous souhaitez que votre compartiment
soit créé, conservez
les autres paramètres par défaut
et créez le compartiment. Le bucket a maintenant été créé, et cela n'a pas pris
plus d'une seconde. Sur cette page, vous pouvez
voir le nom du compartiment, la région dans laquelle vous
l'avez créé et l'accès
à l'objet du compartiment. Passons maintenant au seau. Vous pouvez maintenant voir les différents onglets,
y compris les propriétés, les autorisations, les métriques,
la gestion et les points d'accès. Voici l'objet contenu
dans ce compartiment. C'est ici que
nous téléchargeons nos fichiers. Comme nous l'avons appris
lors de la dernière session, nous pouvons soit télécharger des objets
dans le compartiment S three soit créer des dossiers dans le compartiment pour
organiser nos données. Allons-y, créons un
dossier et nommons-le démo. Nous pouvons maintenant télécharger notre objet dans le
bucket ou dans ce dossier. Cliquons sur Upload. Ici, nous avons deux options. Nous pouvons soit télécharger
des fichiers, soit télécharger des dossiers. Nous téléchargerons un fichier ici. Cliquez sur Ajouter des fichiers. Ici, nous pouvons apporter des
paramètres supplémentaires à notre objet. Cliquez simplement sur Propriétés et
vous verrez la classe de stockage. Il est standard par défaut. Nous aborderons ce sujet en
détail prochainement dans ce module. Gardons-le pour le moment
et cliquons sur Upload. Maintenant, notre fichier est
téléchargé avec succès. Je vais quitter
en cliquant sur Fermer. Maintenant, j'ai un objet, mon bucket S three avec
le nom demo point jpg. Si nous cliquons sur notre fichier de démonstration d'
objet jpg, cela nous amènera au tableau de bord de
l'objet, où nous verrons l'autorisation
et la version
des propriétés de l'objet . Passons à l'onglet
Propriétés. Vous trouverez ici tous les
détails de notre objet. Par exemple, qui est le
propriétaire de l'objet, dans quelle région l'
objet a été téléchargé et quand l'
objet a-t-il été modifié pour la dernière fois, la taille de l'objet, la clé de type d'objet, l'URL, le tag de nom de
ressource Amazon, et voici l'URL de l'objet. Il s'agit du lien vers le fichier. Nous pouvons l'ouvrir
en cliquant dessus, mais ouvrons-le dans un nouvel onglet. Comme vous pouvez le constater, l'accès m' refusé car ce
compartiment n'est pas public. Et je n'ai pas le droit
d'accéder à cet objet. Si le bucket n'est pas
public et que vous essayez d'ouvrir le fichier à l'aide de son
URL publique, il ne s'ouvrira pas. Revenons maintenant au tableau de bord
des objets. Nous avons un autre moyen d'ouvrir cet objet
en cliquant simplement sur Ouvrir. Cela ouvrira un nouvel onglet et nous
montrera notre photo de démonstration. Maintenant, vous devez vous demander pourquoi cela fonctionne, même si le seau n'
est pas public ? Eh bien, lorsque nous ouvrons un
objet par le biais de l'ouverture, il s'ouvre car il s'
agit d'une URL unique. Comme vous pouvez le constater, l'URL est beaucoup, beaucoup plus longue et ne
ressemble pas à une URL publique. Il s'agit d'une URL spéciale pour moi
en tant que propriétaire de cet objet, je suis autorisé à accéder à
cet objet via cette URL. Maintenant, la dernière chose
que je voulais vous montrer c'est comment supprimer un
objet de S 3. Pour cela, je vais
retourner dans le compartiment, sélectionner l'objet,
puis cliquer sur Supprimer. Ici, vous
devrez taper Supprimer pour confirmer que vous
souhaitez supprimer l'objet, puis supprimer l'objet, cela
supprimera définitivement cet objet. Étudiants, j'espère que vous avez maintenant confiance en S
three et en sa portée. Au cours de cette session, nous
avons assisté à une démonstration laquelle nous avons créé un porte-compartiment
S Three, téléchargé l'objet avec succès
et l'avons supprimé. Maintenant, vas-y et fais-le toi-même.
23. Aperçu d'EBS (stockage de blocs élastiques): Bonjour étudiants. Bon retour. Dans cette vidéo, nous
allons découvrir l'une des options de stockage
pour les instances EC two, le stockage par blocs élastiques, également connu sous le nom d'EBS Nous commencerons par la
définition et les bases d'EBS puis par ses cas d'utilisation et ses
types. Commençons. Amazon EBS ressemble à un disque
dur dans le cloud qui fournit un stockage par
blocs permanent pour Amazon EC Twin Stances stockage EBS est appelé volumes EBS dans la terminologie
AWS Par conséquent, nous l'appellerons désormais volume
EBS. Vous pouvez associer des volumes EBS à vos positions jumelles EC et créer un système de fichiers au-dessus
de ces Exécutez une base de données ou un
serveur au-dessus d'eux, ou utilisez-les de toute autre manière, un stockage par blocs serait utilisé. Mais qu'est-ce que le stockage par blocs ? Il s'agit d'une technologie
qui découpe les données en blocs et
les stocke séparément. Chaque bloc de données reçoit
un identifiant unique, qui permet à un
système de stockage de placer les plus petits éléments de données là où cela lui convient
le mieux. Un volume de stockage par blocs fonctionne de la
même manière qu'un disque dur. Vous pouvez
y stocker n'importe quel fichier ou même installer un système d'exploitation
complet. Le volume Ebs est un lecteur
connecté au réseau. Qu'est-ce que cela signifie ?
Eh bien, cela signifie que le volume EBS n'est pas réellement attaché à
votre instance C to,
physiquement, il est connecté
via un réseau au sein d'AWS Comme il est connecté
via une liaison réseau, le volume
EBS peut facilement être
attaché ou détaché Pour les instances C two, cela signifie que vous pouvez
déplacer votre volume EBS d' une instance en cours d'exécution
à une autre et que
le changement se produira
en quelques secondes. Vous pouvez considérer EBS comme un disque dur d'ordinateur
qui peut être attaché à n'importe quel disque détaché
d'une instance et immédiatement rattaché à une autre instance
via Maintenant, une question se pose ici sur la raison pour laquelle on appelle cela le stockage par blocs
élastiques. Lorsque vous provisionnez
un volume EBS, vous devez définir
sa taille et ses IOPS Iops signifie simplement les opérations d'
entrée-sortie par seconde. Vous devez indiquer à AWS que vous souhaitez un volume EBS
de 100 B, capable d'effectuer 1 000 IOPS, soit 1 000
opérations d'entrée/sortie par Mais ce n'est
pas parce que vous
définissez qu'EBS est de 100 Go que vous êtes
bloqué avec un lecteur de 100 Go Vous pouvez modifier la taille
ou la capacité
d'IOPS des volumes EBS selon vos
besoins à tout moment C'est l'élasticité
qu'offre l'EBS, et c'est pourquoi l'EBS est un stockage par blocs élastique et
pas simplement un stockage par blocs. Examinons maintenant
certaines fonctionnalités d'EBS. Un point important à
noter à propos d'EBS est qu'il ne
peut être attaché qu'à une seule instance
C deux à la fois Vous ne pouvez pas avoir deux instances
C two connectées à un
seul volume EBS Cependant, AWS a récemment
publié une fonctionnalité permettant volume
IOPS SSD EBS à
plusieurs instances Nous n'avons pas besoin d'entrer dans les
détails dans ce cours. EBS
est essentiellement un lecteur réseau qui peut être déplacé d'
une instance à une autre Mais ce processus
a ses limites. Les volumes Ebs sont limités
au sein d'une zone de disponibilité. Cela signifie que même si
les volumes EBS peuvent être rapidement déplacés d'
une instance à une autre, ils ne peuvent pas être déplacés dans
la zone de disponibilité Par exemple, un volume EBS
dans la zone de disponibilité P, sud A, ne peut pas
être attaché à une instance EC deux
dans AP sud B.
Il ne peut être déplacé que d'une instance à l'autre dans le sud de l'AP A. Toutefois, si vous souhaitez déplacer volumes
EBS d'une zone de
disponibilité à une autre, vous devez en prendre
un instantané Nous en apprendrons davantage sur les
instantanés dans une rubrique bonus. Types de volumes EBS. Allons de l'avant
et comprenons les différents types
de volumes EBS Prenons un exemple ici. L'un des
critères importants lors de l' achat d'un nouvel ordinateur portable
est le stockage, n'est-ce pas ? Lorsque vous parlez de stockage
informatique, cela signifie disques durs. disques durs de votre ordinateur
peuvent être de différents types, tels que SSD, HDD, etc. De même, le volume EBS est également
classé en six types. SSD à usage général,
GP deux et GP trois. Vicent IOPSSD, I 10 et I 20 via un disque dur SD one optimisé, un
ancien disque dur S, un Une chose à noter ici est que seuls les SSD peuvent être utilisés comme volume de démarrage du système
parmi tous ces types volume de démarrage est le volume qui contient le système
d'exploitation. Aws n'autorise que les
SSD rapides comme volume de démarrage. C'est tout ce que nous devons savoir
sur EBS et le type de volume EBS.
24. Aperçu d'EFS (Elastic File System): Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons
découvrir l'une des options de stockage
des instances EC two, le système de fichiers Elastic, également connu sous le nom d'EFS. Nous allons commencer par
les principes de base et une petite description de l'EFS,
suivie de ses cas d'utilisation. Commençons donc. Qu'est-ce que le système de fichiers ? Avant de comprendre
ce qu'est le système EFS, vous devez savoir ce qu'est
un système de fichiers. Un système de fichiers définit la
façon dont les fichiers sont nommés, stockés, lus et utilisés
sur n'importe quel périphérique de stockage. Il est installé sur
tous les périphériques de stockage, qu'il s'agisse d'un lecteur de
disque ou d'un CD. Chaque fois que vous
effectuez une opération sur un
fichier de votre ordinateur,
comme la modification, la suppression ou lecture de vos systèmes d'exploitation, le système de fichiers s'en charge. Le stockage est simplement une
énorme quantité de données. Sans système de fichiers, car sans système de fichiers, le système d'exploitation ne
saura jamais où
chercher vos données. Imaginez une pièce de rangement remplie de documents et de pages
éparpillés. Vous ne pouvez pas dire quelles
pages sont liées à quelles pages appartiennent
au même dossier, n'est-ce pas ? Il s'agit simplement de données
dispersées de manière aléatoire. C'est ainsi que se
comportera un périphérique de stockage sans système de fichiers. En comparaison, une bibliothèque
est un exemple concret système
de fichiers dans lequel chaque
document est organisé. C'est comme si une bibliothèque avait un système. Votre système d'exploitation
possède un système
de fichiers sur lequel
se trouvent vos fichiers sur votre ordinateur. Les systèmes d'exploitation sont dotés d'un système de fichiers conforme aux normes de
l'industrie qui est géré en
tant que partie intégrante de votre système d'exploitation. Cependant, il est
toujours possible de créer
votre propre
système de fichiers pour les applications. Maintenant que vous savez ce qu'est
un système de fichiers, parlons d'EFS.
Amazon EFS est un service de stockage de
fichiers basé sur le cloud. Comme son nom l'indique, il s'agit d'une solution de
stockage évolutive qui
s'agrandit automatiquement et les chaînes, vous ajoutez et supprimez des fichiers, n'ont
pas besoin de demander à
AWS de créer un système de fichiers de
100 Go ou 200 Go. Il
vous suffit de créer un fichier EFS qui s'agrandit et réduit au
fur et à mesure que vous
ajoutez ou supprimez des Cela garantit que votre système EFS dispose
toujours du stockage
correspondant à vos besoins. Il peut passer automatiquement d'
un petit mégaoctet
à un système de fichiers à l' échelle du pétaoctet Il n'y a pas de
frais minimum pour utiliser EFS. Il vous suffit de payer
pour le stockage que vous utilisez. Si vous n'utilisez que 500 Mo d'EFS, vous ne payez que pour les 500 Mo Tout comme EBS, EFS est également
un service rattaché au réseau. Cela signifie que le stockage de votre
système de fichiers est rattaché aux instances
EC two via un
réseau et non physiquement, mais contrairement à EBS, qui ne peut être connecté qu'à une
seule instance
EC deux à la fois,
nous pouvons connecter EFS à un nombre quelconque d'instances EC deux L'une des
fonctionnalités les plus importantes d'EFS est
le stockage de vos données
dans toutes les zones de disponibilité. Vous pouvez associer EFS à plusieurs instances EC two
dans toutes les zones de disponibilité. Supposons que vous possédiez un
EFS dans la région de Mumbai. Cet EFS peut être utilisé
par n'importe quel nombre d' instances
EC deux depuis n'importe quelle
zone de disponibilité de cette région, pas seulement par EC deux. Vous pouvez également utiliser EFS
avec des services tels que les fonctions ECS, EKS et Lambda, ou même avec votre ordinateur local Vous pouvez connecter simultanément des centaines d'instances EC two, fonctions
Lambda et vos ordinateurs
personnels à EFS À l'heure actuelle, EFS n'est
compatible qu' avec les instances
basées sur Linux. Il est important
de noter ici que les instances
Windows
ne peuvent pas utiliser EFS. Aws dispose d'un système de
fichiers différent pour les instances
Windows appelé SX. Vous devez maintenant vous
demander pourquoi utiliser EFS et ne pas créer
votre propre système de fichiers. Oui, il est possible de créer un système de fichiers sur n'importe quel
périphérique de stockage. Mais en plus d'être un service
hautement évolutif, EFS est également un service géré Cela signifie qu'il gère l'
infrastructure de stockage pour vous. Et en tant qu'utilisateur, il vous
suffit d'
utiliser le système de fichiers. Vous n'avez pas à vous soucier du stockage sous-jacent, de la maintenance
ou de l'application
de correctifs à votre système de fichiers Efs gérera toutes ces tâches supplémentaires pour
vous chaque fois que besoin d'un système de stockage de
fichiers pouvant être utilisé sur plusieurs services
et ordinateurs locaux. Pensez à EFS, c'est tout
pour cette session.
25. Introduction au réseautage: Bonjour et bienvenue dans
le cinquième module
de cette formation. Dans ce module, nous
aborderons le VPC, qui est la
section réseau du cloud computing Nous aborderons ici en profondeur des sujets tels que
le privé virtuel, le sous-réseau
cloud ou VPC, la table de routage de la passerelle
Internet, les
groupes de sécurité de la passerelle
Nat et groupes de sécurité de la passerelle
Nat Nous faisons également une démonstration dans AWS pour créer un VPC et des sous-réseaux publics
et privés fois ce module terminé
avec succès, vous aurez une
compréhension complète de la création de VPC et de la création de sous-réseaux privés
et publics Vous saurez comment les sous-réseaux public
et privé fonctionnent dans VPC et comment la passerelle Internet connecte un VPC
à Vous apprendrez également à
utiliser les groupes de sécurité et NACL pour contrôler le trafic à destination
et en provenance des ressources d'un VPC Étudiants. Pour tirer le meilleur
parti de cette formation, nous vous recommandons prendre des notes tout au long de
cette formation. J'espère que vous prenez
déjà des notes. C'est tout pour
cette introduction.
26. Qu'est-ce qu'un VPC ?: Bonjour étudiants. Bon retour. Dans cette vidéo, nous
allons
découvrir le
cloud privé virtuel ou VPC. En bref, il s'agit de l'
aspect réseau du cloud computing. Et il peut être un peu difficile de le relier
à notre vie de tous les jours. Nous essaierons de le rendre
aussi simple que possible. Comme il s'agit d'une section très
importante et d'un élément de base pour le reste
des sujets de ce module. Je vous recommande de porter une
attention particulière à ce sujet. Prenons un exemple. Supposons qu'il y ait un immeuble
résidentiel comportant de nombreux appartements. Des centaines de personnes
vivent dans ces appartements. Disons que je possède l'appartement numéro 810 et que vous êtes propriétaire de l'appartement
B 20 dans cet immeuble. Nous pouvons également dire que appartement B 20 est
votre section privée
du bâtiment où vous conservez vos affaires et vous en avez le contrôle
total. Vous pouvez également ajouter des
fonctionnalités de sécurité telles qu'une caméra de verrouillage , une
surveillance, etc., la même manière que d'autres personnes possèdent des espaces
privés Connectons maintenant cet
exemple à AWS et à VPC, et remplaçons le bâtiment par
des appartements AWS par des VPC Dans notre compte AWS, nous créons et
gérons tous les types de ressources, comme EC
two RDS, etc. Nous verrons quelles sont
ces ressources spécifiques dans les modules suivants. Ces ressources de votre VPC sont exactement comme celles que vous
détenez dans votre appartement Le VPC AWS est comme
votre espace privé dans
AWS dans lequel vous pouvez placer
vos ressources et vos services Tout comme un appartement a un niveau de sécurité
différent, vous pouvez également attribuer un niveau de sécurité à
ces ressources. En d'autres termes, nous pouvons dire
qu'il existe des moyens pour vous d' autoriser des personnes à accéder à votre base de données ou à vos ressources
cloud, ou de
les empêcher de le faire. Voyons maintenant la
définition d'AWS VPC, un cloud privé virtuel Un cloud privé virtuel est un réseau virtuel dédié
à votre compte AWS. Il est logiquement isolé des autres réseaux
virtuels du cloud AWS dans lesquels vous pouvez lancer vos ressources AWS, telles que les deux instances
Amazon EC VPC est l'abréviation de Virtual
Private Cloud. Il ne s'agit que d'un centre de données virtuel sur
les services Amazon Wab C'est privé car c'est uniquement pour vous et vous en avez le contrôle
total. Il s'agit d'un réseau
logique complètement isolé que vous pouvez utiliser comme vous
le souhaitez
lorsque vous créez un VPC En gros, vous créez un réseau
logiquement isolé. Si je crée un VPC sur mon compte et que vous créez
un VPC sur votre compte, s'agit de deux réseaux isolés Même deux VPC ou plus avec des adresses IP
différentes au sein du même compte seront
également isolés Vous pouvez comprendre
l'adresse IP comme étant l'adresse de votre appartement. Cette adresse IP est appelée CIDR, qui signifie Classless
Inter Domain Il s'agit d'un ensemble de normes de
protocole Internet qui sont utilisées pour créer des
identifiants uniques pour les réseaux Lorsque vous créez un VPC, vous spécifiez une plage
d'adresses IP pour le VPC sous la forme
d'un bloc CIDR Par exemple, 10,0 0,0 0,0 par 16. À l'heure actuelle, vous savez que VPC est un réseau au sein de
votre compte AWS Vous pouvez également créer des sous-réseaux au sein d'un réseau,
également appelés sous-réseaux Nous aborderons les sous-réseaux
dans le prochain laboratoire.
27. Subnet, passerelle Internet, table d'itinéraire et passerelle NAT: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons
comprendre le sous-réseau, passerelle
Internet et la
table de routage. Commençons. Comme nous l'avons indiqué dans
la vidéo précédente, VPC est un réseau dans
notre compte AWS Nous pouvons également créer des
sous-réseaux au sein de notre VPC. Ces sous-réseaux sont
également appelés sous-réseaux. Regardons notre exemple
précédent. Nous possédons un appartement dans l'appartement, et cet appartement est notre section
privée. Nous avons une chambre,
un salon et une cuisine dans cet appartement. Il s'agit essentiellement de
différentes sous-sections de notre appartement utilisées à des fins
diverses. De même, dans AWS, VPC, nous créons un sous-réseau tel que public submit
et private submit Lorsque nous créons une soumission, nous spécifiez le
bloc d'adresse CIDR pour la soumission, qui est un sous-ensemble du bloc d'adresse CIDR
du VPC Si le CID de notre VPC
est de 10,0 0,0 0,0 par 16, nous pouvons utiliser 10,0 0,0 0,0 par
24,10 0,0 0,1 0,0 par 24 En tant que CIDR de notre soumission, nous pouvons lancer des ressources AWS dans un envoi spécifique, par exemple
des instances faciles à utiliser Un point important
à retenir est que chaque sous-réseau doit résider entièrement
dans une seule disponibilité,
Joe, et ne peut pas
s'étendre sur Jones C'est ce que nous allons voir en
faisant les mains sur la carte, il existe deux types de sous-réseaux Soumission publique et soumission
privée. Nous pourrions le relier à notre appartement. Nous disposons d'une chambre d'hôtes avec accès
direct depuis l'extérieur. C'est comme une soumission publique, alors que notre chambre est
totalement privée pour nous. Voyons maintenant
ce qu'est un sous-réseau public. Il s'agit d'un sous-réseau qui
interagit avec Internet et
est accessible via Cela signifie que toutes les ressources créées
dans votre sous-réseau public, par
exemple les serveurs Wab, seront accessibles
via Étant donné que les sous-réseaux publics
interagissent avec Internet, nous déploierons notre équilibreur de charge
ou nos applications connectées à Internet
dans le cadre de la soumission publique J'aborderai cela en détail
dans le module EC two. Le suivant est le sous-réseau privé. Il s'agit d'un sous-réseau qui n'est pas
accessible depuis Internet. Cela signifie que nous pouvons créer
les ressources AWS qui ne sont utilisées dans le
VPC qu'à des fins internes. Maintenant, mettons tout cela ensemble. Nous avons une région dans
notre compte AWS, et il y aura un
VPC dans cette région. Le VPC aura ce que l'
on appelle une plage d'adresses CIDR, c'
est-à-dire une plage d'adresses IP
autorisées au sein de notre Le VPC peut également traverser
deux zones de disponibilité, Availability Joe 1 et
Availability Joe 2 Availability Joe one contient une soumission publique et
une soumission privée. De même, Availability Joe Z two contient également une
soumission publique et une soumission privée. Nous avons donc deux Jones de
disponibilité, un VPC et quatre sous-réseaux Dans cet exemple,
vous devez maintenant vous demander quelle est la différence entre une soumission publique et
une soumission privée ? Eh bien, il n'y a aucune différence entre
ces architectures. Le processus de
création est exactement le même. Mais ce que vous
configurez à l'intérieur détermine si un sous-réseau
est public ou privé Vous devez apporter deux modifications à un sous-réseau pour le rendre public Tout d'abord, vous devez ajouter
une passerelle Internet. Il s'agit d'un composant géré par AWS qui est attaché à votre VPC. Il agit comme une passerelle entre
votre VPC et Internet, essentiellement le monde extérieur. Ajoutons une
passerelle Internet ici. Nous avons maintenant une
passerelle Internet attachée à notre VPC, qui établira
une connexion depuis Internet Maintenant, si vous pensez qu' une soumission publique a désormais
accès à Internet, ce n'est pas vrai. Il existe un autre composant
appelé routeur dans le VPC. Ce qui détermine où le trafic entrant
sera dirigé. Ce processus est
connu sous le nom de routage. Le routeur utilise ce que l'on appelle des tables de
routage pour contrôler le trafic
réseau. Par conséquent, chaque sous-réseau au sein VPC doit être
associé à une table de routage Chaque fois que nous créons un sous-réseau, il est fourni avec
une route par défaut, qui est une route locale Comme nous pouvons le voir, cette table de routage possède un champ de destination
et un champ cible. Le champ de destination contient l'adresse de destination que
vous essayez d'atteindre. La cible spécifie la
route, cette destination, ce qui signifie
que toute demande au sein l'adresse IP du VPC est locale Pour effectuer une soumission publique, nous devons ajouter l'
adresse de destination en tant qu'Internet, qui est 0.0 0.0 0.0 x zéro, et la cible en tant que passerelle
Internet. Cette nouvelle route présente dans la table des
itinéraires a une destination de 0.0 0.0 0.0 x zéro. Cela signifie que toute adresse IP
inconnue dans la table de routage l'
envoie à cette cible. Dans ce cas, cette cible
est la passerelle Internet. Cette partie est simplement l'
ID de la passerelle Internet. Cela signifie que tout trafic autre que le réseau VPC sera dirigé
vers la passerelle Internet Par conséquent, cette soumission
est désormais une soumission publique. Maintenant, ces deux sous-réseaux sont des sous-réseaux
publics et les
deux autres sont des sous-réseaux privés J'espère que c'est clair pour toi. Si vous avez une instance
dans un sous-réseau privé, elle ne sera pas accessible
via Internet Cependant, vous souhaiterez peut-être lui
donner accès à Internet pour télécharger
des fichiers ou obtenir les mises à jour du système
d'exploitation. Dans ce cas, nous pouvons utiliser ce que l'on
appelle un At Gateway, qui est géré par
AWS ou une instance. Il peut également être autogéré, ce qui vous permet d'accéder à Internet depuis
votre sous-réseau privé At Gateway est un service géré AWS à haute
disponibilité qui permet à vos instances situées dans un sous-réseau privé de
se connecter à Internet Nous créons un At Gateway
dans notre soumission publique. Nous créons une route à partir
des sous-réseaux privés vers la passerelle At et de la passerelle At vers la passerelle
Internet Cela permettra à vos sous-réseaux
privés de se connecter à Internet. C'est tout pour cette séance. J'espère que vous comprenez maintenant le
BPC et ses éléments. En cas de doute, je vous recommande de
suivre cette session une fois de plus, car elle est très importante pour votre entretien de
certification et en général également.
28. Groupes de sécurité et NACL: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons découvrir pourquoi nous avons besoin d'un
groupe de sécurité et d'une NCL Quels sont-ils et quelles sont les
différences entre eux ? Les groupes de sécurité et les NSL
agissent tous deux comme des pare-feux virtuels. Ils contrôlent le trafic à destination
et en provenance des ressources
d'un BPC en suivant certaines règles
entrantes et sortantes entrant ou sortant représente la direction du
trafic entre les réseaux La direction est définie par rapport à un réseau de référence. trafic entrant fait référence
aux informations entrant
sur un réseau Ici, le réseau de référence
est votre réseau interne. Il peut s'agir de votre ordinateur. De plus, comme vous pouvez le constater, les
données circulent d'
Internet vers votre ordinateur. C'est ce qu'on appelle le trafic entrant. trafic sortant fait référence
aux informations
sortant du réseau Encore une fois, vous voyez ici que les données circulent en dehors
du réseau de référence qui est votre ordinateur. Encore une fois, le trafic de données
circule de votre réseau
vers Internet. C'est ce qu'on appelle le trafic sortant. Revenons maintenant au groupe de
sécurité et à la NSA. Nous allons d'abord commencer par le groupe
de sécurité. Un groupe de sécurité est une solution de pare-feu
AWS permettant filtrer le trafic entrant
et sortant d'un EC vers une instance. Il agit comme un pare-feu virtuel
pour les instances C two afin contrôler le trafic entrant
et sortant fonction de certaines règles définies Il garantit la sécurité
au niveau de l'instance Les
règles entrantes et sortantes fonctionnent indépendamment. Par exemple, une
règle entrante peut autoriser le trafic provenant d'une adresse IP spécifique à accéder à l'instance
uniquement Alors qu'une règle sortante peut autoriser tout le
trafic à sortir de l'instance car groupes de
sécurité fonctionnent
au niveau de l'instance, dans un VPC, nous pouvons également appliquer un groupe de sécurité à une ou
plusieurs instances De même, une
instance peut également être associée à un ou
plusieurs groupes de sécurité. Regardons NSR maintenant. Il est l'abréviation de Network
Access Control, qui contrôle le
trafic à destination ou en provenance d'une soumission conformément à
certaines règles définies. Cela signifie qu'il ajoute une couche de
sécurité supplémentaire au niveau de la couche de soumission. Par exemple, une règle
entrante peut refuser le trafic entrant provenant
d'une plage d'adresses IP, tandis qu'une règle sortante peut autoriser tout le trafic
à quitter le Comme les NSL fonctionnent au niveau des
soumissions d'un VPC, nous pouvons appliquer une NCL à une ou
plusieurs Toutefois, chaque envoi ne doit être associé qu'à une
seule NCL Voyons maintenant quelle est la différence entre le groupe de
sécurité et NSL. Le groupe de sécurité fonctionne
au niveau de l'instance, mais NSL fonctionne au niveau
de la soumission Le support des groupes de sécurité
autorise uniquement les règles, tandis que la NSL autorise les règles
et refuse les règles Le groupe de sécurité est dynamique, ce qui signifie que le trafic de retour est automatiquement autorisé,
quelles que soient les règles Comme nous l'avons déjà indiqué, il n'existe aucun moyen d'
ajouter une règle sortante Tout le trafic autorisé revient par défaut, il maintient
l'état du trafic autorisé. C'est pourquoi on
l'appelle state full NSL is stateless. Cela signifie que le trafic aller-retour
n'est pas autorisé par défaut, il devrait y avoir des règles explicitement
autorisées pour l'autoriser. Le groupe de sécurité s'applique à une instance uniquement si quelqu'un le
spécifie. lançant l'instance ou associant le groupe
de sécurité à l'instance ultérieurement, NSL s'applique automatiquement à En lançant l'instance ou en
associant le groupe
de sécurité à l'instance ultérieurement, la
NSL s'applique automatiquement à
toutes les instances du sous-réseau
auquel elle est associée. Elle fournit
ainsi un niveau de
défense
supplémentaire si les
règles du groupe de sécurité sont trop Cependant, les groupes de sécurité et les NSL opèrent à différentes
couches du VPC, ce qui constitue le meilleur moyen de
sécuriser votre réseau, groupes de
sécurité ou les NSL La défense
approfondie repose sur
des couches de groupes de sécurité, et les NSL ne sont que
deux Par conséquent, une meilleure
solution consiste à implémenter les deux pour
verrouiller votre réseau. C'est tout pour cette séance.
29. Créer un sous-réseau VPC, public et privé: Bonjour étudiants. Bon retour. Dans cette démo, nous allons créer
un VPC dans notre compte AWS. Nous examinerons également
les paramètres et les options proposés par AWS
pour créer un VPC. Nous créerons également une passerelle Internet et configurerons les soumissions publiques et
privées. À la fin de cet atelier, vous aurez parfaitement
compris comment
créer des VPC et effectuer des soumissions
privées et publiques. Commençons par accéder
à la console AWS. Tout d'abord, nous devons
sélectionner la région. Je vais choisir
Mumbai car je souhaite
créer un VPC dans la région
Asie-Pacifique de Mumbai. Pour accéder au tableau de bord du VPC, nous allons rechercher le VPC dans
la recherche et cliquer sur VPC pour ouvrir le tableau
de Comme vous pouvez le voir ici
sur le tableau de bord, un VPC
a déjà été créé dans notre compte Il s'agit du
VPC par défaut créé par AWS. Ce VPC dispose d'un câble de routage et d'une passerelle Internet
dans toutes les régions Nous pouvons utiliser le
VPC par défaut à des fins de démonstration, mais il est toujours recommandé de
créer votre propre VPC
pour l'environnement de développement, de
test et de production obtenir la configuration la plus adaptée Si vous vous rendez dans n'importe quelle région, vous trouverez un VPC des tables de routage et une passerelle Internet qui lui
sont associées Créons maintenant notre propre VPC. Cliquez sur VPC, puis
sur Créer un VPC. Nous lui donnerons
le nom de Pa up. L'option suivante pour nous
est de sélectionner si nous voulons adresses
IPV quatre ou IPV six dans notre Nous opterons pour l'IPV
4 et donnerons 10,0 0,0 0,0 x 16 comme plage d'
adresses IP privées pour ce Ensuite, nous avons le bail, qui précise où votre
infrastructure est mise à disposition Si nous sélectionnons la location par défaut, nos instances C two se trouveront sur matériel
partagé avec
d'autres utilisateurs d'AWS Si vous souhaitez un VPC où toutes les instances C two se trouvent
sur du matériel dédié, vous pouvez choisir de
créer un VPC dédié L'option suivante est celle des tags. Comme vous pouvez le constater, AWS a déjà créé
un badge nominatif pour nous. Nous n'aurons plus besoin de tags. Cliquons sur Create VPC. Nous avons désormais
créé notre propre VPC dans cette région. Revenons à la page VPC. Vous pouvez voir que nous avons maintenant
deux VPC dans cette région. Nous allons maintenant créer
une passerelle Internet et l'associer à notre VPC. Pour cela, cliquez sur
Internet Gateway. Et comme vous pouvez le constater, nous avons déjà une passerelle
Internet. Pour le VPC par défaut, cliquez sur Create
Internet Gateway et donnez-lui votre
nom de pack, IGW Cliquez maintenant sur Créer
une passerelle Internet. Ensuite, nous devons associer cette passerelle
Internet à notre VPC. Nous pouvons le faire
directement en cliquant sur Attached to VPC dans la barre verte
supérieure ici Ou en cliquant sur le bouton d'
actions ici. Cliquez sur Attacher au VPC
et sélectionnez votre VPC. Si vous utilisez AWC LI, vous pouvez cliquer sur cette barre de défilement et l'associer à votre VPC Comme nous n'utilisons pas AWS C, L, I, nous pouvons cliquer ici et connecter directement cette
passerelle Internet. Nous disposons désormais d'un VPC doté
d'une passerelle Internet. Mais nous ne pouvons toujours pas créer
d'infrastructure dans le VPC. Pour cela, nous avons besoin
de sous-réseaux. Créons des sous-réseaux. Cliquez sur les sous-réseaux ici en
fonction de la région dans laquelle vous vous trouvez. Vous verrez 34 sous-réseaux ici. Il s'agit des sous-réseaux
publics par défaut attachés au VPC par défaut Ensuite, nous allons créer des
sous-réseaux pour cela, cliquez sur Créer des sous-réseaux Tout d'abord, nous devons
choisir le VPC. Nous avons choisi le Pat
Cup VPC que nous avons créé. Ajoutez maintenant un nom à notre page Soumettre. Soumettez-en un en public. Nous allons sélectionner le point d'accès sud,
une zone de disponibilité, et attribuer une plage d'adresses IP de 10,0
0,0 0,0 x 24 à l'envoi Ignorons les tags pour le
moment et cliquons sur. Créez un sous-réseau. Nous pouvons maintenant
voir notre envoi dans la liste, nous allons créer
trois autres sous-réseaux Sélectionnez le VPC compressé, donnez le nom de
sous-réseau public pour sélectionner zone de disponibilité
P one et donnez une plage d'adresses IP de 10,0
0,1 0,0 Cliquez à nouveau sur Créer un sous-réseau
et répétez le processus. Cette fois, nous allons
donner le nom de
sous-réseau privé , un, une disponibilité,
un P, un, et la plage d'adresses IP de
10,0, 0,2, 0,0 x 24 Je le répète
une dernière fois. Donnez le nom de sous-réseau privé
à la zone de disponibilité P. Donc, une plage d'adresses IP de
10,0 0,3 0,0 x 24 Notez que les
plages d'adresses IP ne peuvent pas se chevaucher dans les sous-réseaux Nous disposons désormais de quatre sous-réseaux répartis dans deux
zones de disponibilité dans la région de Mumbai. Mais quelle est la
différence entre nos sous-réseaux privés et publics Nous les avons créés en utilisant
la même méthode
, mais leurs noms sont différents. À l'heure actuelle, les quatre sous-réseaux
que nous avons
créés sont privés La différence entre les sous-réseaux privés
et publics réside dans
le fait que les tables de routage
des sous-réseaux publics comportent une entrée de passerelle
Internet Si nous voyons les détails des tables de
routage dans nos sous-réseaux, nous n'avons qu'une seule entrée, 10.0 0.0 0.0 x 16 local Cela signifie simplement que
toutes les demandes destinées à des itinéraires compris dans cette plage doivent
être acheminées au sein du VPC Allons-y et créons une table de routage publique
pour nos sous-réseaux Pour cela, cliquez sur
la table de routage, et comme vous pouvez le voir, nous avons déjà deux
tables de routage dans notre compte. L'un est attaché au VPC
par défaut de la région et l'autre au
nouveau VPC que nous avons créé Si vous voyez la table de
routage par défaut
du VPC par défaut dans
la section Route, vous pouvez voir qu'il existe une entrée vers la passerelle
Internet Cela signifie que tous
les sous-réseaux par défaut
du VPC par défaut ont cette route, ce qui
les rend publics. Si vous voyez la
table de routage de notre VPC, nous n'avons que la route locale qui rend nos sous-réseaux privés Cliquez maintenant sur Create
Route Table et nommez-la Pat
Cup, Arch Public. Ensuite, nous sélectionnons notre VPC et
cliquons sur Créer une table de routage. Nous avons maintenant une autre table de routage
privée. Nous devons maintenant ajouter le
chemin de la passerelle Internet à la table. Pour cela, cliquez sur Modifier les itinéraires,
puis sur Ajouter un itinéraire. Sélectionnez 0.0 0.0 0.0 by
zero comme destination. Choisissez la
passerelle Internet comme cible. Et sélectionnez le pack
, IGWCreated. Cliquez ensuite sur Safe Changes. Nous avons une nouvelle table de
routage publique dans notre VPC. Associons maintenant notre
table de routage aux sous-réseaux publics. Nous pouvons le faire en cliquant sur Actions, sur Modifier les
associations de sous-locations, en sélectionnant le public Submit 1.2, puis en cliquant sur
Enregistrer les Passons à la page des
sous-réseaux et examinons nos sous-réseaux Vous verrez que les sous-réseaux
publics sont associés à la
nouvelle table de routage, qui contient l'entrée de
passerelle Internet Vous pouvez également le faire
en cliquant sur ce bouton Modifier
l'association de tables de routage pour modifier
les tables de routage d'un sous-réseau Nous avons maintenant créé un
VPC avec deux sous-réseaux publics et deux sous-réseaux privés que nous utiliserons
tout au long de cette session Comme je l'ai dit, la création et la gestion tables de routage et de passerelles Internet
VPC sont totalement gratuites Vous n'avez pas besoin de les
supprimer, étudiants. J'espère que tu as compris tout ça. Ce que nous avons fait dans cette démo, c'est tout pour cette session.
30. DNS et Amazon Route 53: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous
allons découvrir DNS et le service DNS d'AWS, l'Amazon Route 53. Nous commencerons par comprendre DNS et Route 53, puis nous examinerons ses fonctionnalités
et ses cas d'utilisation.
Commençons. DNS est l'abréviation
de Domain Name System. C'est l'annuaire téléphonique
d'Internet. Il s'agit d'un système qui vous
permet de vous connecter à sites Web en faisant correspondre un nom de domaine
lisible par l'homme, comme Google.com ou
Facebook.com. En gros, il traduit le
nom de domaine Comprenons maintenant
cela avec un exemple. Lorsque vous
téléphonez à votre ami, vous recherchez son numéro de téléphone
dans l'application de contact, n'est-ce pas ? Mais comme il est difficile de se
souvenir d'un numéro de téléphone, nous enregistrons les numéros de téléphone
dans l'application de contact. Tout comme les numéros de téléphone, les sites Web et les applications
ont des adresses IP. Avez-vous déjà utilisé
l'adresse IP de Google.com ou Youtube.com
pour vous connecter à ces sites ? Non, car encore une fois, c'
est difficile de s'en souvenir. Cela est simplifié avec le DNS. Comme je l'ai dit, le DNS est similaire
à notre annuaire téléphonique, qui stocke l'adresse IP
des sites Web. Les serveurs DNS
traduisent simplement les noms
de domaine en adresses IP. Lorsque vous accédez à Youtube.com la demande est d'abord envoyée
à un serveur DNS, puis à l'adresse IP de Youtube.com. Maintenant, nous comprenons le
DNS et son fonctionnement Aws propose également un
service DNS appelé Route 53. La Route 53 effectue une tâche similaire. Comprenons maintenant la
Route 53 en détail. Route 53, service DNS hautement disponible et évolutif d'AWS. C'est également le seul service sur AWS qui revendique une disponibilité de
100 %. Cela signifie que le
service Route 53 ne tombe jamais en panne. Supposons que vous ayez
une application Web dans votre compte AWS exécutée
sur une instance EC Two Si vous souhaitez héberger ce site Web sur le domaine
yourname.com, vous pouvez créer un enregistrement DNS dans Route 53 pour faire pointer le domaine
vers l'adresse IP d' Maintenant, il existe également quelques fonctionnalités
supplémentaires. Le premier est l'
enregistrement du domaine. Route 53 est également un bureau d'enregistrement
de domaines. Cela signifie qu'il vous
permet également d'acheter de nouveaux noms de
domaine depuis la console Route 53
elle-même si vous avez acheté votre nom de domaine sur un autre site Web
tel que Go Daddy. Route 53 dispose également d'une
fonctionnalité permettant de transférer les noms de
domaine d'autres
bureaux d'enregistrement de domaines vers Route 53 Le suivant est un conteneur hébergé que nous pouvons créer.
The Hosted Jones Hosted Joe est un conteneur pour les
enregistrements qui incluent informations sur la façon d'
acheminer le trafic vers un domaine. La fonctionnalité suivante
est le bilan de santé. Route 53 permet également d'effectuer des
bilans de santé de vos ressources. Il utilise ces contrôles de santé
pour déterminer l'état de vos ressources et envoyer trafic uniquement vers des ressources
saines. Le dernier est la fluidité du trafic. Il existe également ce que l'on appelle le flux de
trafic, qui vous
donne un autre
niveau d'automatisation pour la façon dont vous envoyez votre
trafic vers vos ressources. C'est tout ce que vous devez savoir
sur Amazon Route 53.
31. AWS VPN et AWS Direct: Bonjour, étudiants. Bon retour. Au cours de cette session,
nous examinerons différentes
options de connectivité entre AWS et les centres de
données sur site. Commençons.
Comprenons avec un exemple. Supposons que votre organisation
envisage de migrer une
application critique vers le cloud AWS contenant
des données de conformité. Votre équipe de sécurité
insiste pour que vous puissiez déplacer l'application
vers le cloud, mais les données doivent rester sur site et répondre à toutes les exigences de
conformité. Vous avez maintenant choisi
la région de Mumbai et créé un VPC dans
votre compte AWS Afin de déployer
votre application, vous avez créé une instance EC two. Votre application utilise également d'autres services AWS tels qu'Amazon, S Three, Cloudwatch, etc. Il s'agit de votre centre
de données sur site où vous disposez d'une base de données. Enfin, vous avez configuré
votre application qui s'
exécutait sur un EC pour créer une instance de base de données
sur site. Votre équipe de sécurité s'est rendu compte que cette base de données se connecte à l'
application via l'Internet
public. Ils se plaignent que cela va à l'
encontre des consignes de sécurité. Cette connexion doit
être privée et sécurisée. Vous pouvez
utiliser plusieurs
options dans AWS pour rendre cette
connexion privée. L'un d'eux est le VPN site à site. C'est ce que l'on appelle un VPN
site à site car nous
connectons un site AWS à
un autre centre de données de site. Un VPN est l'abréviation de Virtual
Private Network. Vpn crée un tunnel
que vous utilisez pour accéder
à Internet et contourner votre
fournisseur de services Internet, c'est-à-dire votre FAI Ce processus chiffre toutes les
données que vous envoyez et utilise différentes mesures de sécurité pour
garantir la sécurité de toutes les données Ce que nous faisons, c'est créer un VPN
entre le VPC de votre compte AWS et votre réseau local Il y a quelques composants que nous devons configurer. Du côté du VPC, nous avons une
passerelle privée virtuelle déployée dans AWS Ensuite, nous avons la passerelle
client, qui est déployée dans le centre de données de l'
entreprise. Il s'agit maintenant d'un appareil du centre de données de l'entreprise que vous avez configuré
d'une certaine manière. Mais la véritable
passerelle client est créée au sein d'AWS. Il s'agit essentiellement d'un élément de
configuration que vous créez qui pointe votre
passerelle privée virtuelle vers périphérique VPN de votre centre de données
d'entreprise. Une fois que vous les avez, vous pouvez établir une connexion réseau
privé virtuel. Il s'agit d'une connexion cryptée qui passe par Internet. Vous bénéficiez de la protection
du chiffrement, mais vous
utilisez toujours Internet. Encore une fois, vous avez un audit de sécurité et ils se plaignent que cette connexion
est cryptée, mais qu'elle
passe toujours par Internet. Conformément aux consignes de sécurité, cette connexion doit être privée. Maintenant, il existe un autre service. Nous avons AWS Direct Connect. Il s'agit en fait d'une
connexion privée entre AWS et votre centre de données ou bureau. AWS Direct
Connect est une connexion haut débit à
faible latence
qui vous permet d'accéder aux services cloud AWS
publics et privés depuis votre
infrastructure locale, c'
est-à-dire sur site. La connexion est activée
via des lignes dédiées contourne l'
Internet public pour aider à réduire l'imprévisibilité et la congestion
du réseau Vous connectez une extrémité du
câble à votre routeur et l'autre extrémité à un routeur AWS
Direct Connect. Grâce à cette connexion,
vous pouvez créer des interfaces
virtuelles
directement connectées à Amazon. emplacement AWS Direct Connect du VPC permet d'accéder à AWS dans la région
à laquelle il est associé Cela utilise une
connexion privée entre votre centre de données et l'emplacement de connexion
directe AWS , puis une
connexion privée à AWS. Aujourd'hui, c'est plus cher
que d'avoir un VPN. Le principal point à retenir est que la connexion directe est
une connexion privée, ce qui signifie que vous bénéficiez expérience
réseau cohérente, alors qu'un VPN est public, et même s'il est
crypté, il est public. C'est tout pour cette séance.
32. Services informatiques dans AWS: Bonjour et bon retour. Le calcul est une autre
des principales offres
du cloud computing. De plus, AWS propose
différents services de
calcul flexibles et économiques pour répondre à
différentes exigences. Dans cette leçon, nous allons
comprendre ce qu'est exactement calcul et quels sont les différents
services de calcul disponibles dans AWS. Prenons un exemple. Imaginez que vous avez
obtenu l'emploi de vos rêves en tant qu'architecte dans une entreprise de technologie
spatiale, où votre travail consiste à travailler avec l'équipe de science des données
et à traiter les données. Pour donner un sens aux choses,
l' équipe
de recherche de votre entreprise a collecté d'énormes quantités de données d' images qui pourraient mener à la découverte
d'eau sur Mars. Il incombe désormais à votre équipe
de
traiter ces données d'image et
d'en tirer les conclusions. Mais lorsque vous avez commencé à
traiter les données, vous vous êtes rendu compte que vous ne disposiez pas de serveurs gratuits pour effectuer le travail. Qu'est-ce que cela signifie de
ne pas avoir de serveurs gratuits ? Eh bien, nous avons besoin d'ordinateurs puissants pour traiter les énormes données, et dans ce cas,
la puissance de traitement dont vous avez besoin pour traiter
les données n'est pas disponible. Cette puissance de traitement
est connue sous le nom de calcul ou de
tout programme ou application
que vous souhaitez exécuter. Vous avez besoin de mémoire pour
ouvrir le programme et un processeur pour traiter les commandes que vous
donnez dans le programme. Par conséquent, la combinaison
de la mémoire et du processeur est ce que nous appelons
ici le calcul. Cela pourrait également inclure
d'autres ressources telles que le
stockage en réseau, etc. Selon le type d'
application que vous utilisez, cloud computing vous permet d'obtenir
facilement la puissance de calcul quand vous le souhaitez, configurer en
fonction de vos besoins et de ne payer que pour ce que vous utilisez. Aws propose différents services de calcul à différentes exigences, mais il est important de
comprendre quelles ressources de
calcul
conviennent le mieux à votre charge de travail et quelles sont les différentes options de calcul
disponibles dans AWS. Tout d'abord, voyons
ce qu'est le calcul AWS. Aws propose un service
informatique à la demande pour exécuter des applications
basées sur le cloud. Il s'agit d'applications
qui peuvent être déployées sur un serveur distant et
accessibles via Internet. Aws fournit des ressources informatiques telles que des instances et des conteneurs. Les instances
ne sont que des machines virtuelles. Aw fournit également des solutions
informatiques sans serveur pour exécuter des applications pour lesquelles vous n'avez pas besoin d'
installer ou de configurer une infrastructure Lorsque vous optez pour une option de
calcul sans serveur AWS, les ressources de
calcul sont disponibles à la demande et peuvent être créées
d'un simple clic de souris Vous ne paierez que pour
les ressources que vous utilisez et uniquement
tant que vous les utiliserez. Les ressources de calcul AWS sont généralement
classées en trois catégories. instances, qui sont des
machines virtuelles, des conteneurs et l'informatique sans serveur Dans ce module, nous les
aborderons toutes. Cela vous aidera à décider quel est le meilleur service informatique
pour vos besoins. Pour en savoir
plus sur AWS Compute, consultez le lien fourni
dans la section des ressources. Le document contient
différents exemples et scénarios dans lesquels vous pourriez utiliser différents services de
calcul. Nous savons
maintenant ce qu'est le calcul et les services
disponibles dans AWS. C'est ainsi que nous terminons cette vidéo.
33. Machine virtuelle: Bonjour et bon retour. à
présent, dans cette formation,
nous avons utilisé le terme « machines
virtuelles » à quelques reprises . J'espère que vous en
avez déjà une idée. Mais avant d'entrer
dans le vif du sujet, examinons les
machines virtuelles en détail. Qu'est-ce qu'une machine virtuelle ? Une machine virtuelle est
un environnement virtuel qui fonctionne comme un ordinateur
dans un ordinateur. Cela semble complexe, non ?
Décomposons-le. En gros. Une machine virtuelle
est communément appelée machine virtuelle. Il n'est pas différent de tout autre système physique
comme un ordinateur portable ou un smartphone. Il dispose d'un processeur, de disques mémoire pour stocker vos fichiers et d'un réseau pour se connecter
à Internet. Votre ordinateur portable et votre
smartphone semblent réels parce
qu'ils sont physiques, machines virtuelles peuvent être considérées comme des ordinateurs
virtuels au sein
d'un ordinateur physique Vous devez maintenant
réfléchir à la manière dont il est possible d'avoir un ordinateur
virtuel au sein d'un ordinateur physique. Disons que vous avez un ordinateur portable. Il possède le système
d'exploitation Windows. Maintenant, tu as envie
d'apprendre Linux. Pour cela, vous avez besoin d'un système d'exploitation
Linux. Que ferais-tu ? Achèteriez-vous un nouvel ordinateur portable et installeriez-vous le système d'exploitation
Linux ? Non Une
méthode plus simple et plus efficace consiste à utiliser la
technique de virtualisation pour virtualiser votre ordinateur portable existant et y
installer le système
d'exploitation Linux En gros, vous pouvez utiliser les deux systèmes d'exploitation
sur le même ordinateur portable. Maintenant, comment utiliser techniques
de virtualisation pour
créer une machine virtuelle ? Et cette animation est
votre ordinateur physique. Cet ordinateur physique peut
être votre ordinateur personnel, un serveur distant ou un serveur. Dans le centre de
données d'un fournisseur de cloud, nous utilisons un logiciel
appelé Hypervisor, également connu sous le nom de
Virtual Machine Manager Dans votre cas, vous pouvez utiliser
Oracle VM Virtual Box. L'hyperviseur créera
une version logicielle ou virtuelle d'
un ordinateur avec quantité
souhaitée de
mémoire CPU et de stockage La machine virtuelle emprunte
toujours mémoire
du processeur et de la mémoire à l'ordinateur hôte
physique Cela signifie qu'une partie du processeur, de la
RAM et du stockage de
votre ordinateur fonctionnera désormais
comme un ordinateur autonome Pour mieux comprendre, supposons que vous disposiez d'un
ordinateur physique doté de huit Go de RAM, deux processeurs et d'un disque dur de 40 Go Vous pouvez utiliser un
outil de virtualisation pour créer au moins
deux
machines virtuelles et répartir mémoire
du processeur et le disque dur entre ces deux machines
virtuelles. Nous avons ici deux machines
virtuelles, machine virtuelle 1 et la machine virtuelle 2. Ils ont quatre Go de RAM, un processeur et 20 Go de disque dur. Chacun, et plus important encore, deux systèmes d'exploitation différents. Comme vous pouvez le constater, une
machine virtuelle agit comme un ordinateur réel et possède un système
d'exploitation différent. Malgré l'utilisation du même matériel, la machine virtuelle est complètement isolée
du reste du système. La machine virtuelle logicielle interne ne peut pas interagir avec
l'ordinateur hôte ou une autre machine virtuelle sur
le même ordinateur physique. Les machines virtuelles fonctionnent comme ordinateurs
individuels dotés de systèmes d'exploitation
distincts. Ils restent totalement
indépendants d' une autre machine virtuelle et
de la machine hôte physique. Les machines virtuelles étant indépendantes les unes
des autres, elles sont également très portables Cela signifie que vous pouvez déplacer
instantanément une machine virtuelle d'un hyperviseur vers un
autre hyperviseur sur une machine complètement
différente Les machines virtuelles sont
flexibles et portables. Ils offrent de nombreux avantages
tels que la réduction des coûts. Vous pouvez exécuter plusieurs machines
virtuelles sur un seul hôte physique. Cela peut réduire considérablement le coût de
votre
infrastructure physique, car vous devrez acheter
moins d'ordinateurs physiques. Agilité et rapidité. Le lancement d'une machine virtuelle est une tâche relativement simple
et rapide. C'est bien
plus simple que de fournir une toute nouvelle
machine physique à vos développeurs C'est ainsi que la virtualisation
accélère considérablement le processus d'
exécution des scénarios de test de Dave. Ensuite, le temps d'arrêt est réduit. Les machines virtuelles sont tellement portables et faciles à déplacer d'
une machine à l'autre. Cela signifie qu'ils constituent
une excellente solution de sauvegarde en cas de
panne inattendue des machines hôtes. Les machines virtuelles évolutives vous
permettent de faire facilement évoluer vos applications, car il est
plus facile de créer une machine virtuelle que de configurer
une machine physique Vous pouvez simplement ajouter des serveurs
virtuels et répartir la charge de travail
sur plusieurs machines virtuelles C'est ainsi que vous pouvez améliorer la disponibilité et les
performances de vos applications. Ce sont là tous les avantages
des machines virtuelles.
34. Cloud informatique élastique dans EC2: Bonjour et bon retour. Dans cette leçon, nous
allons commencer par le
service informatique le plus courant proposé par AWS. Il s'agit de l'Elastic Compute Cloud, communément appelé EC
two. Commençons. Ec two est l'abréviation d'
Elastic Compute Cloud. Il fournit une option
informatique évolutive dans le cloud Amazon. Mais qu'est-ce que la capacité de calcul ? Eh bien, nous avons déjà appris qu'il
ne s'agit que de machines virtuelles, et EC two est un
service de calcul dans AWS. C two est évolutif. Cela signifie que vous pouvez
augmenter ou diminuer la taille d'une machine virtuelle
en fonction de vos besoins. Si cela ne fonctionne pas, vous pouvez également créer des machines
virtuelles supplémentaires. En utilisant Amazon EC Two. Vous pouvez éviter complètement de
configurer le matériel pour exécuter votre application et développer et déployer des
applications plus rapidement. Un autre avantage de l'utilisation d'un EC Two est que vous n'avez pas besoin
d'investir dans du matériel. Vous pouvez disposer de machines virtuelles de la capacité
souhaitée auxquelles vous pouvez accéder
à l'aide de vos ordinateurs
habituels. Ec Two est une
infrastructure IAAS en tant que service, car vous louez
une machine virtuelle auprès d'AWS, et AWS se chargera de l'
achat et de la
maintenance du matériel Vous pouvez obtenir la capacité souhaitée sans avoir à vous
soucier du matériel. Il est conçu pour permettre aux le
cloud computing
à l'échelle du
Web développeurs de mieux comprendre le
cloud computing
à l'échelle du
Web. Revenons à l'époque où le cloud computing n'était pas là
pour héberger une application, fallait configurer un centre de données ou louer un serveur physique. C'est tout à fait possible
pour les grandes organisations. Mais pensez aux entreprises de
taille moyenne, aux start-up ou même
aux développeurs individuels comme vous et moi, ont pas les moyens d'acheter les centres de
données et le matériel. Mais après le cloud computing, il est devenu beaucoup
plus facile pour les développeurs de se
procurer toutes les machines virtuelles. Grâce au cloud computing, vous pouvez utiliser Amazon
C two pour lancer autant ou aussi peu de
machines virtuelles que vous le souhaitez. Il n'y a aucune limite. Si vous voulez une
machine virtuelle, vous pouvez en obtenir une. Si vous avez besoin de 1 000 machines
virtuelles, vous pouvez obtenir 1 000 machines
virtuelles. Amazon C. Two
facilite le dimensionnement à la hausse ou à la baisse des machines virtuelles pour gérer des charges inattendues. Vous n'avez pas besoin de
prévoir le trafic, vous pouvez augmenter ou
réduire les machines virtuelles en fonction du trafic et de la
popularité de vos applications. Amazon C two possède une fonctionnalité de mise à l'échelle automatique que
nous verrons plus tard Nous pouvons configurer le dimensionnement automatique
pour augmenter ou diminuer le nombre de machines virtuelles en fonction de la charge de
votre application. Il vous permet de contrôler
totalement vos
ressources informatiques et fonctionner sur l'environnement
informatique éprouvé d'Amazon. Comme nous le savons maintenant, deux machines virtuelles
EC sont situées dans le centre de données
Amazon. La sécurité étant très importante
pour vos applications, AWS vous donne le contrôle
total de ces serveurs afin que vous puissiez sécuriser votre application
comme vous le souhaitez. Il existe également d'autres moyens
de sécuriser ces serveurs que nous
aborderons dans des vidéos ultérieures. Il est compatible avec Macos. Récemment, Amazon Web
Services
a également commencé à prendre en charge les machines virtuelles
basées sur le système d'exploitation
Mac . Si vous avez besoin de machines virtuelles
basées sur Mac OS, vous pouvez également les obtenir
sur AWS Students. Voici quelques-uns des principaux
avantages d'Amazon EC two.
35. Composant d'Amazon EC2: Bienvenue aux étudiants.
Dans la dernière vidéo, nous avons présenté Elastic
Compute Cloud C two et ses avantages. Nous poursuivrons
la même discussion afin de comprendre les
éléments d'Amazon C two. Mais avant de commencer, récapitulons la
définition de l'EC 2 Il s'agit d'une machine virtuelle
dans Amazon Web Services, mais AWS ne
les appelle pas machines virtuelles. Au lieu de cela, il utilise
des termes spécifiques car l'EC 21 de ces termes est l'instance qui
n'est rien d'autre qu'une machine virtuelle Amazon
C two. Lorsque nous lançons une
machine virtuelle sur Amazon, nous disons que nous avons lancé une instance C
two à l'avenir. Au lieu de l'appeler machine virtuelle
E two, nous l'appellerons instance
EC two. AM I est un autre élément
important d'Amazon C two. Il s'agit d'Amazon
Machine Image, qui est essentiellement un
modèle contenant un système d'exploitation et logiciels
supplémentaires nécessaires
au lancement des instances EC two. Simplifions-nous les choses.
L'instance C two est une machine virtuelle, non ? Et une machine virtuelle, c'est comme votre ordinateur portable. Supposons que vous ayez
acheté un nouvel ordinateur portable. Vous devez installer
le système d'exploitation et certains
logiciels généraux tels que les pilotes, les navigateurs, les lecteurs multimédias,
etc., n'est-ce pas ? Parce que sans ces
systèmes d'exploitation et logiciels, votre ordinateur portable n'est qu'une boîte. Il en va de même pour l'instance
EC two. Il est également similaire à votre ordinateur
et c'est pourquoi il a besoin d'
un système d'exploitation et logiciels
supplémentaires pour
pouvoir l'utiliser dans AWS. Vous pouvez le faire en utilisant l'AMI. Une fois que vous avez lancé une instance
EC two, vous souhaiterez
y accéder afin installer votre application
ou de procéder à une configuration. Pour accéder à votre instance EC two, vous avez besoin de certaines informations d'identification
et ces informations d'identification ne
sont rien d'autre
qu'un paiement clé dont nous
discutons actuellement. Un payeur de clés se compose d'une clé
publique et d'une clé privée. Il s'agit d'un ensemble d'
informations de sécurité que vous utilisez pour prouver votre identité lorsque vous vous
connectez à un Amazon EC. Deux instances, lorsque vous
lancez une instance, AWS demande un keypayeur Vous pouvez choisir une paire de
clés existante ou en créer une nouvelle. Lorsque nous créons une paire de clés, AWS vous permet de télécharger la clé
privée et elle conserve la clé publique. Lorsque vous
lancez une instance EC two, Amazon stocke
par défaut la clé publique sur votre En gros, vous utiliserez votre clé privée pour vous
connecter à votre instance. Nous verrons cela lors
de la démonstration d'EC. est important
de noter que puisque vous utilisez une clé privée pour vous
connecter à vos instances EC Two, toute personne possédant cette clé privée peut également
se connecter à vos instances. Assurez-vous de stocker
votre clé privée
dans un endroit sûr. Un autre élément essentiel de l' EC 2 est le groupe de sécurité. Il s'agit d'un autre
service que vous pouvez utiliser pour renforcer la sécurité de
vos instances. Le groupe de sécurité vous permet de contrôler qui peut accéder à
vos instances EC two. Il agit comme un
pare-feu virtuel pour vos instances EC two qui contrôle le trafic entrant
et sortant L'entrée signifie que vous
pouvez configurer qui peut se connecter à votre
instance EC two depuis l'extérieur, et la sortie signifie à quoi vos deux instances
peuvent se connecter Les tags constituent un autre élément d'
EC two. Une balise est une étiquette de
vos ressources AWS. Il peut être attribué
par vous ou par AWS. Et chaque balise est composée
d'une clé et d'une valeur. Lorsque vous créez une instance
EC two, vous pouvez attribuer des noms différents à vos
machines virtuelles. Il peut s'agir de l'environnement, propriétaires du centre de
coûts
ou du nom de l'application. Ces balises vous
aideront à identifier vos serveurs lorsque des milliers de serveurs
fonctionnent sur votre compte. Chaque clé de balise doit être
unique pour chaque ressource. Et chaque clé de balise ne peut
avoir qu'une seule valeur. Vous pouvez utiliser des balises pour
organiser vos ressources dans votre compte et pour suivre vos coûts AWS en utilisant des balises de répartition des
coûts. Comprenons les balises de
répartition des coûts. Certaines organisations
disposaient auparavant d'un centre de coûts lorsque vous exécutiez
plusieurs applications un seul compte AWS. Vous pouvez étiqueter les instances EC two avec le
centre de coûts, la clé et la valeur, ce qui vous aidera à
suivre le
coût par centre de coûts. Jusqu'à présent, voici les différents termes et
fonctionnalités que vous devez connaître et comprendre
concernant Amazon EC two. Concluons cette leçon ici.
36. Naming d'instance EC2: Bonjour étudiants. Bon retour. Lors de la dernière session, nous avons compris les différents
éléments d'une instance EC
two , tels qu'
Amazon Machine Image ou AMI Security Group, payeur de
clés et les taxes. Il reste une autre
caractéristique importante de l'instance EC Two que
nous devons comprendre. C'est le type d'instance
EC two. Mais avant cela, nous allons comprendre la convention de dénomination des
instances C à deux. Il vous apprendra à lire les noms des instances
EC two. Dans cette vidéo, vous allez d'abord découvrir la convention de
dénomination des deux instances d'EC. Vous ne trouverez pas d'explication
claire à ce sujet sur Internet, même
pas dans la documentation AWS. Je vous demande de porter une attention particulière
à cette vidéo, car elle vous
aidera également
beaucoup lors de votre voyage
avec le cloud AWS. Commençons.
Le nom de l'instance Aws ressemble à celui affiché sur l'
écran M 6.2 large. Comme vous pouvez le constater, le nom
contient des caractères et des chiffres. Le nom complet n'a pas
vraiment de sens. Nous allons le décomposer et
essayer de lui donner un sens. Une chose est claire, si nous
mettons tout ensemble, il s'agit d'un type d'instance. Si vous regardez un type d'instance, ce sera quelque chose comme ça. Maintenant, décomposons-le. Le nom de ce type d'
instance est
composé de quatre composants : instance, famille, génération d'instance, fonctionnalité
supplémentaire
et côté instance. Vous pouvez mettre la
vidéo en pause ici ou en prendre une photo ou une capture
d'écran pour référence ultérieure. Passons-les en revue un par un. La première lettre
du type d'instance représente la famille d'instances EC
two. Ici, le M représente
la famille d'instances. Cette instance AWC two appartient à la famille d'instances
informatiques à usage général Type AWS comprend quatre
catégories principales de types d'instances. Ils sont optimisés pour le
calcul à usage général, la mémoire et le
stockage. Nous allons les aborder en
détail dans la prochaine leçon. Il existe également
des sous-classifications au sein de ces quatre familles d'
instances, mais cela n'est pas
essentiel à ce niveau, nous les ignorerons ensuite. Le chiffre six dans M six représente la génération
de l'instance AWS C two. La dernière génération ou
la dernière génération d' instances
AWS C two
est toujours meilleure. Elle est également moins chère que
la génération précédente. C'est pourquoi AW
recommande toujours d'utiliser le type d'instance de dernière
génération. On peut l'associer à une voiture. L'entreprise lance toujours nouveaux modèles de voitures dotés de
nouvelles fonctionnalités supplémentaires. Elle recommande les
derniers modèles à ses clients car ils incluent de nouvelles fonctionnalités
à un meilleur prix. Ensuite, nous avons le même qui représente la capacité
supplémentaire de l'instance EC two. Ce tableau possède toutes
ces fonctionnalités. Amd et Graviton deux sont
les deux processus à l'intérieur de
ces deux instances EC Si le processeur répond également
à vos besoins, vous pouvez également sélectionner une instance C two
basée sur un processeur. Aws propose également un stockage SSD
NVME local, qui est directement connecté à EC two pour améliorer les performances
du réseau Par conséquent, une mise en réseau élevée et une capacité
supplémentaire sont
les deux fonctionnalités de ce type d'instance. Le dernier et le plus
important composant de ce type d'instance
est la taille de l'instance. Les deux x large de M 6,2 x large représentent
la taille de l'instance. Voyons ce que signifient
les deux x plus grands. Les deux x grands indiquent la représentation de la taille du t-shirt
de l'instance AWS C two Il représente la
quantité de mémoire du processeur, stockage et les performances réseau
d'une instance C two. Cette instance deux grande aura deux
fois plus de ressources
de mémoire
CPU et de stockage par rapport à la
taille de base qui est X grande. Comment fonctionne-t-il ?
Comprenons-le. En dimensionnant chaque
instance deux fois plus grande,
nous disposerons de deux fois plus de CPU et de mémoire que
la taille précédente C'est grand, 26 fois grand équivaut à 162 fois De même, 262 x large
est égal à 154 x large. Examinons-le maintenant du point de vue de
la capacité. Si vous consultez la
documentation AWS et accédez aux
six types d'instances, vous verrez cette image. X large possède deux fois plus de CPU et de mémoire
qu'un grand. Le
coût R à la demande est également deux fois plus élevé. Maintenant, vous devez vous demander dois-je opter pour une instance
12 fois plus grande ou deux instances plus grandes ? Pour cela, examinons le prix et la capacité
de chaque instance. Comme vous pouvez le constater, il n'y a aucune
différence entre eux. Que vous en
choisissiez deux ou 12 fois plus, vous obtiendrez la même capacité
pour un coût égal Mais il est toujours préférable d'utiliser une
taille d'instance plus petite plutôt qu'
une plus grande, sauf si vous
avez des besoins spécifiques. Il existe beaucoup trop de classifications
de
positions d'AWS, EC 2. Nous aborderons
les points essentiels dans la prochaine vidéo Bien que cela ne soit pas bien
documenté nulle part, AWS C two possède une excellente convention de
dénomination. J'espère que cette vidéo
vous a aidé à comprendre cela, au cas où vous auriez une quelconque confusion, je vous recommande de la
regarder à nouveau. C'est tout pour cette leçon.
37. Types d'instance: Bonjour, étudiants. Bon retour. Dans la dernière leçon, nous avons appris la convention de dénomination des
types d'instances. Vous avez découvert la taille
de l'instance EC, la génération de familles et les fonctionnalités
supplémentaires. Tous ces éléments
vous aideront à choisir le type d'instance EC à utiliser
pour votre application. Dans cette vidéo, nous
allons
approfondir un peu plus la compréhension des différents types d'instances
EC two. Une fois cette leçon
terminée avec succès, vous serez en mesure de décider
quel type d'instance
correspond le mieux à vos besoins. Commençons par un bref récapitulatif de ce qu'est le type d'
instance EC two Il s'agit d'une combinaison de mémoire
CPU, de stockage et
de capacité réseau. disposer de différentes
combinaisons vous aide à choisir la
combinaison appropriée pour vos applications. Lorsque vous lancez, le type d'
instance C two est l'un des éléments obligatoires dont vous avez besoin pour déterminer pourquoi il
est si important. Comprenons à l'
aide d'un exemple. Lorsque vous achetez un ordinateur portable, vous définissez d'abord
vos besoins. Et en fonction de ces exigences, vous sélectionnez une configuration
pour votre ordinateur portable, comme la mémoire, le stockage, les
cartes graphiques, etc. Il en va de même pour l'instance EC
Two. Lorsque vous lancez une instance C
two sur Amazon, vous devez fournir un
processeur, une mémoire, un stockage et configurations
réseau pour vous faciliter la tâche. Aws propose des types d'instances avec des entiers différents en termes de mémoire du processeur, de stockage
et de mise en réseau. Chaque type d'instance dispose de plusieurs options de taille
pour différentes charges de travail. Nous avons déjà
abordé la question de la taille de l'instance. Dans la dernière leçon,
vous devez lancer types d'
instance
les mieux adaptés à
vos applications. Comprenez maintenant ce que nous
entendons par « meilleur ajustement » ici. Chaque application est
conçue différemment
et nécessite une configuration
matérielle spécifique. Certains ont besoin de plus de mémoire, d'autres de plus de processeur, etc. Par conséquent, vous devez utiliser la
capacité de calcul adaptée à votre application. Il est facile de sélectionner la meilleure configuration pour
vos applications dans AWS. Comme Amazon, les
types d'instances sont
regroupés en familles pour répondre à
différents cas d'utilisation, nous allons examiner quatre types d'instance
de base et essentiels. Ils incluent une instance à
usage général, une instance optimisée pour le
calcul, une
instance
optimisée pour la mémoire et une instance optimisée pour le
stockage. Commençons par le type d'instance
à usage général. Il fournit un équilibre entre
la mémoire de calcul et les ressources
réseau et peut être utilisé pour diverses charges
de travail Comme son nom l'indique, il
s'agit du type d'instance AWS le plus basique
et le
plus complet.
Nous utilisons des instances à usage général où nous ne savons pas
si l'application a besoin de plus de processeur ou de mémoire, car cela implique un équilibre entre mémoire, calcul et réseau Si nous découvrons plus tard
que cette application est davantage optimisée pour la mémoire
ou le calcul, nous pouvons opter pour des
types d'instances spécifiques. Examinons maintenant les meilleurs cas d'utilisation des instances à usage
général. Ils conviennent aux
serveurs Web, aux flottes de mise en cache
et aux applications de
stockage de données distribué Comme ces applications nécessitent un bon équilibre entre mémoire, processeur
et réseau, elles
conviennent également aux applications d'
environnement de
développement et de démonstration. Le type d'instance suivant est une instance optimisée pour le
calcul. Ils sont idéaux pour les applications
liées au calcul qui bénéficient de processus à hautes
performances. Ce type d'instance est
optimisé pour le processeur par
rapport à d'autres puissances de
calcul telles que la mémoire, le stockage
et le réseau. Par conséquent, le
type d'instance qui possède processeurs les
plus puissants entre
dans cette catégorie. Parlons de
leurs cas d'utilisation. C'est la meilleure solution pour les applications qui nécessitent une puissance de calcul élevée. Les
instances optimisées pour le calcul sont parfaitement adaptées au
traitement par lots de supports, transcodage, aux serveurs Wave hautes
performances, au calcul
haute performance, à la modélisation
scientifique, aux serveurs de jeu
dédiés, aux moteurs de serveur d'
ajout, à l'inférence par
apprentissage automatique et à d'autres applications
gourmandes en calcul Viennent ensuite les instances
optimisées pour la mémoire. Ils sont conçus pour fournir des performances
rapides pour les charges de
travail qui nécessitent une mémoire
importante pour traiter de
grands ensembles de données Ces instances sont optimisées en termes mémoire ici lorsque nous
examinons les types d'instances mémoire optimisée »
et « famille optimisée pour la mémoire ». Plus de mémoire que le stockage, le
processeur et le réseau. En d'autres termes, les types d'instances
optimisés pour la mémoire sont optimisés pour la mémoire par
rapport aux autres fonctionnalités. Examinons leurs cas d'utilisation. Les
instances optimisées pour la mémoire sont utilisées dans des applications telles que les bases de données
open source, les caches de mémoire et les analyses de mégadonnées en
temps réel La prochaine concerne les instances
optimisées pour le stockage. Les instances optimisées pour le stockage sont conçues pour les
charges de travail qui nécessitent un séquentiel
élevé en lecture et en écriture accès séquentiel
élevé en lecture et en écriture à des ensembles de données volumineux
et Ils sont optimisés pour
fournir des dizaines de milliers d'opérations d' entrée/sortie aléatoires à
faible latence par seconde aux applications. Ce type d'instance est optimisé côté réseau de
l'instance EC two. Il prend en charge davantage d'actions de lecture et d'
écriture sur le disque. Lorsque notre application
effectue beaucoup de
lecture et d' écriture sur la base de données de
disques ou le réseau, nous devons utiliser un type d'instance
optimisé pour le stockage. Ce type d'instance maximise le nombre de
transactions traitées
par seconde ou les charges de travail
critiques pour l'entreprise à
forte intensité d'entrées/sorties travail
critiques pour l'entreprise à
forte intensité d' transactions par seconde correspond au nombre de transactions que le réseau peut
traiter en une seconde. Si l'instance EC two
est capable d'effectuer dix transactions à destination et en provenance du
stockage sans délai, vous pouvez dire qu'
elle peut traiter un maximum de dix
transactions par seconde. Examinons ses cas d'utilisation. L'application possède des ensembles
de données de taille moyenne qui nécessitent des performances de calcul élevées et un débit réseau élevé Il s'agit
notamment des bases de données
relationnelles telles que Mysql, Mariadb, Post Gray Sql et des bases de données
NOSQL,
notamment Ke, DB,
Ilab Ce type d'instance
est également idéal pour les charges de travail qui nécessitent un accès
très rapide à ensembles de données de taille
moyenne
sur le stockage local,
tels que les moteurs de recherche et les charges de travail d'analyse de
données Il y a tellement d'informations. Permettez-moi de le résumer,
cela vous aidera à prendre la meilleure décision
quant au type d'instance. Le plus important est de comprendre ces quatre classifications
principales. Une fois que vous les aurez comprises, il répondra à vos cas d'utilisation les
plus courants. En outre, lorsque vous sélectionnez type
d'instance pour
votre application, demandez-vous si
votre application fait beaucoup de travail
en
mémoire ou en calcul. Cela nécessite-t-il beaucoup de travail ? Ou s'agit-il simplement du
travail générique qu'il effectuera ? Une fois que vous avez compris la classification principale, la sous-classification
peut venir naturellement Comme dans une instance
optimisée pour la mémoire, il se peut
que vous ayez besoin d'une plus grande quantité de RAM ou d'une mémoire optimisée
plus importante. Enfin, une fois que vous connaissez
le type d'instance, vous devez toujours choisir l'instance de
plus petite taille pour exécuter l'expérimentation en
fonction de l'expérience et du test, puis décider de la
taille réelle de l'instance comme règle générale. Choisissez toujours une
taille d'instance plus petite pour économiser de l'argent. C'est tout pour cette leçon.
38. Lancer votre première instance EC2: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons lancer notre première instance EC two
via la console AWS. Nous examinerons également les
différentes étapes et fonctionnalités proposées AWS lors
du lancement des deux instances EC. À la fin de cette vidéo, vous serez en mesure de lancer les instances EC two via
la console de gestion. Regardez la vidéo jusqu'à la fin,
puis essayez-la vous-même. Accédez à la console de
gestion AWS, tapez EC two dans la
barre de recherche et cliquez sur le résultat de recherche EC two. Accédez directement au tableau de bord
EC Two. Comme vous pouvez le constater, je n'ai aucune
instance dans mon compte. Si nous cliquons sur les instances ici, vous serez redirigé vers
la page des instances. Cette page contient la liste de toutes les instances de cette région. Comme nous n'avons
aucune instance, la liste est vide. Lancez notre première instance
EC two. Tout d'abord,
assurez-vous de choisir une région
proche de vous ou de votre client. Comme je suis en Inde, je vais sélectionner la région de Mumbai. Cliquez sur Launch Instances. Tout d'abord, nous devons choisir une AMI appelée Amazon
Machine Image. Voici une liste d'
AMI parmi lesquelles choisir. Il comprend Amazon, Linux, deux, Max OS, Red Hat et bien d'autres. Si vous regardez le
tableau de bord sur votre gauche, vous verrez d'autres options. Passons à mes AMI ici, vous verrez la liste de
vos propres AMI personnalisées. le moment,
aucune AMI n' a été créée
sur notre compte. Aucune
AMI n'est répertoriée ici. L'option suivante est
AWS Marketplace, où nous avons des milliers d' AMI créées par des fournisseurs
tiers. Ensuite, nous avons les AMI communautaires, qui sont développées
par AWS et ses utilisateurs. Ils sont gratuits pour
tous. Notez que vous devez toujours être prudent
lorsque vous utilisez des AMI créées par des personnes autres qu'
AWS ou des fournisseurs AWS de confiance. Il pourrait y avoir
des failles de sécurité. Il existe également un filtre
pour afficher uniquement le pneu libre. Cela ne nous montrera que
les
AMI éligibles aux pneus gratuits . Si nous les vérifions
dans le cadre de cette démonstration, nous créerons une
instance Linux avec Amazon Linux Two. Ami. Cette AMI est éligible aux pneus
gratuits, ce qui signifie que
nous pourrons
lancer l'instance sans
dépenser d'argent pour cela. Sélectionnez Amazon, Linux deux, cela nous amènera à la deuxième étape. Choisissez un type d'instance. Maintenant, comme vous pouvez le
constater, de nombreux
types d'instances sont disponibles. Faites simplement défiler la page vers le bas et vous verrez une longue
liste d'instances. Nous avons la possibilité de filtrer ces instances en fonction de
leur famille et de leur génération. Nous avons une variété d' instances basées sur
différentes exigences. La liste inclut des instances
optimisées pour la RAM , pour le
processeur,
pour le GPU, etc. Dans cette démo, nous
utiliserons Two point Micro
car nous n' avons aucune exigence particulière et nous voulons également
rester dans le pneu gratuit. Comme vous pouvez le constater, Two Point Micro est la seule instance
disponible gratuitement. Dans certaines régions, vous verrez également
Three Point Micro. Si vous ne faites que vous entraîner, assurez-vous de toujours choisir le
type d'instance éligible à Free Tire afin d'éviter tout code. Nous pouvons maintenant
passer en revue et lancer notre instance immédiatement en cliquant
simplement ici. Mais avant cela, passons à la configuration des détails de l'
instance. Cela ouvrira de
nombreuses options. Explorons certains
des paramètres importants un par un. La première option est le
nombre d'instances. Si vous avez besoin
de plusieurs instances, vous pouvez modifier cela et créer plusieurs instances C two
avec la même configuration. Nous pouvons également lancer une
instance C two dans le groupe Launch into Autoscaling en cliquant sur le lien Launch into
Autoscaling Pour l'instant, restons-en
à une instance. C'est un point que nous
aborderons dans le prochain module. Ensuite, nous avons l'
option réseau pour choisir nos VPC. Choisissons le Pat Cup VPC que nous avons créé dans
le laboratoire précédent Sélectionnez le sous-réseau dans lequel nous
voulons lancer l'instance. Puisque nous voulons que notre instance soit accessible
depuis Internet, nous devons choisir
un sous-réseau public L'option suivante nous
demande si nous voulons qu'AWS attribue une
adresse IP publique à cette instance. Laissons cette
option activée pour le moment. Le prochain
paramètre important est le rôle. Le rôle est utilisé pour donner des autorisations quant aux personnes autorisées à accéder à
cette instance EC two. Nous allons sélectionner le rôle que nous avons
créé dans notre premier laboratoire. Si vous souhaitez
créer un nouveau rôle, vous pouvez accéder à IAM
en cliquant sur le lien
Créer un nouveau rôle IAM, puis créer un Cliquez sur Suivant pour passer à la page
suivante, Ajouter du stockage. Comme vous pouvez le constater, nous avons déjà sélectionné
un volume EBS pour nous Il s'agit du
volume racine qui contient le système d'exploitation
et les autres logiciels. Pour cette instance,
ajoutons un nouveau stockage
à notre instance. Cliquez sur Ajouter un nouveau volume, spécifiez les paramètres
de notre volume. Sous la colonne des appareils, nous pouvons voir le chemin du SDB C'est le chemin où notre
volume sera attaché. Laissons-le comme valeur par défaut
pour le moment et passons à autre chose. Dans l'option snapshot, nous pouvons choisir de
créer un nouvel EBS partir d'un instantané que
nous avons créé auparavant Comme nous n'avons pas de
telles exigences, nous allons le laisser vide pour le moment. Vient ensuite le côté volume. Passons notre
volume à dix Go. La colonne suivante est le volume. Nous avons le choix entre tous les
SSD, les disques durs et le
stockage magnétique Si nous examinons le
type de volume pour le volume racine, vous verrez que nous avons
moins d'options ici. Cela est dû au fait que seuls les SSD
peuvent être un volume racine. Pour une instance EC two, nous n'avons pas l'
option HDD pour le volume racine. Pour en revenir à notre nouveau volume, laissez-le au GP 2, qui est le SSD à
usage général. L'option suivante est IOPS. Comme vous pouvez le constater, nous
n'avons aucune option pour changer cela. Revenons en arrière et
changeons notre type de volume. Si nous choisissons IO 102 ou GP 3, nous avons la possibilité de
fournir des IOPS Cela est dû au fait que les IOPS
sont fixes pour le GP 2, le volume étant de trois IOPS par Go.
Comprenons-le. Si nous sélectionnons GP 2, encore une fois, vous pouvez voir l'IOPS 100, soit plus de
trois IOPS par Go. Comme la taille de notre volume est de dix Go, trois fois dix signifient que nous ne
devrions avoir que 30 IOPS Cela est dû au fait que nous avons un
minimum de 100 IOPs pour le deuxième GP. Si nous changeons le
volume à, disons, 100 Go, vous pouvez voir
que nous avons 300 IOPS Remettons maintenant le côté à dix et choisissons le type de volume
GP Two. L'option suivante est le débit, qui nous indiquera le
débit de notre volume Je parlerai du débit
dans l'écran EBS. Nous ne pouvons modifier cela
que pour un seul type de volume, le type GP à trois volumes. L'option suivante est la case à cocher Supprimer
en cas de résiliation. Il s'agit de l'option qui
permet de spécifier ce qu'il faut faire avec le volume EBS une fois que l'instance EC
two est terminée Si l'option Supprimer à la
résiliation est cochée, le volume sera également supprimé lorsque notre instance sera
résiliée. N'oubliez pas que si
vous souhaitez que vos données soient conservées même après
la résiliation de l'instance, n'oubliez pas de décocher
cette case pour cette démonstration Laissez-le par défaut, ce qui signifie que lorsque
EC two est arrêté, le volume racine sera
également supprimé. La page suivante est l'ajout de balises. Oublions cela pour le moment et
passons à la page suivante. Configurez le groupe de sécurité. La première option consiste
à créer un nouveau groupe de sécurité ou à
utiliser un groupe existant. Comme nous n'avons créé aucun groupe de sécurité
dans notre compte, créons-en un ici. Vous pouvez modifier le nom
et la description du groupe de
sécurité comme vous le souhaitez. L'option suivante et la plus
importante
consiste à configurer les règles du groupe
de sécurité. Comme vous pouvez le constater, AWS
a déjà ajouté un S par défaut qui est un groupe de sécurité Secure
Shell. Ce groupe nous permet d'accéder
en SSH à notre instance EC two. Mais pourquoi
avons-nous toujours un avertissement ? En effet, si vous
voyez la colonne source, cette règle SH est ouverte à toutes les adresses IP,
c'est un problème. Remplaçons cette valeur
par quelque chose comme 123,123
0,123 0,123 Et l'avertissement a disparu Comme nous n'avons aucun système
critique ici, ramenons-le
à 0.0 0.0 0.0 par zéro. Ce n'est pas la meilleure
pratique d'autoriser le
SSH à partir de n'importe quelle adresse IP dans le monde. Si vous avez deux instances
EC de production, assurez-vous de remplacer cette valeur par votre
propre plage d'adresses IP. Ajoutons une nouvelle règle pour autoriser les connexions
HTTP
à notre instance. Comme vous pouvez le constater, le choix du protocole HTTP fixé nos protocoles
au TCP et au port 28, qui sont le protocole et le port
HTTP par défaut Nous voulons que tout le monde puisse
établir des connexions HTTP avec
cette instance. Nous allons laisser la source
par défaut ici. La dernière colonne sert à ajouter
une description à la règle. N'ajoutons aucune règle ici. Maintenant que nous avons configuré le groupe de sécurité de
l'instance C two, passons à la
révision et au lancement. Vous pouvez voir tous les paramètres
de notre instance C two. Cliquez ici sur Lancer. Nous devons maintenant
spécifier une paire de clés, étant donné que nous n'en avons aucune pour notre compte.
Créons-en une,
choisissons de créer une nouvelle paire de clés et d'ajouter
un
nom de paire de clés pour de clés et d'ajouter
un
nom de paire de clés Nous nommerons la paire de
clés emballée. Cliquez sur le gestionnaire de téléchargement, vous verrez qu'un
fichier Pm est téléchargé. Il est important de
protéger ce fichier car il sera nécessaire pour
accéder à notre instance EC two. N'oubliez pas non plus qu'il ne peut pas
être téléchargé à nouveau. Cliquez sur Launch Instance, et cela nous amènera
à la dernière page. Si vous cliquez sur Afficher
l'instance, vous verrez qu'AWS est en train de créer
une instance EC two pour vous. Tout l'avantage du
Cloud, c'est que je pouvais lancer 100 instances de ce type
en quelques clics. cloud computing est très
flexible et
vous permet d'accéder rapidement à la
puissance de calcul chaque fois que vous en avez besoin. Comme vous pouvez le constater, l'
instance est en cours d'exécution. Maintenant, si vous cliquez
sur la case à cocher, vous trouverez tous les détails de l'
instance, les groupes de sécurité IP publics, les bilans de
santé, etc. Chaque fois que vous avez besoin
de détails sur les instances EC two, c'est ici que vous les
chercherez. Si vous cliquez sur les options
de
volumes dans le tableau de bord de gauche, vous pouvez également voir les deux
volumes EBS que nous avons créés un volume racine de huit Go et un volume supplémentaire de
dix Go que nous avons créés séparément à la
fin de cet atelier Dans le prochain atelier, nous
installerons HTTTD sur notre instance EC
two et verrons un
petit site Web HTTDP Étudiants, c'est ainsi que nous
lançons les instances EC two. Dans la leçon suivante, nous
poursuivrons cette
discussion et
verrons comment évaluer H dans notre
instance, etc. Merci.
39. Instance SSH EC2, installer Httpd: Dans la vidéo précédente, nous avons créé notre première instance EC
two et avons examiné plusieurs paramètres et
options
lors de
la création de l'instance. Dans cette vidéo, nous allons accéder à l'instance C
two en utilisant le système d'exploitation Linux
ou Mac, installer le service STTDP et démarrer une
application de test sur Nous verrons également
comment mettre fin à l'instance pour éviter
tout coût imprévu. Si vous vous demandez
ce qu'est le SSH, alors le SSH est un moyen de
contrôler une machine distante à l'aide de la ligne de commande En utilisant SSH, nous pouvons nous
connecter à l'instance EC two et effectuer toutes sortes d' opérations comme sur nos ordinateurs portables Commençons par accéder
à la console AWS. Tapons maintenant EC deux
dans la barre de recherche et cliquez sur EC deux pour accéder
directement au tableau de bord EC deux. Comme vous pouvez le constater,
notre instance est en
cours d'exécution. Si vous vous souvenez
du laboratoire précédent, je vous ai demandé de conserver le fichier Pm
téléchargé lors de la
création de l'instance. Ce n'est pas que sans le fichier Pm nous ne pouvons pas accéder à l'instance par SSH Si vous avez perdu
ou supprimé le fichier, vous devrez recréer l'instance avec
un nouveau payeur de clés La prochaine
chose importante à
vérifier est que votre groupe de
sécurité dispose règles autorisant le protocole SSH sur le port
22 et le protocole STTP sur le port 80 Trouvons l'
adresse IP publique de cette instance. Cliquez sur la case à cocher ici, vous pouvez
maintenant voir tous les détails concernant l'instance
EC two sélectionnée Voici mon adresse IP publique. Copions cette valeur. Passons maintenant à notre instance en
SSH. Pour cela, vous devez ouvrir un terminal et taper la commande
S C two
en tant qu'utilisateur à
l'adresse IP ate. C two user est le
nom d'utilisateur par défaut pour toutes les AMI
Amazon Linux. Laissons exécuter cette commande. Comme vous pouvez le constater, la commande a échoué et l'autorisation a été refusée. Cela est normal car nous
ne voulons pas que quiconque
puisse accéder à notre
instance EC two uniquement à partir d'une adresse IP publique. C'est ici que nous utiliserons
le fichier Pm que nous avons téléchargé. Nous allons aller dans le dossier où
j'ai stocké le fichier. Comme vous pouvez le voir, j'ai mon fichier
pm dans ce dossier. Nous allons maintenant exécuter
la même commande, mais nous allons également
ajouter le fichier clé. Maintenant, la commande est C two
user à l'adresse IP. Nous faisons maintenant la
même chose qu'avant, mais ici nous indiquons également
à AWS que nous avons un fichier clé à
insérer dans l'instance. Cliquez sur Enter. Nous recevons maintenant une autre erreur d'
autorisation refusée. Il s'agit d'une étape importante et d'une question fréquemment posée dans les examens AWS. Pourquoi cet
accès nous est-il refusé ? Il indique un avertissement Fichier de clé
privée non protégé. Lorsque nous téléchargeons
le fichier pour la première fois depuis AWS vers
une instance Linux, il dispose des autorisations 0644 Comme vous pouvez le voir ici, ces autorisations
sont trop ouvertes pour un fichier clé car
elles ne sont pas appropriées. Aws ne vous permet pas
d'accéder à la machine par SSH. Le correctif que vous pouvez exécuter est le mod
0400 emballé. Payez. Cela modifiera les
autorisations du fichier,
0644-0400, qui est l' Laissons exécuter la même commande. Encore une fois, comme vous pouvez le constater, la commande s'est maintenant exécutée avec succès et nous sommes
dans l'instance EC Two. La première chose à faire lorsque nous nous
connectons à l'instance EC two est d'exécuter la commande
pseudo, um, update. Cette commande mettra à jour tous les packages obsolètes de l'instance.
S'il y
en a un
à installer,
exécutez la commande pseudo
install STTPDasy exécutez la commande pseudo
install Maintenant, le protocole STTDP est installé
sur notre machine EC to machine, mais nous devons également démarrer
le service STTTDP Pour démarrer le service STTDP, nous devons exécuter une autre commande, pseudo système Démarrez STTDP. Cette commande n'a aucune sortie. Laissez-nous vérifier l'
état du STT DP en exécutant le pseudo système
CTL status Comme vous pouvez le constater,
un processus est en cours d'exécution. Passons maintenant au tableau de bord
EC two et sélectionnons l'instance EC two. Nous devons copier l'adresse IP
publique et la coller dans notre navigateur. Vous pouvez maintenant voir l'application STTDP
par défaut déployée sur votre instance
EC two Mettons maintenant fin à
l'instance EC Two. Vous pouvez le faire
en cliquant sur l'instance. Accédez à Accents, cliquez sur
Gérer l'état de l'instance et mettez fin à l'instance. Cela mettra fin à
votre instance EC two. Si vous vous souvenez, nous avons attaché un volume EBS à notre instance dans le laboratoire précédent sur lequel l'
indicateur de suppression à
la fin n'avait pas Cela signifie que même si notre instance est
résiliée, l'une des
instances EBS restera Jetons un coup d'œil au tableau
de bord Volumes. Vous pouvez voir à la fois la racine
et le volume supplémentaire. Si vous actualisez quelque
temps, le volume racine, qui était de huit Go,
disparaît de la liste, mais nous avons toujours le volume de dix
Go dans le tableau de bord. Allons-y et supprimons également
le volume EBS. Vérifions maintenant
le groupe de sécurité. Comme vous pouvez le constater, même
le groupe de sécurité que nous avons créé n'a
pas non plus été supprimé. Ne le supprimons pas. Les groupes de sécurité sont
gratuits. n'y a aucun mal à avoir un groupe de sécurité à portée de main
pour nos prochains laboratoires. De même, le Keypair
emballé n'a pas été supprimé et vous pouvez le conserver dans votre compte
sans frais Au cours de cette session, nous avons
réussi à évaluer H dans le cadre d'une installation STTDP d'une
instance EC Two et à y accéder depuis un navigateur C'est tout pour cette séance.
40. Créer une instance EC2 Windows: Dans les deux dernières vidéos, nous avons lancé une instance Linux C
installée sur
deux instances et nous y avons accédé
depuis notre navigateur Web Dans cette vidéo, nous allons
vous expliquer les étapes à suivre pour lancer une
instance Windows C deux et comment y accéder. Cela va
être assez similaire à l'instance Linux C
Two, démo pratique, seules quelques configurations seront
différentes. Commençons. Accédez à la
console de gestion AWS, tapez C deux dans la barre de recherche et
cliquez sur le résultat de
recherche EC two pour accéder
directement au tableau de bord EC two. Comme toujours, il est
important de choisir une région
proche de vous ou de votre client. Je vais sélectionner la région de Mumbai. Cliquons sur Launch Instances. Tout d'abord, nous devons choisir une AMI appelée Amazon
Machine Image. Cette fois, nous allons
sélectionner Windows AMI. Tapons Windows dans l'option de
recherche et appuyons sur Entrée. Nous pouvons voir l'AMI Windows ici, et cette AMI est éligible au pneu
gratuit, ce qui signifie que
nous pourrons la
lancer sans
dépenser d'argent pour cela. Sélectionnons-le et nous
passerons à la deuxième étape. Choisissez un type d'instance. L'AMI fait uniquement la
différence entre lancement d'instances EC Two
basées sur Linux et Windows. Le reste de la
configuration sera identique ou vous pouvez modifier
d'autres éléments si vous le souhaitez. Maintenant, comme vous pouvez le constater,
de nombreux types d'instances sont disponibles. Encore une fois, nous utiliserons un
micro à deux points parce que nous n' avons aucune exigence particulière et que nous voulons également
rester dans le pneu libre. Cliquez sur Configurer les détails de l'
instance. Comme vous le savez ici, nous fournirons toutes les configurations
relatives aux instances. Passons à la
configuration par défaut et vérifions
simplement si l'adresse IP publique
attribuée automatiquement est activée. Comme nous avons besoin d'une adresse IP publique pour
accéder à l'instance EC two, cliquez sur Suivant pour passer à la page
suivante, Ajouter du stockage. Comme vous pouvez le constater, nous avons déjà sélectionné
un volume EBS pour nous Il s'agit du volume racine qui contient le
système d'exploitation de cette instance. La page suivante s'intitule Ajouter des balises. Oublions cela pour le moment et
passons à la page suivante. Configurez le groupe de sécurité. Nous allons modifier le nom
et la description du groupe de
sécurité comme vous le souhaitez. Vous voyez que nous avons un
type RDS au lieu d' port
SSH. La plage de ports est de
3398 au lieu Cela est dû au fait que Linux
et Windows utilisent des technologies différentes pour
établir une connexion à distance. Nous n'aurons
rien d'autre à faire ici, passons à l'
examen et au lancement. Vous pouvez voir tous les paramètres
de notre instance EC two. Cliquez ici sur Lancer. Nous devons maintenant
spécifier une paire de clés. J'utiliserai la même clé que celle
que j'ai créée la dernière fois. Je l'accepte,
j'ai la clé. Cliquez sur Launch Instance, et cela nous amènera
à la dernière page. Si vous cliquez sur l'instance, vous verrez qu'AWS est en train de créer
une instance EC pour vous. L'état de l'instance est en attente, ce qui signifie que l'
instance est en cours de création. Il faudra quelques minutes pour passer à l'état en cours d'exécution. Comme vous pouvez le constater, l'instance est actuellement
en cours d'exécution et si vous
cliquez sur la case à cocher, vous trouverez tous les détails de l'
instance, les groupes de sécurité IP publics, les bilans de
santé, etc. Chaque fois que vous avez besoin
de détails sur les instances EC two, c'est ici que vous les
chercherez. Nous allons sélectionner l'instance
EC two. Ici, en haut, vous cliquez sur Connecter. Nous avons maintenant trois options pour nous connecter à cette instance
EC two. Je vais sélectionner le
deuxième onglet, client RDP. Vous pouvez télécharger ici
le client RDS que nous utiliserons pour
RDS sur l'instance Cliquez maintenant sur Obtenir le mot de passe. Vous pouvez soit copier et coller contenu
clé ici, soit le
télécharger en cliquant sur le navigateur. Je vais télécharger et cliquer sur
Décrire le mot de passe. C'est maintenant le mot de passe que je vais utiliser pour me connecter à
l'instance C two. Copiez le mot de passe ici. Ouvrons maintenant le client que vous avez téléchargé en fonction système
d'exploitation de
votre ordinateur portable ou de votre ordinateur. Il aura une interface
différente. J'utilise un Mac. Je publierai le mot de passe ici. Il a déjà sélectionné un utilisateur
pour moi et continuera. Je vais à nouveau cliquer sur Continuer. Maintenant, je suis dans mon ordinateur Windows EC
two. C'est à peu près ce que vous faites pour lancer une instance Windows. C'est ainsi que nous sommes arrivés
à la fin de ce laboratoire. C'est tout pour cette séance.
41. Service de récipient élastique dans ECS: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons
découvrir l'un des
services informatiques d'AWS, Elastic
Container Service, également connu sous le nom d'ECS. Nous comprendrons ce qu'est l'ECS, ses types et, surtout, ses cas d'utilisation.
Commençons. Avant de comprendre le service
Elastic Container, voyons rapidement
ce qu'est un conteneur. Parce que ECS est développé
sur la base de la technologie des conteneurs. Lorsque nous développons des applications, elles fonctionnent sur notre ordinateur. Mais elles se cassent dès que nous déplaçons ces applications
sur une autre machine. Cela peut être dû à
plusieurs raisons. Il peut s'agir d'un système
d'exploitation différent, d'une version différente de la
dépendance, etc. Comment résoudre ce problème ? Eh bien, les conteneurs sont la
solution à ce problème. Les conteneurs d'applications sont des
unités de support qui contiennent
le code et les dépendances de l'application , la
configuration, le réseau et parfois même une partie
du système d'exploitation. Essentiellement, tous les
logiciels nécessaires à l' exécution de votre application sont
placés dans un conteneur. Les conteneurs vous
permettent d' exécuter vos applications
sur n'importe quelle machine. Vous pouvez être assuré que
s'il fonctionne dans un système, il fonctionnera dans tous les systèmes. Docker est la plateforme logicielle la plus
utilisée qui permet à ses utilisateurs de créer des
applications et des conteneurs Vous pouvez installer Docker sur votre machine et créer un
conteneur pour n'importe quelle application Nous n'avons pas besoin de discuter de Docker
en détail à ce stade. Passons à autre chose et
comprenons ce qu'est l'ECS. Amazon ECS est un service d'
orchestration de conteneurs entièrement géré qui facilite
le déploiement, gestion et le dimensionnement des applications
conteneurisées Cela signifie qu'ECS
facilite l' utilisation et la gestion des conteneurs
Docker Lorsque vous utilisez ECS, vous n'avez pas besoin d'installer, exploiter ou de dimensionner
vos conteneurs. Ecs s'occupe de toutes
ces tâches pour vous. S'
intègre parfaitement au reste de la plateforme AW pour
fournir une solution sécurisée et facile à utiliser pour exécuter des
charges de travail de conteneurs dans le cloud Pour comprendre ECS,
vous devez connaître certains termes fréquemment utilisés
dans la définition des tâches ECS. La définition des tâches est
un script Jason qui contient plusieurs paramètres
pour exécuter votre application. En termes simples, la définition des tâches indique à ECS comment
exécuter un conteneur. Par exemple, vous pouvez définir
exactement la quantité de RAM et de processeur un conteneur aura besoin ou sur quel port EC
votre application doit démarrer. Ecs veillera ensuite à ce que
toutes vos exigences soient satisfaites lorsqu'ECS gère un conteneur. Selon la définition de votre tâche, il est connu sous le nom de rôle de tâche. Vos conteneurs peuvent exécuter plusieurs opérations sur AWS. Par exemple, un conteneur peut avoir
besoin de lire des messages depuis un SQSQ ou d'interagir avec S three ou tout
autre service AWS Par conséquent, vous devez
autoriser l'exécution de vos tâches. Cela se fait en
utilisant le rôle de tâche. Un rôle de tâche est un rôle
AWS IAM défini dans
la définition de la tâche Ce rôle est utilisé pour fournir à
AWS un accès aux tâches ECS. Voyons maintenant à quoi
tout cela ressemble dans ECS. Vous avez besoin d'un cluster ECS pour exécuter votre
application conteneur. Ce cluster ECS est composé d'au moins deux instances EC two
appelées instances de conteneur. Ensuite, nous avons des services qui s'étendent sur ces deux instances
disponibles. C'est là qu'ECS crée une
tâche ou un conteneur Docker. L'une des premières choses
à faire lors de l'utilisation d' ECS est de fournir et de
maintenir l'infrastructure. Ecs se charge ensuite de démarrer et d'arrêter les
conteneurs pour vous. Vous pouvez le faire de
deux manières en utilisant les types de lancement ECS qui sont du type de lancement lointain
et du type de lancement EC deux. Dans le type de lancement C two, nous configurons et déployons des instances
EC two dans votre
cluster pour exécuter vos conteneurs. Ecs gère les conteneurs
sur ces deux instances EC. Pour utiliser le type de
lancement EC two dans ECS, vous devez créer des instances
EC two manuellement ou utiliser des groupes de
mise à l'échelle automatique Type de lancement cible, il s'agit d'une option de paiement à l'
utilisation sans serveur. Vous pouvez exécuter des conteneurs sans avoir à gérer
votre infrastructure. Nous pouvons utiliser le type de lancement
Farget et oublier de
créer EC two Nous indiquons à ECS le nombre
de conteneurs à exécuter et la quantité de RAM et de processeur qu'un conteneur
doit avoir. Ecs Farget veille à ce que nous disposions toujours de suffisamment de ressources
pour lancer des conteneurs C'est tout pour cette séance.
42. Haricot élastique AWS: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons
découvrir l'un
des services informatiques d'
AWS, Elastic Beanstock J'aborderai ce qu'est
Elastic Beanstock, ses fonctionnalités et,
surtout,
ses applications .
Commençons. Aws est un leader du cloud computing avec près de 200 services. C'est pourquoi il faut
connaître la plupart des services. Pour déployer des applications sur AWS et les gérer efficacement. Vous devez d'abord connaître différents services AWS et
savoir comment les utiliser de manière
rentable. Cela convient lorsque vous avez plusieurs applications
ou une seule grande application. Mais que se passe-t-il si vous n'
avez qu'une application Web ? Passer des jours à
apprendre à
utiliser AWS uniquement pour déployer une application Web n'
est pas une approche très
efficace. Même après avoir appris AWS, vous devez
vous efforcer de maintenir votre
infrastructure sur AWS. En tant que développeur,
vous ne devez pas vous
soucier de l' évolutivité de l'infrastructure, configuration des connexions, des
bases de données, etc. Vous souhaitez déployer
et reposer rapidement des applications. C'est le problème qu'
Elastic Beanstock résout avec AWS. Elastic Beanstock
est un
service facile à utiliser pour déployer et faire
évoluer des applications Web Elle est également connue sous le nom de B. s'
agit d'une plateforme en tant que
service proposée par AWS. Pour utiliser Elastic Beanstock, vous créez une application, téléchargez une version de l'application sous la forme d'un bundle de
sources d'application, par
exemple un fichier
Java dans Elastic Beanstock, puis vous fournissez des informations sur Elastic Beanstock
lance automatiquement un environnement et
crée et configure les ressources AWS
nécessaires à
l'exécution nécessaires à Une fois votre implication
lancée, vous pouvez gérer votre environnement et déployer de
nouvelles versions d'applications. Une fois que vous avez créé et
déployé votre application, informations relatives à
celle-ci,
notamment les métriques, les événements
et l'état de l'environnement, sont disponibles via l'API de
la
console Elastic Beanstock ou les interfaces de ligne de commande,
y compris l'interface de
ligne de commande AWS unifiée En tant que développeur, si vous utilisez EB, vous pouvez déployer des applications sans provisionner l'infrastructure
sous-jacente Aws veillera à ce que votre infrastructure soit
prête et hautement disponible. En interne, EB Re utilise tous les composants que nous avons vus auparavant tels que RDS, les équilibreurs de charge, EC Two pour exécuter des applications, mais vous pouvez utiliser EB sans aucune autre connaissance
de ces composants internes Il s'agit d'un service gratuit en soi, mais vous payez pour l'infrastructure
sous-jacente fournie en utilisant du
haricot Voyons maintenant comment Elastic Beanstock fonctionne dans AWS Nous avons un compte AWS
et un VPC en son sein. Ici, nous allons créer un environnement
Beanstock élastique. Comme nous le savons, Beanstock
créera toutes les
infrastructures sous-jacentes telles que EC,
deux instances, les équilibres de charge, les
bases de données, le
groupe de sécurité, etc. En tant que développeur, vous ne vous
souciez que de votre code. Ils veulent s'assurer qu'ils passent leur temps à
écrire du code de qualité, le
tester et gérer
toute
l'infrastructure sous-jacente pour eux. Dans ce cas, nous avons un développeur qui possède un
fichier war avec son code. Il n'est vraiment pas
nécessaire que ce soit un fichier de guerre. Il peut également s'agir d'un code Zip ou
Github. Il peut déployer ce fichier de
guerre à l'aide la
console de gestion EB ou de l'EVCLI Beanstock déploiera ensuite l'application et effectuera le
reste de la configuration, comme l'équilibrage de charge élastique, le groupe Auto Scaling, les instances et même
une base de données, c'est Désormais,
Elastic
Beanstock prend en charge le dimensionnement des applications, la mise à niveau du système d'exploitation
, les correctifs , les métriques de
journalisation , les métriques de En tant que développeur, vous pouvez vous concentrer sur les fonctionnalités de votre application
et de votre entreprise. Examinons maintenant les fonctionnalités d'
Elastic Beanstock. Il prend en charge différents langages de
programmation tels que Java.net PHP, Node JS, Python,
Ruby, Go et Docker Il s'intègre à
Amazon VPC et lance des ressources
AWS telles que des instances EC
two dans le VPC Il s'intègre à la gestion des
identités et des accès AWS et vous aide à
contrôler en toute sécurité l'accès à
vos ressources AWS. Vous pouvez également
intégrer le cloud front. Cloudfront peut être utilisé pour
distribuer le contenu dans S
three après la création et le déploiement d'un haricot
élastique Il prend en charge l'exécution d'instances
RDS dans l'environnement Elastic
Beanstock, idéal pour le
développement Elastic Beanstock est un
excellent choix pour
déployer votre application sur le cloud
AWS en quelques Vous n'avez pas besoin d'
expérience ni de connaissances en matière de cloud computing pour démarrer
avec Elastic Beanstock Vous créez des environnements
d'applications EV et spécifiez certains paramètres,
et vous avez terminé. C'est tout pour cette vidéo.
43. Informatique sans serveur: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons
comprendre le concept de
réduction des serveurs et pourquoi il est plus populaire dans
le cloud computing. Commençons. Dans la plupart des services
que nous avons vus jusqu'à présent, le
processus de développement et de déploiement a été le même. Développez votre application,
allouez l'infrastructure, puis déployez et exécutez l'application sur cette infrastructure
allouée. C'est ainsi que cela devrait être. Vous avez toujours besoin d'un serveur
sous-jacent pour exécuter le code de votre application. Il a toujours été nécessaire de fournir et d'entretenir
notre infrastructure. C'est là que le serverless
entre en jeu. Serverless a été
le maître-mot. Dans le monde du cloud computing, de nombreuses applications suivent une architecture
sans serveur Le terme vient de l'idée que l'infrastructure
utilisée pour exécuter vos applications n'a
plus besoin d'être provisionnée ou maintenue
par vous ou votre équipe serveur peut également
être source de confusion,
car dans les
architectures sans serveur, les serveurs existent Cela ne signifie pas que votre application ne
possède aucun serveur sous-jacent. C'est juste qu'il n'y a pas lieu
de s'inquiéter de la
gestion du serveur. Si vous êtes un utilisateur final, il se peut qu'il n'
existe pas car vous n'
avez jamais à vous soucier des serveurs, où le terme sans serveur Mais il existe un serveur dont le provisionnement et la maintenance sont entièrement pris en
charge par le fournisseur Si nous l'utilisons dans la terminologie d'AWS, vous n'avez plus besoin de créer
une instance facile à utiliser, de
configurer et de gérer un système d'exploitation
pour votre application. Cela signifie que nous déléguons toutes les
responsabilités liées à la gestion du serveur
sous-jacent et que tout est pris en charge. Le serveur peut évoluer automatiquement et vous facturer en
fonction de votre consommation. Les services sans serveur sont devenus extrêmement populaires auprès de nombreuses applications cloud
modernes Examinons maintenant les
avantages du mode sans serveur. Avec le mode sans serveur, il
n'y a aucune instance à gérer. Vous n'avez pas besoin de
provisionner de matériel. Il n'y a aucune gestion des systèmes
d'exploitation ou des logiciels. Le provisionnement des capacités
et l'application des correctifs sont tous gérés automatiquement pour
vous Il peut également être très peu coûteux d'exécuter des services sans
serveur. Vous n'êtes facturé que
pour ce que vous utilisez. Le code ne s'exécute que lorsque
le serveur a besoin de fonctions moins
le
serveur d'applications évolue automatiquement et de manière élastique Il intègre également
une haute disponibilité. Il vous suffit de déployer le
code en tant que développeur et il
évolue automatiquement en fonction des besoins. Supposons qu'une fonction
doive être exécutée dans plusieurs instances. Dans ce cas, les
serveurs commenceront à fonctionner
et s'arrêteront selon les besoins,
souvent à l'aide de conteneurs. Par conséquent, une
application sans serveur
traitera un
nombre anormalement élevé de demandes Mais dans une application
structurée traditionnelle avec un espace serveur limité
, elle est submergée par une
augmentation soudaine de l'utilisation. C'est tout pour cette vidéo.
44. AWS Lambda: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons comprendre AWS Lambda.
Commençons. Lambda est un
service sans serveur qui vous permet d' exécuter du code sans provisionner
ni gérer Contrairement à deux instances où notre application
doit s'exécuter en continu, AWS Lambda nous permet d'écrire fonctions qui peuvent
être exécutées à la demande Les fonctions Aws Lambda
peuvent être déclenchées par des événements internes ou externes
au compte AWS,
et il n'est pas nécessaire qu'elles
continuent de fonctionner Par exemple, vous pouvez écrire une fonction pour effectuer une tâche de traitement de
fichier. Et il sera déclenché lorsque les données seront téléchargées dans
le service S three. Chaque fois qu'un fichier est
chargé sur S three, vous disposez désormais d'une
fonction qui exécute et
traite
automatiquement ce fichier. Vous pouvez également avoir une
fonction lambda qui extrait des
valeurs d' une base de données pour
votre application frontale Il existe plusieurs manières d'
utiliser les fonctions lambda. Il peut être utilisé pour
tout, de l'exécution de petites tâches individuelles au remplacement d'applications
dorsales complètes. Notez également que fonctions
AWS Lambda ne sont
destinées qu'à de courtes exécutions Vous ne pouvez exécuter du code dans Lambda que pendant 15 minutes au maximum
, ce qui est une durée raisonnable pour la plupart
des cas d'utilisation Veuillez noter ici que cela change
constamment. Je recommande de consulter la documentation
AWS
pour connaître les mises à jour récentes. Mais si vous avez un seul processus dont l'exécution prend plus de
15 minutes, vous devrez le déployer un serveur tel que des
instances ou un conteneur EC two. Jetons un coup d'œil à
d'autres fonctionnalités d'AWS Lambda. La première fonctionnalité arrive
ici, la mise à l'échelle automatique. Lorsque nous utilisons des instances EC two, même si nous disposons d'un
groupe de dimensionnement automatique pour faire évoluer notre
infrastructure, nous devons toujours créer des politiques de
dimensionnement manuellement Nous devons demander à AWS d'ajouter ou supprimer des instances en
fonction des alarmes de surveillance du cloud. En comparaison, AWS Lambda
peut évoluer automatiquement. Prenons le même exemple du traitement
de fichiers Lambda qui s'exécute chaque fois qu'un fichier
est téléchargé sur S three. Que se passe-t-il lorsque vous importez,
disons, 500 fichiers ? Vous disposerez de 500 fonctions
Lambda exécuter vos tâches de
traitement de fichiers C'est la puissance du mode sans serveur. Vous n'avez pas à vous soucier de la
mise à l'échelle de votre infrastructure. Aws garantit que vous
disposez toujours de suffisamment
de ressources pour exécuter votre code. Notez ici qu'AWS a une limite de quota de service de 1 000 Lambdas exécutant
simultanément par région. Dans notre exemple, vous pouvez rencontrer des échecs Lambda lorsque vous téléchargez plus de 1 000
fichiers sur le S3. Cette limite a été fixée
pour éviter toute utilisation abusive de votre compte et éviter
tout frais indésirable. Si vos cas d'utilisation
nécessitent l'
exécution simultanée de plus de
1 000 fonctions Lambda, vous pouvez obtenir
une augmentation de cette limite auprès du support AWS La fonctionnalité suivante est
le prix par utilisateur. fonctionnalité suivante et la plus
lucrative de Lambda est le paiement à l'utilisation. Cela signifie que vous payez pour
le temps d'exécution de votre code. Aucuns frais ne sont facturés lorsque
votre code n'est pas en cours d'exécution. Supposons que votre
Lambda de traitement de fichiers s'exécute pendant 1 minute. Vous ne payez que le
coût de calcul d'une minute. Si dix Lambdas
fonctionnent pendant 1 minute, vous payez 10 minutes de temps de
calcul, etc. La fonctionnalité suivante est Ram. Les fonctions Lambda peuvent obtenir
des ressources allant jusqu'à plusieurs Go de RAM. Il est également important
de noter que lorsque vous augmentez la RAM de
votre fonction Lambda, votre processeur et les capacités
réseau de Lambda s'améliorent également C'est un sujet d'examen tendance. Comment allez-vous augmenter le
processeur et le réseau de Lambda ? La réponse est d'
augmenter la RAM. La fonctionnalité suivante est l'intégration. Comme je l'ai déjà dit, AWS Lambda propose
de nombreux cas d'utilisation et a été intégré à
de nombreux services AWS Jetons un coup d'œil à certaines
des principales intégrations
et à leurs cas d'utilisation Le premier cas d'utilisation dans S trois, comme dans l'exemple que
nous avons pris jusqu'à présent, vous pouvez exécuter un lambda sur différents types d'
événements dans S trois. Le suivant est Dynamodb. Vous pouvez créer un déclencheur
afin que Lambda se
déclenche chaque fois qu'un événement
se produit dans notre Dynamodb, qui est un La prochaine est la passerelle API. intégration de Lambda et de passerelle API est l'un des cas d'utilisation les plus
utilisés de Lambda Api Gateway est un service
AWS utilisé pour
créer des API REST. Dans AWS, vous pouvez
placer Lambda derrière une passerelle d'API et créer
un point de terminaison d'API Rest pour
appeler votre fonction Lambda Le suivant est SNS, vous pouvez avoir une
fonction lambda qui réagit
aux notifications
dans une rubrique SNS Sns est également intégré à éventuellement toutes sortes d'
événements dans la console AWS. Grâce à cette intégration, tous ces événements peuvent être utilisés
pour déclencher des fonctions Lambda Le suivant est SQS. Lambda peut être utilisé pour
traiter les messages dans SQS QS. Le dernier concerne les événements
Cloud Watch. Vous pouvez également exécuter fonctions
Lambda avec des événements
Cloud Watch Voyons enfin quelques petits exemples
de fonctions Lambda Comme vous pouvez le constater,
notre application frontale
s'exécute sur des instances EC two. Ensuite, nous avons une passerelle API qui appelle nos
fonctions lambda pour le back-end Cette fonction lambda a
également été intégrée RDS et récupère et stocke les
données dans la base de données l'autre côté, nous avons
l'application frontale, tâches
vers les repères SQS, qui a été intégrée
à un autre Lambda Pour le traitement des messages, vous pouvez créer un événement cloudwatch qui se déclenche à intervalles
réguliers Comme vous pouvez déclencher Lambda
à partir d'un événement Cloudwatch, vous pouvez avoir une
fonction Lambda qui s'exécute régulièrement Il s'agit d'un cas d'utilisation populaire et d'une question d'examen sur la façon d'exécuter un Lambda pour exécuter une tâche basée sur des
commandes La réponse réside dans les déclencheurs d'
événements Cloudwatch. C'est tout pour cette séance.
45. Types de données: Bonjour, étudiants. Bon retour. Comme vous le savez, ce module
est entièrement consacré aux bases de données. Mais avant d'
entrer dans les bases de données, nous allons rapidement comprendre
les données et leurs types. Nous choisissons une base de données
appropriée en fonction de la nature de nos données. Il est donc très important de comprendre les données et leur type. Commençons par les types
de sources de données. Il existe trois types
de sources de données :
structurées, non structurées
et semi-structurées Comprenons d'abord les données
structurées. Il s'agit de données dont les types de
données sont prédéfinis et qui sont stockées
dans un format spécifié. Découvrons le type de données
prédéfini et le format spécifique à l'aide
d'un exemple d'annuaire téléphonique. Dans ce tableau, vous pouvez
voir que la ligne du haut porte des noms
différents qui définissent type de données présent
dans les différentes colonnes. Par exemple, le numéro de série représente le nombre
d'ensembles de données dont nous disposons. La colonne du prénom contiendra le prénom de chaque
entrée de nos données. agit d'un format si nous voulons ajouter d'autres
informations personnelles à ces données, nous devrons créer
une nouvelle colonne pour celles-ci. Supposons que vous souhaitiez également
ajouter une adresse. Dans ce cas, vous devez ajouter un en-tête supplémentaire,
nommé adresse. Vous êtes le seul à pouvoir ajouter
des adresses à ces données. En gros, il s'agit
d'un format spécifique. Voyons maintenant quels sont
les types de données. Comme vous pouvez le constater,
nous avons des chiffres dans les colonnes du numéro de série et du numéro de
téléphone,
et les colonnes du prénom et du
nom de famille ont des correcteurs Conformément aux colonnes définies, vous devez
saisir des chiffres dans les colonnes
du numéro de série et du numéro de
téléphone et des caractères dans la colonne
prénom et nom de famille. Cela signifie qu'il est
défini le type de données que nous pouvons saisir
dans différentes colonnes. Les données de structure sont stockées sous la forme
d'une série de valeurs de données dans des tables
définies gérées par un moteur de base de données
tel que my Esque. Ces données sont très structurées. C'est pourquoi il est
très facile à analyser et peut être utilisé dans des requêtes
très complexes. Le type de données suivant est celui des données
non structurées. Les données non structurées ont
une structure interne, mais ne contiennent pas de modèle de données
prédéfini Prenons l'exemple d'une vidéo. Il s'agit également de données,
mais leur mode de
stockage est différent de celui des données structurées. Ce type de données prend
généralement la forme de fichiers stockés dans un
espace de stockage tel que Dropbox. Dropbox est comme une unité de stockage où vous pouvez stocker des fichiers texte, des photos, des vidéos, etc. Les données non structurées dans leur
ensemble ne sont pas
pertinentes messages texte, les
documents, les vidéos, les
photos et autres images sont des exemples de
données non structurées documents, les vidéos, les
photos et autres images sont des Ces fichiers ne sont pas organisés, ils ne peuvent être placés que dans un système de fichiers ou un magasin d'objets. Si vous souhaitez obtenir des informations pertinentes à
partir de ces données, vous devez les traiter. Vous avez besoin d'outils spéciaux pour interroger et traiter les données
non structurées Le dernier type de données est celui des données
semi-structurées. Les données semi-structurées sont une
forme de données structurées. La seule différence est que les données
semi-structurées sont
flexibles et peuvent être mises à jour sans modifier le schéma de
chaque enregistrement d' Il s'agit d'un exemple de données
semi-structurées. Comme vous pouvez le voir ici, il existe deux ensembles de données qui
se ressemblent, n'est-ce pas ? Si vous remarquez que la
deuxième donnée contient une adresse
d'information supplémentaire. semi-structurées permettent à
un utilisateur de capturer des données
dans n'importe quelle structure à mesure que les données
évoluent et Semi-temps, les données de structure sont
stockées dans des fichiers Jason qui sont chargés dans un
moteur de base de données tel que Mongo Devi Ces données sont très flexibles
car la structure
n'est pas stricte et peut être
modifiée selon les besoins dans le tableau. Vous pouvez également analyser des données
semi-structurées. C'est tout ce que je voulais
aborder au cours de cette session.
46. Bases de données relationnelles: Bonjour étudiants. Bon retour. Dans la dernière vidéo, vous avez compris trois
types de données :
structurées, non structurées
et semi-structurées La nature de ces
données étant différente, elles seront stockées différemment. Dans cette vidéo, nous allons
comprendre où et comment
ces données seront stockées. À la fin de cette vidéo, vous saurez pourquoi nous stockons données
structurées dans une base de données
relationnelle Commençons par un exemple. Nous utilisons souvent une
feuille ex Cel pour stocker des données, n'est-ce pas ? En effet, il est
plus facile d'organiser et gérer les données dans Excel
que dans n'importe quel autre outil. Ce type de données est
connu sous le nom de données de structure. Nous en avons discuté lors
de la dernière séance. Les feuilles Excel
conviennent parfaitement aux données personnelles, mais si vous
pensez aux grandes entreprises, monde est complètement différent. Ils traitent d'énormes
quantités de données, ce qui est très difficile
à stocker et à gérer. Lorsque les données augmentent,
cela entraîne souvent également
des incohérences et des
redondances Supposons qu'une feuille de calcul stocke les données
d'inscription aux cours des étudiants Maintenant, regardez l'étudiant de Sham
Singh dont numéro d'
étudiant 101 est
enregistré plus d'une fois. C'est ce que l'on appelle la redondance des données. Un autre problème pourrait être que Samsung
change de nom de famille. Dans ce cas, son nom de famille doit être changé partout
dans nos données. Dans le cas contraire, cela pourrait
entraîner des incohérences dans les données. Pour les petits systèmes de données, cela pourrait être plus facile à résoudre. Mais lorsque le
système de données est énorme, il est difficile de
gérer les données. Afin d'éviter
ces problèmes, nous utilisons une technologie basée sur les données. Il s'agit d'un
ensemble organisé de données qui peut être facilement
accessible et géré. Supposons maintenant que vous souhaitiez
envoyer un e-mail à Kishor. Ainsi, il existe une autre feuille contenant les
détails des étudiants tels
que le courrier électronique, identifiant, le numéro de téléphone, etc. Dès la première feuille, nous savons que Kiss travaille dans les ressources humaines, mais nous ne trouvons pas Kiss dans
la fiche de renseignements sur les étudiants. Cela signifie que nos données ne
sont pas cohérentes. Nous pouvons résoudre ce
problème avec certaines règles, comme le fait qu'un étudiant ne peut pas s'inscrire au cours
sans inscription. De cette façon, nous aurons toutes les feuilles remplies
pour chaque étudiant. Le point ici est que
les deux feuilles Excel ont une relation et suivent une certaine
règle pour organiser les données. C'est ce que l'on appelle les données relationnelles, où le concept
de base de données relationnelle Une base de données est un
ensemble organisé de données connexes. Il s'agit d'une collection organisée
car dans une base de données, tous les ensembles de données sont décrits
et liés les uns aux Les données sont organisées en relations comme dans une base de données relationnelle Chaque table possède un ensemble qui
définit la structure de données, schéma de
données stocké dans la table. Un enregistrement est un ensemble
de champs d'une table. Vous pouvez considérer
les enregistrements comme des lignes ou tuples de la table
et les champs comme des colonnes Dans cet exemple,
vous avez une table de données sur les
étudiants, chacune
représentant un dossier étudiant et chaque colonne représentant un champ du dossier étudiant. Un champ spécial ou une
combinaison de champs qui détermine l'enregistrement unique
est appelé clé primaire. Par exemple, carte d'étudiant. Il est unique pour chaque élève. Cette clé est généralement le
numéro d'identification unique des enregistrements. Il utilise une structure qui
lui permet d'identifier et d'accéder aux données relatives à une autre donnée de
la base de données. Comme vous pouvez le constater, chaque étudiant
possède un identifiant unique qui permet retrouver le dossier
du même étudiant dans l'inscription des
étudiants. Comme vous le voyez, ces données
ont une certaine structure, appelée schéma. bases de données relationnelles
stockaient des données de structure, elles vous permettent de collecter
rapidement des et des données interrogées à l'aide
d'un modèle de données structuré L'utilisation de tables pour
stocker les données en colonnes et en lignes facilite l'
accès aux données et leur gestion. Aws propose une solution de base de données pour les bases de données
relationnelles que nous aborderons dans l'
introduction au module RDS. C'est tout pour cette séance.
47. Bases de données NoSQL: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons
comprendre la base de données Nosql. Commençons par un bref
aperçu de la vidéo précédente. Nous avons compris que
les données d' une base de données relationnelle
sont organisées de telle sorte que les valeurs d'une table peuvent définir ou modifier les
valeurs d'une autre table En d'autres termes,
il existe une relation entre les
différentes tables de données. Prenons le même exemple d'
une base de données relationnelle stockant les informations
d'inscription aux cours des étudiants Un tableau contient
des informations sur les étudiants et un autre définit le cours auquel
les étudiants se sont inscrits dans une base de données relationnelle Vous pouvez exécuter une seule requête
SQL qui renvoie un résultat indiquant tous
les étudiants inscrits
en comptabilité, même si les données
se trouvent dans deux tables. C'est le super pouvoir
des bases de données relationnelles. Parlons maintenant des bases de données non
relationnelles. Ce type de base de données
stocke les données différemment. En raison de la nature des données, nous stockons les données semi-structurées dans une base de données non relationnelle Prenons maintenant le même exemple de base de
données d'inscription aux
cours pour étudiants . Si vous devez stocker les données d'inscription aux cours des
étudiants dans une base de données non relationnelle, toutes les informations d'un étudiant, y compris le cours associé, seront stockées dans un seul élément de
la table de base de données Examinons maintenant en profondeur
et comprenons
comment les données sont stockées dans une base de données
non relationnelle Supposons qu'après un an, le collège ait décidé d'ajouter la note standard 12 au tableau d'inscription
des étudiants dans la base de données. Comment chaque
type de base de données devrait-il changer ? Eh bien, dans le cas des bases de données
relationnelles, vous devez mettre à jour le schéma pour ajouter les
notes des étudiants Cela signifie l'ajout d'une nouvelle
colonne pour la note. Une fois que vous aurez ajouté la nouvelle colonne, elle sera vide pour les données
existantes, n'est-ce pas ? Ce qui peut poser problème. Parce qu'en règle générale, bases de données
relationnelles
nécessitent que vous saisissiez des valeurs dans chaque colonne si cela est défini
pour prouver la validité de la base de données Vous devez créer un processus pour ajouter la note pour chaque
enregistrement du tableau. Une fois ce processus terminé, vous commencerez à ajouter de nouveaux
enregistrements pour la note. C'est bon. Des suppositions sur ce que vous devez
faire dans une base de données non relationnelle Eh bien, pas besoin de deviner. Il vous
suffit de créer de nouveaux objets. Avec les nouveaux attributs, vous pouvez revenir en arrière et consulter
les enregistrements existants. Vous n'êtes pas obligé d'en
faire quoi que ce soit. C'est l'un des
avantages des non relationnelles par rapport aux bases
de données relationnelles schémas non relationnels
ne vous obligent pas à
définir de nouveaux attributs de
données avant de les utiliser Dans une base de données relationnelle, vous devez mettre à jour le schéma avant de pouvoir ajouter de
nouveaux champs de données Lorsqu'il s'agit de stocker
et de traiter des semi-structurées ou
non structurées,
le choix se porte souvent sur une base de données non relationnelle C'est tout pour cette leçon
sur les bases de données non relationnelles.
48. Hébergement de base de données sur site vs Cloud: Bonjour, étudiants. Bon retour. Dans cette vidéo, vous
découvrirez comment nous gérons les bases
de données dans
le scénario sur site, et quelles sont les différentes options de
base de données dans le cloud AWS. Commençons par les bases de
données sur site. Ils fonctionnent sur du matériel que votre organisation
possède et gère. Ces systèmes sont gérés par une équipe d'administrateurs de base de données,
les administrateurs données, qui sont responsables l'ensemble de la configuration et de l'utilisation
de la base de données Dans le cas d'une installation sur site, l'entreprise déploie
plusieurs serveurs et appareils
réseau pour gérer
la charge maximale du système Une fois qu'ils ont obtenu le serveur auprès de
l'équipe d'infrastructure, ils installent le système
d'exploitation et préparent un calendrier d'application des
correctifs du système d'exploitation La prochaine étape est l'installation d'un
logiciel de base de données. Encore une fois, ils doivent planifier
et appliquer les correctifs de base de données. Une fois la base de données prête, elle peut être utilisée par
l'application. Désormais, ces bases de données
doivent être gérées, mises à jour, mises à niveau et
optimisées au fil du temps. L'effort considérable suivant la sauvegarde des bases de données et la configuration de
haute disponibilité pour les
applications critiques de l'entreprise en cas de configuration haute
disponibilité. Encore une fois, la base de données de votre équipe doit suivre
les mêmes étapes pour votre équipe doit suivre
les mêmes étapes pour
un autre serveur de base de données qui
servira de réserve pour les scénarios de
basculement En outre, vous êtes désormais
responsable de la mise à l'échelle de
votre serveur de base de données. Et puis c'est beaucoup de travail. Maintenant, en ce qui concerne le cloud, deux options s'offrent à
nous. La première est
similaire à une
base de données sur site dans laquelle vous
louez une machine
virtuelle dotée
d'un réseau et un serveur géré
et pris en charge par AW. Cependant,
le reste sera
géré par vous-même. Encore une fois, cela demande des efforts et une équipe de base de données pour s'
occuper des correctifs du système d'exploitation, de l'installation
et de l'application des correctifs du
logiciel de base de données, de la sauvegarde de la base de
données, de la
mise à l'échelle de la haute disponibilité, etc. Le second est Amazon RDS. Amazon RDS est une
base de données gérée par AWS dans laquelle vous pouvez obtenir la base de données prête à l'emploi en quelques clics, ce que nous
aborderons dans la leçon suivante C'est tout pour cette séance.
49. Service de base de données relationnelle Amazon: Bonjour étudiants. Bon retour. Dans cette vidéo, vous
découvrirez le service de
base de données relationnelle Amazon, communément appelé Amazon Ardis Commençons. Jetons un coup d'œil à la présentation d'Amazon Ardis Il s'agit d'un service
de base de données relationnelle qui dirige, configure, exploite et fait évoluer une base de données relationnelle
dans le cloud Comme vous le savez, gérer
une base de données dans une instance sur site ou facile à utiliser
n'est pas une tâche facile. Amazon Ardis est conçu pour
minimiser les efforts liés à la gestion des tâches liées aux bases de
données relationnelles telles que le provisionnement du matériel, configuration des
bases de données, l'application de correctifs aux
sauvegardes, etc. Il vous suffit de sélectionner la
base de données que vous souhaitez lancer et nous aurons une base de données prête en quelques
clics. Comprenons à l'
aide d'un exemple. Supposons que vous ayez une équipe
de quatre personnes et
que vous souhaitiez lancer une
application qui sera soutenue par
une base de données My SQL. Vous avez installé mon code SQL sur
l'instance EC two. Comme nous savons que la mise en place de la
sauvegarde et de l'application de correctifs de la base de données du système d'exploitation
demande beaucoup de travail , il est probable que
le travail de développement prenne du retard,
ce qui pourrait
retarder davantage le lancement de l'application car seules deux personnes peuvent
se concentrer sur le développement Imaginez à nouveau le même exemple, mais cette fois avec Amazon RDS. RDS étant un service géré, AWS se chargera de toutes les tâches liées à la
base de données pour vous Vos développeurs peuvent se concentrer
sur le développement d'applications. Rds a été conçu pour
vous aider à réduire les coûts de
gestion de base de données Il s'agit d'un service géré qui automatise le provisionnement des bases
de données Aws s'occupera de la mise à
jour du système d'exploitation. Vous disposerez de sauvegardes
continues et d'options de
restauration avec une restauration
ponctuelle. Vous disposerez également de
tableaux de bord de surveillance pour voir si notre
base de données fonctionne bien Vous pouvez redimensionner les
lectures en créant une réplique du Rid et en améliorant
les performances du Rid. Vous aurez un moyen de configurer des
zones de disponibilité
multiples pour vous assurer que votre application dispose d'un plan reprise
après sinistre au cas où une
zone de disponibilité complète tomberait en panne. Enfin, vous pouvez également
configurer des fenêtres de maintenance pour les mises à niveau et effectuer une mise à l'échelle
verticale ou horizontale. La seule chose que nous ne pouvons pas
faire avec une base de données RDS c'est que nous ne pouvons pas accéder par SSH à
votre instance de base de données RDS. Examinons maintenant certaines fonctionnalités
et certains éléments d'Amazon RDS. Jetons un coup d'œil à la
première disponibilité du RDS. Amazon Adis offre une
disponibilité et durabilité accrues grâce à l'utilisation de déploiements
Jones à disponibilité
multiple Cela signifie qu'
Amazon Dias crée plusieurs instances
de la base de données dans différentes zones de capacité En cas de défaillance de
l'infrastructure, Amazon Adis passe
automatiquement en mode veille dans les autres zones de
disponibilité Les opérations de base de données reprendront dès que le
basculement sera terminé Amazon Dias utilisant un service DNS pour identifier
la nouvelle instance principale, pas nécessaire de mettre à jour terminaison de
connexion à la base de
données C'est une très bonne fonctionnalité. Le second est le type d'instance
Dias. Lorsque vous créez votre première base de données
Amazon Dias, vous devez prendre
quelques décisions clés abord, vous devez choisir
le type d'instance de base de données, qui détermine les ressources de votre
base de données telles que le processeur et la mémoire. C'est un peu similaire au type d'instance AW, EC two. Le suivant est le moteur de
base de données Dias. Vient ensuite le type de
moteur de base de données que vous souhaitez exécuter. Vous pouvez choisir entre
Postgresql, SQL, Maria DB, Oracle Database, Quel server et Amazon Aurora Amazon Aurora est une base
de données relationnelle
compatible avec MyEsqul et Post GrayQUL une base
de données relationnelle
compatible avec MyEsqul et Post GrayQUL conçue pour le cloud. La base de données est conçue
et développée par AWS pour fournir des performances de base
de données de niveau professionnel. Chaque moteur de base de données possède ses propres
caractéristiques et fonctionnalités que vous pouvez sélectionner fonction des exigences de votre application
et de votre entreprise. Maintenant, jetez un coup d'œil à la réduction des prix. Désormais, l'un des
principaux avantages d' Amazon Ardis est que
vous payez au fur et à Le processus de facturation d'Amazon Ardis comprend deux
parties : le coût de l'instance La première chose que vous payez est l'instance qui
héberge les bases de données. Il existe deux modèles de tarification : le modèle à la demande et le modèle réservé à la demande. La tarification des instances vous
permet de payer la capacité de calcul
sur une base horaire. C'est le cas lorsque votre base de données s'exécute par intermittence ou est un
peu imprévisible La tarification des instances réservées est idéale lorsque vous avez une bonne idée de la consommation de ressources
de votre base de données. Avec ce type d'instance, vous pouvez obtenir une durée d'un
ou trois ans et bénéficier d'une réduction significative
par rapport à la tarification à la demande. Examinons maintenant
le coût du stockage. Ensuite, le fait que vous payez
pour le stockage et la
consommation par le stockage de votre
base de données sont facturés au
gigaoctet et par mois. By est facturé par
million de demandes. J'espère que vous avez une bonne
connaissance d'Amazon Dis. Regardez à nouveau la vidéo. Si vous avez le moindre doute,
c'est tout pour cette vidéo.
50. Amazon DynamoDB: Bonjour, étudiants. Bon retour. Au cours de cette session, nous
allons comprendre la base de données AWS NOSQL
proposant Dynamo DV. Commençons. Jetons un coup d'œil à la présentation de Dynamo DV Il s'agit d'un service de
base de données Nosql entièrement géré qui fournit des performances rapides et
prévisibles avec une évolutivité sans faille Dynamo DB est l'une des meilleures options pour
stocker
les données de structure des semis NOSQL Comme il s'agit d'une base de données entièrement
gérée, vous n'avez pas à vous occuper du provisionnement
matériel, de la
configuration, de la
réplication, des correctifs logiciels ou de la mise à l'échelle du cluster lorsque
vous utilisez Dynamo DB Un autre avantage
de Dynamo DB est qu' il propose le chiffrement
au repos Cela élimine la charge
opérationnelle et la
complexité liées à la
gestion des cryptages. Des cris pour protéger les données sensibles. Si cela n'a pas de
sens, ne vous inquiétez pas, souvenez-vous simplement qu'il supporte
le cryptage par défaut. J'aborderai le chiffrement en détail dans le module
de gestion AWS. Nous créons une table de base de données dans Dynamo DB pour stocker et
récupérer nos données Il est important de
comprendre ici, laissez-moi simplifier les choses. Lorsque vous créez une instance
Amazon RDS, vous créez une base de données à l'intérieur de celle-ci, puis
vous créez une table dans la base Mais dans le cas de Dynamodb, vous créez la table
directement dans Lorsque vous accédez au tableau de bord
Dynamodb, vous créez un Une table Dynamodb peut être
redimensionnée horizontalement. Il distribue les données sur différents serveurs
principaux afin que vous puissiez évoluer chaque fois que cela est nécessaire et obtenir
d'excellentes performances Voyons maintenant comment nous
stockons les données dans Dynamodb. Une table Dynamo DB est composée de trois composants
différents Tableaux, éléments et attributs. Tout d'abord, vous avez
la table elle-même, et c'est là que toutes vos données sont stockées
dans la table. Une table est un
ensemble d'objets. Chaque élément est un ensemble
d'attributs. Les éléments sont comme des lignes dans
une base de données relationnelle. Par exemple, l'étudiant dont le numéro d'
étudiant est 101 est un objet. Chaque élément est associé à une série d' attributs. Ce sont les données que nous
voyons dans ces champs ici, telles que le nom de famille, prénom et l'e-mail. Dynamo DB utilise des clés primaires pour identifier de manière unique les
éléments d'une table, et des index secondaires pour
offrir une plus grande flexibilité aux requêtes Vous pouvez utiliser les
flux Dynamo DB pour capturer événements de modification de
données
dans les tables Dynamodb performances des tables Dynamodb sont basées sur la capacité de débit Vous pouvez augmenter ou diminuer
la capacité de débit de vos tables sans interruption
ni dégradation des
performances Vous pouvez utiliser la console de
gestion AWS pour surveiller l'utilisation des ressources
et les indicateurs de performance. Dynamo DB fournit la fonctionnalité de sauvegarde à
la demande qui vous permet de créer des sauvegardes
complètes de vos tables à des fins conservation et d'
archivage à
long terme pour répondre aux exigences de
conformité réglementaire Vous pouvez également créer des sauvegardes à
la demande et activer restauration
ponctuelle pour
votre table Amazon Dynamodb Point in Time Recovery
permet de protéger vos tables contre les
droits accidentels ou les opérations de suppression. Avec Point In Time Recovery, vous pouvez restaurer une table à n'importe quel moment au cours
des 35 derniers jours. Il vous permet également
de
supprimer automatiquement les éléments expirés
des tables afin réduire l'utilisation du
stockage et le coût du stockage des données qui ne
sont plus pertinentes. Examinons maintenant quelques cas
d'utilisation de Dynamodb. Grâce à son modèle de données flexible
et à ses performances fiables, il convient parfaitement aux applications
mobiles, aux applications
Web, aux applications de
jeu, aux applications technologiques et aux applications IoT. Vous pouvez également utiliser Dynamodb pour
d'autres applications. Étudiants, j'espère que
vous comprenez maintenant les fonctionnalités
et les applications d'
Amazon Dynamodb
51. Créer une instance RDS: Bonjour, étudiants. Bon retour. Au cours de cette session, nous allons
créer une instance RDS. Nous verrons quelles autres ressources
et configurations sont nécessaires pour lancer une instance SQL
RDS Passons maintenant à la console AWS. Tapez RDS dans la barre de recherche. Cliquez sur l'option RDS pour accéder tableau de bord
RDS. La première chose
à faire lors de la création d' instances
RDS est de
créer un groupe de soumission Un groupe de sous-réseaux est simplement
un regroupement logique de sous-réseaux dans lequel vous
approvisionnez l'instance Dias Passons à la page des
groupes de sous-réseaux en cliquant ici. Comme vous pouvez le constater, je n'ai aucun groupe de
sous-réseaux dans mon compte. Cliquez sur Créer un groupe de sous-réseaux attribuer un nom au groupe
de sous-réseaux Vous devrez ajouter une description ici car
il s'agit d'un champ obligatoire. Je vais ajouter Submit
Group pour ma base de données SQL. Ensuite, sélectionnez BPC. Je n'en ai qu'un et je
vais choisir celui-ci. Ici, vous devez sélectionner
la zone de disponibilité. Sélectionnez les
zones de disponibilité dans lesquelles vous souhaitez que les instances Ardis
soient déployées Pour moi, je n'ai que des soumissions
dans P one et P South One B. Si vous avez des soumissions dans l'
autre zone de disponibilité, vous pouvez également sélectionner AP
South One. Ensuite, nous sélectionnons les sous-réseaux
dans ces zones de disponibilité. Comme vous pouvez le constater, j'
ai une soumission publique et une soumission privée dans chacune
des zones de disponibilité. Généralement, pour créer des instances RDS dans des soumissions
privées, sélectionnez les sous-réseaux privés Ici, les instances RDS sont généralement créées dans des sous-réseaux privés et accessibles depuis les VPC Dans les applications de production,
vous ne souhaitez pas que vos bases de données soient accessibles via Internet.
Cliquez maintenant sur Créer. Comme vous pouvez le constater, nous avons créé avec succès un
groupe de sous-réseaux pour notre base de données Créons maintenant la base
de données RDS. Cliquez sur les bases de données. Pour le moment, je n'ai aucune base de données RDS sur mon compte Avant de passer au bouton
Créer une base de données ici, si vous voyez à côté de ce bouton, nous avons une restauration
à partir du bouton S 3. Lorsque nous effectuons des sauvegardes
de nos bases de données RDS, elles sont restaurées
dans AWS S3. En cliquant sur ce bouton ici, nous pouvons créer une nouvelle instance à partir de l'une de nos
sauvegardes dans S3. Pour revenir à la
création de la base de données, cliquez sur Créer une base de données. La première option que vous pouvez voir est Standard Create ou As Create. Si vous choisissez l'option
As Create, AWS utilisera certaines valeurs par défaut pour créer votre base de données.
Laissez-nous y jeter un œil. J'ai sélectionné As Create. Maintenant, les seules options que j'ai sont
les types de base de données et d'
autres options. Ici, si nous faisons défiler la page vers le bas et
ouvrons la liste déroulante, les paramètres
par défaut pour As Create, nous pouvons voir qu'AWS a
codé en dur certaines valeurs pour nous. Je ne veux pas créer
notre B comme ça. Revenons à la création
standard et choisissons nous-mêmes les
paramètres. Cliquez sur Standard
Create. En haut, choisissez le type My SQL Engine. Ensuite, nous avons la possibilité de
choisir la version My SQL. Je vais choisir la dernière version disponible pour moi en ce moment, qui est ma 8.0 0.28. La prochaine option nous avons est de choisir le
modèle selon notre cas d'utilisation Si vous choisissez la production ici, AWS choisira certaines options
par défaut pour nous. Pour des raisons de simplicité, par exemple lorsque j'ai sélectionné
un modèle de production et que je fais défiler la page vers le bas jusqu'à
disponibilité et durabilité, vous pouvez voir que l'
option par défaut sélectionnée pour moi est de créer une instance de
secours. Maintenant, lorsque je change le modèle en Dave
et que je fais défiler à nouveau la page vers le bas, vous remarquerez que la valeur
par défaut choisie pour moi n'est pas de
créer une base de données de secours. La sélection d'un modèle
définira simplement certaines valeurs par défaut pour nous. Restons-en au pneu gratuit et sélectionnons le modèle de
pneu gratuit. L'option suivante
est l'identifiant de base de données. Il s'agit du nom de
notre instance de base de données. Notez ici qu'il ne
s'agit pas du nom de
la base de données mais du nom
de l'instance RDS Permettez-moi de le remplacer par le
cloud advisory, ma base de données SQL. Ensuite, nous devons créer le nom d'utilisateur et le
mot de passe principaux pour l'instance RDS. En changeant le nom d'utilisateur en RDS master, je vais
taper mon mot de passe ici Nous pouvons faire en sorte qu'AWS génère automatiquement le mot de passe
pour ce nom d'utilisateur ici Pour l'instant, permettez-moi d'ajouter
mon propre mot de passe. L'option suivante consiste à sélectionner la
classe d'instance pour notre base de données. Comme nous avons sélectionné le modèle de pneu
gratuit, nous ne pouvons pas modifier les types d'
instances ici. Comme vous pouvez le constater, nous n'avons qu'
une seule option, le micro à deux points. Si nous sélectionnons les modèles Dave
ou Prod, nous obtiendrons toutes les options d'
instance ici Ensuite, nous devons sélectionner le type de stockage pour
notre instance RDS. L'option actuelle que nous avons est le SSD GP two à usage général. Nous pouvons remplacer cette valeur par I 01 pour les charges de travail plus complexes. Passons maintenant au type
de SSD GP two. Nous pouvons également activer le
dimensionnement automatique pour notre stockage RDS. Si cette case est cochée, nous pouvons ajouter le stockage maximum Nous voulons que notre
instance RDS augmente
jusqu'à ce que la valeur par défaut de
ce champ soit de 1 000 ZB Si l'espace de stockage
de ma base de données est plein, AWS
le redimensionnera automatiquement jusqu'à 1 000 Go. L'option suivante est
la disponibilité et la durabilité. Nous avons vu précédemment que nous
avions cette option lorsque nous avions sélectionné le Dave
et les modèles de production. Toutefois, cette option n'est pas
prise en charge dans Free Tire. Ensuite, nous avons la
possibilité de sélectionner la connectivité pour
notre instance RDS. Nous pouvons sélectionner le VPC dans lequel nous avons créé
notre groupe de sous-réseaux, puis sélectionner
le groupe de soumission Dans l'option suivante, nous
avons l'option suivante. Si nous voulons que notre instance
RDS soit accessible
en dehors du VPC Aws nous offre
ici une autre option pour ne pas autoriser
l'accès public à notre base de données. Ensuite, nous devons spécifier le groupe
de sécurité pour notre RDS. Choisissons de
créer un nouveau SG. Donnez-lui le nom RDS, my SQL SG. Nous pouvons voir le port par défaut
de ma base de données SQL ici. Laissons les choses telles quelles. L'option suivante est l'authentification
de base de données. Trois
options s'offrent à nous. Nous allons choisir l'authentification par
mot de passe. Si vous souhaitez renforcer la sécurité
et le contrôle de l'accès RDS, vous pouvez choisir les
autres options ici Voyons également les options
supplémentaires pour RDS en cliquant sur ce
menu déroulant ici. La première option
est le nom de la base de données. Si vous vous souvenez plus tôt, nous avions la possibilité d'ajouter l'identifiant de base de données qui était le nom de l'instance de base de données
RDS Ici, nous pouvons demander à AWS de créer
une base de données telle que les utilisateurs, les employés, etc.,
dans le cloud, ma
base de données SQL Si nous laissons cette valeur vide, AWS ne créera pas de base de données pour nous. Et nous devrons le faire en utilisant mes commandes SQL lorsque
nous nous connecterons à cette instance. Laissez-nous créer une base de données utilisateur. Pour notre exemple,
je laisse les autres
valeurs par défaut. Ensuite, nous avons l'option de sauvegarde
automatique. Nous pouvons choisir ici la
fréquence à laquelle nous voulons
effectuer des sauvegardes de notre base de données et même spécifier la
fenêtre temporelle pour la sauvegarde. L'option suivante est la surveillance
améliorée. C'est une
question courante dans les examens AW. La différence entre la surveillance
Cloudwatch normale et la surveillance améliorée réside dans le fait que dans le cas d'
une surveillance normale, RDS collecte les métriques
auprès de l'hyperviseur Pour une instance de base de données, surveillance
améliorée collecte ses métriques auprès d'un agent présent sur l'instance Si vous souhaitez obtenir des statistiques au niveau du système d'exploitation, vous devez activer surveillance
améliorée
pour notre cas d'utilisation, nous ne sélectionnerons pas l'option
de surveillance améliorée. Nous pouvons maintenant choisir
les exportations du journal. Vous pouvez demander à AWS d'envoyer des journaux aux journaux de Cloud Watch
en sélectionnant les options. Ici, nous avons l'
option suivante pour autoriser WS à effectuer des mises à niveau de versions
mineures sur notre base de données et à sélectionner les fenêtres temporelles
pour ces mises à niveau. Laissons ces
valeurs par défaut. La dernière option que nous avons est
d'activer la protection contre la suppression. L'option simple ne
nous permettra pas de supprimer notre instance RDS. Cliquez sur Créer une base de données. Maintenant, sur la page de base de données, nous pouvons voir la création de notre
base de données My SQL. Permettez-moi de sauter la vidéo jusqu'à ce que cette instance
soit créée. Comme vous pouvez le voir, mon instance
RDS est maintenant créée. Cliquons maintenant sur l'instance voir
les détails de la connexion. Dans l'onglet Connectivité
et sécurité, vous pouvez voir le point de terminaison et le port de cette instance RDS Ces valeurs seront nécessaires
pour accéder à l'instance RDS. Nous arrivons ainsi à
la fin de la session. Nous avons examiné tous les
paramètres dont nous disposions lors la
création des
groupes de sous-réseaux et des bases de données RDS Nous avons créé notre propre base de données RDS. C'est tout pour cette séance. Je vous verrai lors
de la prochaine leçon.
52. Amazon Elasticache: Bonjour étudiants. Bon retour. Dans cette vidéo, nous allons
découvrir l'un
des principaux services AWS,
Amazon Elastic Cache. Commençons par les
MS de base impliqués dans Elastic Cache. La mise en cache des services est la technique stocker
des données dans un cache Il vous permet de réutiliser des données
précédemment récupérées. La future demande de données
Dat est traitée plus rapidement au lieu d'être récupérée
depuis l'emplacement principal Maintenant, vous devez vous demander
ce qu'est un cache. Un cache est un emplacement
de stockage réservé qui collecte des données temporaires. Il peut s'agir de la mémoire de l'ordinateur
ou de votre application elle-même. Un exemple simple sera le stockage de documents sur
un ordinateur de bureau. Le plus souvent, nous conservons une copie
du document fréquemment consulté sur le bureau. Nous n'avons pas besoin de nous rendre à l'emplacement du
document à chaque fois. Un autre bon exemple
sera un signet. Ajoutez à vos favoris les liens que
nous utilisons le plus souvent. Il n'est pas nécessaire de
chercher à chaque fois. Voyons maintenant
ce qu'est le cache élastique. Elastic Cache est une
solution de mise en cache de base de données en
mémoire
entièrement gérée d'AWS Il prend en charge une variété de cas d'utilisation
personnalisables et en temps
réel. Le cache élastique
convient à la mise en cache, ce qui améliore les performances des applications et des bases Nous l'avons placé devant
d'autres bases de données, peut-être devant RDS ou
devant Dynamo DB. Il peut également être utilisé comme magasin
de données principal pour des cas d'
utilisation tels que les boutiques CSN, les jeux, les classements, streaming et les analyses qui
ne nécessitent pas de durabilité. cache élastique est l'
implémentation des moteurs de base de données open source
connus sous
le nom de Dies et Memcached Examinons maintenant quelques
cas d'utilisation d'Elastic Cache. Elle accélère les performances des
applications. Comme je l'ai mentionné, Elastic Cache fonctionne comme un
stockage de données en mémoire et un cache pour prendre charge les applications les plus
exigeantes nécessitant des temps de réponse inférieurs à la
milliseconde Le cas d'utilisation suivant est qu'il s'agit chargement de la base de données
principale indépendamment de l'application. Cela permet également de réduire
la charge sur la base de données. Une fois que vous aurez mis en cache les données d'
accès fréquent dans Elastic Cache, cela réduira considérablement appels
de base de données et réduira la pression sur
votre base de données principale. Ensuite, il crée des magasins de données à faible
latence. Il s'agit d'une excellente
solution pour une base de données à faible latence
lorsque vous souhaitez stocker ensembles de données
non durables
en mémoire et
prendre en charge des applications en temps réel
avec une latence de l'ordre de la microseconde Voyons maintenant comment fonctionne
Elastic Cache. Vous avez
configuré et
installé une application sur EC pour créer une instance
dans votre compte AWS. Cette application utilise la base de données RDS pour stocker les
données du backend. L'application va maintenant
écrire des données sur RDS. L'application peut également lire base de données sur la
base de données RDS. Que peux-tu faire maintenant ? Placez Elastic Cache entre l'application et RDS
et stockez la session, ou accédez fréquemment aux
données sur Elastic Cache Ces données sont ensuite chargées
dans Elastic Cache. Cela signifie que la prochaine
fois que l'application besoin de lire les données
de la base de données, elle obtiendra ici ce que l'
on appelle un cache. Cela signifie qu'il se trouve dans la
base de données et qu'il sera récupéré beaucoup plus rapidement
que celui provenant de RDS. C'est tout pour cette séance.
53. Amazon Redshift: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous
allons comprendre ce qu'
est un entrepôt de données et pourquoi nous en avons besoin. Service d'entrepôt de données AWS, Red Shift. Commençons. Vous avez probablement entendu parler
des entrepôts de données, mais vous ne
savez pas exactement de quoi il s'agit. Laisse-moi t'expliquer. Comme son nom l'indique, il s'agit d'un entrepôt de données. Il vous permet de stocker grandes quantités de données
provenant de sources multiples. Cela peut provenir de fichiers journaux d'
applications, de systèmes
transactionnels, de bases de données
relationnelles, de
marketing, de ventes, de finances, d'applications
destinées aux clients, systèmes de partenaires
externes
et d'autres sources En fait, un entrepôt de données
est un vaste ensemble de données
commerciales utilisées pour aider
les organisations à prendre des décisions. Vous devez maintenant vous demander comment ces données aideront-elles à
prendre une décision commerciale ? L'objectif de chaque
entreprise est de prendre de
meilleures décisions commerciales que
ses concurrents, n'est-ce pas ? Comment prendre une
meilleure décision ? Soit cela vient de l'expérience, soit vous pouvez
faire quelques calculs mathématiques. Accepte de faire des mathématiques,
tu as besoin de données. Lorsqu'il s'agit de grandes
entreprises et organisations, elles utilisent des outils de business
intelligence. Les outils B I analysent les données
et génèrent le rapport. De nos jours, la plupart des
utilisateurs professionnels s'appuient sur des rapports, des tableaux de bord et des outils d'analyse pour extraire des informations
de leurs données Les entrepôts de données alimentent
ces tableaux de rapports et outils d'analyse en
stockant les données de manière efficace. L'entrepôt de données n'est pas un nouveau concept et il
existe depuis les années 90 ou
80, mais il n'est pas
utilisé en raison du coût énorme du
stockage des données sur site. Le cloud computing
révolutionne cela car le stockage des données dans le
cloud est facile et peu coûteux C'est là qu'AWS propose un service
appelé Amazon Redshift. Qu'est-ce qu'Amazon Redshift ? Amazon Redshift est une
offre d'entrepôt de
données rapide et entièrement gérée à l'échelle du pétaoctet et entièrement gérée à l'échelle du pétaoctet proposée par Ses pétaoctets lui permettent de répondre aux besoins d'évolutivité
de la plupart
des entreprises Il n'est pas
limité à des téraoctets, mais à 1 000 multiples de Ce niveau d'
évolutivité est difficile à atteindre avec une mise en œuvre sur
site Il s'agit d'un service simple et
rentable permettant d'
analyser
efficacement les données à analyser
efficacement les données l'aide d'outils de business
intelligence. Il s'agit d'un entrepôt de données basé sur SQL dont le principal cas d'utilisation
concerne les charges de travail Analytics Redshift utilise deux instances en C. Vous devez choisir un type d'
instance et une famille. Il est payé au fur à mesure en fonction des instances
que vous avez mises en service. Redshift conservera toujours des copies
gratuites de vos données
et fournira des sauvegardes continues
et incrémentielles Chaque fois que vous constaterez que la
base de données doit être un entrepôt et que vous pouvez
effectuer des analyses
dessus, Redshift
sera la solution C'est tout pour cette leçon.
54. Autoscalage: Bonjour, étudiants. Bon retour. Dans cette vidéo, vous allez
découvrir ce qu'est le dimensionnement automatique. Qu'est-ce que le dimensionnement automatique dans AWS ? Et quels sont les avantages de l'
utilisation des services de mise à l'échelle ? Mais avant de commencer, voyons comment fonctionne la mise à l'échelle
dans un centre de données traditionnel. Eh bien, la mise à l'échelle est
réactive et manuelle. Dans les centres de données traditionnels, mise à l'échelle
réactive signifie
que les serveurs sont montés et
descendus
manuellement en fonction de l'
évolution de la charge de travail. Cela signifie que lorsque la
charge de travail augmente, nous ajoutons de nouveaux serveurs, et lorsque la charge de travail diminue, nous les supprimons. Comprenons cela à l'
aide d'un exemple. Supposons que les
utilisateurs de
l'application accèdent à des serveurs d'applications. Comme le nombre d'utilisateurs de cette application
augmentera au fil du temps, la
charge sur le serveur
augmentera également si le nombre
d'utilisateurs continue d'augmenter. À un moment donné,
votre serveur atteindra sa pleine capacité
et il n'y
aura pas assez de mémoire et de processeur
pour servir les nouveaux utilisateurs. L'administrateur
de l'application doit surveiller la capacité
du serveur. Il peut le surveiller manuellement ou à l'
aide de n'importe quel outil. Lorsqu'il constate que le serveur d'applications a
atteint sa pleine capacité, il ajoute un nouveau serveur et configure l'application
sur le nouveau serveur. Encore une fois, ce processus
peut prendre un certain temps en fonction de la disponibilité des serveurs ou de la
disponibilité des serveurs. Les ingénieurs ajoutent le serveur. Parfois, la mise à l'échelle implique
l'achat de nouveaux serveurs. Pour ce faire, vous devrez
obtenir l'approbation de
la direction. L'arrivée des serveurs peut prendre plusieurs mois
. Comme vous pouvez le constater, ce processus prend du temps
et n'est pas durable. Un autre problème lié à
ce processus est qu'une fois
la charge du serveur diminuée, vous devrez supprimer
le serveur supplémentaire, sinon il
sera inactif. Le cloud computing résout
tous ces problèmes car il est beaucoup plus facile d'
ajouter et de supprimer des ressources de calcul en fonction de la charge
de l'application. Maintenant, la principale question est : comment cela se passera-t-il
automatiquement ? Eh bien, cela se fait
grâce à la mise à l'échelle automatique. Il s'agit d'une fonctionnalité du
cloud computing qui ajoute et
supprime automatiquement des ressources informatiques en
fonction des utilisations et de la demande réelles. Cette fonctionnalité n'est disponible
que dans un environnement cloud. La mise à l'échelle automatique apporte
flexibilité et élasticité à vos demandes
de calcul Par conséquent, on
l'appelle aussi parfois élasticité. L'élasticité signifie l'
ajout ou la suppression ressources
informatiques en
fonction des utilisations et de la demande. Si la demande augmente, elle augmentera le
nombre de ressources, et si elle diminue, elle supprimera des ressources. La mise à l'échelle automatique garantit une
augmentation continue des ressources lorsque la demande augmente et une diminution
continue lorsque
la demande Par conséquent, il garantit performances applicatives cohérentes à moindre coût. La mise à l'échelle automatique est si
efficace
qu'elle n'ajoute des ressources que
lorsque la demande augmente, et
les supprime immédiatement en cas de baisse. Encore une fois, vous n'avez
pas besoin de continuer à utiliser des ressources supplémentaires en
permanence pour répondre à la demande aux heures de
pointe. L'autoscaling est un
terme général utilisé dans le cloud computing. Voyons maintenant ce qu'est
l'autoscaling dans AWS. Aws. Autoscaling est un
service qui surveille votre application
et
ajuste automatiquement sa capacité
afin de maintenir des
performances applicatives stables et
prévisibles au moindre coût L'essentiel est
qu'il surveille votre application et, en
fonction des besoins,
qu'il ajoute ou supprime de la capacité
supplémentaire afin maintenir les
performances de
l'application au moindre coût possible. Comment
surveille-t-il exactement votre application ? Aws Auto Scaling utilise un service AWS appelé Cloudwatch pour surveiller
la demande des applications Et il déclenche des alarmes
pour augmenter ou
diminuer les ressources en
fonction des besoins de votre application. Nous aborderons Cloudwatch en détail dans le
prochain module Pour l'instant, Cloudwatch est
un service de surveillance. Et il surveille les
indicateurs des applications tels que l'utilisation du processeur , le réseau de
mémoire, etc. Vous pouvez définir une
valeur de seuil et le service
déclenchera une alarme lorsqu'il
atteindra ce seuil. Par exemple, si
l'utilisation du processeur dépasse 80 %, il ajoutera un
serveur et le supprimera. S'il est inférieur à
30 %, Auto Scaling utilise Cloud Watch pour surveiller l'application et, en
fonction des besoins, elle supprime ou supprime
des serveurs pour répondre à la demande. Examinons maintenant certains
avantages d'AWS Auto Scaling. Avec l'aide du groupe
AWS Auto Scaling, nous pouvons automatiser l'
ajout et la suppression instances
EC two pour
répondre à la demande réelle. Il s'agit de l'une des plus importantes réussites
du cloud. Comme je l'ai mentionné précédemment, cela permet
d'ajouter
et de supprimer des ressources avec agilité pour
répondre à la demande des clients. Il supprime ainsi tout
le travail réactif centres
de données traditionnels. L'optimisation des coûts
constitue un autre avantage non négligeable. Il s'agit là encore d'une grande
victoire dans le cloud. Vous n'avez pas besoin de ressources supplémentaires pour
répondre à la demande de pointe. Cela garantira que vous
ne payez que ce qui est nécessaire
pour servir votre client. Vous n'avez plus besoin de payer
pour les ressources non utilisées. Le dernier et le plus important concerne les performances des
applications. Parce qu'elle vous permet d'ajouter et de supprimer des ressources
pour répondre à la demande, l'application
fonctionne toujours mieux. Votre client ne sera confronté à aucune latence ni lenteur
dans l'application C'est tout pour cette séance.
55. Groupe de mise à l'échelle automatique EC2: Bonjour étudiants. Bon retour. Nous allons continuer avec la mise à
l'échelle automatique dans cette vidéo et comprendre les éléments du groupe
de mise à l'échelle automatique EC Two Commençons.
Jusqu'à présent, vous avez compris que l'autoscaling ajoute
et supprime des instances EC deux Voyons maintenant
comment cela fonctionne. Vous devez créer un groupe de dimensionnement
automatique qui redimensionnera deux instances Amazon
C. C'est là que l'autoscaling ajoute et supprime des instances
EC two Cela signifie que le groupe de mise à l'échelle automatique EC
two garantit que vous disposez suffisamment d'instances Amazon C
two pour gérer la
charge de votre application Cela se fait avec la configuration du groupe C
Two Autoscaling. Il existe trois configurations : taille
minimale, capacité souhaitée et taille maximale. Sur la base de ces configurations, l'autoscaling
ajustera le nombre d' instances dans les limites du nombre minimum et maximum
d'instances EC deux La
configuration de capacité souhaitée
déterminera la taille d'
un groupe de mise à l'échelle automatique. Par définition, un
groupe de dimensionnement automatique est un ensemble de deux instances
Amazon C regroupées manière logique pour un
dimensionnement et une gestion automatiques C'est assez clair, c'est
ce dont nous avons
discuté jusqu' à présent. Un groupe de dimensionnement automatique vous permet
également d'utiliser deux fonctionnalités de
dimensionnement automatique d'
Amazon EC, telles que remplacement des
bilans de santé
et les politiques de dimensionnement Il maintient le
nombre d'instances en effectuant des
contrôles de santé périodiques sur les instances. Si une instance
devient défectueuse, le
groupe de mise à l'échelle automatique met fin l'instance défectueuse et lance une autre instance
pour la remplacer Une autre politique de mise à l'échelle des fonctionnalités que j'aborderai lors
de la prochaine session. Voyons maintenant la configuration de
la taille de groupe avec mise à l'échelle automatique Car il est essentiel de le
comprendre du point de vue de la
certification
et de l'entretien d'un praticien du cloud la
certification
et de l'entretien d'un praticien du cloud. taille minimale définit
le nombre minimal d' instances qui doivent être exécutées dans un groupe de mise à
l'échelle automatique. Dans ce cas, nous en avons un. La taille minimale
garantit que vous disposez
toujours d'un nombre fixe d'instances en cours
d'exécution. Le groupe Autoscale ne mettra jamais fin aux instances
inférieures à ce nombre La capacité souhaitée
détermine le nombre d'instances EC two que
vous souhaitez exécuter. Idéalement, dans ce
cas, nous en avons deux. Autoscaling essaiera de maintenir deux instances
C two en permanence. La capacité souhaitée
est redimensionnable entre les limites de taille minimale et
maximale Elle doit être supérieure ou
égale à la taille minimale
du groupe et inférieure ou égale à la
taille maximale du groupe. La taille maximale est le nombre d' instances
EC two autorisées à s'exécuter. Il s'agit du nombre maximal d' instances exécutées dans
le groupe de mise à l'échelle automatique Les groupes Autoscale
ne créeront jamais plus que le nombre maximum d'
instances spécifié En résumé, le groupe Amazon C
two Auto Scaling gère le nombre d' instances et effectue une mise à l'échelle
automatiquement. C'est tout ce que je voulais
aborder dans cette vidéo.
56. Politiques d'autoscalage EC2: Étudiants, bon retour. Jusqu'à présent, nous avons compris
que l'autoscaling nécessite groupe d'
autoscaling pour maintenir et dimensionner C deux
instances, Cela dépend essentiellement configuration du groupe
de mise à l'échelle automatique Comme la taille minimale,
la taille maximale et la capacité souhaitée. Nous avons également compris dans
la dernière vidéo que la capacité souhaitée
devait changer en fonction de la charge et
du trafic de votre application. Maintenant, la question se pose : comment va évoluer ce chiffre ? Comment le nombre d'instances
augmente-t-il ou diminue-t-il ? Eh bien, le dimensionnement commence par
un événement ou une action de dimensionnement indique au groupe de
dimensionnement automatique de lancer ou de
mettre fin à Amazon EC Dans deux cas, c'est là que politiques d'
autoscaling
entrent en vigueur. Il existe différents types de politiques de mise à l'échelle automatique
conçues à des fins diverses. Comprenons-les. À noter que c'est un sujet très important par
exemple et du point de vue de l'
entretien. Je recommanderai de porter une attention particulière
et de prendre des notes. J'ajouterai également un lien d'apprentissage supplémentaire
dans la section des ressources. La première
politique de dimensionnement automatique est le dimensionnement manuel, et il s'agit de la
méthode la plus élémentaire pour dimensionner vos ressources Ici, vous pouvez modifier vos groupes de
mise à l'échelle automatique , la
capacité
maximale, minimale ou souhaitée, Amazon C two Auto Scaling gère
le processus de création ou de
terminaison des instances en fonction de ces mises à Si vous savez quand davantage de trafic est susceptible d'être acheminé vers
votre application, vous pouvez modifier manuellement la taille d'un groupe d'
autoscaling existant Vous pouvez soit mettre à jour
la capacité souhaitée du groupe de mise à
l'échelle automatique, soit mettre à jour les instances associées au groupe de mise
à l'échelle automatique La balance manuelle peut
être utile lorsque vous devez maintenir un
nombre fixe d'instances. Le suivant est la mise à l'échelle dynamique. Dans le cadre de la mise à l'échelle dynamique, nous
définissons comment adapter la capacité du groupe de mise à l'échelle
automatique en réponse à l'évolution de la demande. Cela signifie que vous pouvez
augmenter le nombre d'instances pendant
les pics de demande, également appelé scalage externe, et diminuer le nombre d'instances
pendant la demande de charge, également appelé dimensionnement intégré. Comprenons maintenant
avec un exemple. Supposons que vous ayez une application
Web qui s'exécute
actuellement sur
deux instances C Two. Votre objectif est de maintenir
l'utilisation du processeur de ces instances à environ 50 % quelle que soit la charge des applications. Cela signifie que vous devez ajouter une instance EC two supplémentaire
chaque fois que l'utilisation du processeur dépasse 50 %, mais vous ne
savez pas quand elle
atteindra 50 %, ne vous inquiétez pas. Vous pouvez configurer votre groupe de
dimensionnement automatique pour qu'il évolue de manière dynamique afin de répondre à ce besoin en créant une étape de suivi des cibles ou une politique de dimensionnement
simple Découvrons maintenant ces politiques de dimensionnement
dynamique. l'échelle par étapes et la mise à
l'échelle simple vous
permettent de choisir les mesures de dimensionnement
et les seuils pour l'alarme Cloudwatch
qui initie le dimensionnement Nous allons apprendre à surveiller le cloud dans
le module de gestion AWS. Vous définissez la manière dont votre groupe de
dimensionnement automatique doit être redimensionné lorsqu'un seuil atteint un certain
nombre de fois. Prenons le même exemple. Chaque fois que l'utilisation moyenne du
processeur de toutes les instances C
two dépasse 50 % pendant 5 minutes, ajoutez 12 instances au groupe de dimensionnement
automatique. Sinon, chaque fois que
l'utilisation du processeur est inférieure à 30 % pendant 10 minutes, supprimez une instance C two du groupe
de mise à l'échelle automatique Il s'agit d'une procédure simple
ou progressive, car nous définissons le point de déclenchement pour agir et le nombre d'instances
à ajouter ou à supprimer. Vous sélectionnez une métrique de mise à l'échelle et définissez une
valeur cible dans la cible. Le suivi des
politiques de dimensionnement, c'est tout. C'est un moyen très simple de définir une politique de
dimensionnement dynamique. Désormais, Amazon C two
Auto Scaling créera et gérera les alarmes Cloudwatch qui déclenchent la politique de dimensionnement Et calculez l'ajustement d'
échelle en fonction de la métrique
et de la valeur cible. La politique de dimensionnement ajoute ou
supprime deux instances pour maintenir la métrique à ou près de la valeur
cible spécifiée. Par exemple, vous pouvez configurer une politique de
dimensionnement du suivi des cibles afin de maintenir de
votre groupe
à 50 %. Ensuite, l'ASG procédera à une mise utilisation
moyenne agrégée du
processeur à 50 %. Ensuite, l'ASG procédera échelle automatique pour
s'assurer qu'il reste autour cet objectif de 50 %. La
prochaine étape est le dimensionnement planifié Le dimensionnement planifié permet de configurer votre calendrier de dimensionnement en fonction des variations de charge prévisibles. Par exemple,
supposons que chaque semaine le trafic vers votre application
wave commence à augmenter le mercredi, reste élevé le jeudi et commence à
diminuer le vendredi. Vous pouvez configurer un
calendrier pour Amazon EC Two, mise à l'échelle
automatique pour augmenter la
capacité le mercredi ou diminuer la capacité le vendredi. Cela est très utile lorsque nous savons que des changements vont se produire
à l'avance. Nous prévoyons une mise à l'échelle
en fonction du modèle connu des utilisateurs. La prochaine étape est la mise à l'échelle prédictive. Il permet d'évoluer
plus rapidement en lançant la
capacité avant
la charge prévue La différence est que la mise à l'échelle
dynamique est réactive et qu'elle évolue
lorsque la demande se fait sentir. D'autre part, la mise à
l'échelle prédictive permet d'ajuster la capacité en fonction à la fois de
mesures en temps réel et de données historiques. Prenons l'exemple
d'une application très utilisée pendant les
heures de bureau et peu utilisée. mise à l'échelle prédictive du jour au lendemain peut augmenter la capacité avant le premier afflux de trafic au début
de chaque jour ouvrable. Il aide votre application maintenir une disponibilité
et des performances élevées lors du passage d'une période d'
utilisation plus faible
à une période d'utilisation plus élevée. Il n'est pas nécessaire d'attendre le dimensionnement
dynamique pour réagir
à l'évolution du trafic. Vous n'avez pas non plus à perdre du temps à examiner les
modèles de charge de vos
applications et à essayer de planifier la bonne quantité de capacité à
l'aide d'un dimensionnement planifié. La
mise à l'échelle prédictive utilise donc
l'apprentissage automatique pour prévoir à l'avance le
trafic futur. Il examinera les modèles de trafic
passés et prévoira ce qu'il adviendra du trafic
à l'avenir. Il fournira automatiquement
le nombre correct d' instances
EC two à
l'avance pour correspondre à cette période
prévue. C'est avantageux lorsque
vous êtes confronté à des modèles de charge de travail récurrents ou à
des applications dont l'
initialisation
prend du temps et qui entraînent une latence
notable Revenons maintenant en arrière et comment se déroule la politique de
dimensionnement automatique. Le processus de mise à l'échelle automatique. Comme nous le savons, le
dimensionnement automatique dépend de divers facteurs tels que les événements,
les métriques et les seuils Et en fonction de nos besoins, nous avons configuré une politique de dimensionnement
automatique. Cette politique indique à
Auto Scaling d'ajouter et de supprimer des instances
C two C'est tout pour cette séance.
57. Modèle de lancement et de lancement: Bonjour, étudiants. Bon retour. Jusqu'à présent, nous avons compris
que l'autoscaling augmente et diminue le nombre d' instances
EC Two pour
répondre à la demande Comme vous le savez, lorsque vous
lancez l'instance EC two, nous devons fournir une
certaine configuration. Nous devons également prédéfinir cette configuration pour le dimensionnement
automatique C'est ce que nous faisons avec configuration de
lancement
et le modèle de lancement. Allons-y et comprenons
cela plus en détail. La configuration de lancement
et le modèle de lancement définissent les caractéristiques
de l'EC. Deux instances que nous voulons lancer lorsque
la demande se fait sentir. Aws a introduit
la configuration de lancement en 2014 et depuis
lors , nous utilisons configuration de
lancement avec deux groupes de mise à l'échelle automatique
EC. D'autre part, le
modèle de lancement a été introduit récemment et il effectue une tâche similaire à celle de la configuration
du lancement. Le modèle de lancement
étant le dernier service, il possède des fonctionnalités et
des capacités supplémentaires pour nous faciliter un peu la
tâche. Commençons par
une configuration de lancement, puis nous passerons
au modèle de lancement. Une configuration de lancement est un
modèle de configuration d'instance E two dans lequel nous définissons configurations de notre instance EC
two que nous voulons lancer
automatiquement lorsque
la demande arrive. configuration est le modèle de
configuration instances
EC two
qu'autoscaling utilisera pour lancer de
nouvelles instances EC two Lorsque nous créons une instance
EC two, soit à partir de la
console de gestion AWS, soit à l'aide de l'AWS CLI, fournissez différentes
configurations d'instance EC two, telles que
l'ID AM, la taille du type d'instance, la configuration
du stockage. Quelle instance utilise la paire de clés utilisée pour
se connecter
à cette Nous définissons également la
configuration réseau et les groupes
de sécurité. Cela permet de décider de l'adresse IP et du
port à partir desquels l'instance
sera accessible. Nous pouvons définir les données utilisateur, c'
est-à-dire un ensemble de
commandes ou de scripts exécutés lors du lancement d'une
instance. Nous pouvons également définir
les rôles IAM, qui seront attachés
à l'instance et autoriseront l'
accès aux services Cela
inclut essentiellement tout ce que nous définissons habituellement lors
du lancement d'une instance. Nous pouvons définir et enregistrer tous les paramètres dans la configuration de
lancement, qui servira de modèle pour dimensionnement
automatique lors
du lancement de nouvelles instances. La configuration de lancement n'
est pas modifiable. Vous ne le définissez qu'une seule fois et cette
configuration est enregistrée. Si nous souhaitons ajuster la configuration d'une configuration de
lancement, vous devez en créer une nouvelle et utiliser cette nouvelle configuration de
lancement. Certains problèmes liés à configuration de
lancement sont améliorés dans le modèle de lancement. Comme nous l'avons vu précédemment, le modèle de lancement est similaire à la
configuration de lancement. Il fournit une
configuration EC two qui est utilisée par le groupe de mise à l'échelle automatique EC two
lors du lancement d'instances C two. En outre, le
modèle de lancement peut également être utilisé pour lancer des instances
EC two ou un
parc d'instances EC two
directement depuis la
console de gestion AWS ou l'interface de ligne de commande AWS. Le modèle de lancement
étant le dernier service, il inclut plusieurs fonctionnalités
supplémentaires. En plus des fonctionnalités de
configuration, examinons les une par une. Cela nous permet de créer
plusieurs versions
du modèle de lancement grâce à
différentes configurations. Nous pouvons spécifier plusieurs types d'
instances, même des types d'instance basés sur attributs de type d'
instance tels que la mémoire, stockage
du processeur, etc. Il est capable d'utiliser à la fois des instances à la demande et des instances
ponctuelles, ce qui permet
de réaliser d'énormes économies. Il couvre également deux par
trois fonctionnalités illimitées. groupes de placement, la capacité , les
réservations, les graphismes élastiques et
les fonctionnalités d'hôte dédiées sont disponibles dans le modèle de
lancement, mais ces fonctionnalités étaient absentes de la
configuration de lancement. Il permet en outre l'EBS, le balisage des
volumes et l'interface
élastique Aws recommande d'utiliser un modèle de
lancement plutôt qu'une configuration de lancement, car il offre davantage d'avantages
architecturaux. Voyons maintenant où se situent
la configuration de lancement, un modèle de lancement, dans
le processus de dimensionnement automatique. Si vous vous souvenez de la session
précédente, dimensionnement automatique
dépend de divers facteurs tels que les événements, les métriques
et les seuils Sur la base de nos besoins, nous avons configuré une politique de
mise à l'échelle automatique Cette politique indique à
Auto Scaling d'ajouter et de supprimer des instances
EC two autoscaling
a désormais besoin de la configuration de
lancement de l'instance pour
lancer l'instance EC two Hein ? Pour lancer les instances
C two, nous utilisons la configuration de lancement
et le modèle de lancement pour fournir les configurations EC two groupe de mise
à l'échelle automatique Chaque fois que l'autoscaling
lance une instance EC two, cela fait référence à la configuration
de
lancement que nous configurons
avec l'autoscaling C'est tout pour cette leçon sur la configuration de lancement
et le modèle de lancement.
58. Équilibreur de charge: Bonjour, étudiants. Bon retour. Dans la dernière vidéo, nous avons compris comment le dimensionnement automatique d'EC
two augmentait ou diminuait automatiquement vos instances EC two en
fonction de la demande. Dans cette leçon, nous allons apprendre le concept général
de l'équilibrage de charge, qui servira de base notre prochaine vidéo,
Elastic Load Balancer Commençons. Supposons que vous entriez dans un hôtel cinq
étoiles pour l'enregistrement. Dix réceptionnistes
vérifient les réservations, les arrivées et les départs La plupart des clients font la queue,
ce qui
se traduit par une répartition
inégale des clients par ligne, tandis que d'autres réceptionnistes ne
font qu'
attendre les Les clients entrent et ils ne
savent pas où aller. Mais si vous
réfléchissez à la situation, il serait utile que nous
ayons un hôte à l'entrée. Tous les clients
qui se présentent doivent
savoir laquelle compte le moins de personnel
et qui est efficace. heure actuelle, les clients seront accueillis par
un hôte à la porte. Il les dirigera vers la ligne appropriée de
l' hôtel pour l'
enregistrement et le départ. L'hôte surveille les réceptionnistes et
compte
le nombre de personnes dans la file que chaque réceptionniste sert Désormais, tout nouveau client
sera dirigé
vers la réceptionniste dont la file
d'attente est la plus courte, c'
est-à-dire la moins fréquentée. Par conséquent, il y aura même files
d'attente
parmi les réceptionnistes, ce qui permettra aux clients d'être servis le plus efficacement
possible Pensez maintenant à AWS,
Auto Scaling Group. Plusieurs instances
EC two exécutent la même application. Lorsqu'une demande arrive, comment sait-elle quelle instance EC two la
traitera ? Comment pouvez-vous garantir une répartition uniforme de la
charge de travail entre les instances C Two ? Vous avez besoin d'un moyen d'acheminer les demandes de
manière égale
vers différentes instances pour traiter ces demandes. C'est là qu'
intervient l'équilibreur de charge. Il s'agit d'une solution réseau
qui répartit le trafic sur plusieurs serveurs afin d' améliorer les performances des applications. Encore une fois, il s'agit d'un
logiciel que vous pouvez installer, gérer, mettre à jour et faire évoluer. Un équilibreur de charge peut être installé pour deux instances C two ou plus, mais le problème réside
dans son évolutivité Comprenons cela. Vous avez un
équilibreur de charge devant deux instances C deux
et le nombre d' instances
EC deux
augmentera en fonction de la charge Surtout si vous
avez une mise à l'échelle trop importante, il n'y a aucune limitation
sur les instances C deux. Cela peut passer de rien à 100 instances C deux,
voire plus, n'est-ce pas ? Maintenant, comment un
équilibreur de charge gérera-t-il toutes les demandes ? Il doit également
être redimensionné, n'est-ce pas ? C'est là qu'AWS fournit un autre service appelé
Elastic Load Balancer
59. Qu'est-ce qu'un équilibreur de charge élastique (ELB) ?: Bonjour, étudiants. Bon retour. Dans cette vidéo, nous
allons découvrir
un autre service AWS, à savoir Elastic Load Balancer Ce service fonctionne en étroite collaboration avec Auto Scaling pour répartir le trafic de manière égale sur deux
instances. Commençons. Qu'est-ce qu'un équilibreur de charge élastique ? Il s'agit d'un service
AWS utilisé pour
répartir la charge. Il est conçu pour répondre
aux exigences indifférenciées liées à
l'équilibrage de charge Dans la leçon précédente, vous avez découvert un
équilibreur de charge responsable la distribution du trafic
entrant entre les instances
EC two disponibles Elb évolue automatiquement au
fur et à mesure que le trafic vers vos serveurs change en
cas d'augmentation du trafic Elb permet
à l'équilibreur de charge de gérer la
charge supplémentaire en la distribuant chaque fois
que votre groupe
de mise à l'échelle automatique EC
two augmente et ajoute une
nouvelle instance EC two, le service de mise à l'échelle automatique
envoie une notification à l'équilibreur de charge élastique indiquant qu' une nouvelle instance est prête à De même, lorsque le groupe de mise à l'échelle automatique EC
two qui s'y trouve indique qu'il lance le processus de mise hors service
d'une instance, il envoie une notification
à Elastic Load Balancer Il revient désormais à ELB d'
arrêter d' envoyer le trafic
vers l'instance sélectionnée Ensuite, il attend que les demandes existantes
soient terminées Une fois que toutes les
demandes existantes sont
satisfaites, Auto Scaling met fin aux instances sans déranger
les clients existants L'équilibreur de charge élastique achemine
automatiquement le trafic applicatif entrant entre différentes instances Il sert de point de contact
pour le trafic entrant. Tout trafic arrivant vers votre
application passe d'abord par l'équilibreur de charge
, puis est envoyé à une instance
disponible Il surveille également l'
état des instances EC
two en cours d'exécution car il envoie les demandes de trafic uniquement aux instances
saines. Bien,
vous savez maintenant comment Elastic Load Balancer achemine trafic
externe vers
vos instances EC Two Non seulement cela, mais il est également utilisé pour le routage
du trafic interne. Comprenons avec
un exemple de ML. Supposons que de nombreux utilisateurs
utilisent leur compte Gmail. Ils ouvrent l'Invox, puis la page agit
comme un serveur Web Un utilisateur compile le message et clique sur le bouton d'envoi. Si nous parlons de ce
qui se passe sur le serveur de messagerie, un serveur d'applications
traite vos e-mails, notamment en
les stockant dans une base de données, les
envoyant aux utilisateurs
respectifs, etc. Si de plus en plus d'utilisateurs
commencent à utiliser Gmail, le nombre de serveurs Web
augmentera également. Par conséquent, C to Auto Scale
devra également augmenter le nombre
de serveurs d'applications. doit être Chaque serveur AB doit être informé qu' un nouveau serveur d'applications est disponible
pour accepter le trafic. Imaginez maintenant que vous avez potentiellement des centaines d'
instances de serveur sur les deux pneus. Nous pouvons également résoudre le chaos
du trafic du serveur d'applications avec un ELB interne Elb dirigera le trafic vers le serveur d'applications qui a le
moins de demandes en suspens Le serveur Wave ne sait
pas combien d'
instances Appserver sont en cours d'exécution et ne s'en
soucie pas combien d'
instances Appserver sont en cours d'exécution et ne s'en
soucie Seul ELB gère le transfert
du trafic vers les
Apservers disponibles C'est ce que l'on appelle l'
architecture découplée. Dans cette architecture, tous les composants informatiques restent
complètement autonomes et ne se rendent pas compte autres exécutent indépendamment la
tâche demandée. Elastic Load Balancer est
le service que nous pouvons utiliser
devant un serveur Waveserver pour
distribuer le Il est également appelé équilibreur de charge
public. Nous pouvons également utiliser l'équilibreur de
charge élastique situé derrière le serveur Waveserver pour
répartir le trafic de manière égale vers le serveur
d' Comme cela fonctionne en interne, on parle d'équilibreur de charge
privé interne Étudiants, c'est
tout pour cette vidéo.
60. Équilibre de charge élastique (ELB): Bonjour, étudiants. Bon retour. Dans cette vidéo, nous allons
comprendre les différents
types d'ELB Commençons. Aws, Elastic Load Balancing, prend en charge quatre équilibreurs de charge, des équilibreurs charge d'
applications, des équilibreurs de charge
réseau, des équilibreurs charge
classiques
et un équilibreur de charge de passerelle Comprenons-les un par un. Ces équilibreurs de charge fonctionnent
avec différents modèles OSI. modèle de référence Osi est l'
abréviation de Open System Interconnection
Reference Il décrit comment les informations
sont transformées d' un logiciel d'un ordinateur à un autre à l'aide d'un réseau. Ceci est réalisé en divisant la communication de données
en plusieurs couches, ce qui permet de contrôler l'envoi de
données d'une couche à l'autre. Comme son nom l'indique, équilibreurs de charge des
applications fonctionnent à la septième couche
du modèle OSI, la couche
application L'équilibreur de charge réseau
fonctionne au niveau de la couche quatre, qui est la couche réseau L'équilibreur de charge classique est le plus ancien et le premier service d'équilibreur
de charge élastique Il est conçu pour fonctionner à la
fois au niveau de l'application
et au niveau du réseau. L'équilibreur de charge Gateway est le service le plus récent de la famille des équilibreurs de charge
élastiques Il fonctionne à la couche 3.4.
Ensuite vient le listeur de protocoles, est-à-dire les
différents protocoles sur
lesquels ces
équilibreurs de charge peuvent écouter équilibreur de charge d'application prend
uniquement en charge les protocoles HTTP et STTPS L'équilibreur de charge réseau
gère les protocoles TCP et UDP. L'équilibreur de charge Gateway
n'écoute que sur IP. Comme nous l'avons mentionné précédemment, un
équilibreur de charge classique peut fonctionner à la
fois sur les acteurs de l'application et sur le
réseau Par conséquent, il prend en charge à la fois les protocoles d'application et de
lecteur réseau tels que TCP, SSL par TLS, TTP, TTPS Examinons maintenant
différents cas d' utilisation de
ces équilibreurs de charge Le cas d'utilisation le plus courant de l' équilibreur de charge d'
application
concerne les applications Web Une application Web basée sur le framework de
microservices peut utiliser ALB comme équilibreur de charge
avant que le trafic entrant
n'atteigne votre EC, deux instances ou les conteneurs hébergés pour un réseau de services équilibreur de charge couvre les
autres scénarios selon lesquels ALB, par
exemple les applications qui dépendent d'un protocole
autre que le protocole STTP, applications sensibles
au temps, le flux de données en temps réel et les applications dépendantes du
streaming audio, vidéo, de codes de
devises, etc.,
bénéficiera de l'utilisation bénéficiera L'équilibreur de charge de passerelle
fonctionne au niveau de la troisième couche. Il permet de déployer, de
dimensionner et de gérer
la disponibilité
d'appareils
virtuels tiers de manière simple et
rentable dimensionner et de gérer
la disponibilité
d'appareils
virtuels tiers de manière simple et . L'équilibreur Lode classique
peut être utilisé dans
presque tous les cas d' utilisation de l'équilibreur Lode d' application et de
réseau Mais comme l'application et
l'équilibreur réseau Lode sont les plus récents et sont conçus
dans un but précis, vous les utilisez pour en tirer
le meilleur parti Aws retire l'équilibreur de charge
classique 15
août 2022 Son utilisation n'est pas recommandée. Le suivant est le type de cible, est-à-dire
l'endroit où l'équilibreur de charge peut diriger le trafic Il peut s'agir d'instances C, d'adresses IP
fixes, AWS, de fonctions Lambda,
entre autres Vous pouvez simplement relier cela
aux cas d'utilisation ci-dessus. L'équilibreur de charge d'application
prend en charge deux instances IP C et l'équilibreur de charge réseau Lambda prend en charge deux instances IP C. De plus, l'équilibreur de
charge d'application peut également envoyer du trafic vers ALB L'équilibreur de charge Gateway prend en charge les instances IP et
EC deux L'équilibreur de charge classique
prend également en charge les instances IP et
EC two Nous pouvons entrer dans les détails
de chaque équilibreur de charge, mais cela n'est pas nécessaire
pour ce cours vous suffit de vous souvenir ces quatre types
d'équilibres de charge, de types, de protocoles et de cas d'utilisation. C'est tout pour cette leçon.
61. Utiliser ELB et l'échelle automatique ensemble: Bonjour, étudiants. Bon retour. Dans le laboratoire précédent,
dans le module EC two, nous avons déployé
le service STTDP l'instance EC two, que nous avons
créée
à partir de
la console AWS Dans cet atelier, nous allons créer des instances
EC two à l'aide du groupe
AWS Autoscaling Nous verrons comment configurer les groupes
d'autoscaling AWS. Il déploiera automatiquement le service STTDP sur toutes les instances du groupe de mise
à l'échelle automatique et verra
l'accès aux applications STTDP qui en groupe de mise
à l'échelle automatique et verra
l' résulte
via
l'équilibreur de charge de
l'application via Accédez à la console AWS et tapez C deux dans
la barre de recherche. Cliquez sur C two pour accéder
directement au tableau de bord EC two. Dans le tableau de bord de
gauche, cliquez sur
Lancer les modèles. Ils spécifient la configuration
des instances EC two. Allons y jeter un œil.
Cliquez sur Créer. Modèle de lancement. Ajoutez un
nom de modèle de lancement emballé, Elting. Ajoutons un modèle de lancement
pour le dimensionnement automatique. Démo comme description, nous pouvons ajouter des taxes en cliquant sur
ce bouton déroulant ici. Si vous souhaitez copier, modifier ou créer un nouveau modèle à partir d'un modèle de lancement existant, vous pouvez le faire en cliquant
sur le menu déroulant suivant ici. L'option suivante
consiste à choisir l'AMI. Tapons Amazon, Linux, deux dans la barre de recherche et
sélectionnons la première AMI. Comme vous pouvez le constater, cette AMI
est éligible aux pneus gratuits, ce qui signifie que nous n'aurons rien
à payer pour cela. L'option suivante consiste à
choisir le type d'instance. Nous pouvons voir plusieurs types d'
instances si vous faites défiler cette page. Comme nous n'avons aucune
exigence particulière en matière d'instance et que nous voulons également
rester dans le pneu gratuit, choisissons la micro-instance à deux
points. Ensuite, nous devons
choisir la paire de clés. Nous en aurons besoin lorsque nous
évaluerons H dans l'instance. Vous devez également
spécifier une paire de clés, car nous n'évaluerons pas H par rapport
à l'instance dans ce laboratoire Laissez-nous le définir par défaut. Si vous souhaitez essayer SSH et
exécuter des commandes vous-même, vous pouvez choisir une paire de clés
existante comme
celle-ci ou créer une nouvelle paire de clés
en cliquant sur ce lien Nous devons spécifier les paramètres réseau pour
nos instances EC two. Il n'est pas nécessaire de
sélectionner des sous-réseaux ici. Laissons cette
valeur par défaut pour le moment. Ensuite, nous devons configurer
le groupe de sécurité. Veuillez noter que ce groupe
de sécurité sera finalement attaché
aux deux instances EC
que nous créons. À partir de ce modèle de lancement, nous pouvons créer un
nouveau groupe de sécurité ou sélectionner un groupe
de sécurité existant. J'ai le groupe
de sécurité du laboratoire précédent. Je peux choisir ça. Mais laissez-moi vous montrer le processus de
création d'un groupe de sécurité. Cliquez à nouveau sur
Créer un groupe de sécurité, ajoutez le
nom
et la description du groupe de sécurité. Choisissez le bon VPC. Ensuite, nous ajouterons des règles. Cliquez sur Ajouter une règle
de groupe de sécurité, puis sur Ajouter des règles de
groupe de sécurité. Sélectionnez STTP dans la
colonne de type de cette source. Sélectionnez N'importe où.
Je n'ai pas ajouté la règle SSH car nous ne le
ferons pas dans ce laboratoire Si vous envisagez d'essayer SSH, vous devez sélectionner un
payeur clé et ajouter la règle SSH. Nous avons maintenant configuré le groupe de sécurité pour
notre modèle de lancement. Ensuite, nous pouvons ajouter la configuration des
volumes EBS ici. Laissons cela de côté. Pour cet atelier, nous pouvons accéder au
modèle de lancement en cliquant ici, mais aucune exigence de ce
type n'est requise. Oublions cela également. Cliquez sur Options avancées. Il n'est pas nécessaire de
modifier les options ici. Passez à autre chose et faites glisser votre souris vers
le bas de la page. Vous verrez l'option
des données utilisateur ici. Ici, nous pouvons entrer
les commandes que nous voulons exécuter au démarrage de
notre instance. Dans le laboratoire précédent, nous avons
installé le STTDP manuellement. Dans cet atelier, nous allons ajouter nos commandes dans
cette zone de texte ici Aws
les exécutera automatiquement au démarrage de notre
instance. Lors de la mise à jour
des commandes suivantes. Il s'agit de mettre à jour les packages
par défaut dans notre instance, d'installer STTPdoy Cette commande
installera STTDP sur notre système d'instance, Démarrez STTDP. Cette commande démarrera le service sTTPd sur
les deux instances EC Cette commande à l'écran nous
montrera une page STML personnalisée Cliquez sur le bouton Créer un modèle de
lancement. Nous avons
créé avec succès un modèle de lancement. Cliquez pour afficher les modèles de lancement. Vous pouvez maintenant voir votre
modèle de lancement dans la liste. Passons maintenant au tableau de bord d'
Autoscaling Group. Cliquez sur Groupes de mise à l'échelle automatique
dans le tableau de bord de gauche, puis
sur Créer un groupe de mise à l'échelle automatique Entrez le nom ASG emballé et choisissez le
modèle de lancement que nous venons de créer Notez que vous pouvez également accéder à la page Créer un modèle de lancement à partir de ce lien. Cliquez sur Suivant, choisissez le
VPC compressé et sélectionnez public submt
1 et public submate Sélectionnez deux
sous-réseaux par défaut dans la liste. Si votre propre VPC n' à votre compte,
cliquez sur Suivant Nous pouvons ajouter un équilibreur de charge
à notre groupe de mise à l'échelle automatique, directement depuis cette page,
mais nous le ferons
ultérieurement à partir du tableau de bord de l'
équilibreur de charge Oublions cela pour le moment. Cliquez sur Suivant, nous voyons trois options
importantes et utiles. Capacité souhaitée. Cette valeur indique
le nombre d'instances que
vous souhaitez avoir. Modifions-le à trois. Ensuite, nous avons la capacité
minimale. Cette valeur indique
le nombre minimum d'instances que vous souhaitez attribuer au groupe
Auto Scaling. Si vous disposez d'une
capacité minimale de deux, AWS veillera à ce que vous disposiez toujours d'un
minimum de deux instances. Remplaçons cette valeur par deux. Ensuite, nous avons la capacité maximale. Cette valeur indique le nombre
maximal d'instances que vous souhaitez attribuer au groupe de mise
à l'échelle automatique lorsqu'il augmente son échelle Si vous avez une
capacité maximale de quatre, laissez-nous changer cette valeur
à quatre instances. Nous pouvons ajouter la politique de dimensionnement du
suivi des cibles
en sélectionnant l'option
ici. Par exemple, nous ajouterons des politiques de
dimensionnement simples à notre groupe de dimensionnement automatique ultérieurement Cliquez sur Suivant, nous pouvons ajouter
une notification sur cette page. Par exemple, nous pouvons créer
une rubrique SNS qui nous envoie un e-mail chaque fois que le groupe
autoscaling est redimensionné ou réduit, ce n' Cliquez sur Suivant, nous pouvons ajouter une balise
ici, ignorons cela. Cliquez sur Suivant, passez en revue votre groupe de
mise à l'échelle automatique, puis sur Créer un groupe de
mise à l'échelle automatique Nous pouvons voir notre groupe de mise à l'échelle automatique répertorié avec la
capacité souhaitée de trois, capacité
minimale de deux et une capacité maximale de quatre Le statut, donc la mise à jour de la
capacité étant donné que nous avons la capacité souhaitée
de trois et ce
groupe de mise à l'échelle automatique n'a
actuellement aucune instance, il essaiera de créer trois instances
C deux pour nous Vous pouvez l'afficher en sélectionnant votre groupe de mise à l'échelle automatique et
en cliquant sur l'activité Vous verrez trois lancements d'
instance réussis. Dans la colonne des causes, vous pouvez voir que le service
Autoscaling Group essaie d'augmenter la capacité de
0 à 3. Avant de passer au tableau de bord EC two
et de voir nos instances, ajoutons des politiques de dimensionnement
au groupe Autoscaling Cliquez sur l'onglet de
mise à l'échelle automatique. À côté de l'onglet Activité, vous verrez qu'
aucune politique n' a été ajoutée à
notre groupe de mise à l'échelle automatique Créons une politique de
mise à l'échelle dynamique. Choisissez une mise à l'échelle simple parmi le type de politique
et ajoutez le nom. Ajoutez une instance. Lorsque l'utilisation du processeur
est inférieure dimensionnement automatique, le groupe
a besoin d'une alarme Cloudwatch pour suivre l'utilisation du processeur Laissez-nous créer l'
alarme en cliquant ici sur la page de l'alarme CW Cliquez sur Sélectionner une
métrique, puis cliquez sur deux. Pour les métriques C two, nous avons besoin de la métrique globale du groupe de
mise à l'échelle automatique et non de la
métrique par instance pour cette alarme Sélectionnez par
groupe de mise à l'échelle automatique et recherchez l'utilisation
du processeur sous
le nom de la métrique Sélectionnez la
ligne d'utilisation du processeur et cliquez sur Sélectionner une métrique. Vous pouvez voir le
graphique d'utilisation du processeur sur votre gauche. Nous voulons que notre
groupe de mise à l'échelle automatique s'agrandisse. L'utilisation du processeur est supérieure à 80 %. Faites défiler la page vers le bas et
dans la zone de condition, sélectionnez la valeur supérieure et
entrez la valeur 80. Cela signifie que notre
alarme se déclenche lorsque la
valeur d'utilisation du processeur est supérieure à 80. Il n'est pas nécessaire de modifier les autres paramètres
de l'alarme. Cliquez sur Suivant, nous pouvons ajouter des notifications et
des actions sur cette page, mais ignorons cela pour le moment. Nous ajouterons une action d'alarme sur la page du groupe Autoscaling Cliquez sur Suivant, entrez le
nom et la description et créez à nouveau l'alarme sur
la page Autoscaling Group Actualisez l'option d'alarme. Trouvez votre
alarme de montée en puissance dans la liste. Sélectionnez l'alarme dans l'action. Choisissez d'ajouter une unité de capacité. Cela ajoutera une instance à notre ASG chaque fois que
cette alarme se déclenchera Nous avons créé notre politique de mise à l'échelle
simple pour agrandir la salle de mise à l'échelle
automatique. Créons une autre
politique de réduction. Cliquez sur Créer une politique de
dimensionnement dynamique. Sélectionnez Mise à l'échelle simple. Ajoutez le nom. Supprimez
une instance lorsque l'utilisation du processeur
est inférieure à 30. Nous devrons également
créer une nouvelle alarme. Cliquez sur le lien Créer une alarme. Cliquez sur Sélectionnez Metric. Ec pour mesurer par groupe
Autoscaling et sélectionner
la métrique d'utilisation du processeur Cette fois, nous voulons que notre
alarme se déclenche lorsque l'utilisation
du processeur est inférieure
à 30 % dans le boîtier d'état de l'alarme. Sélectionnez une valeur inférieure et
ajoutez la valeur 30. Cliquez sur Suivant, ignorez
les notifications, ajoutez un nom et une description, puis créez l'alarme sur la page
Autoscaling Group Actualisez, sélectionnez l'alarme. Choisissez de supprimer une
unité de capacité et de créer la politique. Voyons ces
politiques en action. Nous venons d'ajouter une politique de réduction lorsque l'utilisation
du processeur est
inférieure à lorsque l'utilisation
du processeur est 30 %. Comme nous n'avons aucune
charge de travail sur notre EC 2, l'
utilisation moyenne du processeur sera
inférieure à 30 %, ce qui déclenchera cette alarme Si vous voyez l'onglet
d'activité de votre groupe Auto Scaling, vous remarquerez rapidement
qu'AWS a réduit la capacité souhaitée de 3 à 2 et met maintenant fin à
l'instance Dans la section des cas,
vous verrez que cela est dû au fait que nous venons de créer la politique même après la réduction de
notre ASG. Si vous le voyez dans
l'onglet Cloudwatch, l'alarme de réduction est toujours
déclenchée. Cela est dû au fait qu'aucun processus
n'est toujours en cours d'exécution sur nos instances EC two et
que l'utilisation du processeur est faible. Idéalement, AWS supprimera une
autre instance de notre ASG. Mais
comme nous avons spécifié une capacité minimale de deux, AWS ne réduira pas votre instance AWS modifie la capacité
souhaitée concerne les politiques de dimensionnement, mais il ne modifie jamais les valeurs de
capacité minimale et maximale. Si vous modifiez le groupe de
mise à l'échelle automatique et que vous
remplacez la valeur de capacité minimale par un, vous verrez
très bientôt
une autre instance se terminer. Ne le faisons pas et maintenons
nos deux instances en activité. Accédez à la page de l'instance
depuis le tableau de bord de gauche. Nous pouvons voir que nous avons
deux instances dans l'état en cours d'exécution et une instance dans l'état
terminé. Sélectionnez l'une des
instances en cours d'exécution et copiez leur page d'adresses IP publiques les adresses IP
du navigateur d'instances. Vous constaterez que
même si nous n'avons exécuté aucune commande
manuellement
dans l'instance, HTTTD
est installé
et fonctionne Créons maintenant un équilibreur de charge d'
application et consultons cette page Web à partir de
l'URL de l'équilibreur de charge Cliquez sur Load Balancers. Sur le tableau de bord de gauche, vous pouvez voir que nous
n'avons aucun équilibreur de charge dans
notre compte pour le moment Cliquez sur Create Load Balancer, sélectionnez Application
Load Balancer, entrez le nom
Cloud Advisory ALB L'option suivante consiste
à choisir si nous voulons un équilibreur de charge
interne ou connecté à Internet Les équilibres de charge internes
ne sont accessibles que localement
au sein du VPC. Comme nous voulons
consulter notre site Web via l'ALV depuis n'importe où
dans le monde, nous devons sélectionner l'option
Internet dans la boîte réseau Choisissez le VPC et les sous-réseaux publics dans la section des groupes de
sécurité Créons un nouveau groupe
de sécurité. Ajoutez le nom et la description. Sélectionnez le même VPC que
les deux instances EC. Et ajoutez une règle STTP pour autoriser les connexions STTP
depuis Recréez le groupe de sécurité sur la page
de l'équilibreur de charge. Actualisez l'option
du groupe de sécurité. Choisissez celui que vous venez de créer. Les Alb ont besoin de ce que l'
on appelle le groupe cible. Un groupe cible est un groupe d'instances C,
de deux instances ou d'autres ressources où ALB
transmet ses demandes Créons un nouveau groupe cible en
cliquant sur ce lien ici. Entrez le nom
du groupe cible et laissez les autres
valeurs par défaut. Cliquez sur Suivant, choisissez
vos instances et ajoutez-les comme étant en attente ci-dessous. Cliquez sur Groupe cible, de retour sur
la page de création de l'ALB. Reformulez l'option Groupe cible et choisissez celui
que vous venez de créer Cliquez sur Créer
l'équilibreur de charge. Nous avons
créé notre ALB avec succès. Cliquez sur Afficher les équilibreurs de charge. Nous pouvons maintenant voir notre
équilibreur de charge dans la console. Cliquez sur l'
équilibreur de charge, le coquelicot, la valeur DNS et
collez-la dans votre navigateur Vous pouvez voir la page de chemin et l'adresse IP de l'instance qui répond
à notre demande. Étant donné que l'équilibreur de charge
transmet nos demandes de manière aléatoire aux deux instances EC, vous verrez que l'adresse IP change à chaque
fois que nous rechargeons la page C'est ainsi que vous déployez des applications
Web
dans le monde réel. Nous avons déployé avec succès une architecture hautement disponible et
évolutive à l' aide du groupe Autoscaling et d'ALB Allons-y maintenant et
supprimons notre infrastructure. Pour cela, accédez à la console du groupe de mise à
l'échelle automatique
et supprimez le groupe de mise à l'échelle automatique
en cliquant sur Actions Supprimez l'équilibreur de charge
sur la page de l'équilibreur de charge. Supprimez le groupe cible sur la page du groupe cible de
la page du groupe de sécurité. Supprimez tous les groupes
de sécurité à
l'exception du
groupe de sécurité par défaut de votre VPC C'est tout pour cette séance. À bientôt. Écoutez.