Transkripte
1. AWS-Konten: Hallo Studenten, willkommen
zu einem anderen Video. Bevor wir zu AWS wechseln und
mit
der Erforschung seiner Dienste beginnen, benötigen
wir als erstes ein AWS-Konto. Bevor Sie jedoch
Ihr AWS-Konto erstellen, Sie einige Dinge müssen Sie einige Dinge wissen. In diesem Video. Wir werden
über die Elemente
eines AWS-Kontos und die Dinge sprechen , die wir benötigen, um ein
Konto für uns selbst zu erstellen. Lasst uns gleich darauf eingehen. Dies ist ein AWS-Konto. Ich gehe davon aus, dass Sie
noch kein Konto haben. Also werden wir in der nächsten Lektion
eine erstellen. Und das AWS-Konto ist ein
Container, in dem Sie alle Ihre
AWS-Ressourcen und -Services
erstellen und verwalten. Das erste, was Sie
zum Erstellen und Verwalten
eines AWS-Kontos benötigen , ist eine Identität. Wir werden die
Identität im IAM-Modul behandeln. Aber im Moment können Sie es als Benutzer
verstehen. Dieser Benutzer kontrolliert und
verwaltet sein gesamtes Konto. Dann erstellen Sie
ein Konto für sich selbst. Sie werden als Identität fungieren. Jetzt erstellen
Sie als Benutzer einige Ressourcen in Ihrem Konto, die
schließlich einige Rechnungen generieren. Sie können alle Arten von
Abrechnungen auch im selben
Konto verwalten . Daher verfügt jedes Konto über seine AWS-Ressourcen, seine
Identität und seinen Aufbau. Ein AWS-Konto ist eine natürlich
sichere Umgebung. Niemand außerhalb Ihres Kontos kann auf Ihre Ressourcen zugreifen und
Sie erhalten die Rechnungen. Nur für die Ressourcen, die Sie in Ihrem Konto
bereitstellen. Sie können Ihre AWS-Reise
mit einem einzigen Konto beginnen. Wenn Ihr Unternehmen jedoch an Größe und Komplexität
zunimmt, kann
es schwierig sein, alles auf
einem einzigen Konto zu verwalten. Aus diesem Grund empfiehlt AWS, mehrere Konten zu
verwenden. Sie können beispielsweise separate Konten
für Entwicklungs-,
Test- und Produktionsteams
in Ihrer Organisation
erstellen . Weil es
den Sicherheitskontroll
- und Abrechnungsprozess
für jedes Team vereinfacht und verschiedenen Teams
die erforderliche Flexibilität
bietet , damit
sie sich auf Innovation konzentrieren können. Sehen wir uns nun an, was Sie zum Erstellen
eines AWS-Kontos benötigen. Als erstes
benötigen Sie eine E-Mail-ID, die eindeutig sein muss. Das bedeutet, dass es in keinem anderen AWS-Konto
verwendet werden sollte . Sie benötigen auch eine
Kreditkarte oder Debitkarte, die für
Abrechnungszwecke erforderlich ist. Mit diesen beiden
Informationen können
Sie ein AWS-Konto
erstellen. Wenn Sie ein
neues AWS-Konto erstellen, erstellen
Sie im Grunde
einen Benutzer, der die Kontrolle
über alle Dienste und
Ressourcen in Ihrem Konto hat . Diese Identität oder dieser Benutzer wird
als AWS-Konto bezeichnet ,
der Root-Benutzer. Der Root-Benutzer kann sich
mit der E-Mail-Adresse und dem
Passwort anmelden , die Sie bei der
Erstellung des Kontos
verwendet haben. Wir werden im
AWS-Sicherheitsmodul
ausführlich über Root-Benutzer sprechen . Wenn Sie sich bei
Ihrem AWS-Konto anmelden, wird
das erste Dashboard
, das Sie sehen als AWS Management Console
bezeichnet. Es ist eine webbasierte Konsole , auf die Sie
über einen Webbrowser zugreifen können. Es gibt auch andere Möglichkeiten,
auf AWS-Konten zuzugreifen, die wir
im nächsten Modul sehen werden. Sie werden auch
aufgefordert,
Ihre Identität zu authentifizieren , wenn Sie
sich zum ersten Mal anmelden. Dies ist im Grunde das Identitäts
- und Zugriffsmanagement, allgemein bekannt als IAM-Service, sicheren Zugriff auf
Ihr AWS-Konto und
die darin enthaltenen Ressourcen
gewährleistet . Wir werden uns auch in einem späteren Modul
ausführlich befassen. Jetzt sind wir bereit, ein AWS-Konto zu
erstellen.
2. AWS erstellen: Hallo Studenten, willkommen zurück. In diesem Video erstellen wir
ein Konto für das kostenlose Kontingent für AWS. Der Zweck des AWS Free,
der Kunden und
neuen Benutzern ermöglicht,
AWS zu erkunden und die
erforderlichen praktischen
Erfahrungen zu sammeln, bevor sie tatsächlich mit dem Aufbau
ihrer Cloud-Infrastruktur beginnen. Wie der Name schon sagt, besteht
die Freizeit aus
Diensten und Ressourcen , die in
der AWS mit einigen
Geschäftsbedingungen kostenlos verwendet werden können. Wir haben im
vorherigen Video diskutiert. Sie benötigen eine eindeutige E-Mail-ID und eine Kreditkarte, um
Ihr AWS-Konto zu erstellen. Sie benötigen auch ein Formular, um einen
SMS-Bestätigungscode zu erhalten
, der Teil der
Kontoeröffnung ist. Jetzt
denken Sie vielleicht, dass
Sie
Ihre Kartendaten eingeben müssen, wenn Sie nur
kostenlose CAS-Dienste nutzen möchten? Nun, das liegt daran, dass der kostenlose
Reifen ein begrenztes Angebot ist. Und falls Sie das Limit oder den
Benutzerservice
ausschöpfen , der nicht
unter den kostenlosen Reifen fällt. Wir haben eine hübsche
Farbe die Menge. Daher ist es
zwingend erforderlich, unsere Abrechnungsmethode wie das
Erstellen Ihres AWS-Kontos einzurichten. Aber das ist nichts, worüber man
sich Sorgen machen müsste. In diesem Training. Wir werden nur schreckliche
Dienste in Anspruch nehmen. Und wenn Sie sich an das halten, was
wir in diesem Training tun, werden
Sie nicht in Rechnung gestellt,
um dies weiter zu gewährleisten. Wir werden auch ein Budget
für unser Konto festlegen und eine Warnung
konfigurieren, damit
wir eine Benachrichtigung erhalten. Wenn wir das CIP-Projekt überqueren. Öffnen wir einen Webbrowser und erstellen
unser kostenloses Konto. Ich habe hier einen
Webbrowser geöffnet, und ich habe dies für das kostenlose Kontingent von
AWS getan. Und das allererste Ergebnis hier, AWS Freizeit, ist das, was wir wollen. Die erste Seite hilft
Ihnen zu verstehen, was ein kostenloses Konto ist und
welche Dienste unter die kostenlose Diät
fallen? Ich werde in der nächsten Lektion über einen dummen
Ruhestand berichten. Lassen Sie uns sie also überspringen und ein kostenloses Konto
erstellen. Sie müssen dann die erforderlichen Details ausfüllen
. Ihre eindeutige E-Mail-Adresse
für den Root-Benutzer und wählen Sie dann einen Namen
für Ihr Konto aus. Sie können auch den Namen
und den LES-Buchstaben ändern. Wenn du willst. Klicken Sie dann auf Verifizieren, E-Mail-Adresse,
überprüfen Sie Ihre E-Mail. Geben Sie
hier den Bestätigungscode ein und klicken Sie auf Bestätigen. Sie werden begrüßt. Du bist es, deine E-Mail-Adresse
wurde vollständig überprüft. Geben wir nun ein Passwort für den Root-Benutzer ein und
bestätigen das Passwort. Und klicken Sie auf Weiter. Du hast Schritt eins beendet. Und dann wird es uns brauchen, um die erste Frage zu
überstehen. Wie planen Sie, AWS zu verwenden? Wähle einfach Poznan. Fügen Sie dann Ihren Namen, Telefonnummer, Ihr Land
oder Ihre Region und Ihre Adresse hinzu. Klicken Sie dann auf
Die Allgemeinen Geschäftsbedingungen akzeptieren und
fahren Sie mit dem nächsten Schritt fort. Als nächstes folgt die Abrechnungsseite , auf der Sie
Ihre Rechnungsinformationen eingeben müssen. Geben Sie Ihre
Kreditkartennummer, das Ablaufdatum, Namen des
Karteninhabers und die Formel sowie Aufwärtsrisiko ein und
fahren Sie dann mit Schritt vier fort. Möglicherweise werden Sie aufgefordert, Ihre Identität zu
bestätigen. Sie müssen also erneut
Ihre Telefonnummer und
die Sicherheitsprüfung eingeben . Und Sie erhalten auf
Ihrem Telefon ein Angebot , das Sie hier eingeben
müssen. Ich hatte meinen
Verifizierungscode hier nicht. Und klicken wir auf Weiter. Hier haben wir den Support-Plan. Dies ist eine Möglichkeit,
Echtzeit-Hilfe von
AWS in Bezug auf Ihre
Ressourcen und Dienste zu erhalten . Zu unserem Zweck
wählen wir die grundlegende Unterstützung. Es ist völlig
kostenlos und
hilft Ihnen nur bei Konto
- oder Abrechnungsproblemen. Klicken Sie abschließend auf „Anmeldung abschließen“. Und das war's. Wir können jetzt zur
AWS-Managementkonsole gehen. Klicken Sie auf den Button in
der Mitte des Bildschirms. Hier werden wir nach einer
Konto-ID oder einem Konto-Alias gefragt. Wir haben
keinen Alias für das Konto angegeben. Und ich weiß nicht, was
die Konto-ID ist. Wir haben
auch keinen Benutzernamen, da dies ein IAM-Benutzername ist. Was wir haben, ist
die Root-User-E-Mail. Lassen Sie uns also mit Routing und einer E-Mail
anmelden und geben Sie
die E-Mail-Adresse
ein, und geben Sie
die E-Mail-Adresse
ein bei der wir uns
gerade angemeldet haben. Geben Sie das Passwort ein
und klicken Sie auf Anmelden. Herzlichen Glückwunsch. Vietnam hat sich bei unserem Konto angemeldet. Und das ist die
Management Console. Jetzt ist es an der Zeit,
ein Konto für sich selbst zu erstellen , um mit diesem Training
fortzufahren. Das ist alles für diese Lektion. Wir werden die Angebote von
AWS Free Gyre
in der nächsten Sitzung verstehen . Bis bald.
3. AWS kostenlose Tier: Willkommen zurück Studenten. Im letzten Video haben
Sie
ein neues AWS-Konto erstellt und Ihre
Kartendaten zur Abrechnung hinzugefügt. Dies erinnert uns daran
, dass wir
AWS-Services in einer
geplanten Weise nutzen müssen . Andernfalls
zahlen Sie am Ende für einige Dienste. Nun, mach dir keine Sorgen. In dieser Sitzung werde ich Sie
erläutern, wie Sie
Ihr AWS-Konto verwenden , damit Ihnen die
nächsten Sitzungen nicht
belastet werden . Ich helfe Ihnen auch dabei, Ihr Konto zu
sichern, ein Budget für Ihr
Konto
festzulegen und einen Alarm. Sie werden also benachrichtigt, wenn Sie
das Budgetlimit überschreiten. Lasst uns also
mit dem kostenlosen Reifen von AWS beginnen. dem kostenlosen Reifen können Sie bestimmte AWS-Services
für einen bestimmten Zeitraum
ausprobieren ,
ohne etwas bezahlen zu müssen. Dies bedeutet, dass AWS eine Liste
von AWS-Services bereitstellt, die Sie kostenlos auf
der AWS-Plattform verwenden
können , um praktische Erfahrungen zu sammeln
. Lassen Sie mich Sie nun zur Webseite des kostenlosen Kontingents von
AWS bringen. Dies ist die Seite des kostenlosen Kontingents von AWS. Sie können alle Details
zu AWS-freien Reifen sehen
, der
in drei Kategorien unterteilt ist. Der erste ist kostenlose Testversionen. Im Rahmen dieses Angebots können Sie
einige AWS-Services
für einen kurzen Zeitraum nutzen . Und dann sind diese Dienste und am Ende dieses Zeitraums der zweite
12 Monate kostenlos. Dies bedeutet, dass Sie 12 Monate Zeit haben, um diese Dienste kostenlos
auszuprobieren. Und es beginnt mit
dem Datum, an dem Sie Ihr AWS-Konto
erstellt haben. Der letzte ist immer kostenlos. Diese Dienste stehen Ihnen für immer
zur Verfügung, aber es gibt ein
Limit, in welcher Menge Sie diese Dienste
nutzen können. Sie laufen also nie ab, bis Sie
das verfügbare Limit überschritten haben. Als Nächstes haben wir hier die
Möglichkeit,
AWS-Produkte nach
verschiedenen Kategorien
und einer kostenlosen Testversion zu filtern AWS-Produkte nach . Einfach genug, oder? Probieren wir es aus, um es besser zu
verstehen. Wählen wir Immer kostenlos aus. Hier sehen Sie nur diese Dienste, die innerhalb
einer bestimmten Grenze
immer kostenlos sind . Nehmen Sie jetzt AWS Lambda. Es ist eine serverlose
Rechenoption, die wir
in einem späteren Modul sehen werden. Aber hier können Sie es
auch aus
der Produktkategorie filtern .
Ab heute. Es erlaubt 1 Million
aufgerufene Patienten pro Monat. Das heißt, wenn Sie unter
1 Million Aufrufen bleiben, ist es immer kostenlos. Diese Freizeit läuft nie ab. Wählen Sie jetzt 12 Monate kostenlos aus. In dieser Kategorie,
Mal sehen, Lagerung. S3 zum Beispiel. Es ist ein Object Storage
Service, der für
12 Monate oder bis zu fünf
Gigabyte Speicher kostenlos ist . Danach müssen
Sie einen bestimmten Betrag bezahlen. S3 ist eine großartige Option
, um eine statische Website auszuprobieren. Das werden wir im
Lagermodell dieses Trainings sehen. Das letzte Beispiel ist Amazon EC2, dem Sie
Ihre Anwendung bereitstellen. Aws bietet monatlich eine zwölfmonatige
Testversion
von bis zu 750 Stunden Nutzungsdauer für
den T2-Micro-Instance-Typ an. Dies
bedeutet, dass Sie Ihre
Anwendung 12 Monate lang kostenlos ausführen können. Dies ist ein bedeutender
Zeitraum, um AWS zu meistern. Sie können
fast alle Kerndienste ausprobieren und erlernen. Und ich hoffe, du
nutzst es am besten aus. Das ist alles für diese Lektion. Ich würde empfehlen,
diese Seite vorher zu überprüfen. Und während Sie AWS-Services nutzen, gibt es so viele Dienste, die
Sie kostenlos ausprobieren können, aber stellen Sie sicher, dass Sie über
die kostenlose Verfügbarkeit des
Dienstes Bescheid wissen , bevor Sie ihn nutzen. Das ist alles für dieses Video.
4. Ein AWS sichern: Hallo Studierende. In diesem Video werden
wir verstehen,
wie Sie
Ihr AWS-Konto mit
Passwortrichtlinien und
Multi-Faktor-Authentifizierung
oder kurz MFA sichern können Ihr AWS-Konto mit Passwortrichtlinien und
Multi-Faktor-Authentifizierung . in diesem Video werden wir uns auch den Zugriff Später
in diesem Video werden wir uns auch den Zugriff
und den geheimen Schlüssel ansehen. Beginnen wir also mit der
Multi-Faktor-Authentifizierung. Das heißt, MFA. Sie haben eine E-Mail-ID und Passwort, um sich bei
Ihrem AWS-Konto anzumelden. Und sobald Sie sich angemeldet
haben, können Sie auf die AWS
Management Console zugreifen und verschiedene
Vorgänge ausführen. Nehmen wir an, jemand hat Ihr Passwort
gestohlen. Jetzt kann sich diese Person einloggen und alles in
Ihrem Konto tun, oder? Insbesondere wenn er
Administratorzugriff hat, kann
er
Produktionsressourcen löschen, vertrauliche
Daten
übertragen,
die
Anwendungskonfiguration ändern und was auch immer. Wie
schützen Sie Ihr Konto
zusätzlich zum Passwort? Nun, Sie können eine
Multi-Faktor-Authentifizierung oder einen MFA verwenden. Was ist die
Multi-Faktor-Authentifizierung? Es ist eine
Authentifizierungsmethode, bei der jeder Benutzer mindestens
zwei Verifizierungstypen bereitstellt, die als Faktoren bezeichnet werden,
um Zugriff auf ein
Konto oder eine Ressource wie eine Website oder ein
Mobiltelefon zu erhalten App oder Dienste. Abgesehen von Benutzernamen
und Passwort müssen
Benutzer ein
einmaliges Passwort oder OTP eingeben, per SMS, E-Mail
oder eine Authentifikator-App wie
Google und Microsoft
Authenticator
geliefert oder eine Authentifikator-App wie wird. Ein gutes Beispiel für die Zwei-Faktor-Authentifizierung
ist ein Google Mail-Login von einem neuen Gerät aus. Jedes Mal, wenn jemand versucht, sich bei Ihrem Google Mail-Konto
anzumelden, fragt er nach dem Passwort und einem vom System generierten
Einmalkennwort, also OTP. Es wird unter der
registrierten Handynummer gesendet. Multi-Faktor-Authentifizierung
wird in der Kombination aus
einem Passwort und einem Sicherheitsgerät verwendet , das Sie besitzen, wie Ihrem Telefon. Sobald Sie MFA
für Ihr AWS-Konto konfiguriert haben, müssen
Sie jedes Mal, wenn Sie sich bei Ihrem AWS-Konto
anmelden, ein
MFA-Token bereitstellen . Mfa fügt im Grunde eine weitere Sicherheitsebene für Ihr Passwort hinzu. Selbst wenn jemand das
Passwort für Ihr Konto hat, kann
er
sich immer noch nicht anmelden Da er auch MFA
benötigt, um was zu tun? Daher empfiehlt es sich, MFA in
Ihrem AWS-Konto zu konfigurieren. Mfa und Sicherheit sind wichtige Themen sowohl
aus Sicht des Interviews
als auch aus Prüfungspunkten. Sie können Fragen erwarten, wie wie fügen Sie
Ihrem AWS Route- oder IAM-Benutzer eine zusätzliche
Sicherheitsebene hinzu? Die Antwort auf diese Frage wird die
Multi-Faktor-Authentifizierung sein. Neben der
Managementkonsole können
wir auch
über CLI und das SDK auf AWS zugreifen. Wir werden dies
im nächsten Thema verstehen , indem wir mit AWS
interagieren. Wenn Sie jedoch über
eine dieser Methoden auf AWS zugreifen, verwenden
Sie einen Zugriffsschlüssel
und einen geheimen Schlüssel. Diese Tasten sehen aus wie die auf dem Bildschirm vorhandenen
Codes, die möglicherweise nicht benutzerfreundlich als
Benutzername und Passwort sind. Sie müssen sie jedoch in
Ihrem Code verwenden,
um sich bei Ihrem AWS-Konto anzumelden, entweder über CLI oder SDK. Diese werden als Zugriffsschlüssel bezeichnet und werden für den
programmatischen Zugriff verwendet. Wir werden später im
Kurs einige
Zugriffsschlüssel erstellen und sehen, wie Sie sie
verwenden, um sich anzumelden. Lassen Sie uns nun
zum nächsten Thema übergehen, nämlich Passwortrichtlinie. Kennwortrichtlinie ist
eine Möglichkeit,
ein sicheres Kennwort für
Ihr AWS-Konto durchzusetzen , da Ihr Konto
sicherer ist , wenn Sie über
ein sicheres Passwort verfügen. Dies können wir
über die Passwortrichtlinie erreichen. Alles, was Sie tun müssen, ist
alle Regeln zu aktivieren, die Ihre Benutzer
beim Erstellen oder
Zurücksetzen ihres Passworts befolgen
sollen . Und das ist alles. In der Kennwortrichtlinie. Sie können eine Regel für die
Mindestkennwortlänge festlegen. Dann können Sie
bestimmte Zeichentypen erzwingen. Möglicherweise möchten Sie beispielsweise
mindestens einen Großbuchstaben, einen Kleinbuchstaben und eine Zahl haben. Ansonsten können Sie auch nicht alphanumerische
Zeichen wie Prozentsatz,
Straße usw.
angeben , die enthalten sein sollten. Dann können Sie den
Kennwortablauf aktivieren, was bedeutet, dass der Benutzer sein Passwort
nach bestimmten Tagen
drehen muss . Zum Beispiel nach 90
Tagen, 120 Tagen usw. Als Nächstes können Sie dem Benutzer erlauben, sein Passwort
zu ändern, oder Sie können sich auch dafür entscheiden nur der Administrator
das Passwort ändert. Schließlich können Sie die Wiederverwendung von
Kennwörtern auch verhindern , damit Benutzer sie
beim Ändern
ihrer Passwörter
nicht in das ändern, das sie
bereits in der Vergangenheit verwendet haben. Das ist also großartig. Eine Passwortrichtlinie ist sehr hilfreich für
alle meine Kollegen. Versuchen Sie es mit Ihrem Konto. Passwortrichtlinien sind unter der
AWS-Sicherheit aus Sicht der
Zertifizierungsprüfung
oder des Interviews ein
wichtiges Thema AWS-Sicherheit aus Sicht der
Zertifizierungsprüfung . Das ist alles, was ich in diesem Video
behandeln wollte.
5. MFA und Password konfigurieren: Hallo Studenten. Ich hoffe, Sie haben
Ihr AWS-Konto erstellt. In diesem Video sichern
wir unsere
Konten, indem wir eine
Multi-Faktor-Authentifizierung hinzufügen und eine Kennwortrichtlinie
einrichten . Bevor wir mit
der Konfiguration beginnen, lassen Sie uns schnell
verstehen, was MFA ist. Es ist eine
Authentifizierungsmethode, die die Identität des Benutzers
validiert. Wenn also ein Benutzer versucht, auf
etwas zuzugreifen , das mit MFA
gesichert ist, müssen Sie
zwei oder mehr Beweise vorlegen, um Zugang zu erhalten. Gehen wir also in unser
AWS-Konto und sichern es mit MFA. Dafür müssen wir zum Identitäts- und
Zugriffsverwaltungsdienst gehen . Also hier sind wir
im IAM-Dashboard. Und wie Sie sehen können, haben
wir bereits ein paar
Sicherheitsempfehlungen
von AWS erhalten . Das erste, was es
sagt, ist, dass Sie einen MFA
für den Root-Benutzer hinzufügen
sollten. Fügen wir also hinzu, wählen Sie mein Konto und klicken Sie dann auf
Sicherheitsanmeldeinformationen. Hier sehen Sie die
Kontodaten. Scrollen wir ein bisschen nach unten. Hier. Sie können sehen, dass wir keine Geräte zugewiesen
haben. Klicken wir also auf MFA-Gerät
verwalten. Wir werden hier ein
virtuelles MFA-Gerät verwenden. Sie müssen
eine Authentifikator-App auf
Ihrem Mobilgerät
oder Ihrem Computer installieren eine Authentifikator-App auf . Früher habe ich die Google
Authenticator-App auf meinem Handy verwendet, da diese
völlig kostenlos genutzt werden kann. Also werde ich das benutzen. Wenn Sie jedoch noch keine auf Ihrem Telefon installiert haben , installieren Sie die Google
Authenticator-App und klicken Sie dann auf Weiter. Als Nächstes
klicken Sie auf QR-Code anzeigen. Sobald Sie den
QR auf Ihrem Bildschirm sehen, scannen Sie ihn
einfach mit Ihrem Telefon. Und es sollte die
Google Authenticator App öffnen. Wenn du es richtig machst. Es generiert einen Code und
zeigt diesen auf Ihrem Bildschirm an. Was Sie also tun müssen,
ist diesen Code hier hinzuzufügen. So habe ich meins hinzugefügt. Und dann musst du
warten, bis dieser Code abläuft. Weil es einen neuen Code
generiert. Sie müssen
den neuen Code in die
MFA-Code-Toolbox eingeben . Klicken Sie anschließend auf MFA zuweisen. Sie haben jetzt MFA für Ihr Konto
aktiviert. Und Sie können sehen, dass
wir einen ARN- oder Amazon-Ressourcennamen für
unser virtuelles Gerät haben. Es ist also ziemlich einfach,
MFA in Ihr Konto zu aktivieren. Lassen Sie uns nun auch
eine Kennwortrichtlinie konfigurieren. Gehen wir zum IAM-Dashboard. Schon wieder. Die Passworteinstellung finden Sie in
den Kontoeinstellungen. der linken Seite klicken
wir auf Passwortrichtlinie
ändern und setzen eine Richtlinie für unser Konto durch. Sie können viele
Dinge über das Passwort ändern. Zum Beispiel die minimale
Passwortlänge. Lasst uns es auf 16 ändern. Benötigt der Benutzer Groß-, Kleinbuchstaben- oder Kleinbuchstaben? Sie können alle
oder einen von ihnen auswählen. Ich wähle alles wie aus. Dies empfiehlt sich,
sowohl Groß- als auch
Kleinbuchstaben im Passwort zu verwenden . Und ich empfehle dir, das Gleiche zu tun. Sie können
Ihre
Passwortrichtlinie ganz nach Ihren Wünschen anpassen Ihre
Passwortrichtlinie ganz nach Ihren Wünschen und dann auf Änderungen speichern klicken, wodurch die Arbeit erledigt wird. Jetzt muss jeder neue Benutzer in
Ihrem Konto
diese Kennwortrichtlinie befolgen , während er Passwort
erstellt oder
zurücksetzt, was die Sicherheit
Ihres Kontos verbessert. Studenten sind also die wenigen anfänglichen
Sicherheitsmaßnahmen , die jeder
Cloud-Ingenieur kennen sollte. Cloud-Sicherheit
ist im Allgemeinen ein sehr wichtiges Thema, sowohl aus ihrer
Zertifizierungsprüfung aus interviewter Sicht. Und ich hoffe, du verstehst
es gründlich. Das ist alles für dieses Video.
6. Budget und Warnung einrichten: Hallo Studenten, willkommen zurück. Sie haben jetzt ein eigenes kostenloses
Testkonto und haben es mit
Multi-Faktor-Authentifizierung
und Kennwortrichtlinie
gesichert . Sie verstehen auch AWS, kostenlosen Reifen und die verschiedenen
Angebote unter Rate. In dieser Schulung werden wir
nur kostenlos nutzen, um Dienste für die praktische
Praxis in AWS
hinzuzufügen. Wenn Sie sich also
nur an
diese kostenlosen Angebote halten , werden Ihnen keine Gebühren berechnet. Aber nur für den Fall, dass Sie versehentlich einen kostenpflichtigen Dienst
nutzen oder vergessen, einen Dienst zu löschen , der
nach einer bestimmten Zeit bezahlt werden könnte. Es ist wichtig,
ein Budget und eine Abrechnung festzulegen. Vieles, dass Sie per E-Mail oder
SMS
benachrichtigt werden, wenn Sie
das bestimmte Limit erreichen. In diesem Video konfigurieren
wir das Budget und die Warnung
für unser AWS-Konto. Gehen wir also zur
AWS-Managementkonsole. Wie Sie sehen können, habe ich mich bei meinem
Konto bei root-Benutzer angemeldet. Und oben
rechts oben unter meinem Kontonamen wählen
wir das
Abrechnungs-Dashboard aus. Dies bringt uns
zum Dashboard. Scrollen wir nach unten
zum Abschnitt Kostenmanagement
und klicken Sie auf Budgets. Hier haben wir einige
zusätzliche Informationen über Budget und Alarmbereitschaft, wie es funktioniert,
Vorteile und Funktionen. Klicken Sie auf Erste Schritte, wenn
Sie es weiter lesen möchten. Ich empfehle Ihnen dringend, dies zu tun , da es
Ihnen weitere Einblicke gibt. Jetzt scrollen wir zurück und
klicken auf Budget erstellen. Hier. Das empfohlene Kostenbudget
ist standardmäßig ausgewählt. Also klicken wir auf Weiter. Lassen Sie alles standardmäßig. Und hier geben Sie Ihren
budgetierten Betrag ein. Wir werden unser
Budget eintragen. Für diese Demo. Ich wähle 3$ aus. Scrollen Sie nach unten und geben Sie
den Namen Ihres Budgets ein. Benennung Ihres Budgets
ist wichtig, da Sie in Zukunft
möglicherweise mehrere
Budgets haben. Nennen wir es 3-Dollar-Alarm. So wird es einfach sein, Letzteres zu
identifizieren und auf Weiter zu klicken. Klicken Sie nun auf Alarmschwellenwert hinzufügen. Hier können Sie
mehrere Schwellenwerte erstellen. Wenn wir also 50
in den Schwellenwert eingeben
, erhalten Sie
eine Benachrichtigung, wenn Ihre AWS-Ausgaben
50% von 3 USD erreichen, was 1,5 USD entspricht. In diesem Fall. Sie können auch
mehrere Schwellenwerte hinzufügen. Fügen wir einen weiteren
Schwellenwert hinzu, damit wir
eine weitere Benachrichtigung erhalten , bevor der Betrag
das festgelegte Limit erreicht. Diesmal werden wir 80% hinzufügen. Hier. In der Benachrichtigungsoption. Wir haben ein paar Möglichkeiten
, wie wir benachrichtigt werden möchten. Entscheiden wir uns für eine
E-Mail-Benachrichtigung. Geben Sie die E-Mail-Adresse ein
, an der wir die E-Mail
erhalten möchten. Und klicken Sie dann auf Weiter. Belassen Sie alles als Standard auf der
Aktionsseite „Anhängen“ und klicken Sie auf Weiter. Sehen wir uns nun alles und klicken Sie dann auf Budget erstellen. Es wird ein paar
Sekunden dauern und wir werden
eine Meldung sehen , dass
das Budget erfolgreich erstellt wurde. Hier sehen Sie, dass der
Schwellenwertstatus in Ordnung ist. Sie können diesen
Budget-Link verwenden, um
die Details und die Grafik
unserer Ausgaben anzuzeigen. Derzeit haben wir hier
keine Details, da es etwa 24 Stunden
dauert, um die Daten
zu füllen. Wenn Sie also ein Budget erstellen, würde
ich vorschlagen, dass
Sie
nach ein oder zwei Tagen hierher zurückkehren und sich diese DJs ansehen. Scrollen wir wieder nach oben. Und in der oberen Ecke von hier aus können
Sie auch
das Budget bearbeiten und löschen. Dies ist sehr wichtig,
da Sie möglicherweise das
Budget in Zukunft anpassen
müssen. Probieren Sie es
aus. Für dieses Video. Es geht so ziemlich viel
um das Budget. Wir werden die erste Warnung erhalten, wenn unsere AWS-Rechnung 50% von 3 USD erreicht. Und der zweite Alarm bei 80%. Gemäß der Warnung können
wir zurückkommen und überprüfen, welche Dienste ausgeführt werden. Und wenn wir sie nicht brauchen, können
wir sie kündigen,
um Kosten zu sparen. Im nächsten Video werden
wir das Thema
Verständnis des
AWS-Kontos und des kostenlosen Reifens zusammenfassen . Wir sehen uns im nächsten.
7. Methoden des Interagierens mit AWS: Hallo Studenten, willkommen zurück. Zuvor haben wir
die verschiedenen
Cloud-Bereitstellungsmodelle besprochen , die IS Pass und sagt:
Aber wussten Sie, dass wir
AWS-Services auch als eines
dieser Modelle verwenden können , wenn Sie dies nicht tun. Nun, keine Sorgen. Lasst uns
das in diesem Video verstehen. Hier werden wir
verstehen, welche Methoden es gibt ,
um mit
Ihrem AWS-Konto und Ihren Diensten zu interagieren . Bisher haben wir über die
Managementkonsole, eine Webschnittstelle
,
mit AWS interagiert Managementkonsole, eine Webschnittstelle
,
mit AWS . Darüber hinaus haben
wir zwei weitere Möglichkeiten, mit AWS
zu interagieren. Erstens ist die AWS CLI oder die Befehlszeilenschnittstelle. Es ist ein Tool, das Sie auf Ihrem Computer
installieren und konfigurieren, dem Sie auf
die AWS-Services zugreifen und
sie über Ihren Computer
terminale Skripte automatisieren können. Die zweite Methode ist SDK, das für Software
Development Kit steht. Es wird von Programmierern
und Entwicklern verwendet, um direkt
aus dem Anwendungscode
mit AWS-Services zu interagieren . Wenn das nicht
ganz sinnvoll ist, machen Sie sich keine Sorgen. Wir werden
sie im Detail verstehen. Beginnen wir mit
der AWS-Konsole. Schon wieder. Es ist ein Webinterface, um mit AWS-Services zu
interagieren. Und da
über Ihren Webbrowser darauf zugegriffen werden kann, ist
es die einfachste Möglichkeit, Ressourcen in AWS zu
verwalten. Melden Sie sich einfach bei Ihrem AWS-Konto an
und machen Sie, was Sie wollen. weitere oder mobile Version
der AWS Management Console
ist ebenfalls verfügbar. Sie können es
auf Ihrem Telefon installieren und von Ihrem Telefon aus
auf fast alle
AWS-Services zugreifen. Ist das nicht großartig? Sehen wir uns nun
einige Vorteile der Verwendung von AWS Management Console an. Wenn Sie ein Anfänger sind, ist die
AWS Management Console der richtige Anfang. Da können Sie sehr einfach mit AWS-Services
interagieren. Es ist, als würde man
nur auf einer anderen Website navigieren. Aber wie wir besprochen haben, ist
es aufgrund seiner sehr
sauberen, schrittweisen
Benutzeroberfläche einfacher . Aus all diesen Gründen ist
die Managementkonsole die beste Wahl für Ausführung von administrativen
Aufgaben als Anfänger. Jetzt weiß nur für Anfänger. Nun, das liegt daran, dass
einige Vorgänge in der AWS-Konsole oder im
Handbuch Zeit in Anspruch nehmen. Daher ist es nicht möglich, alles über
die Managementkonsole zu automatisieren. Und deshalb verwenden wir eine
Befehlszeilenschnittstelle oder eine CLI. Lasst uns das jetzt verstehen. Die AWS Command Line Interface oder CLI ist ein einheitliches Tool zur
Verwaltung Ihrer AWS-Services. Es ist eine
Befehlszeilenschnittstelle, mit der
Sie Ihren AWS-Service
über Ihr Computerterminal verwalten können. Dies ist ein Tool, das Sie einfach auf Ihrem Computer
installieren können. Es unterstützt Windows
-, Mac - und Linux-Betriebssysteme. Sie können alles tun
, was Sie mit
dem Beispiel der AWS Management
Console tun können . Wenn Sie alle
Benutzer in Ihrem Konto auflisten möchten, öffnen
Sie ein Terminal Ihrem Computer und
geben AWS-Listenbenutzer ein. Sie erhalten eine Liste
aller verfügbaren Benutzer
in Ihrem Konto. Und wenn Sie einen Benutzer löschen
möchten, können Sie den
Befehl verwenden AWS delete user, username, und er löscht
diesen Benutzer aus Ihrem Konto. Sie können
diese beiden Befehle auch kombinieren , um
welche Aufgaben in einem Schritt auszuführen. Das ist ein wesentlicher
Vorteil der Verwendung von AWS CLI über die
Managementkonsole. Sie können Aufgaben in der CLI automatisieren. Angenommen, Sie haben 50
Benutzer in Ihrem Konto. Und Sie möchten Benutzer löschen
, deren Name mit
M beginnt . Wenn Sie dies
über die AWS Management Console tun müssen, müssen Sie
jeden Benutzer finden und
nacheinander löschen, oder? Aber das ist bei CLI nicht der
Fall. Hier können Sie
das Skript schreiben und
die beiden oben genannten Befehle verwenden , um dieselbe Aufgabe
auszuführen. Und das wird schnell geschehen. Ebenso können Sie
mehrere AWS-Services
mit demselben Skript verwalten . Um über CLI auf AWS zugreifen zu
können, müssen Sie
sich
wie in der AWS
Management Console authentifizieren . Anstatt
Benutzernamen und Passwort zu verwenden, müssen
Sie jedoch Zugriff
bereitstellen, und geheime Schlüsselzugriffsschlüssel fungiert wie Benutzername und geheimer
Schlüssel Ihr Passwort. Wenn irgendetwas verwirrend klingt. Wir werden
AWS CLI in der nächsten Lektion
installieren und konfigurieren . Schauen wir uns nun einige
Vorteile der Verwendung von AWS CLI an. Es ist eine großartige
Möglichkeit, über ein
Computerterminal mit
AWS zu interagieren und ist eine hervorragende Möglichkeit,
Aufgaben zu automatisieren und
Infrastruktur als Code zu erreichen. Schließlich haben wir das SDK, steht für Software
Development Kit. Dave-Junge. Kurz gesagt, wie der Name schon sagt, handelt es sich um eine Reihe von Softwaretools und Programmen, die von Entwicklern
zum Erstellen von Anwendungen verwendet werden. Wenn Sie denken, dass
es AWS CLI ähnlich ist, stimmt
das nicht, da Sie das
AWS SDK nicht in Ihrem
Computerterminal verwenden können . Dies wird nur zum
Lesen oder innerhalb Ihres
Anwendungscodes verwendet , wodurch Ihre Anwendung mit AWS-Services interagieren kann. Sdk unterstützt viele verschiedene
Programmiersprachen wie C plus plus, Java, javascript.net, Node.js,
PHP, Python und Ruby. Es gibt auch mobile SDKs für Android und iOS haben Level. Lasst uns das an
einem Beispiel verstehen. Angenommen, Sie entwickeln eine mobile Anwendung, Benutzer ihre Fotos
teilen können. Dafür verwenden Sie
Amazon S3 als Speicher. Wir werden in einem anderen Modul
ausführlich über S3 sprechen. Aber in diesem Fall muss
Ihre Anwendung mit AWS,
Amazon S3-Dienst, interagieren , oder? Sie können in
diesem Szenario keine AWS Management
Console oder AWS CLI verwenden , da Sie möchten, dass Ihr Anwendungscode mit dem AWS-Service
interagieren soll. Daher verwenden Sie das AWS SDK. Es ermöglicht Ihnen,
über Ihren Anwendungscode auf Ihre AWS-Services zuzugreifen und diese zu
verwalten. Möglicherweise kennen Sie bereits die
Vorteile der Verwendung von SDK. Es ist ein perfektes Tool
, um mit
AWS über Anwendungscode zu interagieren . Es eignet sich hervorragend für die Interaktion mit AWS innerhalb des Anwendungscodes. Ich hoffe, dass Sie jetzt alle drei Methoden
der Interaktion mit AWS
verstehen.
8. Die AWS Management Console verwenden: Hallo Studenten, willkommen zurück. In der letzten Lektion haben wir uns verschiedene Möglichkeiten zur
Interaktion mit AWS-Services angesehen . In dieser Lektion werden
wir tiefgreifend
in die
AWS-Managementkonsole eintauchen und verstehen, wie
Sie sich der AWS
Management Console anmelden können. Wie erstelle ich ein Konto, LES, wie wählt man eine
AWS-Region in unserem Konto und wie wir zu
verschiedenen AWS-Services
und deren Dashboard gelangen . Also lasst uns gleich darauf eingehen. Zuerst müssen Sie sich bei
Ihrem AWS-Konto anmelden , um zur AWS-Verwaltungskonsole zu
gelangen. Und
die Anmeldeinformationen, mit denen Sie sich anmelden bestimmen, welche Art
von Benutzer Sie sind. Ab sofort. Sie kennen den Root-Benutzer, der der Eigentümer des Kontos
ist. Dieser Benutzer hat Zugriff auf alle Ressourcen und
Dienste innerhalb des Kontos. Dann gibt es andere
Arten von Benutzern in Ihrem Konto, die IAM-Benutzer
genannt werden. Diese Benutzer haben eingeschränkten Zugriff auf Ressourcen
und Dienste. Lassen Sie uns nun
den Unterschied zwischen
Root-Benutzer und IAM-Benutzer verstehen . Root-Benutzer ist der Benutzer, der
erstellt wurde, als wir das Konto zum ersten Mal
erstellt haben. Wenn wir uns also mit
Root-Anmeldeinformationen anmelden, haben
wir Zugriff auf
das gesamte Konto. Auf der anderen Seite
werden IAM-Benutzer vom Root-Benutzer erstellt. Wir werden in den späteren Modulen mehr
darüber sprechen. Melden Sie sich bei AWS Als Root-Benutzer benötigen
Sie die von uns verwendete E-Mail-ID und das
Passwort sowie die Multi-Faktor-Authentifizierung, die wir bei
der Erstellung des AWS-Kontos
aktiviert haben. sich jedoch als IAM-Benutzer anmelden, benötigen
Sie einen Benutzernamen, Passwort und entweder
eine zwölfstellige,
AWS, eine Konto-ID
oder Kontoideen. Da wir weder einen
IAM-Benutzer noch das Konto haben. Loggen wir uns also mit dem
Root-Benutzer ein, den wir bereits
erstellt haben , und
erstellen Sie ein Konto LES. Hier befinden wir uns auf der
AWS-Signaturseite. Ich gebe die
E-Mail-ID ein und klicke dann auf Weiter. Ich gebe mein Passwort. Klicken Sie dann auf „Anmelden“. Da ich die
Multi-Faktor-Authentifizierung konfiguriert habe, muss
ich
zusätzlich zu meinem Passwort
einen eindeutigen Code eingeben , um mich anmelden zu können. Also gebe ich den Code ein. Jetzt bin ich bei
der AWS-Konsole angemeldet. Jetzt, da wir in der Konsole sind, gibt es ein paar Dinge, die
wir schnell überprüfen sollten. Einer von ihnen ist Account. Hier sehen Sie die
Kontoeinstellungen, die Details
Ihres Kontos wie
Kontaktinformationen,
alternativen Kontakt für Abrechnung,
Betrieb und Sicherheit
enthalten Ihres Kontos wie
Kontaktinformationen, . Erinnern Sie sich an die Einrichtung des Budgets? Im letzten Thema werden
wir schnell
unser Abrechnungs-Dashboard überprüfen. Klicken Sie auf Abrechnungs-Dashboard. Sie sehen die
Abrechnungszusammenfassung und andere Details, einschließlich der
Rechnung für den aktuellen Monat, frühere Builds
und Budgetkontrolle. Obwohl ich glaube, dass Sie ein Budget
eingerichtet und eine Warnung
aktiviert haben , empfehle ich
dennoch,
diese Seite
regelmäßig zu überprüfen , um festzustellen, ob Sie unerwünschte Rechnungen
haben. Gehen wir nun zurück und erstellen hier
in diesem Suchfeld
einen Kontoaliasnamen Typ IAM und klicken Sie auf IAM-Identitäts - und Access Management
Service-Dashboard. Und wie Sie hier auf der
rechten Seite sehen können, haben
wir eine Konto-ID und
darunter der Account-Alias. Bitte beachten Sie, dass
der Account-Alias der Konto-ID übereinstimmt. Hier ist also unsere
zwölfstellige Konto-ID. Aber sich daran zu erinnern,
könnte eine Herausforderung sein. Wir werden also
einen Alias erstellen , der viel
einfacher zu merken ist. Klicken Sie dazu auf
Erstellen, fügen Sie Ihre ID, das Cloud-Advisory 2050 und speichern Sie dann die Änderungen. Dadurch wird eine ID für Sie erstellt. Wir verwenden diese ID oder diesen Alias jedes Mal, wenn wir uns
mit dem IAM-Benutzer anmelden. Gehen wir nun zurück zum
Benutzerkonto-Link. Um dies zu tun, klicken Sie einfach
auf das AWS-Logo. Daneben haben wir ein weiteres Dropdown-Menü zur
Auswahl der AWS-Region. Wählen wir also eine
Region für unser Konto aus. Wir befinden uns derzeit
in North Virginia. Us Ost, One ist
der Grund genannt. Jede Region hat einen
bestimmten Code und wir verwenden diesen Code, wenn wir
AWS, CLI und SDK verwenden. Wir werden in
den kommenden Sitzungen darüber sprechen. Wir haben bereits die globale Infrastruktur von
AWS diskutiert. Und Sie können sehen, dass es in AWS
viele Regionen und
unterstützte Regionen gibt. Wir melden uns bei der AWS
Management Console an und
wählen eine AWS-Region aus, um diese Dienste
in einer bestimmten Region zu erstellen. Dies ist das erste, was Sie tun wenn Sie einen neuen Service erstellen, mit Ausnahme einiger, die
nicht regionssensibel sind. Wenn wir umschalten und
die Region Asien-Pazifik auswählen
, ist dies nichts anderes als
die Region Mumbai. Alle Dienste, die wir jetzt erstellen werden nur in der Region
Mumbai eingeführt. Daher ist es wichtig,
die Region zu
entscheiden und auszuwählen , in der Sie Ihre AWS-Services
erstellen möchten. Und was wichtig ist, wenn Sie
einige AWS-Ressourcen erstellen und diese Ressourcen
nicht
in der Konsole sehen. Das bedeutet, dass Sie es in
verschiedenen Regionen erstellt haben und zu ihrer
Region wechseln müssen, um sie zu sehen. Lassen Sie uns nun vorankommen und sehen,
wie Sie zu AWS-Services navigieren können. Die
AWS-Verwaltungskonsole bietet mehrere Möglichkeiten,
zu einzelnen
Service-Dashboards zu navigieren . in das Suchfeld in
der Navigationsleiste Geben Sie in das Suchfeld in
der Navigationsleiste den Namen des Dienstes ein. Sie werden die Ergebnisse sehen. Wählen Sie den gewünschten Service
aus der Suchergebnisliste aus. Gehen wir zum Beispiel
zum S3-Dienst. Wir können einfach
Schulden eingeben und wir
erhalten eine Liste aller
Dienste, die S3 enthalten. In diesem Fall würden wir hier nur nach S3
suchen. Und wenn wir darauf klicken, gelangen wir zum Dashboard
dieses bestimmten
Dienstes . Als nächstes können wir auch zur Homepage zurückkehren, indem wir
auf das AWS-Logo klicken. Wählen Sie als Nächstes Dienste aus, um
eine vollständige Liste der Dienste zu öffnen. Hier oben
rechts auf der Seite. Wählen Sie eine Gruppe aus, um die nach Kategorie aufgeführten
Dienste anzuzeigen, oder wählen Sie einen Jet aus, um
eine alphabetische Auflistung anzuzeigen. Wählen Sie dann den gewünschten
Dienst aus. Scrollen Sie beispielsweise nach
unten und wählen Sie die Speicherkategorie aus, die AWS Backup,
EFS, S3 und viele mehr
enthält . Ich werde mehr darüber
in einem der späteren Module sprechen. Dies gibt uns jedoch eine
hochrangige Möglichkeit die Dienstleistungen
basierend auf ihrer Kategorie zu
betrachten. Als nächstes folgt der kürzlich
besuchte Tab. Hier sehen Sie die neuesten Dienste, die ich innerhalb der Konsole
besucht habe, einschließlich S3, RDS, ec2. Dies sind also die Dienste
, mit denen ich kürzlich zusammengearbeitet habe. Für den Fall, dass Sie nur mit
einer Handvoll Dienstleistungen arbeiten. Dies kann eine sehr schnelle
Möglichkeit sein, einfach darauf
zu klicken und zu den spezifischen
Service-Dashboards zu wechseln. Das ist alles für diese Sitzung.
9. AWS CLI installieren: Willkommen zurück Studenten. Wir werden
unsere Diskussion über
die Interaktion
mit AWS-Services fortsetzen . Und in diesem Demovideo werden
wir AWS
CLI auf unserem System installieren. Da ich einen Mac habe, gehe
ich mit den
Installationsanweisungen für Mac. Der Prozess bleibt
jedoch für andere
Betriebssysteme,
einschließlich Windows und Linux, gleich . Gehen wir also zum Browser und suchen die
Installationsdokumentation. In dieser Suchleiste. Ich habe AWS CLI auf dem Mac installiert. Sie können auch online nach
Ihren Betriebssystemen wie installierter AWS CLI suchen. Installieren Sie als Nächstes auch AWS CLI
unter Windows. Wir werden die Überholspur öffnen, Installation und Aktualisierung
ihres Tests war eine AWS CLI. Diese Seite enthält das Installationsprogramm
Anweisungen für alle drei Betriebssysteme, einschließlich Linux, Mac
OS und Windows. Ich gehe für Mac OS
und folge dem Vorgang. Scrollen wir nach unten. Und hier ist die
Installationsanleitung. Wir brauchen eine dunkle EKG-Datei, die ein grafisches Installationsprogramm ist. Also lade ich
die Datei von hier herunter. Sobald Sie es heruntergeladen haben,
öffnen Sie es und klicken Sie auf
Weiter, fahren Sie fort, fahren Sie
fort und stimmen Sie zu. Erteilen Sie die Berechtigung zur Installation für alle Benutzer auf diesem Computer. Klicken Sie auf Weiter und
klicken Sie auf, installieren Sie es. Wir haben die
CLI auf Ihrem System installiert. Warten wir, bis
alles erledigt ist. Das System schreibt die Dateien. Und schließlich
ist die Installation jetzt erfolgreich. Da ich
das Installationsprogramm nicht mehr brauche, verschiebe
ich es in den Müll. Überprüfen Sie die Installation. Ich öffne ein Terminal, gehe zur Suchoption und tippe eine Minute ein. Und dann füge ich AWS hinzu. Wenn Sie eine laufende
CLI auf Ihrem System haben, sollte
es eine Version
der AWS-Ausführungstabelle zurückgeben. Warten wir eine Weile. Hier haben wir die
Antwort auf unseren Befehl, der zeigt, dass alles korrekt installiert
wurde. Bitte laden Sie die CLI auf Ihr System herunter, da wir sie in zukünftigen Lektionen
verwenden werden. Im Falle von Problemen schauen
Sie sich diesen Kerl an.
10. Die AWS CLI verwenden: Hallo Studenten, willkommen zurück. Wir werden
unsere Diskussion über
die Interaktion
mit AWS-Services fortsetzen . Und in dieser Demo lernen Sie, wie
Sie
AWS CNI verwenden , um
mit AWS-Services zu interagieren. Also lasst uns anfangen. Lass mich das
Terminal auf meinem Laptop öffnen. zunächst sicher, dass Sie AWS CLI bereits installiert
haben. Sie können dies überprüfen, indem Sie eingeben. Aws war nicht auf Ihrem Terminal und gab die AWS CLI einfach
zurück. Zweitens müssen Sie
AWS CLI authentifizieren, um auf AWS-Services zugreifen zu können. Und wie wir besprochen haben, greifen
AWS CLI-Benutzer auf
Schlüssel zur Authentifizierung zu. Wir behandeln die Authentifizierung
und Autorisierung im Thema Identitäts- und
Zugriffsmanagement
ausführlich. für diese Demo jedoch Gehen
wir für diese Demo jedoch zur AWS
Management Console und erstellen einen Zugriffsschlüssel. Hier. Klicken Sie auf Konto und dann auf
Sicherheitsanmeldeinformationen. Wir befinden uns jetzt in meinem Zugriffsschlüssel für
Sicherheitsanmeldeinformationen. Und hier können wir
neue Zugriffsschlüssel erstellen. Zugriffsschlüssel sind entscheidend, da sie zur
Steuerung der Authentifizierung
und Autorisierung verwendet werden , wenn Sie
die CLI und das SDK für den
Zugriff auf das AWS-Konto verwenden . Als Hinweis, werden
wir hier
Zugriffsschlüssel erstellen. Ich werde
diese Schlüssel jedoch sofort
nach dieser Tabelle löschen . Sie sollten auch keine
Root-Benutzerzugriffsschlüssel
täglich verwenden . Dies ist keine gute Vorgehensweise. Auch hier werden wir dies im Thema Identitäts- und
Zugriffsmanagement
ausführlich lernen . Klicken wir vorerst auf Neuen Zugriffsschlüssel
erstellen und
dann den Zugriffsschlüssel anzeigen. Hier haben wir sowohl unseren Achsen
- als auch den geheimen Zugriffsschlüssel. Dies
werden wir verwenden, um über die CLI auf
unsere AWS-Ressourcen
zuzugreifen . Kopieren wir beide
Schlüssel in eine Textdatei. Sie können es auch herunterladen indem Sie auf Herunterladen und Zulassen klicken. Gehen wir nun zurück zur AWS CLI
und geben das Terminal ein. Aws konfigurieren. Geben Sie nun zuerst den
Zugriffsschlüssel und den geheimen Zugriffsschlüssel ein. Geben Sie nun den
Standardnamen für die Region ein. Und in diesem Fall
wählen wir das API-Salz aus. Endlich wählen wir
das Standardausgabeformat aus. In diesem Fall wählen wir
das gestische Format aus. Sobald wir das
alles vorhanden haben, drücken Sie Enter. Wir haben
die AWS CLI erfolgreich konfiguriert , sodass wir in der Lage sein
sollten, die AWS CLI zu verwenden, um Informationen über
die AWS-Ressourcen zu erhalten. Schauen wir es uns schnell an. Wir führen einen Befehl aus,
der den S3-Bucket auflistet. Geben wir AWS ein. Und es wird
eine Liste aller
verschiedenen S3-Bucket zurückgeben , die ich
in diesem Konto erstellt habe. Wenn Sie keinen Eimer haben, wird nichts zurückgegeben. Um schnell zu überprüfen, was wir in dieser Lektion getan
haben, wir Zugriffsschlüssel für
unsere Benutzer mit der Vorsicht erstellt, dass wir im Allgemeinen keine Zugriffsschlüssel
für den Root-Benutzer
erstellen möchten . Sei
es immer noch für diese Demo erstellt. Aber solange Sie es löschen, sollte
das in Ordnung sein. Und schließlich greifen wir auf das S3 zu, um zu überprüfen, ob wir
auf die AWS-Ressourcen zugreifen können. Das ist alles für dieses Video.
11. AWS-Regionen und Verfügbarkeitszonen: Hallo Studenten, willkommen zurück. In diesem Video erfahren wir mehr
über die AWS-Regionen, verschiedene Availability
Zones und die Bedeutung von Regionen
und Verfügbarkeitsjoule. Also lasst uns anfangen. Angenommen, Sie möchten
unsere Webanwendung hosten. Dafür bräuchten Sie
Ihr eigenes Rechenzentrum, richtig? Jetzt, da Sie über AWS
und andere Cloud-Services Bescheid wissen, müssen
Sie unser Rechenzentrum nicht
einrichten und können Ihre
Anwendung einfach in der AWS Cloud hosten. Nehmen wir jedoch an, Sie
verwenden immer noch ein lokales Rechenzentrum. Jetzt ist hier eine Frage. Was ist, wenn eine Katastrophe Ihr Rechenzentrum
trifft? Das ist ein gültiges Kissen, oder? Alles kann passieren. Und da Sie das Rechenzentrum besitzen und
verwalten, müssen
Sie herausfinden, was Sie in
einer so extremen Situation tun werden. Eine Möglichkeit, ein
vollständiges Herunterfahren
Ihrer Anwendung zu vermeiden , besteht darin,
ein zweites Rechenzentrum an einem
anderen Ort auszuführen . Wenn also einer untergeht, wird
der andere als Backup
da sein. Die Wartung eines
anderen Rechenzentrums
wird jedoch die Hardware-
und Wartungskosten verdoppeln. Mach dir keine Sorgen. Das
war nur ein Beispiel. Ein AWS hat eine bessere Lösung für diese
Möglichkeit, nämlich die AWS-Region. Eine AWS-Region ist
nichts anderes als die geografischen
Standorte weltweit, wir sind verschiedene
Rechenzentren gruppiert. Das bedeutet, dass AWS
mehrere Rechenzentren
an einem Ort unterhält . Gemäß AWS-Standards muss
es mindestens zwei
Rechenzentren in einer Region geben. Und jedes Rechenzentrum sollte redundanten Strom,
Kühlung, Heizung, Vernetzung
und Konnektivität
haben . Alle
diese Regionen sind erneut über das
AWS-Backbone-Netzwerk
verbunden, das im Grunde ein
sehr schnelles Netzwerk ist. Jede dieser Regionen hat
unterschiedliche Namen und Codes. Diese Namen basieren auf ihrer weltweiten
geografischen Lage. Geografische Lage bedeutet physische Lage
wie Mumbai, Tokio ,
Frankfurt,
Nordamerika, Südamerika, China, Südafrika
und der Mittlere Osten. Dies sind einige Beispiele. Nun, mein AP South One. Moon Bay ist ein physischer
Ort, oder? Sie nennen es also eine
Einweg-Region und es hat Episode eins
genannt. Gleiches gilt für Singapur
und andere Standorte. Singapur, API
Südost, eins, Sydney, API Südost bis
Kapstadt, Süd-One. Wenn Sie also ein AWS-Konto haben, können
Sie auswählen, aus
welchem Grund Sie Ihre AWS-Services bereitstellen möchten, ob Sie
sie in Mumbai oder in Tokio starten möchten. Dies hängt auch von
verschiedenen Faktoren , über die ich in
diesem Video sprechen werde. Mit einfachen Worten, Sie können sagen, dass AWS
ein Cloud-Dienstanbieter
ist und Rechenzentren
auf der ganzen Welt hat. Derzeit gibt es 26 geografische Regionen mit 84 Verfügbarkeitszonen
auf der ganzen Welt. Und AWS
fügt immer wieder neue Regionen hinzu. Wenn Sie sich diese Sitzung
ansehen, diese Zahlen möglicherweise geändert. Sie können sich also
den Link im
Ressourcenbereich unter diesem Video ansehen und die
neueste Anzahl von AWS überprüfen. Lassen Sie uns vorankommen und
über die Verfügbarkeit sprechen Jones. Nun, was unsere
Verfügbarkeit Jones, es ist ein oder mehrere einzeln getrennte und
unterschiedliche Rechenzentren mit redundanter Leistung, Vernetzung und Konnektivität
in einer AWS-Region. Mit anderen Worten, es ist nichts
anderes als ein isoliertes Rechenzentrum. Im Rahmen des Zumutels besteht der einzige
Unterschied darin, dass es über redundante Stromversorgung,
Netzwerk und Konnektivität verfügt. Jede Availability
Zone verfügt also über eine Reihe von Rechenzentren, die von
anderen Availability Zones isoliert sind. Also glaube ich, dass wir es getan haben. Joan ist nichts anderes als eine
Gruppe von Rechenzentren. Und gemäß AWS Standard muss
eine AWS-Region über
zwei Availability Zones verfügen. Nehmen Sie also ein Beispiel für
die Moon Bay-Region. Es hat drei Availability Zones. Wie wir bereits gesehen haben. Jede Region hatte
einen bestimmten Code. Ebenso hat die Verfügbarkeit
Jones auch einen entsprechenden Code
, der aus
einem Regionalcode
gefolgt vom Alphabet besteht . Wenn Sie sich erinnern, ist der Code der
Region Mumbai ap Salt One. Jetzt lasst uns sehen. Der Code für die
Availability Zone, Verfügbarkeit John One hat
den Code API South One. Und in ähnlicher Weise ist die Verfügbarkeit
John Code zwei ein Stück Out1 und die Availability Zone dritte
hat die Code-Episode eins. Sehen Sie, ich hoffe, es ist klar
, dass der Regionalcode gefolgt von Alphabet
die Verfügbarkeit im Juni kalt macht. Bis jetzt wissen wir, dass jede AWS-Region zwei oder
mehr Verfügbarkeit hat Jones, genau wie Mumbai
drei Availability Zones hat. North Virginia hat die Avenue
de Jones und so weiter. Lassen Sie uns nun verstehen, warum uns
diese Availability Zones wichtig
sind. Wir wissen also, dass eine Region aus mehreren
Availability Zones besteht. Hier. Lassen Sie mich Ihnen sagen, dass jede Verfügbarkeit June
kein einziges Rechenzentrum ist, sondern aus Clustern
von Rechenzentren besteht. Einige Verfügbarkeit Jones
kann zwei Rechenzentren haben, während andere drei oder mehr
haben können. Alle diese
Verfügbarkeitszonen befinden sich
irgendwo im Abstand von 5200
Kilometern. man auf die Bedeutung
der Verfügbarkeit zurückgeht, würde Jones
annehmen, wenn eine
Verfügbarkeitszone ausfällt, würde
der gesamte Cluster von
Rechenzentren dort hinuntergehen. Rechenzentren in
anderen Availability Zones
werden jedoch weiterhin arbeiten. Und daher werden Sie nicht mit
einem vollständigen Herunterfahren Ihrer
Anwendung oder Website konfrontiert . Aws-Infrastruktur
wurde entwickelt, um die hohe Verfügbarkeit
der Anwendungen
sicherzustellen. Und wenn du denkst, wie ist es
dir wichtig, lass es mich dir sagen. Angenommen, Sie möchten
Ihre Anwendung in
der Region Mumbai bereitstellen . Und wie Sie wissen,
hat
eine Moon Bay-Region drei verschiedene
Verfügbarkeitszonen. Das erste, was Sie tun
würden, ist,
einen Server in einem der Jones
gemäß Ihren Anforderungen zu starten . Sobald der Server gestartet wurde, können
Sie jetzt
über das Internet darauf zugreifen. Sie müssen
sich keine Gedanken darüber machen
, in welcher Availability Zone Sie Ihren Server gestartet
haben, solange Sie über das Internet
darauf zugreifen können. Angenommen, die
Availability Zone, in der Sie Ihren Server gestartet haben,
geht vollständig aus. Das bedeutet,
dass auch die Bewerbung erfolgt. Aber das ist es nicht. Sie können auch nicht auf
Ihre Anwendungsdaten zugreifen . Wenn Sie diese Daten nicht haben, können
Sie Ihre Anwendung nicht
wiederbeleben. Um solche Situationen zu vermeiden, hat
AWS Verfügbarkeit Jones. Werfen wir einen Blick auf die Vorteile der
Verfügbarkeit Jones. Der erste Vorteil ist die
höhere Verfügbarkeit. Wenn Sie
Ihre Anwendungen entwerfen, stellen
Sie sicher, dass Sie
alle Ihre Server und
Datenbanken in mehrere
Availability Zones gelegt haben alle Ihre Server und . Wenn also einer untergeht, müssen
Sie für eine Sekunde eine andere Zone
abdecken. Wenn Sie sich erinnern, haben wir
darüber gesprochen, dass die Entfernung zwischen zwei Zonen
zwischen 5200 Kilometern liegt. Angenommen, Sie haben eine
Primärdatenbank in einem John. In diesem Fall können Sie
das Replikat dieser Datenbank
im sekundären Jones haben . Es ist auch möglich, eine synchrone Replikation
zwischen zwei Datenbanken durchzuführen. Dadurch werden alle Ihre Daten
gleichzeitig in
beide Datenbanken kopiert . Wenn ein John untergeht, haben
wir einen
anderen, der normal arbeitet, was als Fehlertoleranz bezeichnet wird. Bitte beachten Sie, dass dies
kein Standarddesign von AWS ist. Sie müssen
Ihre Anwendung in mehreren Availability Zones gestalten, um
eine hohe Verfügbarkeit
und Fehlertoleranz zu erreichen. Studenten, ich hoffe, die
Availability Zone ist klar. Werfen wir nun einen
Blick auf eine Beispielarchitektur, in der wir
sehen werden, wie wir die Verfügbarkeit von Jones nutzen , um
unsere Anwendung
hochverfügbar zu machen . Angenommen, in einer AWS-Region haben
wir zwei Availability
Zones, die wir
als Availability Zone One
und Availability Zone zwei bezeichnen werden . Das erste, was wir tun
würden, ist,
einen EC2-Server und
die entsprechende Datenbank in
der Availability Zone One zu starten einen EC2-Server und . Ebenso würden wir
einen anderen Webserver und eine
entsprechende Datenbank in
der Availability Zone starten einen anderen Webserver und . Jetzt sind Ihre Anwendung und Ihre
Datenbank
hochverfügbar und sie können aufrechterhalten,
wenn einer John ausfällt. Kurz gesagt,
die AWS-Region ist jetzt der
geografische Standort auf der ganzen Welt und die Verfügbarkeit Joan ist der Cluster
von Rechenzentren. Bestimmte Region.
Okay, also lasst uns jetzt vorankommen und verstehen, warum heute so
viele Regionen benötigt werden. Natürlich gibt es Ihnen
die Flexibilität,
Ihre Anwendung
in jeder AWS-Region bereitzustellen Ihre Anwendung
in jeder AWS-Region , die für Sie von Vorteil ist. Ansonsten ist
der Hauptgrund der Zugriff auf
Anwendungen mit geringer Latenz. Wenn sich Ihre Benutzerbasis in den USA befindet, Bereitstellung Ihrer Anwendung
in den USA nur sinnvoll. Wenn Sie
Ihre Benutzerbasis in Indien haben, wählen
Sie die
Moon Bay-Region aus. Der zweite Grund ist die Einhaltung
gesetzlicher Vorschriften. Verschiedene Länder
haben unterschiedliche Regeln für die Regulierung der Daten. Wenn Sie
mehrere Regionen haben, haben Sie die Freiheit zu wählen,
was für Sie am besten geeignet ist. Der dritte Grund besteht darin,
jede Art von Katastrophe aufrechtzuerhalten. Alle diese AWS-Regionen
befinden sich auf der ganzen Welt und der Mindestabstand zwischen zwei Regionen sollte 300 Kilometer
betragen, was wir als
Notfallwiederherstellungsstandort bezeichnen. Dies soll sicherstellen, dass Ihre Anwendung
auf einer der Websites ausgeführt wird. Und die andere Seite
sollte mindestens 300 Kilometer
voneinander entfernt sein, um sicherzustellen, dass sie nicht
Teil derselben Systeme sind. Daher können Sie auch den
Nutzen
mehrerer Regionen nutzen. Abgesehen von den
Latenzanforderungen, Einhaltung
gesetzlicher Vorschriften
und der Disaster Recovery gibt es einige zusätzliche
Überlegungen, die Sie auch bei der
Verwendung mehrerer Regionen betrachten
können. Zum Beispiel möchten
Unternehmen für die
globale Anwendung ihren Benutzern auf
der ganzen Welt die beste Benutzererfahrung bieten . Eine Möglichkeit
, dies zu erreichen, besteht darin,
Ihre Anwendung in der Region
näher an Ihren Zielgruppen bereitzustellen . Beispielsweise wird die US-basierte
Anwendung die Region
Mumbai verwenden , um dem
indischen Benutzer ein besseres Erlebnis zu bieten . Die Kosten sind ein weiterer Vorteil der
Verwendung mehrerer Regionen. Da jedes Land
eine andere Wirtschaft hat, die Preise für die Verwendung von würde
die Preise für die Verwendung von
AWS von
Land zu Land variieren. Daher erhalten Sie in einigen Ländern
günstigere Dienstleistungen. Und als unsere Organisation ist
das eine großartige Möglichkeit
, Geld zu sparen. Als Nächstes haben Sie einen
reduzierten Explosionsradius. Viele Menschen und
Organisationen möchten , dass
sie im Falle einer vollständigen
Region möglicherweise eine
andere Region als
Notfallwiederherstellung nutzen möchten . Oft
verteilen sie ihre Workloads auch auf die Regionen falls einer Region etwas
zustößt. Eine andere Region ist
aktiv und so reduzieren sie den
Explosionsradius der Katastrophe. Studenten, bei denen es um
die AWS-Regionen und die
Verfügbarkeit ging Jones stellt sicher, dass Sie alles
gut
verstehen , da sie
aus Sicht des Interviews wichtig sind. Das ist alles für dieses Video.
12. AWS Edge Locations: Hallo Studenten, willkommen zurück. Im letzten Video haben wir die AWS-Regionen
und Availability Zones verstanden. In diesem Video werden wir
einen weiteren wichtigen Aspekt der globalen Infrastruktur von
Amazon diskutieren , nämlich der Edge-Standort. Beginnen wir mit unserem
Verständnis
der AWS-Region und wie wählen
Sie eine Region
für Ihre Anwendung aus? Es gibt viele Faktoren für die
Wahl einer AWS-Region. Das Hauptkriterium ist die Nähe zu Ihren
Zielkunden. Wir wählen immer
eine Region aus, die unseren Zielkunden am
nächsten liegt . Aber was ist, wenn Sie
Kunden weltweit haben? Angenommen, Sie haben eine
Video-Streaming-Anwendung , mit der Benutzer
den Zeitraffer der
indischen Landschaft veröffentlichen können . Sie haben
Ihre Bewerbung
und ihre Daten aus Mumbai begründet , da Ihre Kunden aus Indien
kommen. Aber
wer sah nach ein paar Monaten eine gute Menge an
Verkehr aus Japan? Ab sofort bedienen Sie alle japanischen Kundenanfragen nur
aus der Moon Bay-Region. Aufgrund der großen Entfernung
zwischen Indien und Japan haben
Ihre japanischen Benutzer
aufgrund
eines Problems mit geringer Latenz möglicherweise keine gute Benutzererfahrung. Jetzt können Sie Ihre Anwendung in
Japan ordnungsgemäß
einführen , indem Sie Ihre Daten
im Falle von AWS in einer Cloud-Region in Japan,
Tokio kopieren . Und so können Sie Ihre Kunden dort
bedienen. Dies war ein Beispiel für das Caching. Definition ist Gushing
das Speichern
einer Kopie von Daten an unserem temporären oder
Cache-Speicherort. So kann
schneller darauf zugegriffen werden. In diesem Fall können
Sie Ihre Daten im
Rechenzentrum von Tokio zwischenspeichern und uns japanischen Kunden eine reibungslose Benutzererfahrung
bieten. Ein anderes Konzept, das Sie
verstehen müssen , ist das Content
Delivery Network, allgemein bekannt als cdn. Es ist nichts anderes als ein
Fachbegriff, den wir für das
Zwischenspeichern von Daten in
einem Rechenzentrum verwenden Zwischenspeichern von Daten in , das näher
an den Kunden liegt. Bitte beachten Sie, dass CDN kein
AWS-spezifischer Begriff ist. Ein Content Delivery
Network oder CDN zwischengespeichert Inhalte
wie Bilder, Videos oder Webseiten in
Proxy-Servern, die
sich näher an
Endbenutzern befinden als bei Ursprungsservern. Auch hier befinden sich diese
Proxy-Server im Rechenzentrum, und diese Rechenzentren werden
als Edge-Standorte bezeichnet. Jetzt müssen Sie überlegen, was ist der Unterschied
zwischen Region und
Edge-Standort als unsere beiden
Rechenzentren, oder? Der Unterschied besteht darin, dass
Edge-Standorte kleinere Rechenzentren sind und in allen großen
Städten der Welt
verfügbar sind . Wenn Sie vergleichen, beträgt die
Gesamtzahl der Edge-Standorte mehr als das
12-fache der Anzahl der Regionen. So haben Sie mehr
Möglichkeiten,
Ihre Daten zwischenzuspeichern und
schnell für Ihre Kunden zu lösen. Der zweite Unterschied besteht darin, dass die
Edge-Standorte
von Regionen getrennt sind und
sich an anderen Standorten befinden. Auf diese Weise können Sie Ihre Inhalte aus
Regionen an eine Sammlung
von Edge-Standorten
auf der ganzen Welt
übertragen Regionen an eine Sammlung . Der Unterschied ist, dass AWS Edge
Location Host I Spatial Service, um diese Inhalte
schneller bereitzustellen , als
Amazon CloudFront bezeichnet wird. Während die AWS-Region
fast alle AWS-Services hostet. Anders als CloudFront. Aws-Edge-Standorte führen auch
unseren Domainnamen-Service oder DNS aus, bekannt als
Amazon Route 53. Wir werden Cloudfront und
Route 53 in späteren Modulen behandeln. Ordnung, es gibt so
viel mehr als das über die globale Infrastruktur von AWS. Aber lassen Sie es uns
einfach halten und einen kurzen Blick auf die wichtigsten Punkte
der globalen Infrastruktur von AWS werfen. Nummer eins: Regionen sind
geografisch isolierte
Standorte, an denen Sie
auf AWS-Services zugreifen können , die
zum Ausführen Ihrer Anwendung erforderlich sind. Nummer zwei: Regionen enthalten Availability Zones, die physisch getrennt
sind. Gebäude mit ihrer Energie
Heizung, Kühlung und Netzwerk. Availability Jones
hilft Ihnen bei der Lösung hoher Verfügbarkeit und
Disaster Recovery Szenarien mit
hoher Verfügbarkeit und
Disaster Recovery ohne
zusätzlichen Aufwand. Nummer drei, AWS, Edge-Standorte betreiben
Amazon CloudFront,
um Inhalte näher an
Ihre Kunden zu bringen , egal
wo sie sich in freier Wildbahn befinden. Das ist alles für dieses Video.
13. Was ist Identitäts- und Zugriffsmanagement?: Hallo, Studierende. Willkommen zurück. Wissen Sie, warum Ihre
Bildungseinrichtungen Ihnen den Personalausweis geben? Weil die
Ausweise eines Instituts
ihnen die Kontrolle darüber geben , wer
Zugang zu ihren Einrichtungen hat. Ihr Personalausweis dient als Nachweis dafür, dass Sie
an dieser Hochschule studiert haben, und somit können Sie
deren Einrichtungen nutzen. In ähnlicher Weise bietet AWS
einen Service, Unternehmen
bei der Verwaltung ihrer
Identität in der Cloud unterstützt. In diesem Video lernen wir Konzepte
der Identitäts- und
Zugriffsverwaltungsdienste Bezug auf IAM,
Identifizierung, Authentifizierung
und Autorisierung Beginnen wir damit, was ist
Identitäts- und Zugriffsmanagement? Identitäts- und Zugriffsmanagement ist ein Framework, das sicherstellt, dass die richtigen Personen in
Ihrem Unternehmen
auf den einzigen Dienst zugreifen können , den
sie für ihre Arbeit benötigen. Denken Sie daran, dass es nicht
empfehlenswert ist,
Ihr Root-Konto für alles zu verwenden , was
Sie und Ihr Team tun, da dies zu
schwerwiegenden Sicherheitsproblemen führen kann. Lassen Sie uns hier eine Analogie ziehen. Angenommen, Sie arbeiten
in einer Organisation
und müssen jeden Tag, wenn Sie den Haupteingang
betreten, Ihren Personalausweis
dem Wachmann vorzeigen oder Sie
müssen Ihre Login-Karte durchziehen Auf diese Weise
stellt Ihre Organisation sicher, dass Sie
die richtige Person sind , die Zugang zu den Räumlichkeiten der
Organisation hat Und genau so
funktioniert IAM. Wenn Sie Ihren Personalausweis vorzeigen, beweisen
Sie, dass Sie die richtige Person
sind Sie als Person sind eine Identität. Wenn Sie nun dem Sicherheitsbeamten Ihren
Personalausweis zeigen, schaut
er sich Ihr
Ausweisfoto und Ihr Gesicht an und überprüft,
ob beide übereinstimmen Nach
erfolgreicher Überprüfung erhalten Sie durch diesen
gesamten Vorgang
Zugriff Sie als Person erhalten Zugang zu den richtigen Räumlichkeiten.
Das ist es nicht. Dieser Personalausweis dient
als Nachweis für den Zugang
zu vielen anderen Diensten und Einrichtungen in
Ihrer Organisation. Beispielsweise
können einige Personen nur den
Kontobereich nutzen, während andere nur die
Personalabteilung usw. nutzen können. Es gibt ein klar definiertes
System, wer
was auf die gleiche Weise nutzen kann . Identity and Access Management, kurz IAM, ist ein Service in AWS sicherstellt, dass die richtige Person Zugriff auf das Richtige
hat AWS IAM bietet Zugriffskontrolle alle
AWS-Services und -Ressourcen Sie können angeben, wer
unter welchen Bedingungen auf welche
Services und Ressourcen zugreifen
kann unter welchen Bedingungen auf welche
Services und Ressourcen Es gibt auch das
Konzept der IAM-Richtlinie, Sie
die Berechtigungen für
Ihre Mitarbeiter und Ihr System
verwalten können, um die Berechtigungen Ihre Mitarbeiter und Ihr System den geringsten
Rechten sicherzustellen Wenn es keinen
Sinn ergibt, machen Sie sich keine Sorgen. Ich werde all dies in den nächsten
Themen behandeln. Lassen Sie uns zunächst
drei wichtige Konzepte der
Identitäts - und Zugriffsverwaltung,
Identifizierung, Autorisierung
und Authentifizierung verstehen drei wichtige Konzepte der
Identitäts - und Zugriffsverwaltung, . Diese drei Begriffe
sind eng miteinander verwandt, aber sie sind nicht identisch. Lasst uns sie jetzt verstehen. Identifikation ist die
Fähigkeit , einen Benutzer eindeutig zu identifizieren. Es bedeutet, wie eine Person oder ein
System identifiziert werden kann. Im letzten Beispiel identifizieren
Sie sich
mit einem Personalausweis. Richtig? Und das ist
von System zu System unterschiedlich. Wenn Sie sich in
Ihr Bankkonto einloggen, verwenden
Sie Benutzername und Passwort. Sie identifizieren sich im Bankportal mit Ihrem
Benutzernamen und Passwort. Ihre Identifikation ist Ihr Benutzername und die
Passwortidentifikation dient im Wesentlichen dazu,
jeden einzelnen Benutzer zu identifizieren , der auf Ihre Dienste
oder Einrichtungen zugreift. Das zweite Konzept
spricht von Authentizität. Authentifizierung ist der Prozess der
Erkennung der Identität eines Benutzers. Wenn Sie dem Wachmann Ihren Personalausweis
zeigen, überprüft
er Ihr
Personalausweisfoto mit Ihrem Gesicht Das ist Authentifizierung. Wenn Sie sich bei
Ihrem Bankkonto anmelden, geben
Sie Ihren
Benutzernamen und Ihr Passwort ein. Das Bank-Backend-System
vergleicht Ihren Benutzernamen und Ihr Passwort mit dem
Benutzernamen und den Passwörtern in ihrem System
gespeichert sind Das System stellt sicher, dass Sie den richtigen
Benutzernamen und das richtige Passwort
erhalten Wenn Sie den richtigen
Benutzernamen und das richtige Passwort kennen, sind
Sie der Besitzer
des Kontos. Wenn Sie
eine eindeutige Identität erhalten haben, muss
es ein
System geben, das
diese bei jeder Verwendung
Ihrer eindeutigen Identität erkennt . Dieser Prozess zur Erkennung der
Echtheit Ihrer Identität wird als Authentifizierung bezeichnet. Schließlich
ist Autorisierung der Prozess bei dem jemandem die Erlaubnis erteilt
wird, auf etwas zuzugreifen. Sobald Sie autorisiert sind, können
Sie die
Büroräume betreten und in Ihren Bürobereich gehen. Sie können jedoch nicht in
die Kantinenküche gehen , weil
Sie nicht berechtigt sind, oder wir können sagen, dass Sie gemäß Ihrer beruflichen Funktion nicht
berechtigt sind,
den Küchenbereich
der Kantine zu betreten gemäß Ihrer beruflichen Funktion nicht
berechtigt sind,
den Küchenbereich
der Kantine Lassen Sie uns nun das Identitäts
- und Zugriffsmanagement
in Bezug auf AWS verstehen in Bezug Identitäts- und
Zugriffsmanagement AWS
ist ein AWS-Service, der
einer Organisation hilft von AWS
ist ein AWS-Service, der
einer Organisation hilft, den Zugriff auf
ihr AWS-Konto und ihre
Dienste für ihre
Mitarbeiter zu
verwalten ihr AWS-Konto und . Es bietet eine
detaillierte Zugriffskontrolle für alle AWS-Services Feinkörnig bedeutet, dass Sie festlegen
können, wer unter
welchen Bedingungen
auf welche Services und
Ressourcen zugreifen kann zugreifen unter
welchen Bedingungen
auf welche Services und
Ressourcen Wenn Sie möchten, dass die Person nur auf den
Service AWS EC Two und Person Y nur auf den Service
S Three zugreift, ist
das durchaus möglich Dies wird
mit der IAM-Richtlinie geschehen.
14. Benutzer, Gruppen und Rollen: Hallo, Schüler. Willkommen zurück. Im letzten Video haben wir AWS IAM
verstanden. In dieser Lektion
werden wir über die
Elemente von IAM
sprechen, zu über die
Elemente von IAM
sprechen, denen
Benutzergruppen und Rollen gehören Fangen wir mit den Benutzern an. Ein Benutzer ist eine Person, die einen AWS-Service in
einem
AWS-Konto nutzt AWS-Service in
einem
AWS-Konto Wie wir in
der vorherigen Lektion besprochen haben, gibt es bei
AWS zwei Benutzertypen Root-Benutzer und IAM-Benutzer Der Root-Benutzername selbst gibt einen Hinweis darauf, dass es sich um
den Spatial-Benutzer handelt Er wird erstellt, als das
AWS-Konto erstellt wurde. Wenn Sie ein AWS-Konto erstellen, erstellt
AWS eine
Identität oder einen Benutzer für Sie. Dieser Identitätsbenutzer wird AWS-Root-Benutzer
genannt. Dieser Benutzer hat Zugriff auf alle AWS-Services und
-Ressourcen im Konto. Einige wichtige Punkte
zu AWS-Root-Benutzern. Sie können sich mit
der E-Mail-Adresse und
dem
Passwort, mit denen Sie das Konto erstellt haben, als Root-Benutzer E-Mail-Adresse und
dem anmelden. Der Root-Benutzer hat vollständigen Zugriff auf alle AWS-Services und
-Ressourcen im Konto. Daher ist es keine gute Praxis den Root-Benutzer
für alltägliche Aufgaben
zu verwenden. Sie sollten niemals
Root-Benutzeranmeldedaten
mit anderen teilen . Nur sehr wenige zuverlässige Personen sollten über die
Root-Anmeldeinformationen verfügen. Jetzt wissen wir, dass wir den Root-Benutzer nicht für
unsere tägliche Arbeit
verwenden können . Hier
kommt der IAM-Benutzer ins Spiel. IAM-Benutzer ist eine Entität,
die Sie als Root-Benutzer in einem
AWS-Konto
erstellen, um
den Benutzer darzustellen , der mit
AWS-Ressourcen in Ihrem Konto interagiert AWS-Ressourcen in Lassen Sie uns das nun anhand eines
Beispiels verstehen. Nehmen wir an, Sie sind
der Teamleiter in einer Organisation und
haben ein AWS-Konto. Sie haben zwei Entwickler, Ram Sham, und zwei
Administratoren, Ta und Geta In Ihrem Team benötigt Ihr Team
Zugriff auf ein AWS-Konto, um eine Anwendung zu hosten, da Sie ihnen keinen
Zugriff auf Ihr Root-Konto gewähren möchten Sie können IAM-Benutzer
für Ihre Teammitglieder erstellen und ihnen den Zugriff auf die Dienste
gewähren ,
die sie für ihre Arbeit
benötigen Hier
repräsentiert jedes Teammitglied einen IAM-Benutzer, da jedes Teammitglied mit einem
AWS-Konto
interagieren muss, um seine Arbeit zu erledigen Sie werden vier IAM-Benutzer
für Ram Shamtha und Geta erstellen. Okay, jetzt verstehen wir
den IM-Benutzer. Schauen wir uns an, wie ein
IAM-Benutzer funktioniert und wie wir verschiedenen IAM-Benutzern Berechtigungen
zuweisen Wenn Sie einen Benutzer erstellen, erhält der Benutzer einen
Benutzernamen, ein Passwort
und Zugangsschlüssel, die Sie mit
den jeweiligen Personen teilen , um
auf das AWS-Konto zuzugreifen Benutzername und Passwort
werden für den Zugriff auf die
AWS-Managementkonsole und der
Zugriffsschlüssel für den programmatischen
Zugriff mit AWS CLI verwendet AWS-Managementkonsole und Zugriffsschlüssel für den programmatischen
Zugriff mit AWS CLI Jeder Benutzer wurde einem einzigen AWS-Konto hinzugefügt Jeder Benutzer hat seine
eigenen Anmeldeinformationen für den
Zugriff auf das AWS-Konto Die wichtige Frage ist nun, welche
AWS-Ressourcen sie verwenden können. Nun, jeder neue IAM-Benutzer hat keine
Standardberechtigung für den Zugriff auf Ihre AWS-Ressourcen, um
Ihren IAM-Benutzern Berechtigungen geben,
die Sie
benötigen, um ihnen die
erforderlichen Sie können dies tun, indem Sie jedem IAM-Benutzer
IAM-Richtlinien hinzufügen. IAM-Richtlinie definiert die
Berechtigungen, die jedem Benutzer
erteilt werden, der
mit einem AWS-Konto interagiert Wir werden uns im nächsten Thema mit der
IAM-Richtlinie befassen. Kurz gesagt, Sie
erstellen IAM-Benutzer,
fügen Richtlinien hinzu, um Berechtigungen zu
erteilen, und der Benutzer kann
diese Anmeldeinformationen verwenden , um
auf diese Ressourcen zuzugreifen Ein wichtiger Punkt an dieser
Stelle ist, dass IAM-Benutzer keine tatsächliche Person
repräsentieren muss Es könnte eine Anwendung sein. Nehmen wir auch an, Sie haben eine Anwendung im Frame, die auf einen AWS-Service zugreifen
muss. Sie können den
Zugriffsschlüssel in der Anwendung für
den
Zugriff auf AWS-Services konfigurieren . Dies ist ein weiterer wichtiger
Anwendungsfall für den Zugriffsschlüssel. Okay, lassen Sie uns jetzt die IAM-Gruppe
verstehen. Eine IAM-Gruppe ist eine Sammlung von Benutzern und Berechtigungen, die diesen Benutzern
zugewiesen sind Kehren wir zum
gleichen Beispiel zurück. In Ihrem Team haben Sie zwei Entwickler Sham und zwei
Administratoren, Ta und Gier. Stimmt das? Beide Entwickler werden dieselben AWS-Services anbieten und darauf zugreifen
. Und das Gleiche gilt auch für beide
Administratoren. Anstatt einzelnen Benutzern Berechtigungen
zuzuweisen, können
Sie diese
auch gruppieren und dieser Gruppe gleichzeitig Berechtigungen
zuweisen In unserem Fall können Sie zwei Gruppen
erstellen. Eine Gruppe für Entwickler und
eine Gruppe für Administratoren. Iam Group bietet
eine einfache Möglichkeit, Berechtigungen für Benutzer
entsprechend ihren
Aufgabenbereichen zu
verwalten entsprechend ihren
Aufgabenbereichen zu Wenn Sie einen Benutzer erstellen, weisen
Sie
dem einzelnen Benutzer eine Richtlinie zu Im Fall einer Gruppe fügen
Sie der Gruppe jedoch eine Richtlinie
hinzu, und die Berechtigung gilt für
alle Benutzer in dieser Gruppe. Nehmen wir einen weiteren guten
Anwendungsfall für die IAM-Gruppe. Wie Sie wissen, verfügt jeder Benutzer in
einer bestimmten Benutzergruppe automatisch über
die Berechtigungen , die der Benutzergruppe
zugewiesen sind Wenn ein neuer Benutzer
Ihrer Organisation beitritt und
Administratorrechte benötigt, können
Sie die
entsprechenden Berechtigungen zuweisen, indem den neuen Benutzer
einfach
zu dieser
Administrator-Benutzergruppe hinzufügen . Ebenso können
Sie, wenn ein
vorhandener Mitarbeiter zu einem neuen Projekt wechselt, eine neue Rolle in
derselben Organisation innehat, anstatt die Berechtigungen dieses
Benutzers zu bearbeiten, zu einem neuen Projekt wechselt,
eine neue Rolle in
derselben Organisation innehat,
anstatt die Berechtigungen dieses
Benutzers zu bearbeiten, ihn oder sie aus
der alten Benutzergruppe entfernen und ihn
oder sie zu den entsprechenden
neuen Benutzergruppen hinzufügen . Die IM-Gruppe ist eine Möglichkeit,
Richtlinien mehreren
Benutzern gleichzeitig zuzuordnen . Wenn Sie einer Benutzergruppe eine
identitätsbasierte Richtlinie zuordnen, alle Benutzer
in der Benutzergruppe erhalten
alle Benutzer
in der Benutzergruppe die Berechtigung,
die Benutzergruppe. Lassen Sie uns nun die IAM-Rolle verstehen. Eine IAM-Rolle ist eine
IAM-Identität, die Sie in Ihrem Konto
mit bestimmten Berechtigungen erstellen
können Eine IAM-Rolle ähnelt einem IAM-Benutzer, der mit
einer
IAM-Richtlinie verknüpft ist, die festlegt, was eine Rolle in AWS tun kann und
was Jetzt müssen Sie sich fragen,
was der Unterschied
zwischen einer IAM-Rolle und einem Benutzer ist? Richtig, lassen Sie mich es Ihnen erklären. Ein IAM-Benutzer ist eine einzigartige
Person, die über einen Benutzernamen, ein
Passwort und einen Zugriffsschlüssel
mit den damit
verbundenen Berechtigungen verfügt Passwort und einen Zugriffsschlüssel mit den damit
verbundenen Berechtigungen Die IAM-Rolle hat jedoch weder einen Benutzernamen, ein
Passwort
noch einen Zugriffsschlüssel Die IAM-Rolle kann nicht direkt mit einer
Person oder einem Dienst verknüpft Stattdessen kann sie von
einer Person oder Ressource
für eine bestimmte Sitzung übernommen werden einer Person oder Ressource
für eine bestimmte Sitzung Was bedeutet das? Lassen Sie mich das anhand dieses Bildbeispiels erklären. Nehmen wir an, Sie haben
eine Anwendung auf einer EC Two-Instance
läuft. Und eine EC Two-Instance muss auf ein
Image von S Drei zugreifen. In diesem Fall
übernimmt EC Two die Rolle und greift auf der
Grundlage der Richtlinie auf das Bild von S Drei zu. Wie bereits erwähnt, sind Rollen keine Zugriffsschlüssel oder Anmeldeinformationen
zugeordnet. Die Anmeldeinformationen sind temporär und werden von AWS anonym zugewiesen Aws gibt die temporären
Anmeldeinformationen an
die Rolle weiter, damit sie die
Aufgabe erledigen kann, wenn sie benötigt wird Das ist alles für dieses Video.
15. Einen IAM-Benutzer und eine IAM-Gruppe erstellen: Helfen Sie den Schülern. Willkommen zurück. In dieser Lektion werden wir IAM-Benutzer und -Gruppen
erstellen. Am Ende dieses Labs werden
Sie in der Lage sein, diese IAM-Entitäten zu
erstellen
und bequem
durch die AWS IAM-Konsole zu navigieren Lass uns anfangen. Hier befinden wir uns auf der Startseite der
AWS-Konsole. Lassen Sie uns mithilfe
der Suchoption
oben in der AWS-Konsole zu IAM navigieren der Suchoption
oben in der AWS-Konsole zu IAM Wie Sie sehen, können Sie
die linke
Navigationsleiste verwenden , um
in Benutzergruppen, Richtlinien,
Rollen und Identitäten zu navigieren in Benutzergruppen, Richtlinien, , die
für den Umfang dieses Labs vorgesehen Wir arbeiten nur mit
Benutzergruppen und ihren Richtlinien Beginnen wir mit der Erstellung von
zwei Benutzern, Ram und Sham. In unserem Beispiel ist Ram ein Entwickler und Sham
ein AWS-Administrator. Sie können zur Seite
des Benutzers navigieren,
indem Sie
im IAM-Dashboard auf die Benutzeroptionen Dies ist die
Benutzerseite, auf der Sie alle Benutzer
sehen , die
für Ihr Konto erstellt wurden Lassen Sie uns nun
unseren ersten AWS-Benutzer erstellen indem wir auf die Schaltfläche Benutzer
hinzufügen klicken. Wir beginnen damit, Ihrem Benutzer einen
Benutzernamen zu geben. Nennen wir diesen Benutzer Ram. Wenn Sie mehr als einen
Benutzer in denselben Eigenschaften erstellen, können
Sie einfach
einen weiteren Benutzernamen hinzufügen indem Sie auf die Schaltfläche „Einen
weiteren Benutzer hinzufügen“ klicken. In diesem Beispiel werden
wir dies jedoch nacheinander tun. Die nächste Option, die wir sehen, ist
der AWS-Anmeldeinformationstyp. Sie sollten Cess,
Key Programmatic Access auswählen Key Programmatic Access damit dieser Benutzer auf
AWS-CLI-Befehle zugreifen oder das
AWS-SDK und die AW-API verwenden kann AWS-CLI-Befehle zugreifen oder das
AWS-SDK und die AW-API verwenden Das brauchen wir
für unser Beispiel nicht. Wir wählen nur Zugriff auf die
AWS-Managementkonsole mit
dem
Passwort, sodass der
Benutzer Ram über
die
Managementkonsole auf die AWS zugreifen kann. Dies gibt uns einige weitere Optionen. Sie können AWS
ein automatisch generiertes
Passwort erstellen lassen oder Sie können manuell ein einfaches
Passwort für diesen Benutzer hinzufügen. unserem Beispiel lassen wir uns von
AWS ein automatisch
generiertes Passwort geben. Die nächste Option ist ein Zurücksetzen des Passworts
erforderlich. Sie sollten
dieses Kästchen markieren, wenn Sie möchten, dass Ihr Benutzer
sein Passwort zurücksetzt , wenn er zum
ersten Mal auf die Konsole zugreift. Wir werden das Häkchen für diese Demo entfernen Klicken Sie auf „Nächste Berechtigungen Hier haben wir drei Optionen. Sie können Benutzer
zu einer Benutzergruppe hinzufügen. Sie können die Berechtigungen
eines vorhandenen Benutzers kopieren , den Sie
bereits in Ihrem Konto haben, oder Sie können
Richtlinien direkt anhängen. Wir haben keine Benutzer oder
Benutzergruppen in unserem Konto, wir haben keine Optionen. Wenn Sie jedoch auf
die dritte Option klicken und vorhandene
Richtlinien direkt
anhängen, vorhandene
Richtlinien direkt
anhängen, wird eine vollständige
Liste von Richtlinien auch wenn Sie in Ihrem Konto noch nie
eine Richtlinie erstellt haben. Dies sind die von AWS
verwalteten Richtlinien. Das bedeutet, dass diese
Richtlinien von
AWS verwaltet werden und dass, falls
Änderungen erforderlich sind, diese von AWS vorgenommen werden. Diese sind sehr nützlich für einfache Anwendungen, bei denen
Sie nicht Ihre eigenen Richtlinien erstellen
und verwalten möchten Ihre eigenen Richtlinien erstellen
und verwalten und A
all dies für Sie erledigen lassen möchten. Wir können
hier eine Richtlinie wie Amazon S Three,
Read Only Access auswählen und unserem Benutzer
diese Berechtigung erteilen. Lassen Sie uns zunächst einen
Benutzer ohne Berechtigungen erstellen. Klicken Sie auf Next Tags. Hier können wir unseren Benutzern
Tags hinzufügen. Lassen Sie uns ein
Beispiel-Tag hinzufügen, Department Finance. Klicken Sie dann auf Weiter, wodurch
die Bewertungsseite geöffnet wird, auf der Sie die endgültigen
Details zu Ihrem Benutzer sehen. Klicken Sie auf Benutzer erstellen. Dies führt uns zum letzten
Schritt der Erstellung eines AWS-Benutzers. Hier können wir sehen, dass der
Benutzer Ram erstellt wurde. Sie können sogar das
Passwort dieses Benutzers einsehen. Klicken Sie auf CSV herunterladen
, eine CSV-Datei mit
Benutzeranmeldedaten auf Ihren Computer herunterzuladen. Es ist wichtig zu wissen
, dass Sie
diese Anmeldeinformationen
nach der Erstellung des Benutzers irgendwo speichern sollten . Wenn Sie diese Seite verlassen, können
Sie die Anmeldeinformationen nicht mehr erneut
abrufen. Klicken Sie auf Schließen. Wir können sehen, dass unser Benutzer Ram
zur Benutzerprofil hinzugefügt wurde. Lassen Sie uns einen anderen Benutzer erstellen, Sam. Wir folgen demselben Prozess. Füge den Benutzernamen Sham hinzu. Erlauben Sie AWS-Zugriff über die Konsole. Belassen Sie alle Werte auf den
Standardeinstellungen, außer dass
das Passwort zurückgesetzt werden muss. Und klicken Sie auf Weiter, wir
werden keine Berechtigungen hinzufügen. Klicken Sie auf Weiter. Wir
fügen das Muster-Tag hinzu, genau wie wir es für die Finanzen der
Benutzerabteilung getan haben. Klicken Sie auf Weiter und dann auf Create a User Download CSB,
um die Anmeldeinformationen zu speichern Bitte beachten
Sie erneut, dass Sie nach dem
Schließen dieser Seite keine Anmeldeinformationen
abrufen können nach dem
Schließen dieser Seite keine Anmeldeinformationen
abrufen Nachdem wir unsere beiden Benutzer,
Ram und Sham,
erstellt haben , wollen wir nun unsere Benutzergruppe
erstellen Klicken Sie auf Benutzergruppen
und dann auf Gruppe
erstellen, um
unsere erste Benutzergruppe Fügen Sie den Namen Entwickler hinzu. Wir können dieser
Gruppe Benutzer aus der folgenden Tabelle hinzufügen. Lassen Sie uns Ram, einen
Entwickler, zu dieser Gruppe hinzufügen. Der nächste Schritt besteht darin, dieser Gruppe
Richtlinien hinzuzufügen. Wir möchten
, dass unsere Entwickler
vollen Zugriff auf C zwei und S drei haben. Deshalb überprüfen wir Amazon C
zwei Vollzugriff und Amazon S drei Vollzugriff in
der Richtlinientabelle hier
und klicken dann auf Gruppe erstellen. Wir haben jetzt eine
Entwicklergruppe, die nur eine hat. Lassen Sie uns auch eine
Administratorgruppe erstellen. Klicken Sie auf Gruppe erstellen, geben Sie die
Gruppe ein und nennen Sie Administratoren. Dieses Mal werden wir dieser Gruppe jetzt keinen
Betrug hinzufügen . Lassen Sie uns eine Gruppe
ohne Benutzer erstellen. Lassen Sie uns nun
Richtlinien an diese Gruppe anhängen. Wir werden die
Administratorzugriffsrichtlinie anhängen. Klicken Sie auf Gruppe erstellen, und wir können sehen, dass unsere
Gruppe erstellt wurde. Die
Administratorgruppe hat
derzeit jedoch keine Benutzer. Lassen Sie uns nun Sham hinzufügen. Gehe zur Seite des Benutzers. Es hat sowohl die
Benutzer Ram als auch Sham. Klicken Sie auf Sham, Sie können sehen , dass dieser Benutzer
keine Erlaubnis hat. Wechseln Sie von den Berechtigungen zu
den Gruppen-Stabgruppen. Dadurch erhalten Sie eine
Liste von Benutzergruppen. Lassen Sie uns Sham hier zu seiner
Administratorgruppe hinzufügen. Wenn Sie nun zur
Registerkarte „Berechtigungen“ zurückkehren, können
Sie sehen, dass die
Berechtigung diesem Benutzer
hinzugefügt wurde .
Hat er nun die
Administratorzugriffsrichtlinie von der
Administratorgruppe
angehängt? Wir haben zwei Gruppen mit
AWS-Zugriff erstellt. Diesen Benutzern wurden von
AWS verwaltete Richtlinien zugewiesen. Das ist alles, was ich in dieser Station
behandeln wollte.
16. Anmelden mit IAM User & Create Role: Hallo Studierende. Willkommen zurück. In dieser Lektion melden
wir uns mit einem IAM-Benutzer an der
AWS-Konsole an und erstellen eine Rolle Ich gehe davon aus, dass Sie die letzte Demo
abgeschlossen haben und einen Benutzer namens
Sham und sein Passwort Lass uns anfangen. Loggen wir uns zunächst als Administrator Sham ein und erstellen
damit eine Rolle. Lassen Sie uns nun die CSV-Datei öffnen Sie beim
Erstellen des Benutzer-Shams heruntergeladen haben. Hier sehen Sie, dass dies den Benutzernamen, die
Passwort-Zugriffsschlüssel-ID, die
geheime Schlüssel-ID und den
Anmeldelink für die Konsole
enthält Passwort-Zugriffsschlüssel-ID, , da wir keinen
programmatischen Zugriff ausgewählt haben Aus diesem Grund sind der Zugriffs
- und Geheimschlüssel leer. Kopieren wir den
Anmeldelink der Konsole und öffnen ihn im Browser. Hier sehen Sie, dass der
Account-Alias bereits gefüllt ist, und das haben wir in einer anderen Demo
erstellt. Sie können auch die Konto-ID verwenden. Falls Sie sich erinnern, fügen Sie Ihren Benutzernamen und Ihr
Passwort wie in der CSV-Datei angezeigt hinzu. Dadurch gelangen wir
zur AWS-Konsole. Jetzt können wir die
AWS-Konsole wie zuvor sehen, aber wenn Sie die obere rechte
Ecke Ihres Bildschirms sehen, können
Sie sehen, dass wir als Scheinbenutzer
angemeldet sind. Navigieren Sie zur IAM-Konsole. Klicken Sie erneut im linken Dashboard auf die Option
Rollen und dann auf die Schaltfläche Rolle erstellen Die erste Option besteht darin
, die vertrauenswürdige Entität auszuwählen. Das heißt, wir sollten auswählen
, wofür diese Rolle bestimmt ist. Wer oder welcher Dienst
wird diese Rolle nutzen. Die erste Option ist
der AWS-Service. Sie sollten wählen, wann
Sie diese Rolle
AWS-Services wie EC
Two Lambda oder ECS zuweisen AWS-Services wie EC
Two Lambda oder ECS Was wir hier tun werden. Das nächste ist das AWS-Konto. Dies wird verwendet, um eine Rolle zu
erstellen, auf die von
anderen AWS-Konten aus zugegriffen werden
kann. Wenn Sie möchten, dass
sich jemand
von einem anderen Konto aus bei Ihrem anmelden
kann , wählen Sie diese Option. Die nächste Option ist B-Entität. In diesem Fall möchten Sie, dass
Benutzer
diese Rolle übernehmen und
über eine B-Entität wie
Google Facebook-Login auf die AWS-Konsole zugreifen können diese Rolle übernehmen und
über eine B-Entität wie
Google Facebook-Login auf die AWS-Konsole zugreifen . Die nächste Option ist
SAML 2.0 Federation. Saml ist ein
Service zur Benutzerverwaltung, der von
großen Unternehmen verwendet wird, um
ihren Mitarbeitern den Zugriff auf
verschiedene Dienste in
den Organisationen zu ermöglichen ihren Mitarbeitern den Zugriff auf
verschiedene Dienste in
den Organisationen zu verschiedene Dienste in
den Dieser kann in
AWS integriert werden , um Zugriff auf die AWS-Konsole
zu gewähren Die letzte Option, die wir haben,
ist eine benutzerdefinierte Vertrauensrichtlinie. Sie können dies verwenden, um
eine Jason-Vertrauensrichtlinie zu definieren. Sie sich keine Sorgen, wenn die
letzten drei Optionen Sie
keinen Sinn ergeben haben. Die ersten beiden Optionen sind
wichtig für diesen Kurs. Wählen Sie den AWS-Service
und anschließend EC Two. Aus den folgenden Optionen erstellen
wir eine Rolle, die einer
EC Two-Instance zugewiesen
werden kann . Klicken Sie auf Weiter. Hier
sehen wir eine Liste der Richtlinien, die wir dieser Rolle zuordnen
können. Fügen Sie die Amazon S Three
Vollzugriffsrichtlinie bei. Und klicken Sie auf Weiter,
geben Sie den Rollennamen ein. Sie sehen eine Beschreibung bereits mit einer
aussagekräftigen Nachricht gefüllt ist. Erlauben Sie EC-Instances, AWS-Services in
Ihrem Namen
aufzurufen. Überprüfen Sie die Rolle und
klicken Sie auf Rolle erstellen. Es wird ein paar Sekunden dauern. Jetzt können Sie die Rolle, die Sie
erstellt haben, auf der Rollenseite sehen. Wir werden diese
Rolle in kommenden Demos verwenden. Studenten und IAM-Benutzer sind die
besten, um Zugriff auf Ihr AWS-Konto
zu gewähren, auch wenn Sie es verwenden sollten Ich empfehle Ihnen, einen IAM-Benutzer mit
Administratorrechten für
sich selbst zu
erstellen und ihn in Zukunft zu verwenden Stellen Sie außerdem sicher, dass
MFA auch für IAM-Benutzer aktiviert ist. Ich glaube, Sie haben
Ihren Root-Benutzerzugriff
und Ihren geheimen Schlüssel,
die wir
in der letzten Demo erstellt haben, bereits gelöscht Ihren Root-Benutzerzugriff
und Ihren geheimen Schlüssel, die wir
in der letzten Demo erstellt haben Zu diesem Zeitpunkt
wissen Sie, dass Sie auch einen Zugriffs- und
Geheimschlüssel für Ihr IAM
erstellen Sie finden den Link
im Ressourcenbereich. Das ist alles für diese Sitzung.
17. IAM-Richtlinien: Willkommen zurück, Schüler. In der letzten Sitzung ging es ausschließlich um IAM-Benutzer, Gruppen und Rollen Wir haben auch kurz über
IAM-Richtlinien zur Erteilung von
Berechtigungen gesprochen , aber das ist nicht genug Das Verständnis von
Richtlinien ist für eine effektive Arbeit mit IAM von entscheidender Bedeutung effektive Arbeit mit IAM In dieser Lektion werden wir detailliert auf IAM-Richtlinien eingehen, einschließlich ihrer
Definition und Typen Lass uns anfangen. Lass
mich dir eine Frage stellen. Was kommt Ihnen in den Sinn, wenn
Sie das Wort Politik hören? Wenn Sie über Regeln
oder Richtlinien nachgedacht haben. Hab es richtig gemacht. Ich bin Politik ist mehr oder
weniger dasselbe. In der vorherigen Sitzung ist
Ihnen
aufgefallen, dass wir Benutzergruppen
und Rollen
bestimmte Berechtigungen erteilt erstellten Benutzergruppen
und Rollen
bestimmte Berechtigungen erteilt
haben Dann konnten nur sie
die Aktionen gemäß den erteilten
Berechtigungen ausführen. Diese Berechtigungen
sind nichts anderes als Richtlinien, über die wir in dieser Sitzung
sprechen werden. Per Definition ist eine
IAM-Richtlinie eine Entität, die, wenn sie an eine Identität
oder Ressource angehängt wird,
deren Berechtigungen definiert Wie ich bereits sagte, enthalten
Richtlinien
Berechtigungen, die festlegen
, ob eine Anfrage zulässig oder abgelehnt
wird Das bedeutet, dass unabhängig von der Aktion, die von einer Identität
ausgeführt wird, die Genehmigung durch ihre Richtlinie
erteilt wird. Sie können die
IAM-Richtlinie verwenden, wenn Sie die Berechtigungen für
eine Identität in IAM
festlegen müssen die Berechtigungen für
eine Identität in IAM
festlegen Lassen Sie uns das nun anhand desselben
Beispiels verstehen. Sie haben ein Team von
zwei Entwicklern, Ram und Sham, und zwei
Administratoren, Ta und Geta Sie haben zwei Gruppen erstellt, die Entwicklergruppe und die
Administratorgruppe Je nach Aufgabenstellung
und Berechtigungen die Entwickler in
Ihrer Organisation können
die Entwickler in
Ihrer Organisation die EC-Two-Instance starten und beenden , und
die Administratoren können
die EC-Two-Instance erstellen und löschen. C Two ist nichts anderes als ein
Rechenservice in AWS. Wir werden
in den kommenden Modulen darüber sprechen. Sie werden zwei Richtlinien erstellen. Eine Richtlinie für
Entwickler, die
es ermöglicht, zwei C-Instanzen
aufzulisten und zu beenden. Eine weitere Richtlinie für
Administratoren, die es ihnen
ermöglichen würde , EC-2-Instanzen zu erstellen und zu
löschen. Sie werden diese Richtlinien
den jeweiligen Gruppen zuordnen. Was hier passieren würde,
ist, dass die Richtlinie
entsprechend auf
alle Mitglieder dieser Gruppen angewendet würde . Das bedeutet, dass
sowohl Ram als auch Sham über
Berechtigungen als Entwickler und
Ta und Geta als Administratoren verfügen werden Berechtigungen als Entwickler und Ta und Geta als Administratoren In diesem Beispiel gestatten wir also, indem
wir der Entwicklergruppe eine Entwicklerrichtlinie
zuordnen, indem
wir der Entwicklergruppe eine Entwicklerrichtlinie
zuordnen, den
Mitgliedern der Gruppe, bestimmte Aktionen
auszuführen
und nichts weiter. Jetzt wissen wir, wie Richtlinien funktionieren. Lassen Sie uns die verschiedenen
Arten von IAM-Richtlinien verstehen. Wenn wir noch einmal zur
Richtliniendefinition zurückkehren, handelt es sich bei der IAM-Richtlinie um eine Entität, die, wenn sie an eine Identität
oder Ressource angehängt wird,
deren Berechtigungen definiert Gemäß der Definition kann
eine Richtlinie
entweder Identitäten oder Ressourcen zugewiesen werden entweder Identitäten oder Ressourcen Wie Sie bereits wissen, ist
Identität nichts
anderes als IAM-Benutzergruppen und -Rollen der Ressource handelt es sich um AWS-Services wie C, zwei Instanzen, S,
drei Bucket Lambda, die wir in späteren
Modulen behandeln werden Basierend auf den beiden Arten kann eine
Richtlinie angehängt werden. Es gibt zwei Arten von identitätsbasierte Richtlinien und
ressourcenbasierte Richtlinien. Jetzt werden wir
beide nacheinander verstehen. Identitätsbasierte
Richtlinien sind
an eine Identität angehängt , die sich aus IAM,
Benutzergruppen und Rollen zusammensetzt Diese Richtlinien steuern, welche
Aktionen und Identitäten auf welchen Ressourcen
und unter welchen Bedingungen
ausgeführt werden können auf welchen Ressourcen
und unter welchen Bedingungen
ausgeführt Bitte beachten Sie, dass diese
Richtlinien benutzerspezifisch sind
, sodass Benutzer über
ihre eigenen Konten auf
die AWS-Ressourcen zugreifen können. Eine IAM-Benutzergruppe
oder -rolle kann
mehrere Richtlinien haben , die zusammen die Berechtigungen
für diesen bestimmten Benutzer
darstellen Beispielsweise können Sie
die Richtlinie an den IAM-Benutzer mit dem Namen
Ram anhängen die Richtlinie an den IAM-Benutzer mit dem Namen
Ram und angeben, dass
er die Amazon C
Two-Run-Instance-Aktion
ausführen darf die Amazon C
Two-Run-Instance-Aktion
ausführen Sie können außerdem angeben
, dass Ram Artikel aus einem
Amazon S Three Bucket
abrufen darf Artikel aus einem
Amazon S Three Bucket
abrufen Mein Bucket kombiniert
beide Berechtigungen, Ram kann nur C
zwei Instanzen starten und darauf zugreifen. Mein Bucket. Der andere Typ
ist eine ressourcenbasierte Richtlinie. Diese Richtlinien sind
an eine AWS-Ressource angehängt, z. B. an einen Amazon C, zwei Instances , drei Buckets usw. Diese Richtlinien
steuern, welche Aktion ein bestimmter AWS-Service oder AWS‑Identität auf
anderen Ressourcen ausführen kann und
unter welchen Bedingungen Lassen Sie uns das
anhand eines Beispiels verstehen. Manchmal wird es Szenarien
geben, in denen EC
Two Instance
auf den S Three Bucket zugreifen möchte. Sie müssen die Richtlinie auch
an die
C-2-Instanz anhängen und
die erforderliche Berechtigung für den
Zugriff auf S Three erteilen . Außerdem gibt es zwei Arten von identitätsbasierten
Richtlinien verwaltete Richtlinien und
Inline-Richtlinien. Die verwaltete Richtlinie wird
weiter in AWS-Richtlinien,
verwaltete Richtlinien und vom
Kunden verwaltete Richtlinien unterteilt . Schauen wir
sie uns nun eins nach dem anderen an. AWS verwaltete Richtlinien sind Richtlinien, die von AWS erstellt
und verwaltet werden. Wie der Name schon sagt, ist
Ihnen klar, dass
diese Richtlinie von AWS erstellt und verwaltet wird und Sie
keine Änderungen vornehmen können. Zum Beispiel Amazon S Three Read Only Access oder
S Three Full Access. Im Wesentlichen sind sie so konzipiert
, dass sie eng mit den in der
IT-Branche
häufig verwendeten Funktionen
wie Administrator,
Entwickler oder Leser abgestimmt IT-Branche
häufig verwendeten Funktionen sind. Sie können S 3
dem Administrator volle
Zugriffsrechte und S
3 dem Prüfer nur
Lesezugriff gewähren Ziel ist es
, die Erteilung von Berechtigungen für diese
Standard-Jobfunktionen zu vereinfachen Von AWS verwaltete Richtlinien
können nicht geändert werden und AWS verwaltet und aktualisiert
die Richtlinien bei Bedarf. Vom Kunden verwaltete Richtlinien werden vom Kunden
erstellt und verwaltet. Grundsätzlich können
Sie als Kunde diese Richtlinien erstellen und
verwalten. Wenn Sie eine vollständig
kontrollierte Richtlinie wünschen , die Sie beibehalten können, können
Sie eine vom Kunden
verwaltete Richtlinie verwenden, die Sie
in Ihrem AWS-Konto erstellen und verwalten. Sie bietet eine genauere Kontrolle über Ihre Richtlinien als die von
AWS verwalteten Richtlinien. Ein weiterer Vorteil von
kundenverwalteten Richtlinien besteht darin
, dass Sie sie
mehreren Entitäten
innerhalb Ihres Kontos zuordnen können , was die Skalierung erheblich erleichtert. Beispielsweise haben Sie in Ihrem Konto
vier Leserbenutzer für ein anderes Team, die alle denselben Typ von Amazon
C benötigen , um nur lesend darauf zuzugreifen. Sie können eine vom
Kunden verwaltete Richtlinie erstellen und diese allen vier Benutzern zuordnen. Wenn Sie diese Richtlinie
ändern müssen, können
Sie sie in einer einzigen
Richtlinie ändern, die für alle gilt Sie bietet Ihnen ein
integriertes und zentralisiertes
Änderungsmanagement. Bei diesen verwalteten Richtlinien haben
Sie die vollständige Kontrolle
und können die
Berechtigungen auf jeder Ebene verwalten , die
Sie für erforderlich halten. Der nächste und letzte Punkt ist die Inline-Richtlinie. Die Inline-Richtlinie ist direkt
mit dem Benutzer oder der Gruppe verknüpft. Sie unterhält ein striktes
Eins-zu-Eins-Verhältnis zu
Richtlinien und Identität. Das bedeutet, dass eine Inline-Richtlinie an eine einzelne Entität angehängt
ist. wird in der Regel erstellt
, wenn Sie
eine Identität erstellen , und gelöscht, wenn
Sie die Identität löschen. Es ist von Vorteil
, wenn Sie einem
temporären Benutzer oder einer temporären Gruppe die Erlaubnis erteilen müssen. Sie erstellen eine Inline-Richtlinie während Sie einen Benutzer oder eine Gruppe erstellen. Und wenn Sie den Benutzer löschen, wird auch
die Richtlinie gelöscht. In Ordnung, es geht
so ziemlich um die Richtlinien. Lassen Sie uns kurz zusammenfassen, was
wir in dieser Sitzung gelernt haben. Eine Richtlinie ist im Grunde eine
Genehmigung, die entscheidet, welche Maßnahmen in Bezug auf die AWS-Konten
ergriffen werden sollen Und wir lernen die verschiedenen
Arten von IAM-Richtlinien kennen, denen es sich um
identitätsbasierte Richtlinien und ressourcenbasierte Richtlinien Identitätsbasierte Richtlinien werden weiter in zwei Typen unterteilt:
verwaltete Richtlinien und
Inline-Richtlinien Verwaltete Richtlinien können von AWS oder vom Kunden verwaltet werden.
18. Best Practices von IAM: Hallo, Studierende. Willkommen zurück. In diesem Video lernen wir einige bewährte Methoden für IAM kennen, um die Sicherheit
unserer AWS-Konten zu gewährleisten Lass uns anfangen. Die erste bewährte Methode für IAM besteht darin, die Weitergabe von
Anmeldeinformationen zu vermeiden Anstatt
Root-Benutzeranmeldedaten
mit verschiedenen Benutzern
in Ihrer Organisation zu teilen mit verschiedenen Benutzern
in Ihrer Organisation zu Sie sollten IAM-Benutzer für
Einzelpersonen erstellen , die Ihre AWS-Ressourcen nutzen werden Lassen Sie uns das
anhand eines Beispiels verstehen. Angenommen, Sie haben zwei Entwickler und zwei Administratoren
in Ihrem Team. Manchmal
erstellen die Leute einen IM-Benutzer und teilen Benutzeranmeldeinformationen mit
all diesen vier Personen. Dies ist jedoch keine gute Praxis. Stattdessen sollten wir entsprechend
den Rollen dieser Teammitglieder
vier verschiedene
Benutzer erstellen entsprechend
den Rollen dieser Teammitglieder
vier verschiedene
Benutzer den Rollen dieser Teammitglieder und die
Benutzeranmeldeinformationen mit ihnen teilen. Das Ziel dabei ist, dass
jeder Benutzer
seine eigenen IAM-Anmeldeinformationen für den
Zugriff auf Ihr Konto haben sollte seine eigenen IAM-Anmeldeinformationen für den
Zugriff auf Ihr Konto Es spielt keine Rolle, ob sie über die
Verwaltungskonsole oder über
die AWS-CLI oder
ein anderes SDK auf das Konto zugreifen Verwaltungskonsole oder über
die AWS-CLI oder
ein anderes SDK Die nächste bewährte Methode
besteht darin, Gruppen zu erstellen. Es wird immer empfohlen
, Gruppen zu erstellen und diesen Gruppen nur die erforderlichen
Berechtigungen zuzuweisen. Das heißt, wenn es in
Ihrer Organisation
mehrere Benutzer
mit derselben Jobrolle gibt in
Ihrer Organisation
mehrere Benutzer , können
Sie, anstatt einzelnen Benutzern Berechtigungen
zuzuweisen, anstatt einzelnen Benutzern Berechtigungen
zuzuweisen, eine Gruppe erstellen, dieser Gruppe eine Berechtigung
zuweisen
und alle Benutzer hinzufügen, und alle Benutzer hinzufügen die dieselbe
Jobrolle in der Gruppe haben Jeder Benutzer wird
diese Berechtigungen annehmen. Lassen Sie uns das
anhand desselben Beispiels verstehen. Angenommen, Sie haben zwei Entwickler und zwei Administratoren
im Team. Anstatt diesen vier einzelnen Benutzern Berechtigungen
zu erteilen , sollten
Sie zwei Gruppen erstellen. Eine für die Administratoren und eine weitere für die Entwickler und fügen Sie diesen Gruppen die erforderlichen
Berechtigungen hinzu. Sie können jetzt Benutzer zu
ihren jeweiligen Gruppen hinzufügen. Die Benutzer übernehmen
automatisch die
ihren jeweiligen Gruppen zugewiesenen Berechtigungen. Diese Vorgehensweise
hilft Ihnen dabei,
die Berechtigungen auf
Gruppenebene
statt auf Benutzerebene zu verwalten die Berechtigungen auf
Gruppenebene
statt auf . Lassen Sie uns zur nächsten bewährten Methode übergehen,
der Autorisierung. Aws
empfiehlt, immer
Berechtigungen für das zu erstellen , was der Benutzer entsprechend seiner Rolle
benötigt. Diese Berechtigungen werden
als Berechtigungen mit den geringsten Rechten bezeichnet . Wenn die Aufgabe eines Benutzers beispielsweise darin besteht, die
EC Two-Instances
zu starten und zu stoppen, dann sollten
wir, anstatt
vollen Zugriff auf EC Two zu
gewähren, nur die
EC-2-Instance
starten und beenden. Wir sollten bei der
Gestaltung von Berechtigungen immer Berechtigungen und
Richtlinien mit den
geringsten die Berechtigungen und
Richtlinien mit den
geringsten Rechten festlegen. In Zukunft ist das Auditing
eine weitere
bewährte Methode. Laut AWS
sollten wir
Cloud Trail immer in jedem einzelnen
AWS-Konto aktivieren . Wenn Sie Cloud Trail nicht kennen, handelt es sich um einen AWS-Service , der
mit Ausnahme des Speichers kostenlos ist. Immer wenn ein Benutzer
mit Ihrem AWS-Konto interagiert, protokolliert
Cloud Trail jede einzelne Aktivität, was Ihnen letztendlich bei der Prüfung helfen
wird Wir werden Cloud Trail im AWS-Sicherheits
- und Verwaltungsmodul
ausführlich kennenlernen im AWS-Sicherheits
- und Verwaltungsmodul
ausführlich Lassen Sie uns das
anhand eines Beispiels verstehen. Angenommen, ein Benutzer hat sich bei
Ihrem AWS-Konto angemeldet, eine EC Two-Instance
erstellt
und diese dann beendet. AWS Cloudtrail protokolliert
alle drei Aktivitäten. Auf diese Weise erhalten
Sie eine Aufzeichnung
aller Aktivitäten, die Benutzer
in Ihrem Konto ausführen Die nächste bewährte Methode in der Liste ist das Hinzufügen von
Passwortrichtlinien. Laut Aws
sollten Sie immer
Passwortrichtlinien konfigurieren, was wir
im vorherigen Video getan haben. Passwortrichtlinien stellen sicher, dass jeder Benutzer ein
sicheres Passwort hat. Die nächste bewährte Methode ist MFA, die
Multi-Faktor-Authentifizierung Sie sollten immer die
Multi-Faktor-Authentifizierung
für privilegierte Benutzer aktivieren Multi-Faktor-Authentifizierung
für privilegierte Benutzer Ich würde empfehlen, dass Sie MFA für jeden Benutzer
erzwingen. Sie können eine Richtlinie erstellen und diese Richtlinie
allen Gruppen
zuordnen Wenn
sich Benutzer jetzt bei einem AWS-Konto anmelden, müssen
sie
ihre Identität zweimal authentifizieren Dann können nur sie in Ihrem Konto alles
tun Dies ist eine sehr gute
Methode, um sicherzustellen, dass Ihr Konto und Ihre
AWS-Ressourcen sicher sind. Die nächste bewährte Methode besteht
darin , die Anmeldeinformationen abwechselnd zu verwenden. Jeder, der auf
Ihr AWS-Konto zugreift ,
muss ab und zu seine
Benutzeranmeldeinformationen ändern . Sie können
diese Richtlinie sogar bei
den Benutzern durchsetzen , sodass sie ihre Anmeldeinformationen
alle zwei Monate, drei Monate
oder sechs Monate
wechseln müssen ihre Anmeldeinformationen
alle zwei Monate, drei Monate
oder sechs Monate
wechseln . Dies ist ein Teil Ihrer
Passwortrichtlinie in Ihrem AWS-Konto, den wir in
der vorherigen Demo gesehen
haben. Gemäß dieser Richtlinie müssen Benutzer nicht nur
ihre Passwörter wechseln, sondern auch die Zugriffs- und
Geheimschlüssel. Zu guter Letzt ist es ein Root-Benutzer. Sie sollten den
Root-Benutzer nicht für Ihre täglichen
Aktivitäten verwenden, da dadurch
Ihre Root-Benutzeranmeldeinformationen offengelegt werden könnten. Darüber
hinaus sollten Sie den Zugriff
des Root-Benutzers einschränken , sobald
Sie ein AWS-Konto haben, die
Root-Benutzeranmeldedaten an einem privaten Ort
speichern und einen IAM-Benutzer erstellen,
auch für sich selbst Liebe Schüler, ich hoffe, dass
Sie jetzt verstehen , dass die Kontosicherheit ein echtes Problem
ist und Sie sollten
diese Methoden anwenden , um Ihr Konto
vor allen möglichen Bedrohungen zu schützen Das ist alles für dieses Video.
19. Überblick über Amazon S3: Willkommen zurück. In diesem Video erfahren
wir mehr über einen
der wichtigsten AWS-Services, den Simple Storage Service, bekannt als S Three. Wir beginnen mit
der Übersicht über S Three. Verstehe den
S-Drei-Bucket und auch den Ordner. Beginnen wir mit dem, was S3s3 für Simple
Storage Service steht Wie Sie die
ersten Zeichen
von Simple Storage Service RS sehen können , heißt es deshalb S drei. Es ermöglicht Ihnen, jede
Datenmenge zu jeder Zeit von
überall im Internet zu speichern ,
abzurufen, darauf zuzugreifen und zu
sichern Datenmenge zu jeder Zeit von
überall im Internet S Three ist eine perfekte
Speicherlösung für die Speicherung großer
Datenmengen Zum Beispiel
Audiodateien, Filme, große Fotospeicher, große Datensätze usw. Wir können entweder
über die Managementkonsole, die
AWS-CLI oder das AWS-SDK auf S Three zugreifen AWS-CLI oder das AWS-SDK Lassen Sie uns nun darüber sprechen, wie
wir Daten in S Three speichern. Um Daten
in S Drei zu speichern, müssen
wir einen Bucket
in einem AWS-Konto erstellen. Ein S Three-Bucket ist
ein logischer Container ,
in dem Daten in S Three
gespeichert werden. Um Daten in S Drei zu speichern, müssen
wir einen Bucket erstellen. Wir können auch mehrere
Buckets erstellen, um unsere Daten zu organisieren. Der Bucket wird anhand
seines Namens identifiziert und
sollte in
allen Regionen und Konten weltweit einzigartig Wenn ich beispielsweise einen
Bucket erstelle und ihn meinen Bucket nenne, kann
ihn niemand sonst in einem AWS-Konto verwenden. Mit anderen Worten, sobald ein S
Three-Bucket erstellt wurde, kann
kein anderes AWS-Konto den S Three-Bucket
mit einem ähnlichen Namen
erstellen. S Three Bucket dient einfach
als Speicher, in dem wir
unbegrenzt viele Daten entweder
direkt
im Bucket speichern unbegrenzt viele Daten entweder
direkt
im oder einen Ordner erstellen und die Daten dann
in diesen Ordner legen können. Lassen Sie uns nun verstehen
, was ein Ordner ist. Ordner werden zum Gruppieren
und Organisieren von Dateien verwendet. Im Gegensatz zu einem herkömmlichen
Dateisystem Amazon S Three keine verwendet
Amazon S Three keine Hierarchie, um seine Dateien zu
organisieren Aus Gründen der
organisatorischen Einfachheit unterstützt
die Amazon S
Three-Konsole das Ordnerkonzept als
Mittel zur Gruppierung von Daten Sie können mehrere Ordner oder Dateien in einem einzigen Bucket Im Grunde ist der Ordner ein
Namensraum innerhalb des Buckets. Lassen Sie uns das
anhand eines Beispiels verstehen. Innerhalb des AWS-Kontos haben
wir einen S Three-Service. In diesem Service können wir
Buckets erstellen, wie wir bisher
gelernt haben In diesem Bucket
können wir unsere Dateien,
Bilder, Videos oder Daten speichern Bilder, Videos oder Daten Wenn wir unsere Daten organisieren
möchten, können
wir außerdem Ordner innerhalb
des Buckets und auch
Ordner in Ordnern erstellen . Dann können wir unsere Daten auch
in diesen Ordnern speichern. Es wird sinnvoller sein, wenn
wir die Demo in
der nächsten Lektion machen werden. Ein weiteres wichtiges Konzept
in S Drei ist Objekt. Wenn wir Daten speichern, bei denen es sich um Dateien, Dokumente,
Bilder, Videos usw. handeln
könnte , werden
sie in AWS als
Objekte bezeichnet Daher ist das Objekt nichts
anderes als Ihr Dateidokument, Bild, Video usw. Alles, was sich auf Ihrer
Festplatte befindet, wird als Datei bezeichnet. Aber wenn Sie
diese Datei in S drei hochladen, wird
sie als Objekt bezeichnet. Und der Bucket in S Drei
ähnelt dem Dateiverzeichnis
auf Ihrer Festplatte. Jetzt werden wir über
die Eigenschaften von Objekten sprechen , die Sie kennen müssen. Die maximale Größe eines
einzelnen Objekts, das Sie auf S Three hochladen
können,
beträgt 5 Terabyte Bitte beachten Sie, dass
fünf Terabyte
nicht der Größe der
Gesamtdaten entsprechen, die Sie hochladen können Stattdessen ist es die
maximale Größe
einer einzelnen Datei, die Sie
mit S three hochladen können heißt aber nicht, dass Sie keine Objekte
hochladen können , die größer
als 5 Terabyte Wenn Sie ein Objekt haben, das
größer als 5 Terabyte ist, müssen Sie es
in mehrere Teile aufteilen und
dann
einen sogenannten mehrteiligen Upload verwenden einen sogenannten mehrteiligen Die maximale Objektgröße
beträgt 5 Terabyte, aber Sie müssen einen
mehrteiligen Upload verwenden, sobald Sie ein Objekt mit einer Größe von
mehr als 5 Terabyte hochladen Ein weiteres Merkmal ist die Verschlechterung des Objekts. Es ist nichts anderes, als
mehrere Varianten
desselben Objekts beizubehalten , wenn wir einige Änderungen
daran vornehmen In S3 können Sie Objekte verwenden,
um sie vor
unbeabsichtigten Aktionen oder
sogar vor dem versehentlichen
Löschen eines Objekts zu schützen unbeabsichtigten Aktionen oder sogar vor dem versehentlichen
Löschen eines Objekts Das bedeutet, dass Sie immer die vorherigen
Versionen eines Objekts
behalten Das nächste Merkmal
ist die Speicherklasse. Sie können mehrere
Buckets erstellen und
diese in verschiedenen
Datenklassen oder Datenreihen speichern diese in verschiedenen
Datenklassen oder Datenreihen Klassen handelt es sich um unterschiedliche
Speicherebenen mit unterschiedlichen Kosten, je nachdem wie häufig Sie Ihre Daten
verwenden Sie können eine Klasse wählen, wenn Sie Ihre Daten
nicht häufig verwenden, Sie können eine günstigere Klasse wählen und Ihre Daten
dort belassen und so weiter. Wir werden in Kürze
ausführlich darüber sprechen. guter Letzt können
Sie dann
Berechtigungen erstellen, um einzuschränken, wer auf Ihre Objekte zugreifen
oder sie sehen kann. Eine der gängigsten Richtlinien
in der Bucket-Richtlinie ist eine ressourcenbasierte Richtlinie
, mit der Sie Ihrem
Bucket und seinen Objekten Berechtigungen gewähren können . In dieser Sitzung haben wir uns
die drei
Bucket-Ordnerobjekte
und ihre Eigenschaften angesehen die drei
Bucket-Ordnerobjekte .
20. S3 Verfügbarkeit, Haltbarkeit und Datenreplikation: Hallo Studierende. Willkommen zurück. In diesem Video werden
wir
drei wichtige Konzepte
verstehen : Verfügbarkeit, Beständigkeit und Datenreplikation, die
in der nächsten Sitzung häufig verwendet werden. Sie uns zunächst die
verschiedenen Speicherklassen verstehen Lassen Sie uns zunächst die
verschiedenen Speicherklassen verstehen und zunächst
mit der Verfügbarkeit beginnen. Es bezieht sich auf die Systembetriebszeit. Dies bedeutet einfach,
wie lange das System verfügbar
ist. Mit anderen Worten, es ist die
Zeit, für die das System
betriebsbereit ist und Daten auf Anfrage
liefern kann. Wir messen diese
Verfügbarkeit in Prozent. Dies wird auch als SLA bezeichnet, was für Service
Level Agreement steht Es ist im Grunde ein Versprechen
, das Dienstleister ihren Kunden gegenüber
hinsichtlich
der Verfügbarkeit ihrer
Dienste oder Systeme haben ihren Kunden gegenüber
hinsichtlich der Verfügbarkeit ihrer
Dienste oder Systeme Wenn sie ihr Versprechen einhalten und Kunden alles
innerhalb der versprochenen Zeit erhalten, bedeutet
das, dass das SLA erfüllt ist Nehmen wir ein Beispiel. Supermärkte sagen, dass
sie rund um die Uhr geöffnet haben. Das bedeutet, dass es
rund um die Uhr für Sie verfügbar ist. Wenn sie ihr Versprechen halten und den ganzen Tag, die Woche, den
Monat und das Jahr über geöffnet haben, können
wir sagen, dass ihre Verfügbarkeit zu 100% ist
und sie die SLA erfüllen Das nächste Konzept ist Haltbarkeit. Es bezieht sich auf
langfristigen Datenschutz. Das bedeutet einfach, wie
gut Ihre Daten vor möglichen
Verlusten oder Beschädigungen geschützt sind. Zusätzlich zur Verfügbarkeit sollten
Ihre Daten nicht verloren gehen oder beschädigt
werden wenn Sie sie für längere Zeit auf einem
Speichergerät speichern. Die Haltbarkeit wird auch in Prozent
gemessen. Lassen Sie uns das
anhand eines Beispiels verstehen. Angenommen, Sie haben 1.000
Kilogramm Kartoffeln sechs Monate lang im
Kühlhaus gelagert . Als Sie sie zurückhatten, waren
es nur 800 kg Das bedeutet, dass entweder 200 kg Kartoffeln verdorben oder von Ratten
gefressen wurden, Das heißt, der
Kühlhaus-Service war nicht dauerhaft. Wenn Sie das nächste Mal darauf achten, Kartoffeln in einem gut
ausgestatteten
Kühlhaus zu lagern, wird
es keinen Verlust geben. Das nennt man Haltbarkeit. Jetzt wissen wir, was Datenbeständigkeit
und Verfügbarkeit sind. Es ist auch wichtig zu wissen, wie Daten in S drei gespeichert werden. Es basiert auf einem Konzept
namens Datenreplikation. Lasst uns das verstehen. Wenn Sie sich
an das letzte Labor erinnern, haben
wir
in der Region Mumbai
einen S-3-Bucket erstellt und ein Bild hochgeladen. Wenn Sie
Daten aus Ihrem Bucket hochladen, werden
diese Daten in eine
der Availability
Zones in der Region übertragen. In unserem Fall haben wir einen
Bucket in der Region Mumbai erstellt. Unser Bild wurde in eine
der Verfügbarkeitszonen hochgeladen. Um unsere Daten zu schützen, erstellt
AWS jedoch zusätzliche Kopien
unserer Daten und repliziert sie
in anderen Availability Zones Die Daten werden
in allen verfügbaren Jones
innerhalb derselben Region gespeichert
und repliziert in allen verfügbaren Jones
innerhalb derselben Nun stellt sich die Frage: Warum macht AWS das? Hier müssen wir uns daran
erinnern, dass AWS Datenbeständigkeit
von 11 Nines
versprochen hat Es bedeutet einfach, dass AWS
99 zusätzliche 9 Punkte verspricht, Garantie
von 9% für die
Datenbeständigkeit AWS garantiert keine
hundertprozentige Datenbeständigkeit, aber laut eigenen Angaben besteht
eine zusätzliche Wahrscheinlichkeit von 99 Punkten von neun,
9%, dass Ihre
Daten nicht verloren gehen. Wie stellt AWS sicher,
dass beim Hochladen von
Daten innerhalb von S Three keine Verluste entstehen AWS verwaltet Kopien
unserer Daten in allen Verfügbarkeiten Jones in derselben Region Im Falle eines Datenverlusts stellen
sie die Daten aus anderen
Verfügbarkeitszonen in der verlorenen Zone wieder her. Auf diese Weise sind Daten immer in allen
Verfügbarkeitszonen einer Region
vorhanden. Und das ist der Grund, warum er im Extremfall eine Haltbarkeit von 119%
verspricht. Wenn eine
Verfügbarkeitszone ausfällt, sind
unsere Daten
weiterhin in anderen Verfügbarkeitszonen
dieser bestimmten Region verfügbar. Okay. Dies ist einer der wesentlichen Vorteile
der Verwendung von Amazon S Three. Dies ist ein einfaches Beispiel dafür
, wann wir neue Daten hochladen. Lassen Sie uns nun verstehen
, was passiert, wenn wir
Änderungen an unseren Daten vornehmen. Angenommen, dieses Bild
ist seit drei Jahren verfügbar und wir haben die Farbe
dieses Bilds geändert und es hochgeladen. Dann aktualisiert AWS automatisch die verbleibenden zwei
Kopien Ihrer Daten. In anderen Jones gilt das
Gleiche auch für das Löschen. Wenn Sie Ihre
Daten aus One Joe löschen, werden
sie aus
allen
Verfügbarkeitszonen in der Region gelöscht . Den Studierenden war bewusst, dass Daten
dauerhaft verfügbar sind und AWS dank Datenreplikation 11 Monate
Datenbeständigkeit
verspricht Datenreplikation 11 Monate
Datenbeständigkeit Das ist alles für diese Sitzung.
21. Speicherklassen: Hallo, Schüler. Willkommen zurück. In diesem Video werden wir verschiedene
Speicherklassen
verstehen. Diese Sitzung
wird voller Fakten sein. Ich empfehle Ihnen allen, sich Notizen zu machen. Wir haben
im Ressourcenbereich einige ergänzende
Lernressourcen hinzugefügt. Bitte stellen Sie sicher
, dass Sie sie optimal nutzen.
Lass uns anfangen. In einem der vorherigen Videos haben wir das Bild in einem
Amazon S Three Bucket gespeichert. Beim Hochladen des Objekts
haben wir festgestellt, dass die
Speicherklassen unter
den Eigenschaften angezeigt
wurden Aws bietet verschiedene Optionen , um unsere Daten in der Cloud zu speichern Diese Optionen werden als
Speicherklassen bezeichnet. Wir können jede Klasse
auswählen, je nachdem wie oft
wir
auf unsere Daten zugreifen. Diese drei
Speicherklassen wurden speziell entwickelt, um den kostengünstigsten Speicher
für unterschiedliche Zugriffsmuster
bereitzustellen . Das bedeutet, dass verschiedene Arten
von Speicherklassen
so konzipiert sind , dass sie unterschiedliche
Zwecke beim Speichern von Daten erfüllen. Cloud-Techniker für Studierende,
es ist sehr wichtig, diese Kurse zu verstehen, da sie Ihnen
Zeit und Geld sparen können. Lasst uns
sie eins nach dem anderen verstehen. Der erste ist der
S-Drei-Standard. Es handelt sich um eine
Allzweck-Speicherklasse für Daten
verwendet wird, auf die häufig
zugegriffen wird. Sie bietet eine hohe Haltbarkeit,
Verfügbarkeit und Leistung. Der Standard S Three ist auf eine Verfügbarkeit
von 99,999%
und eine Haltbarkeit von 11 9% ausgelegt Verfügbarkeit
von 99,999%
und eine Haltbarkeit von 11 9% Mit anderen Worten, sie machen nur 0,001% aus, wenn Ihre Daten verloren gehen
könnten und so weiter Es bietet Ihnen eine geringe Latenz
und einen hohen Durchsatz und kann bis zu zwei
gleichzeitige Anlagenausfälle aushalten Das heißt, wenn zwei Availability
Junes Probleme haben, Ihre Daten trotzdem
sicher, da sie eine geringe
Latenz und einen hohen Durchsatz Drei-Standard eignet sich
für eine Vielzahl von Anwendungsfällen wie
Cloud-Anwendungen,
dynamische Websites, Inhaltsverteilung, Mobil- und Spieleanwendungen Big-Data-Analysen Die nächste ist die Speicherklasse mit
seltenem Zugriff. Wie der Name schon sagt, wird
diese Speicherklasse
für Daten verwendet , auf die seltener
zugegriffen Daten, auf die Sie nur
ab und zu zugreifen haben. Sie möchten aber auch, dass diese Daten sofort verfügbar sind,
wann immer Sie
sie benötigen . Sie müssen verfügbar sein,
sobald Sie sie anfordern. In diesem Fall können
Sie die Speicherklasse für seltenen
Zugriff verwenden Es ist auf eine
Verfügbarkeit von 99,9% und eine Haltbarkeit von
11% ausgelegt Verfügbarkeit von 99,9% und eine Haltbarkeit von
11% Verfügbarkeit seltener
Kurse ist niedriger als der
S-3-Standard , da wir nicht
sehr häufig auf unsere Dateien zugreifen Er ist günstiger als der
Amazon S Three Standard. Wenn wir jedoch auf die Dateien zugreifen, zahlen
wir eine
Abrufgebühr pro GB Das ist das A und O
in diesem Kurs. Wir zahlen weniger für die Speicherung
, müssen aber bei
jedem Zugriff auf unsere Daten
eine Abrufgebühr zahlen jedem Zugriff auf unsere Daten
eine Abrufgebühr Diese Kombination aus niedrigen Kosten und hoher
Leistung macht S Three Standard
Infrequent Access
zur idealen Lösung für Langzeitspeicherung, Backup und Disaster Recovery Unsere Daten dieser Klasse
sind auch widerstandsfähig gegen den Ausfall
einer gesamten Availability
Zone Als Nächstes haben wir eine Zone, auf die nur
selten zugegriffen wird. Dies ist der Klasse für
seltenen Zugriff sehr ähnlich, der einzige
Unterschied besteht
jedoch darin, dass in einer Zone mit seltenem
Zugriff die Daten in einem
einzigen Verfügbarkeits-Joe gespeichert werden, wohingegen sie
in der Klasse für seltenen
Zugriff in mindestens
drei Verfügbarkeitszonen gespeichert werden Im Grunde sind Ihre Daten
weniger verfügbar, da sie
nur in einer Verfügbarkeit, nämlich im Juni, vorliegen Das Beste daran ist
, dass Sie immer noch eine
geringe Latenz und eine hohe
Durchsatzleistung haben . Da die Daten
im Juni nur einmal gespeichert werden, sind
sie zudem 20% günstiger als bei
seltenem Zugriff Die Zone S31 mit seltenem
Zugriff ist ideal für Kunden, die
eine kostengünstigere Option
für häufig abgerufene Daten benötigen , aber nicht auf die
Verfügbarkeit und Belastbarkeit von S-3-Standard oder S3-Standardzugriff angewiesen Dies ist eine gute Option für die Speicherung sekundärer
Sicherungskopien von Daten vor
Ort oder von Daten
, die einfach erstellt werden können Auch hier können Sie die regionsübergreifende
S-3-Replikation verwenden , um Daten, die aus einer
anderen AWS-Region
repliziert wurden,
kostengünstig zu speichern aus einer
anderen AWS-Region
repliziert wurden Das nächste ist S Three
Intelligent Tiring. Wie der Name schon sagt, verfügt
diese Speicherklasse über eine integrierte Intelligenz
, die Daten
anhand ihres Zugriffsmusters automatisch auf die
kostengünstigste Zugriffsebene
verschiebt auf Hier gibt das
Zugriffsmuster an, wie häufig auf eine
Datei zugegriffen wird Hier werden die Objekte automatisch
von einer Speicherklasse in eine andere
verschoben , basierend auf den sich ändernden
Zugriffsmustern dieser Objekte Infolgedessen
werden Daten mit
häufigem Zugriff in den
Speicher mit häufigem Zugriff verschoben,
und Daten, auf die selten
zugegriffen wird, werden durch intelligentes
S3-Tiering
in die richtige Kategorie verschoben intelligentes
S3-Tiering
in die richtige Kategorie Er hat dieselbe niedrige
Latenz und dieselbe hohe
Durchsatzleistung wie der S Three-Standard Dies ist jedoch in hohem Maße
kostenoptimiert. Wenn Daten beispielsweise in die Klasse mit seltenem
Zugriff
verschoben werden, können bis zu
40% der Speicherkosten eingespart Durch die Umstellung auf
die Klasse Glacier können bis zu
68% der Speicherkosten eingespart werden Es ist außerdem auf eine Haltbarkeit von 119% und eine Verfügbarkeit
von 99,9%
über ein bestimmtes Jahr bei
mehrfacher Verfügbarkeit ausgelegt Verfügbarkeit
von 99,9% über ein bestimmtes Jahr bei
mehrfacher Verfügbarkeit Jos, als Nutzer dieses Dienstes müssen
Sie nur
eine geringe monatliche Gebühr für Überwachung
und automatische Reifung zahlen . Auf diese Weise erhalten Sie die
größtmögliche Kostenoptimierung ohne
zu viel darüber nachzudenken Es ist auch widerstandsfähig gegen Ereignisse, die sich auf die gesamte Verfügbarkeit auswirken
können. Joe. Jetzt ist die nächste
Speicherklasse Glacier Amazon S Three. Glacier ist die
kostengünstigste Speicherklasse in S3 und unterstützt die langfristige Aufbewahrung und
digitale
Aufbewahrung von Daten, auf die ein
- oder zweimal pro Jahr zugegriffen wird. Es ist hilfreich für Kunden, insbesondere für Kunden aus
stark regulierten Branchen wie Finanzdienstleistungen, Gesundheitswesen und dem öffentlichen Sektor. Diese Branchen
speichern Datensätze für einen Zeitraum von sieben bis zehn Jahren oder länger, um die
gesetzlichen Anforderungen zu erfüllen. Es ist für eine Haltbarkeit von
Objekten bis
119 in mehreren
Verfügbarkeitszonen konzipiert . Wie der Name schon sagt, erwarten
Sie, dass Ihre
Daten eingefroren werden, was bedeutet, dass sie für einen
längeren Zeitraum
aufbewahrt werden . Das bedeutet, dass die
Gültigkeit des Objektabrufs sehr lang ist. Jetzt unterstützt AWS in Zukunft drei Arten von Gletschern für unterschiedliche
Zugriffsmuster Lassen Sie uns nun schnell
verschiedene Gletschertypen vergleichen. Amazon S drei,
sofortiges Abrufen von Gletschern. Drittens
bietet Glacier Instant Retrieval eine Abrufzeit
in Millisekunden bei
derselben Leistung wie S Three
Standard Amazon Three, Glacier Flexible Retrieval derselben Leistung wie S Three
Standard Amazon Three Standard Amazon Bei Glacier Flexible Retrieval die Abrufzeit zwischen Minuten und Stunden kann
die Abrufzeit zwischen Minuten und Stunden konfiguriert werden. kostenlose Massenabruf Der kostenlose Massenabruf eignet sich am besten für Sicherungs- und
Notfallwiederherstellungsszenarien, in denen große Datenmengen schnell
und
kostengünstig abgerufen werden müssen schnell
und
kostengünstig abgerufen werden Amazon Es hat drei
Glacier Deep Archive. Im Tri Glacier Deep Archive liegt
die Abrufzeit von
Daten innerhalb von 12 Stunden Es handelt sich um die kostengünstigste
Speicherklasse, die für die
langfristige Aufbewahrung von Daten konzipiert langfristige Aufbewahrung von Daten , die sieben bis zehn Jahre aufbewahrt
werden Es ist eine ideale Alternative
zu Magnetbandbibliotheken. Liebe Schüler, ich hoffe, Sie
verstehen jetzt den Speicherunterricht. Falls Sie Zweifel haben, empfehle
ich Ihnen,
diese Sitzung noch einmal durchzugehen.
22. S3 Bucket-Demo: Willkommen zurück. In
dieser Demositzung erfahren
wir, wie Sie
einen S-Bucket Holder mit drei
Schläuchen erstellen und Daten in ihn hochladen. Gehen wir zur
AWS-Managementkonsole. Denken Sie daran, dass wir zuerst die AWS-Region auswählen müssen
. Ich werde die Region Mumbai auswählen. Danach gehen wir
zur S Three-Konsole. Es gibt drei Möglichkeiten den S
Three-Dienst in der Konsole zu
finden. Die erste Methode besteht darin,
im Suchfeld nach S drei zu suchen . Im Ergebnis
erhalten wir S drei. Die zweite Methode besteht darin,
die S drei im Menü „
Alle Dienste“ zu finden . Erweitern Sie einfach das Menü, suchen Sie den S three-Dienst
und klicken Sie, um ihn zu öffnen. Wenn Sie S
Three
zuvor in Ihrem Konto verwendet haben,
wird dieser schließlich S
Three
zuvor in Ihrem Konto verwendet haben, unter den
kürzlich besuchten Diensten aufgeführt. Geben wir hier S drei ein
und klicken Sie, um zu bestätigen. Wenn wir zum ersten Mal auf
der S Three-Konsole ankommen, sehen
wir eine Liste der Buckets
innerhalb des AWS-Kontos Da S Three einen
globalen Namespace verwendet, müssen
Sie bei der
Verwendung der Konsole keine Region auswählen bei der
Verwendung der Konsole keine Region Wenn Sie jetzt nachdenken, warum haben wir die Region ausgewählt? Es gibt also einen globalen Service. Nun, es
ist eine gute Praxis, jedes
Mal, wenn Sie in Ihrem Konto
arbeiten, die
richtige Region auszuwählen Mal, wenn Sie . Es spielt keine Rolle, ob der Dienst regionsabhängig ist. Lassen Sie uns nun weitermachen und einen S-Drei-Bucket
erstellen. Klicken Sie dazu auf Create
Bucket und wählen Sie einen Namen. Eine Sache, die Sie hier beachten sollten
, ist , dass der Bucket-Name eindeutig sein
sollte. Um diesen Namen einzigartig zu machen, fügen
wir am Ende einige
Zufallszahlen hinzu. Jetzt gibt es einige Regeln, die wir
bei der Benennung von Buckets beachten müssen Die erste Regel besagt
, dass der Bucket-Name 3-63
Zeichen lang sein sollte Zweitens
muss der Name ein niedrigeres Klappern,
Zahlen, Punkte und Er sollte
entweder mit einem Buchstaben oder einer Zahl beginnen und enden. Schließlich
sollte Ihr Bucket-Name in AWS eindeutig sein. Wählen
Sie die Region aus, in der Ihr Bucket erstellt werden
soll, Sie
die restlichen Standardeinstellungen bei und
erstellen Sie den Bucket. Jetzt wurde der Bucket erstellt, und es hat nicht
länger als eine Sekunde gedauert. Auf dieser Seite können Sie den Bucket-Namen, die Region, in
der Sie den Bucket erstellt haben, und
den
Zugriff auf das Bucket-Objekt
sehen Region, in
der Sie den Bucket erstellt haben . Gehen wir nun zum Bucket. Jetzt können Sie hier
die verschiedenen Tabs sehen ,
darunter Eigenschaften, Berechtigungen, Metriken,
Verwaltung und Zugriffspunkte. Hier ist das Objekt
in diesem Bucket. Dies ist der Ort, an dem
wir unsere Dateien hochladen. Wie wir
in der letzten Sitzung gelernt haben, können
wir entweder Objekte
in den S-3-Bucket hochladen oder wir können auch Ordner
innerhalb des Buckets erstellen , um unsere Daten zu
organisieren. Lassen Sie uns weitermachen und einen
Ordner erstellen und ihn als Demo benennen. Jetzt können wir
unser Objekt in den
Bucket oder diesen Ordner hochladen . Lass uns auf Upload klicken. Hier haben wir zwei Möglichkeiten. Entweder können wir
Dateien hochladen oder Ordner hochladen. Wir werden hier eine Datei hochladen. Klicken Sie auf Dateien hinzufügen. Hier können wir einige zusätzliche
Einstellungen an unserem Objekt vornehmen. Klicken Sie einfach auf Eigenschaften und
Sie werden die Speicherklasse sehen. Es ist standardmäßig Standard. Wir werden dies bald in diesem Modul
ausführlich behandeln. Lassen Sie uns das vorerst behalten
und auf Hochladen klicken. Jetzt wurde unsere Datei erfolgreich
hochgeladen. Ich werde den Vorgang beenden,
indem ich auf Schließen klicke. Jetzt habe ich ein Objekt, meinen S Three Bucket mit
dem Namen Demo Dot JPG. Wenn wir auf unser
Objekt Demo-JPG klicken
, gelangen wir zum Objekt-Dashboard,
wo wir
die Rechte
und die Version der
Objekteigenschaften sehen . Gehen wir zur Registerkarte
Eigenschaften. Hier finden wir alle
Details zu unserem Objekt. Zum Beispiel, wer der
Eigentümer des Objekts ist, in welche Region das
Objekt hochgeladen wird und wann das
Objekt zuletzt geändert wurde, die Größe des Objekts,
der Typ-Objektschlüssel,
die URL, das
Amazon-Ressourcennamen-Tag und hier ist die Objekt-URL. Es ist der Link zur Datei. Wir können es öffnen, indem wir
darauf klicken, aber lassen Sie uns es in einem neuen Tab öffnen. Wie Sie sehen können, wurde mir der Zugriff verweigert, weil dieser
Bucket nicht öffentlich ist. Und ich habe nicht das Recht
, auf dieses Objekt zuzugreifen. Wenn der Bucket nicht
öffentlich ist und Sie versuchen,
die Datei mit ihrer öffentlichen
URL zu öffnen , wird sie nicht geöffnet. Gehen wir nun zurück
zum Objekt-Dashboard. Wir haben eine andere Möglichkeit,
dieses Objekt zu öffnen , indem wir einfach auf Öffnen
klicken. Es öffnet sich ein neuer Tab und
zeigt uns unser Demo-Bild. Jetzt denken Sie bestimmt, warum funktioniert das, auch wenn der Bucket nicht öffentlich
ist? Nun, wenn wir ein
Objekt durch Öffnen öffnen, wird
es geöffnet, weil es sich um eine eindeutige URL
handelt. Wie Sie sehen können, ist die URL
viel, viel länger und
ähnelt keiner öffentlichen URL. Dies ist eine spezielle URL für mich
als Besitzer dieses Objekts.
Ich bin berechtigt, über diese URL auf
dieses Objekt zuzugreifen. Das Letzte, was ich Ihnen zeigen
wollte, ist, wie man ein
Objekt aus S Drei löscht. Dafür gehe ich
zurück zum Bucket, wähle das Objekt aus und klicke
dann auf Löschen. Hier müssen Sie Löschen eingeben
, um zu bestätigen, dass Sie das Objekt löschen
möchten, dann Objekt löschen Dadurch wird dieses Objekt dauerhaft
gelöscht. Liebe Studierende, ich hoffe, dass Sie jetzt
Vertrauen in S
3 und seinen Umfang haben . In dieser Sitzung
haben wir eine Demo gesehen,
in der wir einen S-Three-Bucket Holder erstellt, Objekte erfolgreich
hochgeladen
und sie gelöscht haben . Machen Sie jetzt weiter und machen Sie es selbst.
23. Übersicht über EBS (Elastic Block Storage): Hallo Studierende. Willkommen zurück. In diesem Video
erfahren Sie mehr über eine der Speicheroptionen
für EC Two-Instances, den Elastic Block Storage, auch bekannt als EBS Wir beginnen mit der
Definition und den Grundlagen von EBS gefolgt von seinen Anwendungsfällen und
Typen. Lass uns anfangen Amazon EBS ist wie eine
Festplatte in der Cloud, die persistenten
Blockspeicher
für Amazon EC Twin Stances
bereitstellt . EBS-Speicher wird in der
AWS-Terminologie als EBS-Volumes bezeichnet AWS-Terminologie als EBS-Volumes Daher werden wir es von nun an
EBS-Volume nennen. Sie können EBS-Volumes an
Ihre EC Twin Stances anhängen und auf diesen Volumes
ein Dateisystem erstellen auf diesen Volumes
ein Dateisystem Wenn Sie eine Datenbank oder einen
Server darauf ausführen oder sie auf andere Weise verwenden, würde
ein Blockspeicher verwendet werden Aber was ist Blockspeicher? Es ist eine Technologie
, die Daten in
Blöcke zerlegt und sie
als separate Teile speichert Jeder Datenblock erhält
eine eindeutige Kennung, die es einem
Speichersystem ermöglicht,
die kleineren
Daten dort zu platzieren die kleineren , wo es
am bequemsten ist Ein Blockspeicher-Volume funktioniert
ähnlich wie eine Festplatte. Sie können beliebige Dateien
darauf speichern oder sogar ein
ganzes Betriebssystem installieren. Ebs Volume ist ein an das Netzwerk
angeschlossenes Laufwerk. Was bedeutet das?
Nun, das bedeutet, dass das EBS-Volume nicht wirklich an
Ihre C-to-Instance angehängt ist, sondern
physisch
über ein Netzwerk innerhalb von AWS Da es
über eine Netzwerkverbindung angeschlossen ist, EBS-Volume problemlos
angeschlossen oder getrennt werden Für C-2-Instances bedeutet
dies, dass Sie Ihr EBS-Volume von
einer laufenden Instance
auf eine andere
verschieben können und die Änderung
innerhalb weniger Sekunden erfolgt Sie können sich EBS als
eine Computerfestplatte vorstellen , die an eine
beliebige, von
einer Instanz getrennte Instanz angeschlossen und
sofort über das Netzwerk wieder mit
einer anderen Instanz
verbunden werden kann beliebige, von
einer Instanz getrennte Instanz angeschlossen und sofort über das Netzwerk wieder mit
einer anderen Instanz
verbunden einer anderen Instanz Nun stellt sich hier
die Frage, warum dies als
elastischer Blockspeicher bezeichnet wird Wenn Sie
ein EBS-Volume bereitstellen, müssen
Sie
dessen Größe und IOPS definieren Iops bedeutet einfach
Eingabe-Ausgabe-Operationen pro Sekunde. Sie müssen AWS mitteilen, dass
Sie ein EBS-Volumen
von beispielsweise 100 B benötigen,
das 1.000 IOPs, also 1.000
Eingabe-Ausgabe-Operationen pro Sekunde, ausführen kann 1.000
Eingabe-Ausgabe-Operationen pro Sekunde, Aber nur weil Sie
definieren, dass EBS 100 GB groß ist, heißt
das nicht, dass Sie bei einem
100-GB-Laufwerk feststecken Sie können die Größe
oder die IOPS-Kapazität
von EBS-Volumes jederzeit gemäß Ihren
Anforderungen ändern von EBS-Volumes jederzeit gemäß Ihren
Anforderungen Das ist die Elastizität
, die EBS bietet, und aus diesem Grund ist EBS ein elastischer Blockspeicher und
nicht nur ein Blockspeicher Schauen wir uns nun
einige EBS-Funktionen an. Ein wichtiger Punkt, den
Sie bei EBS beachten sollten, ist, dass es nur an eine
C-2-Instanz angehängt werden
kann Sie können nicht zwei
C Two-Instances mit einem
einzigen EBS-Volume verbinden AWS hat jedoch kürzlich eine Funktion
veröffentlicht, mit der ein
IOPS-SSD-EBS-Volume an IOPS-SSD-EBS-Volume angehängt werden
kann In diesem Kurs müssen wir nicht ins
Detail gehen. Im Wesentlichen
ist EBS ein Netzlaufwerk , das von
einer Instanz zur anderen verschoben werden kann Dieser Prozess
hat jedoch eine Einschränkung. EBS-Volumes sind auf eine Availability Zone beschränkt
. Das bedeutet, dass
die EBS-Volumes zwar schnell von
einer Instance auf eine andere verschoben werden
können, aber nicht innerhalb
der Availability Zone verschoben werden können Beispielsweise kann ein EBS-Volume
in der Availability Zone P, South One A, nicht an
eine EC Two-Instance
in AP South One B angehängt
werden . Es kann nur zwischen
Instances in AP South One A verschoben werden Wenn Sie
jedoch
EBS-Volumes von einer
Availability Zone in eine andere verschieben möchten , müssen
Sie
einen Snapshot davon erstellen. In einem Bonusthema werden wir mehr über
Schnappschüsse erfahren. Arten von EBS-Volumes. Lassen Sie uns weitermachen
und
die verschiedenen Arten
von EBS-Volumes verstehen die verschiedenen Arten
von EBS-Volumes Nehmen wir hier ein Beispiel. Eines der wichtigen
Kriterien beim Kauf eines neuen Laptops
ist Speicherplatz, oder? Wenn Sie über
Computerspeicher sprechen, damit Festplatten gemeint. Ihre Computerfestplatten
können von verschiedenen Typen sein, wie SSD, HDD usw. In ähnlicher Weise wird das EBS-Volumen auch in sechs Typen
eingeteilt. Allzweck-SSD,
GP zwei und GP drei. Vicent IOPSSD, I 01 und I 02 durch optimierte SD: eine HDD,
Old HDD S, eine HDD Eine Sache, die hier zu beachten ist, ist, dass werden können all diesen Typen
nur die SSDs als Systemstartvolume
verwendet Startvolume ist das Volume , das das
Betriebssystem enthält Aws erlaubt nur die schnellen
SSDs als Startvolume. Das ist alles, was wir
über EBS und den EBS-Volumetyp wissen müssen.
24. Übersicht über EFS (Elastic File System): Hallo Studierende. Willkommen zurück. In diesem Video
erfahren Sie mehr über eine
der Speicheroptionen
von EC Two Instances, das elastische Dateisystem, auch bekannt als EFS. Wir beginnen mit
den Grundlagen und einer kurzen Beschreibung von EFS,
gefolgt von seinen Anwendungsfällen. Lassen Sie uns also anfangen. Was ist das Dateisystem? Bevor Sie verstehen,
was EFS ist, sollten
Sie wissen, was
ein Dateisystem ist. Ein Dateisystem definiert,
wie Dateien auf einem beliebigen Speichergerät benannt ,
gespeichert, gelesen und verwendet werden
. Es ist auf
jedem Speichergerät installiert,
unabhängig davon, ob es sich um ein
Festplattenlaufwerk oder eine CD handelt. Jedes Mal, wenn Sie eine Operation an einer
Datei auf Ihrem Computer ausführen , z. B. Ihre Betriebssysteme bearbeiten, löschen oder lesen, verarbeitet das
Dateisystem diese. Speicher ist einfach ein
riesiger Datenblock. Ohne ein Dateisystem, denn ohne ein Dateisystem
weiß
das Betriebssystem nie, das Betriebssystem nie, wo es nach Ihren Daten
suchen muss Stellen Sie sich einen Lagerraum voller Dokumente und Seiten vor, die
überall verstreut sind. Sie können nicht erkennen, welche
Seiten sich auf
welche Seiten beziehen ,
die zu demselben Ordner gehören, oder? Es sind nur zufällig
verstreute Daten. So wird ein Speichergerät ohne Dateisystem aussehen. Im Vergleich dazu
ist eine Bibliothek ein reales Beispiel ein Dateisystem, in dem jedes
Dokument organisiert ist. Als ob eine Bibliothek ein System hat. Ihr Betriebssystem
hat ein Dateisystem , das der Computer ist,
auf dem Sie Ihre Dateien finden. Betriebssysteme verfügen über ein
branchenübliches Dateisystem , das
als Teil Ihres Betriebssystems verwaltet wird. Es ist
Ihnen jedoch
jederzeit möglich , Ihr eigenes
Dateisystem für Anwendungen zu erstellen. Sie nun wissen, was
ein Dateisystem ist, lassen Sie uns über EFS sprechen.
Amazon EFS ist ein Cloud-basierter
Dateispeicherdienst. Wie der Name schon sagt, handelt
es sich um eine skalierbare
Speicherlösung ,
die automatisch
wächst und Hinzufügen und Entfernen von Dateien automatisch wächst und AWS
nicht
anweisen muss, ,
die automatisch
wächst und beim Hinzufügen und Entfernen von Dateien automatisch wächst und AWS
nicht
anweisen muss,
ein Dateisystem mit
100 GB oder 200 GB zu erstellen .
Sie erstellen einfach ein EFS und es
wächst und schrumpft, Sie erstellen einfach ein EFS und es
wächst und wenn Sie Dateien
hinzufügen oder Dadurch wird sichergestellt, dass Ihr EFS immer über den Speicher verfügt, der Ihren
Anforderungen entspricht. Es kann automatisch von
einem kleinen Megabyte
auf ein
Dateisystem im Petabyte-Bereich wachsen auf ein
Dateisystem im Petabyte-Bereich Es gibt keine
Mindestgebühr für die Nutzung von EFS. Sie müssen lediglich
für den Speicherplatz bezahlen, den Sie nutzen. Wenn Sie nur 500 MB EFS verwenden, zahlen
Sie nur für die 500 MB Ähnlich wie EBS ist auch EFS ein an das Netzwerk
angeschlossener Dienst. Das bedeutet, dass Ihr
Dateisystemspeicher über ein
Netzwerk und nicht physisch mit zwei
EC-Instances verbunden ist über ein
Netzwerk und nicht physisch mit zwei
EC-Instances Im
Gegensatz zu EBS, das jeweils
nur mit einer
EC-Instance verbunden werden konnte , können
wir EFS mit einer beliebigen
Anzahl von EC Two-Instances verbinden Eine der wichtigsten
Funktionen von EFS ist
die Speicherung Ihrer Daten
in verschiedenen Verfügbarkeitszonen Sie können EFS mit
mehreren EC Two-Instances
in verschiedenen Availability Zones verbinden . Nehmen wir an, Sie haben ein
EFS in der Region Mumbai. Dieses EFS kann von einer beliebigen Anzahl
von
EC Two-Instances aus
allen Availability
Zones in dieser Region verwendet EC Two-Instances aus werden, nicht nur von zwei EC. Sie können EFS auch
mit Diensten wie ECS-, EKS- und Lambda-Funktionen oder sogar mit Ihrem lokalen Computer Sie können
Hunderte von EC Two-Instances,
Lambda-Funktionen und Ihre
PCs gleichzeitig mit EFS verbinden Hunderte von EC Two-Instances, Lambda-Funktionen und Ihre
PCs Derzeit ist EFS nur mit
Linux-basierten Instances
kompatibel Es ist wichtig
, an dieser Stelle zu beachten, dass Windows-Instanzen EFS
nicht verwenden können. Aws hat ein anderes
Dateisystem für Windows-Instanzen namens SX. Jetzt
fragen Sie sich bestimmt, warum Sie
EFS verwenden und nicht
Ihr eigenes Dateisystem erstellen sollten. Ja, das Erstellen eines Dateisystems auf jedem
Speichergerät ist möglich. nicht nur ein
hochgradig skalierbarer Dienst, EFS ist nicht nur ein
hochgradig skalierbarer Dienst, sondern auch ein verwalteter Dienst Das bedeutet, dass es die
Speicherinfrastruktur für Sie
verwaltet Und als Benutzer müssen Sie nur das Dateisystem
verwenden. Sie müssen sich keine Gedanken über den zugrunde liegenden Speicher oder Wartung
oder das Patchen
Ihres Dateisystems Efs erledigt all diese zusätzliche Arbeit für
Sie, wann immer
ein
Dateisystemspeicher erforderlich ist , der für mehrere Dienste
und lokale Computer verwendet werden kann mehrere Dienste
und lokale Computer Denken Sie an EFS, das ist alles
für diese Sitzung.
25. Einführung in das Netzwerken: Hallo und willkommen zurück
zum fünften Modul
dieser Schulung. In diesem Modul
werden wir uns mit der VPC befassen, dem
Netzwerkbereich des Cloud Computing Hier werden wir uns
eingehend Themen wie Virtual Private,
Cloud- oder VPC-Subnetz, Cloud- oder VPC-Subnetz, Internet-Gateway-Routtabelle und
Nat-Gateway-Sicherheitsgruppen und Nat-Gateway-Sicherheitsgruppen Wir führen auch eine Demo in AWS durch, um eine VPC sowie öffentliche
und private Subnetze zu erstellen Nach erfolgreichem Abschluss
dieses Moduls verfügen
Sie über umfassende
Kenntnisse der Erstellung von
VPCs und der Erstellung privater
und öffentlicher Subnetze Sie werden wissen, wie das öffentliche
und das private Subnetz in
VPC funktionieren und wie das Internet-Gateway eine
VPC mit dem Internet verbindet Sie werden auch lernen, wie Sie Sicherheitsgruppen und
NACL
verwenden, um den Verkehr zu
und von Ressourcen in einer VPC zu steuern Studierende. Um das Beste
aus dieser Schulung herauszuholen, empfehlen
wir Ihnen, gesamten Schulung
Notizen zu
machen. Ich hoffe, Sie machen sich
bereits Notizen. Das ist alles für
diese Einführung.
26. Was ist eine VPC?: Hallo Studierende. Willkommen zurück. In diesem Video
werden wir mehr
über Virtual Private
Cloud oder VPC erfahren über Virtual Private
Cloud oder VPC Kurz gesagt, es ist der
Netzwerkaspekt von Cloud Computing. Und es kann etwas
schwierig sein , es
mit unserem täglichen Leben in Verbindung zu bringen. Wir werden versuchen, es
so einfach wie möglich zu machen. Da dies ein sehr
wichtiger Abschnitt und Baustein für die
restlichen Themen in diesem Modul ist. Ich empfehle Ihnen, diesem Thema besondere
Aufmerksamkeit zu schenken. Nehmen wir ein Beispiel. Angenommen, es gibt ein
Wohnhaus mit vielen Wohnungen. In diesen Wohnungen
leben Hunderte von Menschen. Nehmen wir an, ich besitze Wohnung Nummer 810 und Sie besitzen Wohnung
B 20 in diesem Gebäude. Wir können auch sagen, dass Wohnung B 20
Ihr privater Teil
des Gebäudes ist , in dem Sie
Ihre Sachen aufbewahren und die
vollständige Kontrolle darüber haben. Sie können auch
Sicherheitsfunktionen wie eine Schlosskamera,
Überwachung usw. hinzufügen , genauso wie andere Personen
private Bereiche haben , die ihnen gehören. Lassen Sie uns nun dieses
Beispiel mit AWS und VPC verbinden und das Gebäude durch AWS-Wohnungen
mit VPCs ersetzen In unserem AWS-Konto erstellen und
verwalten
wir alle Arten von Ressourcen wie EC,
zwei RDS und so weiter den späteren Modulen werden wir uns In den späteren Modulen werden wir uns mit
diesen spezifischen Ressourcen
befassen. Diese Ressourcen in Ihrer VPC sind genau wie Ihre
Sachen in Ihrer Wohnung Die AWS-VPC ist wie
Ihr privater Bereich in
AWS, in dem Sie
Ihre Ressourcen und Services platzieren können So wie eine Wohnung ein
anderes Sicherheitsniveau hat, können
Sie auch ein gewisses
Maß an Sicherheit für
diese Ressourcen festlegen Mit anderen Worten, wir können sagen,
dass Sie Personen
entweder Zugriff auf
Ihre Datenbank oder Ihre
Cloud-Ressourcen gewähren Ihre Datenbank oder Ihre
Cloud-Ressourcen oder
sie auch daran hindern können. Lassen Sie uns nun die
Definition von AWS VPC,
einer Virtual Private Cloud, verstehen einer Virtual Private Cloud Eine virtuelle private Cloud ist ein virtuelles Netzwerk, das Ihrem AWS-Konto
gewidmet Es ist logisch von
anderen virtuellen Netzwerken
in der AWS-Cloud isoliert anderen virtuellen Netzwerken
in der AWS-Cloud ,
in denen Sie
Ihre AWS-Ressourcen wie
Amazon EC-Instances starten können Ihre AWS-Ressourcen wie
Amazon EC-Instances Vpc steht für Virtual
Private Cloud. Es ist nichts anderes als ein virtuelles Rechenzentrum auf
den Amazon Wab-Diensten Dies ist privat, weil es nur für Sie ist und Sie die
vollständige Kontrolle darüber haben Dies ist ein vollständig isoliertes logisches Netzwerk, das Sie
bei
der Erstellung einer VPC nach Ihren Wünschen verwenden können bei
der Erstellung einer VPC nach Ihren Wünschen Im Grunde erstellen Sie ein
logisch isoliertes Netzwerk. Wenn ich in
meinem Konto eine VPC erstelle und Sie in Ihrem Konto
eine VPC erstellen, handelt es sich um zwei Sogar zwei oder mehr VPCs mit unterschiedlichen IP-Adressen innerhalb desselben Kontos werden
ebenfalls isoliert Sie können
die IP-Adresse
als die Adresse Ihrer Wohnung verstehen als die Adresse Ihrer Wohnung Diese IP-Adresse wird CIDR genannt, was für Classless
Inter Domain Routing steht Es handelt sich um eine Reihe von
Internetprotokollstandards, denen eindeutige
Kennungen für Netzwerke erstellt werden Wenn Sie eine VPC erstellen, geben
Sie einen Bereich
von IP-Adressen für die VPC in Form eines CIDR-Blocks
an Zum Beispiel 10.0 0.0 0.0 mal 16. Ab sofort wissen Sie, dass VPC ein Netzwerk innerhalb
Ihres AWS-Kontos ist Sie können auch Subnetzwerke
innerhalb eines Netzwerks erstellen , die
auch als Subnetze bezeichnet werden Wir werden uns in der nächsten Phase mit Subnetzen
befassen.
27. Subnet, Internet-Gateway, Routen-Tabelle und NAT-Gateway: Hallo Studierende. Willkommen zurück. In diesem Video werden wir
Subnetz,
Internet-Gateway und
Routing-Tabelle verstehen . Lass uns anfangen Wie wir
im vorherigen Video besprochen haben, ist
VPC ein Netzwerk in
unserem AWS-Konto Wir können auch
Subnetzwerke in unserer VPC erstellen. Diese Subnetzwerke werden
auch als Subnetze bezeichnet. Schauen wir uns unser
vorheriges Beispiel an. Wir besitzen eine Wohnung in der Wohnung, und diese Wohnung ist unser
privater Bereich. Wir haben ein Schlafzimmer,
ein Wohnzimmer und eine Küche in dieser Wohnung. Im Wesentlichen sind dies
verschiedene Unterabschnitte unserer Wohnung, die für
verschiedene Zwecke genutzt werden In ähnlicher Weise erstellen
wir in AWS, VPC, ein Subnetzwerk
wie Public Submit und Private Submit Wenn wir einen Submit erstellen, geben
wir den
CIDR-Block für den Submit an
, der eine Teilmenge
des VPC-CIDR-Blocks ist Wenn die CID unserer VPC 10,0 0,0 mal 16
ist, können
wir 10,0 0,0 0,0 bis
24,10 0,0 0,1 0,0 mal 24 verwenden Als CIDR unseres Submit können
wir AWS-Ressourcen in
einem bestimmten Submit starten, können
wir AWS-Ressourcen in
einem bestimmten Submit starten wie z. B. Easy-to-Instances Ein wichtiger Punkt
, an den Sie sich erinnern sollten, ist, dass jedes Subnetz vollständig
innerhalb einer Verfügbarkeit,
Joe, liegen muss und sich nicht über Jones
erstrecken darf Das werden wir bei der praktischen
Bearbeitung der Karte sehen Es gibt zwei Arten von Öffentliche Einreichung und
private Einreichung. Wir könnten es mit unserer Wohnung in Verbindung bringen. Wir haben ein Gästezimmer mit
direktem Zugang von außen. Es ist wie eine öffentliche Einreichung, während unser Schlafzimmer für uns
völlig privat ist. Lassen Sie uns nun verstehen,
was ein öffentliches Subnetz ist. Es ist ein Subnetz, das mit
dem Internet
interagiert und über das Internet
zugänglich ist Das bedeutet,
dass auf alle Ressourcen, die
in Ihrem öffentlichen Subnetz erstellt wurden, z. B. Wab-Server, z. B. Wab-Server, über das Internet zugegriffen
werden kann Da öffentliche Subnetze mit dem Internet
interagieren, werden
wir unseren Load Balancer
oder unsere mit dem Internet verbundenen Anwendungen
im öffentlichen Bereich bereitstellen oder unsere mit dem Internet verbundenen Anwendungen
im öffentlichen Darauf werde ich im Modul EC Two
ausführlich eingehen. Das nächste ist ein privates Subnetz. Es ist ein Subnetz, das vom Internet aus nicht
erreicht werden kann. Das bedeutet, dass wir
die AWS-Ressourcen erstellen können , die nur innerhalb der
VPC für interne Zwecke verwendet werden Lassen Sie uns nun alles zusammenfügen. Wir haben eine Region in
unserem AWS-Konto, und in dieser Region wird es eine
VPC Die VPC wird über einen
sogenannten CIDR-Bereich verfügen, bei
dem es sich um einen Bereich von IP-Adressen handelt, der innerhalb unserer VPC
zulässig Die VPC kann auch
zwei Availability Zones durchqueren: Availability Joe One und
Availability Joe Availability Joe One enthält eine öffentliche und
eine private Einreichung In ähnlicher Weise enthält Availability Joe Z two auch ein öffentliches
und ein privates Submit. Somit haben wir zwei
Availability Jones, eine VPC und vier Subnetze In diesem Beispiel müssen
Sie sich jetzt fragen, was ist der Unterschied zwischen einer öffentlichen Einreichung und
einer privaten Nun, es gibt keinen Unterschied zwischen
diesen Architekturen. Der Prozess
ihrer Erstellung ist genau derselbe. Was Sie in ihnen
konfigurieren,
bestimmt jedoch , ob ein Subnetz öffentlich oder privat
ist Sie müssen zwei Änderungen an einem Subnetz vornehmen , um es öffentlich zu machen Zunächst müssen Sie
ein Internet-Gateway hinzufügen. Es handelt sich um eine von AWS verwaltete Komponente , die an Ihre VPC angehängt ist Sie fungiert als Gateway zwischen
Ihrer VPC und dem Internet, also quasi der Außenwelt Fügen wir hier ein
Internet-Gateway hinzu. Wir haben jetzt ein
Internet-Gateway an unsere VPC angeschlossen, das eine
Verbindung aus dem Internet herstellt Nun, wenn Sie denken, dass eine öffentliche Einreichung jetzt
Zugang zum Internet hat, ist das nicht wahr In der VPC gibt es eine weitere Komponente
namens Router. Welches bestimmt, wohin der eingehende Verkehr geleitet
wird Dieser Vorgang wird als Routing
bezeichnet. Der Router verwendet sogenannte Routentabellen, um den
Netzwerkverkehr zu steuern. Daher muss jedes Subnetz innerhalb der
VPC einer
Routing-Tabelle zugeordnet sein Immer wenn wir ein Subnetz erstellen, wird
es mit
einer Standardroute geliefert, bei der es sich um eine
lokale Route handelt Wie wir sehen können,
hat diese Routentabelle ein Zielfeld
und ein Zielfeld Das Zielfeld enthält die Zieladresse, die
Sie erreichen möchten. Das Ziel spezifiziert die
Route, dieses Ziel, was bedeutet, dass jede Anfrage innerhalb der VPC-IP-Adresse lokal ist Um eine öffentliche Übermittlung vorzunehmen, müssen
wir die
Zieladresse als Internet hinzufügen, was 0,0 0,0 0,0 mal Null ist, und das Ziel als
Internet-Gateway Diese neue Route hier in der
Routentabelle hat ein Ziel von 0,0 0,0 0,0 mal Null. Das bedeutet, dass jede IP-Adresse, die in der Routentabelle nicht bekannt ist, sie
an dieses Ziel sendet. In diesem Fall
ist dieses Ziel das Internet-Gateway. Dieser Teil hier ist einfach die
ID des Internet-Gateways. Das bedeutet, dass jeder andere Verkehr als das VPC-Netzwerk zum
Internet-Gateway geleitet wird Daher
ist diese Einreichung jetzt eine öffentliche Einreichung. Jetzt sind diese beiden Subnetze öffentliche Subnetze und die anderen
beiden sind private Hoffe, das ist dir klar. Wenn Sie eine Instance
in einem privaten Subnetz haben, ist sie nicht
über das Internet zugänglich Möglicherweise möchten
Sie ihr jedoch Zugriff auf
das Internet gewähren , um
Dateien herunterzuladen oder
Betriebssystemupdates zu erhalten In diesem Fall können wir ein
sogenanntes At Gateway verwenden, das von
AWS oder Instance verwaltet wird. Es kann auch selbst verwaltet werden,
sodass Sie innerhalb
Ihres privaten Subnetzes auf
das Internet zugreifen können innerhalb
Ihres privaten Subnetzes auf
das Internet At Gateway ist ein
hochverfügbarer, von AWS verwalteter Service , der es Ihren Instances
im privaten Subnetz ermöglicht ,
eine Verbindung zum Internet In unserem öffentlichen Beitrag erstellen wir ein At Gateway. Wir erstellen eine Route von
den privaten Subnetzen
zum At-Gateway und
vom At-Gateway zum
Internet-Gateway Dadurch können Ihre
privaten Subnetze
Internetkonnektivität herstellen Das ist alles für diese Sitzung. Ich hoffe, Sie verstehen jetzt
BPC und seine Elemente. Falls Sie irgendwelche Zweifel haben, empfehle
ich Ihnen, diese
Sitzung noch
einmal durchzuführen, da dies für Ihr
Zertifizierungsgespräch
und generell auch
sehr wichtig ist für Ihr
Zertifizierungsgespräch
und generell auch
sehr wichtig und generell auch
28. Sicherheitsgruppen und NACL: Hallo Studenten. Willkommen zurück. In diesem Video erfahren wir, warum wir eine
Sicherheitsgruppe und eine NCL benötigen Was sind diese und was sind die
Unterschiede zwischen ihnen? Sicherheitsgruppen und NSLs
fungieren beide als virtuelle Firewalls. Sie kontrollieren den Verkehr zu
und von den Ressourcen in einer BPC, indem sie einige Regeln für eingehenden und
ausgehenden Datenverkehr befolgen Eingehend oder ausgehend steht für die Richtung des Datenverkehrs zwischen Netzwerken Die Richtung wird in
Bezug auf ein Referenznetzwerk definiert Bezug auf ein Referenznetzwerk Eingehender Verkehr bezieht sich auf die Informationen, die
in ein Netzwerk eingehen Hier
ist das Referenznetzwerk Ihr internes Netzwerk. Es könnte Ihr Computer sein. Wie Sie sehen können, fließen auch Daten aus dem
Internet auf Ihren Computer. Das wird eingehender Verkehr genannt. Ausgehender Verkehr bezieht sich auf Informationen, die das
Netzwerk verlassen Auch hier sehen Sie, dass Daten aus dem Referenznetzwerk, bei dem es sich um Ihren Computer handelt
, nach außen
fließen Ihren Computer handelt
, Auch hier erfolgt der Datenfluss von Ihrem Netzwerk
zum Internet. Es wird als ausgehender Verkehr bezeichnet. Kommen wir nun zurück zur
Sicherheitsgruppe und zur NSA. Wir werden zuerst mit der
Sicherheitsgruppe beginnen. Eine Sicherheitsgruppe ist eine
AWS-Firewall-Lösung zum Filtern des eingehenden
und ausgehenden Datenverkehrs von einem EC zur Instance. Sie fungiert als virtuelle Firewall
für C-2-Instances, um den eingehenden
und ausgehenden Verkehr auf der
Grundlage einiger definierter Regeln zu kontrollieren und die Sicherheit auf Instanzebene
zu gewährleisten Sowohl eingehende als auch ausgehende Regeln funktionieren unabhängig voneinander
. Regel für eingehenden Datenverkehr kann beispielsweise zulassen, dass Datenverkehr von einer bestimmten IP-Adresse
nur auf die Instanz zugreift Während eine Regel für ausgehenden Datenverkehr
möglicherweise den gesamten
Datenverkehr aus
der Instance verläßt, da Sicherheitsgruppen auf
Instanzebene funktionieren, können wir
in einer VPC
eine Sicherheitsgruppe auch auf eine oder
mehrere Instances anwenden eine Sicherheitsgruppe auch auf eine oder
mehrere Instances In ähnlicher Weise kann eine
Instance auch einer oder
mehreren Sicherheitsgruppen
zugeordnet werden einer oder
mehreren Sicherheitsgruppen
zugeordnet Schauen wir uns jetzt NSR an. Es steht für Network
Access Control, das den
Verkehr zu oder von
einem Submit nach
bestimmten definierten Regeln steuert einem Submit nach
bestimmten definierten Regeln Das bedeutet, dass auf der Sendeebene
eine zusätzliche
Sicherheitsebene hinzugefügt wird. Eine
Regel für eingehenden Datenverkehr kann beispielsweise eingehenden Datenverkehr von
einem Bereich von IP-Adressen
verweigern, wohingegen eine Regel für ausgehenden gesamten Datenverkehr
aus dem Submit-Bereich zulassen
kann Da NSLs auf der
Submit-Ebene einer VPC arbeiten, können
wir eine NCL auf eine oder mehrere Submits anwenden Jede Einreichung darf jedoch nur einer
einzigen
NCL zugeordnet sein einer
einzigen
NCL zugeordnet Schauen wir uns nun an, was
der Unterschied zwischen der
Sicherheitsgruppe und NSL ist der Unterschied zwischen der
Sicherheitsgruppe und NSL Die Sicherheitsgruppe arbeitet
auf Instanzebene, NSL
jedoch auf
der Submit-Ebene Die Unterstützung von Sicherheitsgruppen
erlaubt nur Regeln, NSL lässt Regeln zu
und verweigert Regeln Die Sicherheitsgruppe ist statusbehaftet,
was bedeutet, dass Rückverkehr
unabhängig von Regeln
automatisch zugelassen wird unabhängig von Regeln
automatisch zugelassen Wie wir bereits besprochen haben, gibt es keine Möglichkeit, eine Regel für ausgehenden Datenverkehr
hinzuzufügen gesamte zulässige Verkehr kehrt
standardmäßig zurück , der
Status des zulässigen Datenverkehrs wird beibehalten Aus diesem Grund wird es
State Full genannt. NSL ist stateless. Das bedeutet, dass Rückverkehr standardmäßig
nicht erlaubt ist.
Es sollte explizit
erlaubte Regeln geben, die das zulassen Die Sicherheitsgruppe gilt nur dann für
eine Instanz, wenn jemand die Sicherheitsgruppe
angibt. Nun, wenn Sie die Instance starten oder die Sicherheitsgruppe der Instance zu
einem späteren Zeitpunkt zuordnen, gilt
NSL automatisch für alle Instances in dem Subnetz
, mit dem sie verknüpft ist, bietet
somit eine
zusätzliche
Schutzebene , falls die
Sicherheitsgruppenregeln zu freizügig sind Sicherheitsgruppen und
NSLs operieren jedoch auf unterschiedlichen
Ebenen in der VPC. Dies ist
die beste Methode, um Ihr Netzwerk, Ihre
Sicherheitsgruppen oder NSLs zu schützen . Bei Tiefenverteidigung geht es um Schichten von Sicherheitsgruppen, und NSLs sind nur
zwei dieser Schichten. Daher ist es eine bessere
Lösung, beide zu
implementieren, um Ihr Netzwerk zu sperren Das ist alles für diese Sitzung.
29. Erstelle eine VPC, ein öffentliches und privates Subnetz: Hallo Schüler. Willkommen zurück. In dieser Demo werden wir
eine VPC in unserem AWS-Konto erstellen. Wir werden uns auch
die Parameter und
Optionen ansehen , die AWS
zur Erstellung einer VPC bietet Wir werden auch ein Internet-Gateway
einrichten und öffentliche und
private Submits konfigurieren Am Ende dieses Labs werden
Sie ein umfassendes
Verständnis davon haben, wie VPCs
erstellen und
private und öffentliche Einreichungen Gehen wir zunächst
zur AWS-Konsole. Zuerst müssen wir die Region
auswählen. Ich werde
Mumbai wählen, da ich eine VPC in der Region
Asien-Pazifik Mumbai einrichten möchte eine VPC in der Region
Asien-Pazifik Mumbai einrichten Um nun zum VPC-Dashboard zu gelangen, suchen
wir in der Suche nach der VPC und klicken auf VPC, um
das Dashboard
zu öffnen Wie Sie hier
im Dashboard sehen können, haben
wir bereits eine VPC in unserem Konto
erstellt Dies ist die
Standard-VPC, die AWS erstellt. Diese VPC verfügt
in allen Regionen über ein Routing-Kabel und ein Internet-Gateway Wir können die
Standard-VPC für Demo-Zwecke verwenden, es wird
jedoch immer empfohlen eine eigene VPC
für Entwicklung,
Test und Produktion
zu erstellen ,
Test und Produktion am Wenn Sie in eine beliebige Region gehen, finden
Sie dort eine VPC und einige Routing-Tabellen sowie ein
dazugehöriges Internet-Gateway Lassen Sie uns nun unsere eigene VPC erstellen. Klicken Sie auf VPCs und dann
auf Create VPC. Wir werden
ihm den Namen Pa up geben. Die nächste Option für uns
besteht darin, auszuwählen, ob wir
IPV vier oder IPV sechs
Adressen in unserer VPC haben möchten IPV vier oder IPV sechs
Adressen in unserer Wir werden uns für IPV
vier entscheiden und 10.0
0.0 0.0 x 16 als privaten
IP-Bereich für diese VPC angeben 0.0 0.0 x 16 als privaten
IP-Bereich Dann haben wir den Mietvertrag, der festlegt
, wo Ihre
Infrastruktur bereitgestellt Wenn wir die Standardtenancy wählen, werden
unsere C-2-Instances auf gemeinsam genutzter Hardware mit
anderen AWS-Benutzern betrieben Wenn Sie eine VPC wünschen, bei der sich alle C-Two-Instances
auf dedizierter Hardware befinden, können
Sie eine dedizierte VPC
erstellen Die nächste Option sind Tags. Wie Sie sehen können,
hat AWS bereits
ein Namensschild für uns erstellt. Wir werden keine weiteren Tags benötigen. Klicken wir auf Create VPC. Wir haben jetzt unsere eigene VPC in dieser
Region erstellt. Gehen wir zurück zur VPC-Seite. Sie können sehen, dass wir jetzt
zwei VPCs in dieser Region haben. Wir werden jetzt
ein Internet-Gateway erstellen und es an unsere VPC anschließen Klicken Sie dazu auf
Internet-Gateway. Und wie Sie sehen können, haben
wir bereits
Internet Gateway. für die Standard-VPC Klicken
wir für die Standard-VPC auf Create
Internet Gateway und geben Sie Ihr
Namenspaket IGW Klicken Sie nun auf
Internet-Gateway erstellen. Als Nächstes müssen wir dieses
Internet-Gateway an unsere VPC anschließen. Wir können das
direkt tun, indem wir hier in der
oberen grünen Leiste auf An VPC
angehängt klicken in der
oberen grünen Leiste auf An VPC
angehängt Oder indem Sie hier auf die Schaltfläche „
Aktionen“ klicken. Klicken Sie auf An VPC anhängen
und wählen Sie Ihre VPC aus. Wenn Sie AWC LI verwenden, können
Sie auf diese Scrollleiste klicken und sie an Ihre VPC anhängen Da wir AWS C, L, I nicht verwenden, können
wir hier klicken und dieses
Internet-Gateway
direkt anhängen Wir haben jetzt eine VPC mit
einem Internet-Gateway. Aber wir können immer noch keine
Infrastruktur in der VPC erstellen. Dafür benötigen
wir Subnetze. Lassen Sie uns Subnetze erstellen. Klicken Sie hier auf Subnetze,
je nachdem, in welcher Region Sie sich befinden. Sie werden hier 34 Subnetze sehen. Dies sind die
öffentlichen Standardsubnetze die
Standard-VPC angeschlossen Als Nächstes erstellen wir dafür
Subnetze Klicken Sie auf Zuerst müssen wir die VPC
auswählen. Wir entscheiden uns für die Pat
Cup VPC, die wir erstellt haben. Fügen Sie nun unserem Submit einen Namen hinzu. Öffentlich Reichen Sie eins ein. Wir wählen den AP South,
eine Availability Zone, und geben dem Submit einen IP-Bereich von 10,0
0,0 mal 24 zu. Lassen Sie uns die Tags
vorerst überspringen und auf klicken. Subnetz erstellen. Wir können jetzt unseren
Beitrag in der Liste sehen, wir werden
drei weitere Subnetze erstellen Wählen Sie die komprimierte VPC aus, geben Sie den Namen public
subnet an, um
P eine Availability Zone auszuwählen , und geben einen IP-Bereich von 10.0
0.1 0.0 Klicken Sie erneut auf Create Subnet
und wiederholen Sie den Vorgang. Diesmal
geben wir den Namen Privates Subnetz eins Verfügbarkeit
eins P eins und den IP-Bereich
10,0 0,2 0,0 mal 24. Ich wiederhole das
ein letztes Mal. Geben Sie der Availability Zone P
den Namen privates Subnetz. Also ein IP-Bereich von
10,0 0,3 0,0 mal 24. Bitte beachten Sie, dass es in Subnetzen keine überlappenden
IP-Bereiche Jetzt haben wir vier Subnetze in zwei
Verfügbarkeitszonen in der Aber was ist der
Unterschied zwischen unseren privaten und öffentlichen Subnetzen Wir haben sie mit
derselben Methode erstellt, nur dass ihre Namen unterschiedlich sind Derzeit sind alle vier Subnetze,
die wir
erstellt haben, privat Der Unterschied zwischen privaten
und öffentlichen Subnetzen besteht darin, dass die Routing-Tabellen
der öffentlichen Subnetze einen
Internet-Gateway-Eintrag haben Wenn wir die Details der
Routentabellen in unseren Subnetzen sehen, haben
wir nur einen Eintrag, 10.0 0.0 0.0 Das bedeutet einfach, dass
alle Anfragen, die an Routen innerhalb dieses Bereichs gerichtet sind
, innerhalb der VPC weitergeleitet werden müssen Lassen Sie uns weitermachen und
eine öffentliche Routing-Tabelle
für unsere Subnetze erstellen eine öffentliche Routing-Tabelle
für unsere Klicken Sie dazu auf
die Routentabelle Wie Sie sehen können, haben
wir bereits zwei
Routentabellen in unserem Konto Eine ist an die
Standard-VPC der Region angehängt,
und die andere ist an die neue VPC
angehängt, die wir Wenn Sie die
Standard-Routing-Tabelle
der Standard-VPC
im Abschnitt Route sehen , können
Sie sehen, dass es
einen Eintrag zum Internet-Gateway gibt einen Eintrag zum Das bedeutet, dass alle
Standardsubnetze
der Standard-VPC über
diese Route verfügen , sodass
sie Wenn Sie die
Routing-Tabelle unserer VPC sehen, haben
wir nur die lokale Route wodurch unsere Klicken Sie nun auf Create
Route Table und geben Sie ihr den Namen Pat
Cup, Arch Public Als Nächstes wählen wir unsere VPC aus und
klicken auf Create Route Table. Wir haben jetzt eine weitere
private Routentabelle. Jetzt müssen wir
den
Internet-Gateway-Pfad zur Tabelle hinzufügen . Klicken Sie dazu auf Routen bearbeiten
und dann auf Route hinzufügen. Wählen Sie 0,0 0,0 mit
Null als Ziel. Wählen Sie das
Internet-Gateway als Ziel aus. Und wählen Sie das Paket
IGWCreated aus. Klicken Sie dann auf Sichere Änderungen. Wir haben eine neue öffentliche
Routing-Tabelle in unserer VPC. Lassen Sie uns nun unsere
Routing-Tabelle öffentlichen Subnetzen zuordnen. Wir können das tun, indem wir auf
Aktionen klicken ,
Untervermietungszuordnungen bearbeiten, die öffentliche Option Submit
1.2 auswählen
und dann auf
Verknüpfungen speichern klicken Gehen wir zur Subnetz-Seite und schauen wir uns unsere Subnetze an Sie werden sehen, dass die
öffentlichen Subnetze der
neuen Routing-Tabelle
zugeordnet sind ,
die den
Internet-Gateway-Eintrag enthält Sie können dies auch tun
, indem Sie auf
die Schaltfläche
Routentabellenzuordnung bearbeiten um die
Routentabellen für ein Subnetz zu ändern Jetzt haben wir eine
VPC mit zwei öffentlichen und
zwei privaten Subnetzen erstellt , die wir
während dieser Sitzung verwenden werden Wie gesagt, das Erstellen und VPC-Internet-Gateway- und
Routing-Tabellen ist völlig kostenlos Sie müssen sie nicht
löschen, Studierende. Ich hoffe, du hast das alles verstanden. Was wir in dieser Demo gemacht haben, das ist alles für diese Sitzung.
30. DNS und Amazon Route 53: Hallo, Studenten. Willkommen zurück. In diesem Video
erfahren wir mehr über DNS und den DNS-Service von AWS, die Amazon Route 53. Wir werden mit dem Verständnis von
DNS und Route 53 beginnen und
uns dann deren Funktionen
und Anwendungsfälle ansehen .
Lass uns anfangen. Dns steht für
Domain Name System. Es ist das Telefonbuch
des Internets. Es ist ein System,
mit dem Sie eine Verbindung zu
Websites herstellen können , indem es einen für Menschen
lesbaren Domainnamen wie Google.com oder
Facebook.com abgleicht. Im Grunde übersetzt
es den
Domainnamen Lassen Sie uns das nun anhand eines Beispiels
verstehen. Wenn Sie Ihren Freund
anrufen, suchen
Sie
in der Kontakt-App nach seiner Telefonnummer, oder? Da es jedoch schwierig ist,
sich eine Telefonnummer zu merken, speichern
wir Telefonnummern
in der Kontakt-App. Ähnlich wie Telefonnummern haben
Websites und Anwendungen IP-Adressen. Haben Sie jemals
die IP-Adresse von
Google.com oder YouTube.com verwendet , um eine Verbindung
zu ihnen Nein, denn auch hier ist es schwer,
sich daran zu erinnern. Dies wird mit DNS vereinfacht. Wie gesagt, DNS
ähnelt unserem Telefonbuch, dem die IP
der Websites gespeichert wird. Die DNS-Server
übersetzen einfach Domainnamen
in IP-Adressen. Wenn Sie auf YouTube.com zugreifen geht
die Anfrage zuerst
an einen DNS-Server und dann an die IP-Adresse von YouTube.com. Jetzt verstehen wir
DNS und Aws bietet auch einen
DNS-Dienst namens Route 53 an. Route 53 erfüllt eine ähnliche Aufgabe. Lassen Sie uns nun
Route 53 im Detail verstehen. Route 53,
hochverfügbarer und skalierbarer DNS-Service von AWS. Es ist auch der einzige Service auf AWS, der eine Verfügbarkeit von
100% behauptet. Das bedeutet, dass der Route
53-Service niemals ausfällt. Nehmen wir an, Sie haben
eine Webanwendung in Ihrem AWS-Konto, die
auf der EC Two-Instance ausgeführt wird Wenn Sie
diese Website auf der Domain
yourname.com hosten möchten , können
Sie in
Route 53 einen DNS-Eintrag erstellen , um die Domain auf die IP-Adresse von EC Two
zu verweisen Jetzt gibt es auch ein paar
weitere Funktionen. Die erste ist die
Domainregistrierung. Route 53 ist auch ein
Domain-Registrar. Das bedeutet, dass Sie damit auch neue
Domainnamen über
die Route 53-Konsole
selbst kaufen
können , wenn Sie Ihren Domainnamen
auf einer anderen Website
wie Go Daddy
gekauft haben auf einer anderen Website
wie Go Daddy Route 53 bietet auch eine
Funktion zum Übertragen Domainnamen von anderen
Domain-Registraren auf Route 53. Die nächste ist eine gehostete, die wir erstellen
können. The Hosted
Jones Hosted Joe ist ein Container für
Datensätze, die
Informationen darüber enthalten, wie der Verkehr für eine Domain weitergeleitet Die nächste Funktion
ist der Gesundheitscheck. Route 53 bietet auch die Möglichkeit,
Zustandsprüfungen Ihrer Ressourcen durchzuführen. Es verwendet diese Zustandsprüfungen
, um den Zustand
Ihrer Ressourcen zu ermitteln und den
Datenverkehr nur an intakte Ressourcen
weiterzuleiten. Der letzte ist der Verkehrsfluss. Er wird auch als
Verkehrsfluss bezeichnet und
bietet Ihnen eine weitere
Automatisierungsstufe
für die Art und Weise, wie Sie Ihren
Datenverkehr an Ihre Ressourcen weiterleiten. Das ist alles, was Sie
über Amazon Route 53 wissen müssen.
31. AWS VPN und AWS Direct Connect: Hallo, Studierende. Willkommen zurück. In dieser Sitzung werden
wir uns verschiedenen
Verbindungsoptionen von AWS zu den lokalen
Rechenzentren befassen. Lass uns anfangen. Lassen Sie uns das anhand eines Beispiels
verstehen. Nehmen wir an, Ihr Unternehmen
plant,
eine geschäftskritische
Anwendung mit Compliance-Daten in
die AWS-Cloud zu migrieren eine geschäftskritische
Anwendung mit Compliance-Daten in
die AWS-Cloud zu . Ihr Sicherheitsteam
besteht darauf, dass Sie die Anwendung in
die Cloud verschieben
können, Daten müssen
jedoch
lokal bleiben und alle
Compliance-Anforderungen erfüllen Jetzt haben Sie sich für
die Region Mumbai entschieden und VPC in
Ihrem AWS-Konto
erstellt Um
Ihre Anwendung bereitzustellen, haben Sie eine EC Two-Instance erstellt Ihre Anwendung verwendet auch andere AWS-Services wie Amazon, S Three, Cloudwatch usw. Dies ist Ihr Rechenzentrum
vor Ort, in dem Sie über eine Datenbank verfügen Schließlich haben Sie
Ihre Anwendung, die auf einem EC
ausgeführt wurde, so konfiguriert, dass sie eine lokale Datenbank
instanziert. Ihr Sicherheitsteam hat erkannt, dass diese Datenbank über das
öffentliche Internet mit der
Anwendung verbunden ist. Sie beschweren sich, dass dies
gegen die Sicherheitsrichtlinien verstößt. Diese Verbindung
muss privat und sicher sein. Es gibt eine Reihe
von Optionen, die Sie in AWS
verwenden können , um diese
Verbindung privat zu machen. Eines davon ist Site-to-Site-VPN. Dies wird als
Site-to-Site-VPN bezeichnet, da wir einen AWS-Site mit einem
anderen Standort-Rechenzentrum
verbinden. Ein VPN steht für Virtual
Private Network. VPN erstellt einen Tunnel
, über den Sie auf
das Internet zugreifen und
Ihren
Internetdienstanbieter, den ISP, umgehen Ihren
Internetdienstanbieter, den ISP, Dieser Prozess verschlüsselt alle
Daten, die Sie senden, und verwendet verschiedene Sicherheitsmaßnahmen, um sicherzustellen, dass alle Daten sicher sind Wir erstellen ein VPN
zwischen Ihrem AWS-Konto, der VPC und Ihrem lokalen Netzwerk Es gibt ein paar Komponenten , die wir konfigurieren müssen Auf der VPC-Seite haben
wir ein virtuelles privates
Gateway in AWS bereitgestellt Dann haben wir das
Customer Gateway, das im Rechenzentrum des
Unternehmens bereitgestellt wird Das ist nun ein Gerät
im Unternehmensrechenzentrum, das Sie auf
eine bestimmte Weise konfiguriert haben. Das eigentliche
Kunden-Gateway wird jedoch innerhalb von AWS erstellt. Es handelt sich im Wesentlichen um ein von Ihnen erstelltes
Konfigurationselement , das
Ihr virtuelles privates
Gateway auf
Ihr VPN-Gerät in Ihrem
Unternehmensrechenzentrum verweist Ihr virtuelles privates
Gateway auf . Sobald Sie diese haben, können
Sie eine virtuelle
private Netzwerkverbindung herstellen. Dies ist eine verschlüsselte Verbindung , die über das Internet übertragen wird. Sie erhalten den Schutz
durch Verschlüsselung, nutzen
aber immer noch das Internet. Auch jetzt haben Sie eine Sicherheitsüberprüfung durchgeführt und sie beschweren sich, dass diese Verbindung verschlüsselt
ist, aber sie läuft immer noch
über das Internet. Gemäß den Sicherheitsrichtlinien muss
diese Verbindung privat sein. Jetzt gibt es einen anderen Dienst. Wir haben AWS Direct Connect. Dies ist eigentlich eine private
Verbindung zwischen AWS und Ihrem Rechenzentrum oder Büro. AWS Direct
Connect ist eine Hochgeschwindigkeitsverbindung
mit
niedriger Latenz, mit der Sie von Ihrer lokalen, d.
h. lokalen
Infrastruktur aus auf
öffentliche und private
AWS-Cloud-Services zugreifen können von Ihrer lokalen, d.
h. lokalen
Infrastruktur aus auf
öffentliche und private
AWS-Cloud-Services . Die Verbindung wird
über Standleitungen hergestellt und
umgeht das öffentliche
Internet, um die Unvorhersehbarkeit
und Überlastung des Netzwerks zu
verringern Sie verbinden ein Ende des
Kabels mit Ihrem Router und das andere Ende mit einem AWS Mithilfe dieser Verbindung können
Sie
virtuelle Schnittstellen erstellen , die
direkt mit Amazon verbunden sind. Der
AWS-Direktverbindungsstandort von Vpc ermöglicht Zugriff auf AWS in der Region
, der es zugeordnet ist Dabei wird eine private
Verbindung zwischen
Ihrem Rechenzentrum und dem AWS
Direct Connect-Standort
und von dort aus eine private
Verbindung zu AWS verwendet Ihrem Rechenzentrum und dem AWS
Direct Connect-Standort und von dort aus eine private
Verbindung zu AWS Jetzt ist es teurer
als ein VPN zu haben. Die wichtigste Erkenntnis ist
, dass es sich bei der Direktverbindung um
eine private Verbindung handelt, was bedeutet,
dass Sie ein konsistentes
Netzwerkerlebnis erhalten , wohingegen ein VPN öffentlich ist und obwohl es
verschlüsselt ist, es öffentlich ist. Das ist alles für diese Sitzung.
32. Compute Services in AWS: Hallo und willkommen zurück. Compute ist ein weiteres Kernangebot
im Bereich Cloud Computing. Und in AWS sind verschiedene
kostengünstige und flexible
Rechendienste für
unterschiedliche Anforderungen
verfügbar. In dieser Lektion werden wir
verstehen, was genau
Datenverarbeitung ist und welche verschiedenen
Rechendienste in AWS verfügbar sind . Nehmen wir ein Beispiel. Stellen Sie sich vor, Sie
haben Ihren Traumjob als Architekt bei einem
Weltraumtechnologieunternehmen, wo Ihre Aufgabe darin besteht, im Data-Science-Team zu arbeiten und die Daten zu verarbeiten. Um das Ganze zu verstehen, das Forschungsteam
Ihres Unternehmens hat
das Forschungsteam
Ihres Unternehmens riesige Mengen an
Bilddaten gesammelt , die zur Entdeckung
von Wasser auf dem Mars
führen könnten . Jetzt ist es die Aufgabe
Ihres Teams, diese Bilddaten zu verarbeiten
und die Ergebnisse zu ermitteln. Aber als Sie mit der
Verarbeitung der Daten begannen, wurde
Ihnen klar, dass Sie
keine freien Server haben , um die Arbeit zu erledigen. Was bedeutet es,
keine freien Server zu haben? Nun, wir brauchen leistungsstarke Computer um die riesigen Daten zu verarbeiten, und in diesem Fall ist
die Rechenleistung,
die Sie für
die Verarbeitung der Daten benötigen, nicht verfügbar. Diese Rechenleistung
wird als Rechenleistung oder beliebiges Programm oder Anwendung bezeichnet
, das Sie ausführen möchten. Sie benötigen etwas Speicher, um das Programm zu
öffnen, und etwas CPU, um
die Befehle zu verarbeiten , die
Sie innerhalb des Programms eingeben. Daher wird die
Kombination aus Speicher und CPU hier als Berechnung bezeichnet
. Es könnte auch
andere Ressourcen
wie
Netzwerkspeicher usw. beinhalten . Abhängig von der Art der
Anwendung, die Sie ausführen, hat es
Cloud Computing sehr
einfach gemacht , die
Rechenleistung zu nutzen, wann immer Sie möchten, sie nach
Ihren Anforderungen zu
konfigurieren
und nur für das zu bezahlen, was Sie tatsächlich nutzen AWS bietet verschiedene Rechendienste für unterschiedliche Anforderungen. Es ist
jedoch wichtig zu
verstehen, Es ist
jedoch wichtig zu welche
Rechenressourcen am besten zu Ihrer Arbeitslast passen und welche
verschiedenen Rechenoptionen in AWS
verfügbar sind . Lassen Sie uns zunächst verstehen,
was AWS-Datenverarbeitung ist. Aws bietet einen
On-Demand-Computing-Service für die Ausführung von
Cloud-basierten Anwendungen. Dies sind Anwendungen
, die auf
einem Remote-Server bereitgestellt und über das Internet
abgerufen werden können. Aws stellt Rechenressourcen wie Instances und Container bereit. Instanzen sind nichts
anderes als virtuelle Maschinen. Aw bietet auch serverloses
Computing zum Ausführen Anwendungen, für die Sie keine Einrichtung oder Konfiguration der Infrastruktur
benötigen Wenn Sie sich für eine serverlose
Rechenoption von AWS entscheiden, sind
Rechenressourcen auf
Abruf verfügbar und können
mit nur einem Mausklick erstellt werden Sie zahlen nur für
die Ressourcen, die Sie nutzen, und nur so lange,
wie Sie sie nutzen. AWS-Rechenressourcen werden grob
in drei Kategorien eingeteilt. Instanzen, bei denen es sich um virtuelle
Maschinen, Container und serverloses Computing In diesem Modul
werden wir sie alle besprechen. Es hilft Ihnen bei der Entscheidung,
welcher Rechendienst
für Ihre Anforderungen am besten geeignet ist. Wenn Sie
mehr über AWS Compute erfahren möchten, klicken Sie auf den Link
im Abschnitt Ressourcen. Das Dokument enthält
verschiedene Beispiele und Szenarien, in denen Sie verschiedene
Rechendienste verwenden
könnten. Jetzt wissen
wir, welche Rechenleistung und welche Dienste in AWS
verfügbar sind. Lassen Sie uns damit dieses Video beenden.
33. Virtuelle Maschine: Hallo und willkommen zurück. In dieser Schulung haben
wir
bisher einige Male den Begriff
virtuelle Maschinen verwendet. Ich hoffe, Sie
haben bereits eine Vorstellung davon. Aber bevor wir uns
eingehender mit den Dingen befassen, wollen wir virtuelle
Maschinen im Detail verstehen. Was ist eine virtuelle Maschine? Eine virtuelle Maschine ist
eine virtuelle Umgebung , die wie ein Computer
innerhalb eines Computers funktioniert. Klingt komplex, oder?
Lass es uns aufschlüsseln. Im Grunde. Eine virtuelle Maschine
wird allgemein als VM bezeichnet. Es unterscheidet sich nicht jedem anderen physischen System
wie einem Laptop oder Smartphone. Es verfügt über CPU-Speicherplatten zum Speichern Ihrer Dateien und ein Netzwerk für die Verbindung
zum Internet. Ihr Laptop und Ihr Smartphone klingen echt, weil
sie physisch sind VMs können als
virtuelle Computer innerhalb
eines physischen Computers betrachtet virtuelle Computer innerhalb
eines physischen Computers Jetzt müssen Sie
darüber nachdenken, wie es
möglich ist , einen
virtuellen Computer
in einem physischen Computer zu haben in einem physischen Computer Nehmen wir an, Sie haben einen Laptop. Es hat ein
Windows-Betriebssystem drauf. Jetzt hast du Lust, Linux
zu lernen. Dafür benötigen Sie ein
Linux-Betriebssystem. Was würdest du tun? Würden Sie einen neuen Laptop kaufen und das
Linux-Betriebssystem installieren? Nein. Eine einfachere und effizientere
Methode besteht darin, mithilfe der
Virtualisierungstechnik
Ihren vorhandenen Laptop zu virtualisieren und das
Linux-Betriebssystem darauf zu
installieren Grundsätzlich können Sie
beide Betriebssysteme
auf demselben Laptop verwenden beide Betriebssysteme
auf demselben Laptop Wie verwenden wir nun Virtualisierungstechniken, um eine virtuelle Maschine zu
erstellen? Und diese Animation hier ist
Ihr physischer Computer. Dieser physische Computer
kann Ihr PC, ein Remoteserver oder ein Server sein. Im
Rechenzentrum eines Cloud-Anbieters verwenden
wir Software
namens Hypervisor, die auch als
Virtual Machine Manager bekannt ist In Ihrem Fall können Sie
Oracle VM Virtual Box verwenden. Der Hypervisor erstellt
eine softwarebasierte oder virtuelle Version
eines Computers mit gewünschten Menge an
CPU-Arbeitsspeicher und Speicher Die virtuelle Maschine leiht sich
immer CPU-Speicher und zwar vom
physischen Host-Computer Das bedeutet, dass ein Teil der CPU, des
RAMs und des Speichers
Ihres Computers jetzt
als eigenständiger Computer funktioniert zum besseren Verständnis
davon aus, dass Sie einen physischen
Computer mit acht GB RAM, zwei CPUs und einer 40-GB-Festplatte Sie können ein
Virtualisierungstool verwenden, um
zwei oder mehr virtuelle
Maschinen zu erstellen und
CPU-Speicher und Festplatte
zwischen diesen beiden
virtuellen Maschinen zu verteilen CPU-Speicher und Festplatte zwischen diesen beiden
virtuellen Maschinen Hier haben wir zwei
virtuelle Maschinen, VM eins und VM zwei. Sie haben vier GB RAM, eine CPU und 20 GB Festplatte. Jedes und noch wichtiger, zwei verschiedene Betriebssysteme. Wie Sie sehen können, verhält sich eine virtuelle
Maschine wie ein echter Computer und hat ein anderes
Betriebssystem. Trotz der Verwendung derselben Hardware ist
die virtuelle Maschine vollständig vom Rest
des Systems isoliert. Die Software-Insider-VM kann nicht mit
dem Host-Computer
oder einer anderen virtuellen Maschine auf
demselben physischen Computer interagieren . Die virtuellen Maschinen laufen wie einzelne Computer mit
separaten Betriebssystemen. Sie bleiben völlig
unabhängig von einer anderen virtuellen Maschine und
der physischen Hostmaschine. Da VMs unabhängig voneinander
sind, sind
sie auch sehr portabel Das bedeutet, dass Sie eine VM auf einem Hypervisor
sofort auf
einen
anderen Hypervisor
auf einem völlig
anderen Computer verschieben einen
anderen Hypervisor
auf einem völlig
anderen auf einem völlig Virtuelle Maschinen sind
flexibel und portabel. Sie bieten viele Vorteile,
wie z. B. Kosteneinsparungen. Sie können mehrere
virtuelle Maschinen
auf einem einzigen physischen Host ausführen . Dies kann
Ihre Kosten für die physische
Infrastruktur drastisch senken , da Sie
weniger physische Computer kaufen müssen. Agilität und Geschwindigkeit. Das Hochfahren einer virtuellen Maschine ist eine relativ einfache
und schnelle Aufgabe. Es ist viel einfacher
als die Bereitstellung einer völlig neuen physischen
Maschine für Ihre Entwickler Auf diese Weise beschleunigt die Virtualisierung
die
Ausführung von Dave-Testszenarien erheblich Als nächstes folgt die Verkürzung der Ausfallzeiten. Virtuelle Maschinen sind so portabel und lassen sich leicht von
einer Maschine auf eine andere übertragen. Das bedeutet, dass sie
eine hervorragende Lösung für
Backups sind , wenn die Host-Maschinen unerwartet
ausfallen. Skalierbarkeit Mit virtuellen Maschinen
können Sie
Ihre Anwendungen einfach skalieren , da die Erstellung einer virtuellen Maschine
einfacher ist als die Einrichtung
einer physischen Maschine. Sie können einfach
virtuelle Server hinzufügen und die Arbeitslast
auf mehrere virtuelle Maschinen verteilen So können Sie
die Verfügbarkeit und
Leistung Ihrer Apps erhöhen die Verfügbarkeit und
Leistung Ihrer Apps Dies sind alle Vorteile
virtueller Maschinen.
34. EC2 Elastic Compute Cloud: Hallo und willkommen zurück. In dieser Lektion beginnen
wir mit dem gängigsten
Rechenservice, den AWS zu bieten hat. Es ist die Elastic Compute Cloud, allgemein bekannt als EC
Two. Lass uns anfangen. Ec two steht für
Elastic Compute Cloud. Es bietet eine skalierbare
Rechenoption in der Amazon-Cloud. Aber was ist Rechenkapazität? Nun, wir haben bereits gelernt , dass es sich
nur um virtuelle Maschinen handelt, und EC Two ist ein
Rechenservice in AWS. C Two ist skalierbar. Das bedeutet, dass Sie
die Größe einer virtuellen Maschine
je nach Ihren Anforderungen
erhöhen oder verringern können. Wenn das nicht funktioniert, können
Sie auch zusätzliche
virtuelle Maschinen erstellen. Mithilfe von Amazon EC Two. Sie können die
Einrichtung der Hardware für die Ausführung
Ihrer Anwendung komplett vermeiden und können Anwendungen schneller
entwickeln und bereitstellen. Ein weiterer Vorteil der Verwendung von EC Two besteht darin, dass Sie nicht in Hardware investieren
müssen. Sie können virtuelle Maschinen mit der
gewünschten Kapazität haben , auf die Sie mit Ihren
normalen Computern zugreifen
können . Ec Two ist eine
IAAS-Infrastruktur als Service, da Sie
eine virtuelle Maschine von AWS mieten und AWS sich um den
Kauf und die
Wartung der Hardware kümmert Kauf und die
Wartung der Hardware Sie können die gewünschte Kapazität erhalten ohne sich um die Hardware
kümmern zu müssen Es wurde entwickelt, um Cloud-Computing im
Web-Scale-Maßstab Entwicklern das Verständnis von Cloud-Computing im
Web-Scale-Maßstab
zu
erleichtern. Gehen wir zurück zu den Zeiten, als Cloud Computing noch nicht
dazu da war, eine Anwendung zu hosten, sondern
man ein Rechenzentrum einrichten
oder einen physischen Server mieten musste . Das ist
für große Organisationen durchaus möglich. Aber denken Sie an
mittelständische Unternehmen, Start-ups oder sogar einzelne
Entwickler wie Sie und ich.
Sie können es sich nicht leisten, die
Rechenzentren und die Hardware zu kaufen. Aber nach dem Cloud-Computing wurde
es für
die Entwickler deutlich
einfacher , sich alle virtuellen Maschinen zu
besorgen. Dank Cloud Computing können
Sie Amazon
C two verwenden, um
so viele oder so wenige virtuelle
Maschinen zu starten , wie Sie benötigen. Es gibt keine Einschränkung. Wenn Sie eine virtuelle
Maschine möchten, können Sie sich eine besorgen. Wenn Sie 1.000
virtuelle Maschinen benötigen, können
Sie 1.000
virtuelle Maschinen erwerben. Amazon C. Two
erleichtert das
Hoch- oder Herunterskalieren der virtuellen Maschinen , um unerwartete Lasten zu bewältigen. Sie müssen den Datenverkehr nicht
prognostizieren Sie können virtuelle Maschinen auf der
Grundlage des Datenverkehrs und der
Beliebtheit Ihrer Anwendungen hoch- und
herunterskalieren . Amazon C Two hat eine Autoscaling-Funktion, die
wir später verstehen werden Wir können Auto Scaling so konfigurieren
, dass
die Anzahl der virtuellen Maschinen
je nach Auslastung
Ihrer Anwendung erhöht oder verringert die Anzahl der virtuellen Maschinen je nach Auslastung
Ihrer Anwendung Es bietet Ihnen die
vollständige Kontrolle über Ihre
Computerressourcen und ermöglicht es Ihnen der bewährten
Computerumgebung von Amazon zu arbeiten. Wie wir inzwischen wissen, befinden sich die beiden virtuellen Maschinen von
EC im
Amazon-Rechenzentrum. Da Sicherheit
für Ihre Anwendungen sehr wichtig ist, gibt Ihnen
AWS die
vollständige Kontrolle über diese Server, sodass Sie Ihre Anwendung
nach Ihren Wünschen
sichern können . Es gibt
auch andere Möglichkeiten,
diese Server zu sichern , auf die wir in späteren Videos
eingehen werden. Es unterstützt Macos. Seit Kurzem unterstützen Amazon Web
Services auch virtuelle Maschinen, die auf
Mac-Betriebssystemen basieren. Wenn Sie virtuelle Maschinen
auf Mac OS benötigen, können
Sie diese auch
bei AWS-Studenten erwerben. Dies sind einige der wichtigsten
Vorteile von Amazon EC Two.
35. Komponente von Amazon EC2: Willkommen zurück, Studierende.
Im letzten Video haben wir Elastic
Compute Cloud C
two und seine Vorteile verstanden . Wir werden mit
derselben Diskussion fortfahren und die
Elemente von Amazon C Two verstehen. Aber bevor wir beginnen, lassen Sie uns die
Definition von EC Two noch einmal zusammenfassen Es ist eine virtuelle Maschine
in Amazon Web Services, aber AWS nennt
sie nicht virtuelle Maschinen Stattdessen werden
einige spezifische Begriffe
für EC 21 verwendet. Diese Begriffe beziehen sich auf
die Instanz, bei der es für EC 21 verwendet. Diese Begriffe beziehen sich auf
die Instanz, bei der es sich
lediglich um eine virtuelle Maschine mit Amazon
C Two handelt. Wenn wir eine virtuelle
Maschine bei Amazon starten, sagen
wir, dass wir in Zukunft eine
C-2-Instance gestartet haben. Anstatt sie als virtuelle Maschine
E two zu bezeichnen, werden
wir sie als
EC Two-Instance bezeichnen. Ein weiteres wichtiges Element
in Amazon C two ist AM I. Es steht für Amazon
Machine Image. Dabei handelt es sich im Grunde um eine
Vorlage, die
ein Betriebssystem und
zusätzliche Software enthält, ein Betriebssystem und die
zum Starten von EC Two Instances benötigt werden. Machen wir es uns einfach.
C Two Instance ist eine virtuelle Maschine, oder? Und eine virtuelle Maschine, sie ähnelt Ihrem Laptop. Nehmen wir an, Sie
haben einen neuen Laptop gekauft. Sie müssen
das Betriebssystem und einige allgemeine
Software wie Treiber,
Browser, Mediaplayer usw.
installieren, oder? Denn ohne diese
Betriebssysteme und Software ist
Ihr Laptop nur eine Box Das Gleiche gilt auch für
EC Two Instance. Es ist auch wie Ihr Computer
und benötigt deshalb ein Betriebssystem und zusätzliche Software,
um es in AWS verwenden zu können. Sie können dies tun, indem Sie AMI verwenden. Sobald Sie eine
EC Two-Instance gestartet
haben, möchten Sie
darauf zugreifen, damit Sie Ihre Anwendung
installieren
oder eine Konfiguration vornehmen können . Um auf Ihre EC Two-Instance zugreifen zu
können, benötigen Sie einige Zugangsdaten,
und diese Zugangsdaten sind nichts anderes als eine Grundgebühr , über die wir gerade
sprechen. Ein Schlüsselzahler besteht aus einem
öffentlichen Schlüssel und einem privaten Schlüssel. Dabei handelt es sich um eine Reihe von
Sicherheitsanmeldedaten, mit denen Sie Ihre Identität
nachweisen, wenn Sie eine
Verbindung zu einem Amazon EC Zwei Instanzen: Wenn Sie eine Instance
starten, fragt
AWS nach einem Keypayer Sie können ein vorhandenes
Schlüsselpaar auswählen oder ein neues erstellen. Wenn wir ein Keypair erstellen, können Sie bei
AWS den
privaten Schlüssel herunterladen und der öffentliche Schlüssel wird beibehalten. Wenn Sie eine EC Two-Instance
starten, speichert Amazon
den öffentlichen Schlüssel
standardmäßig den öffentlichen Schlüssel Im Grunde verwenden Sie Ihren privaten Schlüssel, um sich bei Ihrer Instance
anzumelden Wir werden das sehen, wenn
wir die Demo von EC machen. Zwei wichtige Dinge,
die Sie hier beachten sollten Da Sie einen privaten Schlüssel verwenden, um sich bei Ihren EC-Instances anzumelden, kann sich jeder, der über
diesen privaten Schlüssel verfügt , auch
mit Ihren Instances verbinden. Stellen Sie sicher, dass Sie
Ihren privaten Schlüssel
an einem sicheren Ort aufbewahren . Ein weiterer wesentlicher Bestandteil von EC Two ist die Sicherheitsgruppe. Dies ist ein weiterer
Dienst, den Sie
verwenden können , um
Ihre Instances weiter zu sichern. Mit der Sicherheitsgruppe können Sie steuern, wer auf
Ihre EC Two Instances zugreifen kann. Sie fungiert als virtuelle
Firewall für Ihre beiden EC-Instances, die den eingehenden
und ausgehenden Datenverkehr
kontrolliert Eingehend bedeutet, dass Sie konfigurieren
können, wer von außen eine Verbindung zu Ihren EC
Two-Instances herstellen kann, und ausgehend bedeutet, womit Ihre beiden Instances Ein weiteres Element von
EC Two sind Tags. Ein Tag ist eine Bezeichnung für
Ihre AWS-Ressourcen. Es kann
von Ihnen oder AWS zugewiesen werden. Und jedes Tag besteht
aus einem Schlüssel und einem Wert. Wenn Sie eine
EC Two-Instance erstellen, können
Sie Ihre virtuellen
Maschinen mit unterschiedlichen Namen taggen. Dabei kann es sich um die Umgebung, Eigentümer der
Kostenstelle
oder den Namen der Anwendung handeln. Diese Tags
helfen Ihnen dabei,
Ihre Server zu identifizieren , wenn in Ihrem Konto
Tausende von Servern
laufen. Jeder Tag-Schlüssel muss für jede Ressource
einzigartig sein. Und jeder Tag-Schlüssel kann nur einen Wert
haben. Sie können Tags verwenden, um Ihre Ressourcen in Ihrem Konto zu
organisieren und
Ihre AWS-Kosten mithilfe von
Kostenzuweisungs-Tags zu verfolgen . Lassen Sie uns die Tags zur
Kostenzuweisung verstehen. In einigen Organisationen
gab es früher eine Kostenstelle, wenn Sie
mehrere Anwendungen
in einem AWS-Konto ausführen wollten. Sie können
zwei EC-Instances mit
Kostenstelle, Schlüssel und Wert kennzeichnen , was Ihnen hilft, die Kosten pro
Kostenstelle
nachzuverfolgen . Bisher sind dies die verschiedenen Begriffe und
Funktionen, die Sie in
Bezug auf Amazon EC Two
kennen und verstehen müssen . Lassen Sie uns diese Lektion hier abschließen.
36. EC2-Instanz-Namenskonvention: Hallo Studierende. Willkommen zurück. In der letzten Sitzung haben wir die verschiedenen
Elemente einer
EC-Two-Instance wie
Amazon Machine Image
oder AMI Security Group,
Key Payer und Tax
verstanden EC-Two-Instance wie
Amazon Machine Image oder AMI Security Group, Key Payer und Tax Es ist noch ein wichtiges
Merkmal der
beiden EC-Instanzen übrig, das
wir verstehen müssen Es handelt sich um die Art der
EC-Zweiinstanz. Vorher werden wir jedoch die Benennungskonvention für zwei
C-Instanzen
verstehen. Es wird Ihnen beibringen, wie man die Namen von zwei
EC-Instanzen
liest. In diesem Video
lernen Sie zunächst die Benennungskonvention für zwei EC-Instanzen kennen. Sie werden im Internet keine
klare Erklärung
dazu finden , auch
nicht in der AWS-Dokumentation. Ich bitte Sie, diesem Video
besondere Aufmerksamkeit
zu schenken, da es Ihnen auch auf Ihrer Reise
mit AWS Cloud
sehr helfen wird. Lass uns anfangen.
Der Name der AWS-Instanz sieht wie auf dem
Bildschirm M 6.2 groß aus. Wie Sie sehen können,
enthält der Name Zeichen und Zahlen. Der vollständige Name hat nicht
wirklich eine Bedeutung. Wir werden es aufschlüsseln und
versuchen, einen Sinn daraus zu machen. Eines ist klar: Wenn wir alles
zusammenfügen, handelt es sich um einen Instanztyp. Wenn Sie sich einen Instanztyp ansehen, wird er ungefähr so aussehen. Lassen Sie uns es jetzt aufschlüsseln. Der Name dieses
Instanztyps
besteht aus vier Komponenten: Instanz,
Familie, Instanzgenerierung, zusätzliche Funktionen
und Instanzseite. Sie können das
Video hier anhalten oder
ein Bild oder einen Screenshot davon machen, um später darauf zurückgreifen zu können. Gehen wir sie eins nach dem anderen durch. Der erste Buchstabe
des Instanztyps steht für die
EC-Two-Instance-Familie. Hier steht das M für
die Instanzfamilie. Diese AWC-Instance gehört
zur Familie der
Allzweck-Computing-Instances Der Typ AWS hat vier
Hauptkategorien von Instance-Typen. Diese sind für allgemeine Zwecke
, rechenoptimiert, speicheroptimiert und
speicheroptimiert. Wir werden sie in der nächsten Lektion
ausführlich behandeln. Es gibt auch
Unterklassifizierungen innerhalb dieser vier
Instanzfamilien, aber das ist auf dieser Ebene nicht
unbedingt erforderlich, wir werden sie als Nächstes überspringen Die Zahl sechs in M six steht für die Generation
der AWS C Two-Instance Die neueste oder
aktuelle Generation von AWS C Two-Instances
ist immer besser. Es ist auch billiger als
die vorherige Generation. Aus diesem Grund
empfiehlt AW immer , den Instance-Typ der neuesten
Generation zu verwenden. Man kann es mit einem Auto in Verbindung bringen. Das Unternehmen bringt immer neue Automodelle mit einigen
neuen Zusatzfunktionen auf den Markt. Es empfiehlt
seinen Kunden die
neuesten Modelle, da diese neue Funktionen zu einem
besseren Preis
enthalten. Dann haben wir in derselben Instanz, was die
zusätzliche Leistungsfähigkeit
der EC
darstellt , zwei Instanzen. Diese Tabelle enthält all
diese Funktionen. Amd und Graviton Two sind die beiden Prozesse innerhalb
dieser beiden EC-Instanzen Wenn der Prozessor auch
Ihren Anforderungen entspricht, können
Sie auch eine
prozessorbasierte C2-Instanz auswählen Aws bietet auch lokalen
NVME-SSD-Speicher
, der direkt mit
EC Two verbunden ist , um eine bessere
Netzwerkleistung Daher sind hohe Netzwerkfähigkeit und zusätzliche Kapazität
die beiden Funktionen dieses Instance-Typs Die letzte und
wichtigste Komponente dieses Instance-Typs
ist die Instance-Größe. Die Größe 2 x L von M 6,2 x Large steht für
die Instance-Größe. Lassen Sie uns verstehen, was
die beiden x groß bedeuten. Die Zahl zwei x groß steht für die Darstellung der Hemdgröße
der AWS-C-2-Instanz Es steht für die
Menge an CPU-Speicher,
Speicher und Netzwerkleistung
einer C Two-Instance Diese Instanz, die zwei x groß ist, verfügt über die
doppelte Anzahl CPU-Arbeitsspeicher und Speicherressourcen im Vergleich zur
Basisgröße, die X groß ist. Wie funktioniert sie?
Lass uns das verstehen. Wenn jede
Instanz doppelt so groß ist wie bei der vorherigen Größe, verfügen
wir über doppelt so viele
CPUs und Arbeitsspeicher wie bei
der vorherigen Größe. Das ist groß, 26x groß entspricht 162x In ähnlicher Weise entspricht 262 x groß
einer Größe von 154x. Lassen Sie uns das nun aus der Kapazitätsperspektive
betrachten. Wenn Sie zur
AWS-Dokumentation gehen und zu den
sechs Instance-Typen
navigieren, wird
Ihnen dieses Bild angezeigt. X large hat im
Vergleich zu Large die doppelte Anzahl an
CPUs und Arbeitsspeicher. Die
R-Kosten bei Bedarf sind ebenfalls doppelt so hoch. Jetzt fragen Sie sich bestimmt, ob ich mich für
12x Large Instances
oder zwei x Large Instances entscheiden
sollte oder zwei x Large Instances Schauen wir uns dazu
den Preis und die Kapazität jeder Instanz
an Wie Sie sehen können, gibt es keinen
Unterschied zwischen ihnen. ob Sie zwei
x groß oder 12 x groß wählen, erhalten
Sie am Ende die gleiche Kapazität
zu gleichen Kosten Es ist jedoch immer besser,
eine kleinere
Instance-Größe anstelle
einer größeren zu verwenden eine kleinere
Instance-Größe anstelle
einer , es sei denn, Sie
haben spezielle Anforderungen Es gibt viel zu viele
Standing-Klassifizierungen von AWS, EC zwei Wir werden die
wichtigsten im nächsten Video behandeln, obwohl dies nirgends gut
dokumentiert ist, hat
AWS C two eine hervorragende
Namenskonvention Ich hoffe, dieses Video hat
Ihnen geholfen,
dies zu verstehen Falls Sie sich nicht sicher sind, empfehle
ich, es erneut
anzusehen. Das ist alles für diese Lektion.
37. Instanztypen: Hallo, Studenten. Willkommen zurück. In der letzten Lektion haben wir die Benennungskonvention für
Instanztypen
gelernt. Sie haben mehr über EC
bis hin zu Instanzgröße,
Generierung von Produktfamilien und
weiteren Funktionen gelernt . All dies hilft
Ihnen bei
der Auswahl des EC-Top-Instance-Typs
für Ihre Anwendung. In diesem Video
werden wir etwas
tiefer gehen und die verschiedenen
EC-Instance-Typen verstehen. Sobald Sie diese Lektion erfolgreich
abgeschlossen
haben, können Sie entscheiden welcher Instance-Typ Ihren Anforderungen am besten
entspricht. Lassen Sie uns mit einer kurzen Zusammenfassung dessen beginnen was
der
EC-Two-Instance-Typ ist Es ist eine Kombination aus CPU-Speicher, Speicher und
Netzwerkkapazität Verschiedene
Kombinationen helfen Ihnen bei der
Auswahl der geeigneten
Mischung für Ihre Anwendungen. Beim Start ist der
Instance-Typ C Two eines der obligatorischen
Elemente, für
die Sie
sich entscheiden müssen, aber warum er so wichtig
ist. Lassen Sie uns das
anhand eines Beispiels verstehen. Wenn Sie einen Laptop kaufen, definieren
Sie zunächst
Ihre Anforderungen. Und auf der Grundlage dieser Anforderungen wählen
Sie eine Konfiguration
für Ihren Laptop aus, z. B. Arbeitsspeicher, Speicher,
Grafik usw. Das Gleiche gilt auch für die EC
Two-Instance. Wenn Sie eine
C2-Instance in Amazon starten, müssen
Sie
CPU-Speicher-, Speicher- und
Netzwerkkonfigurationen bereitstellen , um Ihnen die Arbeit zu erleichtern. AWS gibt es Instance-Typen mit unterschiedlichen Int-Werten in Bezug auf CPU-Speicher, Speicher
und Netzwerk. Jeder Instance-Typ hat mehrere Größenoptionen
für unterschiedliche Workloads Wir haben uns bereits
mit der Instanzgröße befasst. In der letzten Lektion sollten
Sie
Instance-Typen starten ,
die für
Ihre Anwendungen am besten geeignet sind . Verstehen Sie jetzt, was wir hier mit
„am besten geeignet“ meinen. Jede Anwendung ist anders
konzipiert und erfordert eine bestimmte
Hardwarekonfiguration. Einige benötigen mehr Speicher, andere benötigen mehr CPU und so weiter. Daher sollten Sie
die entsprechende
Rechenkapazität für Ihre Anwendung verwenden . Es ist einfach,
die beste Konfiguration für
Ihre Anwendungen in AWS auszuwählen . Wie bei Amazon werden
Instance-Typen
in Familien eingeteilt , um
unterschiedlichen Anwendungsfällen gerecht zu werden.
Wir werden uns
vier grundlegende und unverzichtbare
ECto-Instance-Typen ansehen . Sie umfassen
Allzweck-Instances, rechenoptimierte
Instances,
speicheroptimierte Instances und
speicheroptimierte Instances. Beginnen wir mit dem
Allzweck-Instanztyp. Er bietet ein ausgewogenes
Verhältnis zwischen Rechenspeicher und Netzwerkressourcen und
kann für eine Vielzahl
von Workloads verwendet werden Wie der Name schon sagt, handelt es sich dabei um den grundlegendsten
und vielseitigeren Typ AWS, EC to Instances.
Wir verwenden Allzweck-Instances, Wir verwenden Allzweck-Instances bei denen wir nicht sicher sind,
ob die Anwendung mehr CPU oder Arbeitsspeicher
benötigt, da dies mit einem ausgewogenen Verhältnis von
Arbeitsspeicher, Rechenleistung und Netzwerk einhergeht Arbeitsspeicher, Rechenleistung und Wenn wir später herausfinden
, dass diese Anwendung eher speicher
- oder rechenoptimiert
ist, können wir uns für bestimmte
Arten von Instances entscheiden Schauen wir uns nun die besten Anwendungsfälle für
Allzweckinstanzen an. Sie eignen sich für
Webserver, die Flotten zwischenspeichern, und für verteilte
Datenspeicheranwendungen Da diese Anwendungen
ein ausgewogenes Verhältnis zwischen Arbeitsspeicher, CPU
und Netzwerk erfordern , eignen sie sich auch für Entwicklungs- und Demoumgebungsanwendungen
. Der nächste Instanztyp ist die
rechneroptimierte Instanz. Sie eignen sich ideal für
rechenintensive Anwendungen , die von
Hochleistungsprozessen profitieren. Dieser Instance-Typ ist im
Vergleich zu anderen
Rechenleistungen
wie Arbeitsspeicher, Speicher
und Netzwerken für CPUs
optimiert Vergleich zu anderen
Rechenleistungen . Daher fällt der
Instance-Typ mit
leistungsstärkeren CPUs
in diese Kategorie Lassen Sie uns über
ihre Anwendungsfälle sprechen. Dies ist am besten für Anwendungen geeignet , die eine hohe Rechenleistung benötigen. Die rechenoptimierten
Instances eignen sich
hervorragend für die
Batch-Verarbeitung von Medien, Transcodierung,
Hochleistungs-Wave-Server, Hochleistungsrechnen, wissenschaftliche Modellierung,
dedizierte Gaming-Server, Add Server-Engines,
maschinelles Lernen, Inferenz und andere
rechenintensive Anwendungen Als Nächstes folgen
speicheroptimierte Instanzen. Sie sind so konzipiert, dass sie eine
schnelle Leistung für Arbeitslasten bieten, die für die Verarbeitung
großer Datensätze
viel Speicher benötigen Verarbeitung
großer Datensätze
viel Speicher Diese Instances sind hier
speicheroptimiert , wenn wir uns Instance-Typen
der Kategorien Speicheroptimierung
und Speicheroptimierung
ansehen der Kategorien Speicheroptimierung . Mehr Arbeitsspeicher als Speicher,
CPU und Netzwerk. Mit anderen Worten,
speicheroptimierte Instance-Typen sind eher für den Arbeitsspeicher
als für andere Funktionen optimiert. Schauen wir uns ihre Anwendungsfälle an. Speicheroptimierte
Instanzen werden in Anwendungen wie
Open-Source-Datenbanken, in Speicher-Caches und Big-Data-Analysen in
Echtzeit Die nächste Option sind
speicheroptimierte Instanzen. Speicheroptimierte Instances sind für
Workloads
konzipiert, die einen
hohen sequenziellen Lese- und
Schreibzugriff auf riesige Datensätze
und lokalen Speicher erfordern hohen sequenziellen Lese- und
Schreibzugriff auf riesige Datensätze
und Sie sind für die
Bereitstellung von Zehntausenden zufälliger
Eingabe- und Ausgabeoperationen mit
niedriger Latenz
pro Sekunde für Anwendungen optimiert zufälliger
Eingabe- und Ausgabeoperationen mit
niedriger Latenz pro Sekunde für Anwendungen Dieser Instance-Typ ist
auf der Netzwerkseite
der EC Two-Instance optimiert . Er unterstützt mehr Lese- und
Schreibaktionen auf der Festplatte. Wenn unsere Anwendung
viel
Lese - und Schreibvorgänge in der
Festplattendatenbank oder im Netzwerk durchführt, sollten
wir einen
speicheroptimierten Instance-Typ verwenden. Dieser Instance-Typ maximiert die Anzahl
der
pro Sekunde verarbeiteten
Transaktionen oder eingabe-,
ausgabeintensiven und
geschäftskritischen Workloads Transaktionen pro Sekunde bedeutet die Anzahl der Transaktionen die das Netzwerk in einer Sekunde
verarbeiten kann Wenn die EC Two-Instance in der Lage
ist,
zehn Transaktionen zum und vom
Speicher ohne Verzögerung abzuschließen , können
Sie sagen, dass
die Instance maximal zehn
Transaktionen pro Sekunde
verarbeiten kann . Schauen wir uns ihre Anwendungsfälle an. Die Anwendung verfügt über
mittelgroße Datensätze, die eine hohe Rechenleistung und einen hohen Netzwerkdurchsatz erfordern Dazu gehören
relationale Datenbanken wie Mysql, Mariadb, Post Gray Sql und
NOSQL-Datenbanken
wie Ke, DB, Ilab wie Ke, DB, Ilab Dieser Instance-Typ
eignet sich auch ideal für Workloads, die einen
sehr schnellen Zugriff auf
mittelgroße Datensätze
auf lokalem Speicher erfordern ,
wie Suchmaschinen und Datenanalyse-Workloads wie Es sind so viele Informationen. Lassen Sie mich es zusammenfassen,
es wird Ihnen helfen die beste Entscheidung
für den Instance-Typ
zu Das Wichtigste ist, diese vier
Hauptklassifizierungen zu verstehen Sobald Sie diese verstanden haben, wird
sie Ihren
häufigsten Anwendungsfällen dienen Bei der Auswahl eines
beliebigen Instance-Typs für
Ihre Anwendung sollten
Sie sich außerdem fragen, ob
Ihre Anwendung
speicherintensive oder
rechenintensive Arbeit leistet . Benötigt sie viel Arbeit? Oder ist es nur die generische
Arbeit, die es leisten wird? Sobald Sie die
Hauptklassifikation verstanden haben ,
kann
die Unterklassifikation ganz von selbst kommen. Wie in einer
speicheroptimierten Instanz benötigen
Sie möglicherweise mehr RAM oder
höher optimierten Speicher Sobald Sie
den Instance-Typ kennen, sollten
Sie schließlich immer die
kleinere Instanz wählen, um auf der Grundlage des Experiments durchzuführen und die tatsächliche
Instanzgröße als Faustregel festzulegen Wählen Sie immer eine kleinere
Instanzgröße, was Geld spart. Das ist alles für diese Lektion.
38. Starte deine erste EC2-Instanz: Hallo Studierende. Willkommen zurück. In diesem Video werden wir
unsere erste EC Two-Instance
über die AWS-Konsole starten . Wir werden uns auch die
verschiedenen Schritte und Funktionen ansehen AWS beim Start
der beiden EC-Instances bietet. Am Ende dieses Videos werden
Sie in der Lage sein, EC
Two Instances über
die Managementkonsole zu starten . Sehen Sie sich das Video bis zum Ende an
und probieren Sie es dann selbst aus. Gehen wir zur
AWS-Managementkonsole, geben EC two in die
Suchleiste ein und klicken Sie auf das Suchergebnis EC two. Gehen Sie direkt zum
EC Two-Dashboard. Wie Sie sehen können, habe ich keine
Instanzen in meinem Konto. Wenn wir hier auf Instanzen klicken
, gelangen Sie
zur Instanzseite. Diese Seite enthält die Liste aller Instances in dieser Region. Da wir
keine Instanzen haben, ist
die Liste leer. Lassen Sie uns unsere erste
EC Two-Instance starten. Stellen Sie zunächst sicher, dass Sie
eine Region auswählen , die sich in Ihrer
Nähe oder in der Nähe Ihres Kunden befindet. Da ich in Indien bin, werde
ich die Region Mumbai auswählen. Klicken wir auf Launch Instances. Zunächst müssen wir
ein AMI namens Amazon
Machine Image auswählen . Hier haben wir eine Liste von
AMIs zur Auswahl. Es hat Amazon, Linux, zwei, Max OS, Red Hat und viele mehr. Wenn Sie sich das
Dashboard auf der linken Seite ansehen, werden
Sie andere Optionen sehen. Gehen wir hier zu meinen AMIs Sie werden die Liste
Ihrer eigenen maßgeschneiderten AMIs sehen. Derzeit haben wir
keine AMIs
in unserem Konto erstellt. Wir können hier keine
AMIs aufgeführt sehen. Die nächste Option ist
AWS Marketplace, wo wir Tausende von
AMIs haben , die von
Drittanbietern erstellt wurden. Dann haben wir Community-AMIs, die
von AWS und seinen Benutzern entwickelt wurden. Sie können von
jedem kostenlos genutzt werden. Bitte beachten Sie, dass Sie
immer vorsichtig sein sollten ,
wenn Sie AMIs verwenden von anderen Personen als
AWS oder vertrauenswürdigen AWS-Anbietern
erstellt wurden. Sie könnten
Sicherheitslücken enthalten. Es gibt auch einen Filter
, der nur freie Reifen anzeigt. Dadurch werden uns nur
die
AMIs angezeigt, die für das Gratis-Tier in Frage kommen . Wenn wir dies für
diese Demo überprüfen, erstellen
wir eine
Linux-to-Instance mit Amazon Linux Two. Ami. Dieses AMI ist für das
kostenlose Abonnement geeignet, was bedeutet, dass
wir die Instance
starten können , ohne dafür Geld
auszugeben. Wählen Sie Amazon, Linux zwei
, und wir werden zu Schritt zwei weitergeleitet. Wählen Sie einen Instance-Typ. Wie Sie jetzt sehen können, uns viele
Instance-Typen zur Verfügung. Scrollen Sie einfach nach unten und Sie werden eine lange
Liste von Instanzen sehen. Wir haben die Möglichkeit,
diese Instanzen nach
ihrer Familie und Generation zu filtern . Wir haben verschiedene
Instanzen, die auf
unterschiedlichen Anforderungen basieren. Die Liste umfasst Instanzen
mit
RAM-Optimierung, CPU-Optimierung, GPU-Optimierung usw. In dieser Demo werden wir Two Point Micro
verwenden, da wir keine besonderen Anforderungen
haben und wir auch im freien Modus
bleiben wollen. Wie Sie sehen können, ist Two Point Micro die einzige Instanz, die kostenlos
verfügbar ist. In einigen Regionen werden Sie auch
Three Point Micro sehen. Wenn Sie nur üben,
stellen Sie sicher, dass Sie immer den
Instance-Typ wählen , für
den ein kostenloses Abonnement in Frage kommt, um Code zu vermeiden. Wir können
unsere Instance jetzt überprüfen und sofort starten , indem wir
einfach hier klicken. Aber bevor wir das tun,
gehen wir zur Konfiguration der
Instanzdetails über. Dies wird eine
ganze Reihe von Optionen eröffnen. Lassen Sie uns nacheinander einige wichtige
Parameter untersuchen . Die erste Option ist die
Anzahl der Instanzen. Wenn Sie mehr
als eine Instanz benötigen, können
Sie dies ändern und
mehrere C2-Instanzen
mit derselben Konfiguration erstellen . Wir können auch eine
C-2-Instance in der Gruppe Launch to Autoscaling starten, indem wir auf den Link Launch into
Autoscaling Lassen Sie uns vorerst bei einer Instanz
bleiben. Dies werden wir im nächsten Modul
behandeln. Als Nächstes haben wir die
Netzwerkoption, um unsere VPCs auszuwählen. Wählen wir die Pat Cup VPC , die wir
im vorherigen Lab erstellt haben Wählen Sie das Subnetz aus, in dem wir die
Instance starten möchten. Da wir möchten, dass
auf unsere Instance über das Internet
zugegriffen werden kann, sollten
wir
ein öffentliches Subnetz wählen der nächsten Option werden wir
gefragt, ob AWS dieser Instance eine öffentliche
IP zuweisen soll Lassen wir das vorerst
aktiviert. Der nächste wichtige
Parameter ist die Rolle. Die Rolle wird verwendet, um Berechtigungen
dafür zu erteilen , wer auf
diese EC Two-Instance zugreifen kann. Wählen wir die Rolle aus, die wir in unserem ersten Lab
erstellt haben. Falls Sie eine neue Rolle
erstellen möchten, können
Sie zu IAM navigieren,
indem Sie auf den Link Neue IAM-Rolle
erstellen und dann eine Rolle erstellen Klicken Sie auf Weiter, um zur
nächsten Seite, Speicher hinzufügen, zu gelangen. Wie Sie sehen, haben wir bereits ein EBS-Volume für uns ausgewählt Dies ist das
Root-Volume, das
das Betriebssystem
und andere Software enthält das Betriebssystem
und andere Software Für diesen Fall
fügen wir unserer Instanz einen neuen Speicher
hinzu. Klicken Sie auf Neues Volume hinzufügen und geben Sie die Parameter
unseres Volumes an. Unter der Gerätespalte sehen
wir den SDB-Pfad Dies ist der Pfad, an den unser
Volume angehängt wird. Lassen wir es
vorerst als Standard belassen und weitermachen. In der Snapshot-Option können
wir wählen, ob wir
aus einem Snapshot, den
wir zuvor erstellt haben, ein neues EBS
erstellen aus einem Snapshot, den
wir zuvor erstellt haben, ein Da wir keine
derartigen Anforderungen haben, lassen
wir das Feld vorerst leer Als nächstes kommt die Lautstärkeseite. Lassen Sie uns unsere
Lautstärke auf zehn GBS ändern. Die nächste Spalte ist das Volumen. Wir haben alle SSDs, HDDs und
Magnetspeicher zur Auswahl Wenn wir uns den
Volumetyp für das Root-Volume ansehen, werden
Sie feststellen, dass wir hier
weniger Optionen haben Das liegt daran, dass nur SSDs ein Root-Volume sein
können. Für eine EC-Two-Instance haben
wir nicht die
HDD-Option für das Root-Volume Kommen wir zurück zu unserem neuen Volume und belassen
wir es bei GP Two, bei dem es sich um die
Allzweck-SSD handelt. Die nächste Option ist IOPS. Wie Sie sehen, haben wir
keine Möglichkeit, dies zu ändern. Gehen wir zurück und
ändern unseren Volumetyp. Wenn wir IO 102 oder GP Three wählen, haben
wir die
Möglichkeit, IOPS bereitzustellen Dies liegt daran, dass die IOPs für GP zwei festgelegt
sind Volumen bei drei IOPS pro GB liegt.
Lasst uns das verstehen Wenn wir erneut GP Two auswählen, können
Sie die IOPS 100 sehen, was mehr als
drei IOPS pro Da unsere Volume-Größe zehn GB beträgt, bedeutet
dreimal zehn, dass wir nur 30
IOPs haben sollten Das liegt daran, dass wir für GP
zwei mindestens 100 IOPs haben. Wenn wir die
Volumenseite auf beispielsweise
100 GBS ändern, können Sie sehen,
dass wir 300 IOPS haben Jetzt ändern wir die Seite wieder
auf zehn und wählen den Volumetyp
GP Two Die nächste Option ist der Durchsatz
, der uns den
Durchsatz unseres Volumes anzeigt. Ich werde den Durchsatz
auf dem EBS-Bildschirm behandeln. Wir können dies
nur für einen Volumentyp ändern,
den GP-Typ mit drei Volumes Die nächste Option ist das Kontrollkästchen „
Bei Kündigung löschen“. Mit dieser Option legen
wir fest, was mit dem EBS-Volume
geschehen soll, nachdem die EC
Two-Instance beendet wurde Wenn wir „Bei
Kündigung löschen“ aktiviert haben, wird
das Volume ebenfalls gelöscht wenn unsere Instance beendet
wird Bitte denken Sie daran, wenn
Sie möchten
, dass Ihre Daten auch nach der
Kündigung der Instanz erhalten bleiben, vergessen
Sie nicht,
dieses Häkchen für diese Demo zu Belassen wir es als Standard,
was bedeutet, dass, wenn
EC Two beendet wird, auch
das Root-Volume gelöscht wird Die nächste Seite ist Tags hinzufügen. Lassen Sie uns das vorerst überspringen und zur
nächsten Seite übergehen. Sicherheitsgruppe konfigurieren. Die erste Option besteht
darin, entweder
eine neue Sicherheitsgruppe zu erstellen oder eine bestehende zu
verwenden. Da wir
in unserem Konto
keine Sicherheitsgruppe erstellt haben , lassen Sie uns hier eine erstellen. Sie können den Namen
und die Beschreibung der
Sicherheitsgruppe nach Belieben ändern . Die nächste und
wichtigste Option ist die Konfiguration von
Sicherheitsgruppenregeln. Wie Sie sehen können,
hat AWS bereits
ein Standard-S hinzugefügt , bei dem es sich um eine Secure
Shell-Sicherheitsgruppe handelt. Diese Gruppe ermöglicht es uns, per SSH auf unsere
EC Two-Instance zuzugreifen. Aber warum
haben wir immer noch eine Warnung? Das liegt daran, dass, wenn Sie die Quellspalte
sehen, diese SH-Regel für
alle IP-Adressen geöffnet ist .
Das ist ein Problem. Lassen Sie uns diesen Wert
auf etwa 123.123
0.123 0.123 ändern und Da wir hier keine
unternehmenskritischen Systeme haben, ändern
wir ihn durch Null wieder
auf 0,0 0,0 0,0 Es ist nicht die beste
Methode,
SSH von jeder IP der Welt aus zuzulassen SSH von jeder IP der Welt aus Wenn Sie über zwei
EC-Instances in der Produktion verfügen, stellen Sie sicher, dass Sie
diesen Wert auf Ihren
eigenen IP-Adressbereich ändern diesen Wert auf Ihren
eigenen IP-Adressbereich Lassen Sie uns eine neue Regel hinzufügen, um
HTTP-Verbindungen
zu unserer Instanz zuzulassen . Wie Sie sehen können,
wurden unsere Protokolle durch die Auswahl von HTTP auf TCP und Port 28 festgelegt, was das
Standard-HTTP-Protokoll und der Standard-HTTP-Port ist. Wir möchten, dass jeder HTTP-Verbindungen
zu dieser Instanz
herstellen kann . Wir werden die Quelle hier
als Standard belassen. In der letzten Spalte wird der Regel
eine Beschreibung hinzugefügt. Lassen Sie uns hier keine Regel hinzufügen. wir nun die Sicherheitsgruppe
der C-2-Instance konfiguriert haben , wir mit der
Überprüfung und dem Start fortfahren. Sie können alle Parameter
für unsere C-Two-Instance sehen. Klicken Sie hier auf Launch. Jetzt müssen wir ein Schlüsselpaar
angeben,
da wir noch kein
Schlüsselpaar für unser Konto haben.
Lassen
Sie uns eines erstellen, ein neues Schlüsselpaar erstellen und einen Schlüsselpaarnamen für unser Beispiel hinzufügen Wir werden das Schlüsselpaar verpackt benennen. Klicken Sie auf den Download-Keeper.
Sie werden sehen, dass eine
Pm-Datei Es ist wichtig, diese Datei sicher
aufzubewahren da sie für den
Zugriff auf unsere EC-Two-Instanz benötigt wird. Denken Sie auch daran, dass sie nicht erneut heruntergeladen
werden kann. Klicken Sie auf Launch Instance, um
zur letzten Seite zu gelangen. Wenn Sie auf
View Instance klicken, werden
Sie sehen, dass AWS
eine EC Two-Instance für Sie erstellt. Der ganze Vorteil der
Cloud besteht darin, dass ich mit nur wenigen Klicks
100 Instanzen wie diese
starten kann . Cloud Computing ist sehr
flexibel und bietet Ihnen schnellen Zugriff auf
Rechenleistung, wann immer Sie sie benötigen. Wie Sie sehen können, läuft die
Instanz. Wenn Sie nun
auf das Kontrollkästchen klicken, finden
Sie alle
Instanzdetails, die öffentlichen IP-Sicherheitsgruppen, Integritätsprüfungen usw. Wann immer Sie
Informationen zu EC Two-Instances benötigen, suchen Sie
hier nach ihnen. Wenn Sie im linken Dashboard auf die
Volume-Optionen
klicken , können
Sie auch die beiden
EBS-Volumes sehen, die wir erstellt haben ein Root-Volume mit acht GB und ein zusätzliches Volume mit
zehn GB, die wir separat
erstellt haben, nachdem wir das
Ende dieses Labs Im nächsten Lab werden wir HTTPD auf unserer EC
Two-Instance
installieren und eine
kleine HTTPD-Website sehen Schüler, auf diese Weise
starten wir zwei EC-Instanzen. In der nächsten Lektion werden wir diese
Diskussion
fortsetzen und sehen, wie wir H in unserer
Instanz einschätzen können und so weiter. Danke.
39. SSH EC2-Instanz, Installiere Httpd: Im vorherigen Video haben wir unsere erste EC
Two-Instance erstellt und uns
bei der Erstellung
der Instance mehrere Parameter und
Optionen angesehen bei der Erstellung
der Instance mehrere Parameter und Optionen In diesem Video stellen wir mit einem
Linux
- oder Mac-Betriebssystem eine SSH-Verbindung zur C-2-Instanz her,
installieren den STTPD-Dienst
und starten eine
Testanwendung auf C two installieren den STTPD-Dienst und starten eine
Testanwendung auf Wir werden auch sehen,
wie
die Instanz beendet werden kann, um unerwartete Kosten zu
vermeiden Wenn Sie sich fragen,
was SSH ist, dann ist SSH eine Möglichkeit, einen Remote-Computer über die
Befehlszeile zu steuern Mithilfe von SSH können wir uns bei der EC Two-Instance
anmelden und alle Arten von
Vorgängen ausführen , wie wir
es auf unseren Laptops tun Gehen wir zunächst
zur AWS-Konsole. Geben wir nun EC two
in die Suchleiste ein und klicken Sie auf EC two, um direkt zum EC Two-Dashboard zu
gelangen. Wie Sie sehen können, befindet sich unsere Instanz
im laufenden Zustand. Wenn Sie sich an
das vorherige Lab erinnern, habe ich Ihnen gesagt, dass Sie
die Pm-Datei, die beim
Erstellen der Instanz
heruntergeladen wurde, beibehalten dass Sie
die Pm-Datei, die beim
Erstellen der Instanz
heruntergeladen wurde, sollen. Nicht, dass
wir ohne die Pm-Datei nicht per SSH auf die Instanz zugreifen Falls Sie die Datei verloren
oder gelöscht haben, müssen
Sie
die Instanz mit
einem neuen Schlüsselzahler neu erstellen Instanz mit
einem neuen Schlüsselzahler Als
Nächstes sollten Sie
sicherstellen, dass Ihre
Sicherheitsgruppe über
Regeln verfügt , die SSH auf Port
22 und STTP auf Port 80 zulassen Lassen Sie uns die öffentliche
IP dieser Instanz finden. Klicken Sie hier auf das Kontrollkästchen Jetzt können Sie alle
Details zur ausgewählten
EC Two-Instance sehen . Hier ist meine öffentliche IP. Lassen Sie uns diesen Wert kopieren. Lassen Sie uns nun weitermachen und eine
SSH-Verbindung zu unserer Instanz herstellen. Dazu müssen Sie
ein Terminal öffnen und den Befehl
S C two als Benutzer an
der angegebenen IP-Adresse eingeben S C two als Benutzer an
der angegebenen IP-Adresse C two user ist der
Standardbenutzername für alle
Amazon Linux-AMIs. Lassen Sie uns diesen Befehl ausführen. Wie Sie sehen können, ist der Befehl fehlgeschlagen, da die Erlaubnis verweigert wurde. Dies wird erwartet, da wir
nicht möchten, dass jemand nur von einer öffentlichen IP aus auf unsere EC
Two-Instance zugreifen
kann. Hier werden wir
die heruntergeladene Pm-Datei verwenden. Wir werden zu dem Ordner gehen, in dem
ich die Datei gespeichert habe. Wie Sie sehen können, habe ich meine
PM-Datei in diesem Ordner. Jetzt werden wir
denselben Befehl ausführen, aber wir werden auch die Schlüsseldatei
hinzufügen. Jetzt lautet der Befehl C zwei
Benutzer an der IP-Adresse. Jetzt machen wir
dasselbe wie zuvor, aber hier teilen wir AWS auch
mit, dass wir eine Schlüsseldatei für
die Instanz haben. Klicken Sie auf Enter. Jetzt erhalten wir einen weiteren Fehler, dass die
Erlaubnis verweigert wurde. Dies ist eine wichtige Phase und eine beliebte Frage bei AWS-Prüfungen. Warum wird uns dieser
Zugriff verweigert? Es heißt Warnung Ungeschützte
private Schlüsseldatei. Wenn wir
die Datei zum ersten Mal von AWS auf
eine Linux-Instance herunterladen , hat
sie die Berechtigungen 0644 Wie Sie hier sehen können, sind
diese Berechtigungen für
eine Schlüsseldatei zu offen , da Berechtigungen unangemessen
sind Mit AWS können Sie keine SSH-Verbindung
zum Computer herstellen. Der Fix, den Sie ausführen können, ist Mod
0400 gepackt. Zahlen Sie Dadurch werden die
Berechtigungen der Datei
0644-0400 geändert, was die entsprechende Berechtigung ist Lassen Sie uns den gleichen Befehl ausführen. Wie Sie sehen können, wurde
der Befehl jetzt wieder erfolgreich ausgeführt und wir befinden uns
in der zweiten EC-Instanz. Wenn wir uns bei der EC Two-Instance
anmelden, müssen wir zunächst EC Two-Instance
anmelden den Befehl
pseudo, um, update ausführen Dieser Befehl aktualisiert alle veralteten Pakete
in der Instanz.
Falls es welche gibt, um STTPD
zu installieren,
führen Sie den Befehl
pseudo install sttpDASy führen Sie den Befehl
pseudo Jetzt haben wir STTPD
auf unserem EC-to-Maschine installiert,
aber wir müssen auch den aber wir Um den STTPD-Dienst zu starten, müssen
wir einen anderen Befehl ausführen, das Pseudosystem CTL. Starten Sie STTPD. Dieser Befehl hat keine Ausgaben. Lassen Sie uns den
Status von STT PD überprüfen, indem das Pseudosystem
CTL status STTPD ausführen Wie Sie sehen können, läuft bei uns ein Prozess. Gehen wir nun zum
EC Two-Dashboard und wählen die EC Two-Instanz aus. Wir müssen die
öffentliche IP-Adresse kopieren und in unseren Browser einfügen. Sie können jetzt die
Standard-STTPD-Anwendung sehen, die auf Ihrer
EC Two-Instance bereitgestellt wird Lassen Sie uns nun
die EC Two-Instance beenden. Sie können dies tun,
indem Sie auf die Instanz klicken. Gehen Sie zu Accents, klicken Sie auf
Manage Instance State und beenden Sie die Instance. Dadurch wird
Ihre EC Two-Instance beendet. Wenn Sie sich erinnern, haben wir im vorherigen Lab
ein EBS-Volume an unsere Instance angehängt , bei dem das
Kennzeichen „Löschen bei Terminierung“ keine Form hatte Kennzeichen „Löschen bei Terminierung Das bedeutet, dass, obwohl unsere Instance beendet
wird, eine der
EBS-Instances Schauen wir uns das Volumes-Dashboard an. Sie können sowohl das Root-Volume als
auch das zusätzliche Volume sehen. Wenn Sie in einiger
Zeit eine Aktualisierung durchführen,
verschwindet das Root-Volume, das acht GB betrug, aus der Liste, aber wir haben immer noch das
10-GB-Volume im Dashboard. Lassen Sie uns weitermachen und auch
das EBS-Volume löschen. Lassen Sie uns nun
die Sicherheitsgruppe überprüfen. Wie Sie sehen, wurde auch
die von uns
erstellte Sicherheitsgruppe nicht gelöscht. Lass es uns nicht löschen. Sicherheitsgruppen sind
kostenlos. Es schadet nicht,
eine Sicherheitsgruppe
für unsere kommenden Labore griffbereit zu haben . Ebenso wurde das
gepackte Schlüsselpaar nicht
gelöscht und Sie können es
ohne Gebühren
in Ihrem Konto behalten ohne Gebühren
in Ihrem Konto In dieser Sitzung
konnten wir erfolgreich H in zwei
EC-Instanzen testen, STTPD installieren
und über einen Browser darauf zugreifen Das ist alles für diese Sitzung.
40. Eine Windows EC2-Instanz erstellen: In den letzten beiden Videos haben
wir Linux C gestartet, zwei Instanzen installiert,
STTPD installiert und über unseren Webbrowser darauf
zugegriffen In diesem Video werden wir
Sie durch die Schritte zum Starten einer Windows C
Two-Instance und den Zugriff darauf Dies wird der Linux C Two-Instance sehr
ähnlich
sein , praktische Demo, nur ein paar Konfigurationen werden
unterschiedlich sein. Lass uns anfangen. Gehen wir zur
AWS-Managementkonsole, geben Sie C zwei in die Suchleiste ein und
klicken Sie auf das
EC-Two-Suchergebnis , um direkt zum EC
Two-Dashboard zu gelangen. Wie immer ist es
wichtig, sicherzustellen, dass Sie eine Region in der Nähe von
Ihnen oder Ihrem Kunden auswählen. Ich werde die Region Mumbai auswählen. Klicken wir auf Launch Instances. Zunächst müssen wir
ein AMI namens Amazon
Machine Image auswählen . Dieses Mal werden wir
Windows AMI auswählen. Geben wir Windows in die
Suchoption ein und drücken Sie die Eingabetaste. Wir können Windows AMI hier sehen, und dieses AMI ist für das
kostenlose Abonnement qualifiziert, was bedeutet, dass
wir es
starten können , ohne
dafür Geld auszugeben. Wählen wir dies aus und
es wird Schritt zwei benötigt. Wählen Sie einen Instanztyp. Das AMI ist nur der
Unterschied zwischen dem Start von Linux- und
Windows-basierten EC Two-Instances. Der Rest der
Konfiguration ist
dieselbe , oder Sie können
andere Dinge ändern, wenn Sie möchten. Wie Sie sehen, sind jetzt
viele Instanztypen verfügbar. Auch hier werden wir Two Point
Micro verwenden, da wir keine besonderen Anforderungen
haben und wir auch weiterhin im freien Reifen
bleiben wollen. Klicken wir auf „
Instanzdetails konfigurieren“. Wie Sie hier wissen, stellen
wir Ihnen alle
instanzbezogenen Konfigurationen zur Verfügung. Lassen Sie uns mit der
Standardkonfiguration fortfahren und überprüfen, ob die automatisch
zugewiesene öffentliche IP aktiviert ist. Da wir für den
Zugriff auf die EC Two-Instance eine öffentliche IP benötigen, klicken Sie auf Weiter, um zur
nächsten Seite, Speicher hinzufügen, zu gelangen. Wie Sie sehen können, haben wir bereits ein EBS-Volume für uns ausgewählt Dies ist das Root-Volume, das das
Betriebssystem für diese Instance
enthält Die nächste Seite ist Tags hinzufügen. Lassen Sie uns das vorerst überspringen und zur
nächsten Seite übergehen. Sicherheitsgruppe konfigurieren. Lassen Sie uns den Namen
und die Beschreibung der
Sicherheitsgruppe nach Ihren Wünschen ändern . Sie sehen, wir haben den
RDS-Typ anstelle von SSH. Der Portbereich ist
3398 anstelle von 22. Dies liegt daran, dass Linux
und Windows
unterschiedliche Technologien verwenden , um eine Remoteverbindung
herzustellen Wir müssen hier
nichts weiter tun Lassen Sie uns mit der
Überprüfung und dem Start fortfahren. Sie können alle Parameter
für unsere EC Two-Instance sehen. Klicken Sie hier auf Launch. Jetzt müssen wir ein Schlüsselpaar
angeben. Ich werde denselben Schlüssel verwenden, den
ich beim letzten Mal erstellt habe. Ich werde das akzeptieren,
ich habe den Schlüssel. Klicken Sie auf Launch Instance und das bringt uns
zur letzten Seite. Wenn Sie auf die Instance klicken, werden
Sie sehen, dass AWS
eine EC-to-Instance für Sie erstellt. Der Instanzstatus ist ausstehend, was bedeutet, dass die
Instance gerade erstellt wird. Es dauert einige Minuten, bis der Status
auf „Wird ausgeführt“ geändert wird. Wie Sie sehen können, wird die Instanz jetzt
ausgeführt. Wenn Sie auf das Kontrollkästchen
klicken, finden
Sie alle
Instanzdetails, die öffentlichen IP-Sicherheitsgruppen, Integritätsprüfungen usw. Wann immer Sie
Informationen zu EC Two-Instances benötigen, suchen Sie
hier nach ihnen. Wählen wir die
EC-2-Instanz aus. Hier oben klicken Sie auf Connect. Hier haben wir nun drei Möglichkeiten , eine Verbindung zu dieser
EC Two-Instance herzustellen. Ich wähle den
zweiten Tab, den RDP-Client. Hier können Sie
den RDS-Client
, den wir für
RDS verwenden werden, auf die Instanz herunterladen , den wir für
RDS verwenden werden, auf die Instanz Klicken Sie nun auf Get Password. Sie kopieren entweder die
wichtigsten Inhalte und fügen sie hier ein oder laden
sie hoch, indem Sie auf den Browser klicken. Ich werde das
Descript-Passwort hochladen und darauf klicken. Jetzt ist dies das Passwort, mit dem ich eine Verbindung
zur C-2-Instanz herstellen
werde Kopiere das Passwort von hier. Lassen Sie uns nun den Client öffnen, den Sie basierend auf
Ihrem Laptop- oder
Computerbetriebssystem
heruntergeladen haben. Es wird eine
andere Oberfläche haben. Ich benutze einen Mac. Ich werde das Passwort hier posten. Es hat bereits einen Benutzer
für mich ausgewählt und wird fortfahren. Ich werde erneut auf Weiter klicken. Jetzt bin ich hier auf meinem EC
Two Windows-Computer. Das ist so ziemlich das, was Sie tun, um eine Windows-Instanz zu starten. Damit sind wir am Ende dieses Labors angelangt. Das ist alles für diese Sitzung.
41. ECS Elastic Container-Service: Hallo, Studierende. Willkommen zurück. In diesem Video erfahren wir mehr über einen der
Rechendienste von AWS,
nämlich Elastic
Container Service, auch bekannt als ECS. Wir werden verstehen, was ECS ist, Typen es
hat und vor allem, Anwendungsfälle es
hat.
Lass uns anfangen. Bevor wir den
Elastic Container Service verstehen, sollten wir kurz verstehen,
was ein Container ist. Weil ECS
auf der Grundlage der Container-Technologie entwickelt wurde. Wenn wir Anwendungen entwickeln, funktionieren
sie auf unserem Computer. Sie brechen jedoch ab, sobald wir diese Anwendungen
auf einen anderen Computer
verschieben. Dies kann
mehrere Gründe haben. Es kann sich um ein anderes
Betriebssystem, eine andere Version der
Abhängigkeit usw. handeln. Wie lösen wir dieses Problem? Nun, Container sind die
Lösung für dieses Problem. Anwendungscontainer sind eigenständige Einheiten, die
Anwendungscode und Abhängigkeiten,
Konfiguration, Netzwerke
und manchmal sogar einen Teil
des Betriebssystems enthalten ,
Konfiguration, Netzwerke . Im Wesentlichen befindet sich die gesamte
Software, die zum
Ausführen Ihrer Anwendung erforderlich ist, in einem Container. Container
ermöglichen es Ihnen , Ihre Anwendungen
auf jedem Computer auszuführen. Sie können sicher sein, dass
wenn es in einem System funktioniert, es in allen Systemen funktioniert. Docker ist die am weitesten
verbreitete Softwareplattform, mit der Benutzer
Anwendungen und Container erstellen Sie können Docker auf
Ihrem Computer installieren und einen
Container für jede Anwendung erstellen Wir müssen Docker an dieser Stelle nicht
im Detail besprechen. Lassen Sie uns weitermachen und
verstehen, was ECS ist. Amazon ECS ist ein vollständig verwalteter
Container-Orchestrierungsservice , der es Ihnen leicht
macht,
containerisierte Anwendungen bereitzustellen, zu verwalten und zu skalieren Das bedeutet, dass ECS die Verwendung und Verwaltung
von Docker-Containern
erleichtert Wenn Sie ECS verwenden, müssen
Sie
Ihre Container nicht installieren, betreiben oder skalieren Ecs erledigt all
diese Aufgaben für Sie. Integriert sich tief in den Rest
der AW-Plattform und
bietet so eine sichere, benutzerfreundliche Lösung für Ausführung von
Container-Workloads in der Cloud Um ECS zu verstehen, sollten
Sie
einige Begriffe kennen , die häufig
in der ECS-Aufgabendefinition verwendet werden Die Aufgabendefinition ist
ein Jason-Skript, das mehrere Parameter
zum Ausführen Ihrer Anwendung
enthält. In einfachen Worten
teilt die Aufgabendefinition ECS mit, wie ein Container
ausgeführt werden soll. Sie können beispielsweise
genau definieren, wie viel RAM und CPU ein Container benötigt oder auf welchem EC-Port
Ihre Anwendung gestartet werden soll. Ecs stellt dann sicher, dass
alle Ihre Anforderungen
erfüllt werden , wenn ECS einen Container ausführt. Basierend auf Ihrer Aufgabendefinition wird
sie als Aufgabenrolle bezeichnet. Ihre Container können
mehrere Operationen auf AWS ausführen . Beispielsweise
muss ein Container möglicherweise Nachrichten von
einer SQSQ lesen oder
mit S Three oder einem
anderen AWS-Service interagieren mit S Three oder einem
anderen AWS-Service Daher müssen Sie die
Erlaubnis erteilen, Ihre Aufgaben auszuführen. Dies erfolgt
mithilfe der Aufgabenrolle. Eine Aufgabenrolle ist eine AWS IAM-Rolle , die in
der Aufgabendefinition definiert ist Diese Rolle wird verwendet, um
AWS-Zugriff auf ECS-Aufgaben zu gewähren. Schauen wir uns nun an, wie das
alles in ECS aussieht. Sie benötigen einen ECS-Cluster , um Ihre
Container-Anwendung auszuführen. Dieser ECS-Cluster besteht aus zwei oder mehr EC-Instances, die
als Container-Instances bezeichnet werden. Dann haben wir Dienste, die sich über diese beiden
verfügbaren Instanzen erstrecken. Hier erstellt ECS
Aufgaben oder Docker-Container. Eines der ersten Dinge
, die Sie bei der Verwendung von
ECS tun müssen, ist die Bereitstellung und
Wartung der Infrastruktur Ecs kümmert sich dann für Sie um das
Starten und Stoppen von Containern. Sie können dies auf
zwei Arten tun, indem Sie
ECS-Starttypen verwenden , bei denen es sich um den Starttyp Far Get
und den Starttyp EC Two handelt. Beim Starttyp C two konfigurieren und implementieren
wir EC-Instances in Ihrem
Cluster, um Ihre Container auszuführen. Ecs verwaltet die Container
auf diesen beiden EC-Instances. Um den
Starttyp EC two in ECS zu verwenden, müssen
Sie
EC Two-Instances
manuell erstellen oder
Autoscaling-Gruppen verwenden Target-Starttyp, dies ist eine serverlose
Pay-as-you-go-Option Sie können Container ausführen ohne Ihre Infrastruktur verwalten
zu müssen Wir können den Starttyp
Farget verwenden und alles über die
Erstellung von EC Two vergessen Wir teilen ECS mit, wie
viele Container
ausgeführt werden sollen und wie viel RAM und CPU ein Container haben
sollte Ecs Farget stellt sicher, dass wir immer über genügend Ressourcen verfügen, um Container
auf den Markt zu bringen Das ist alles für diese Sitzung.
42. AWS Elastic Beanstalk: Hallo, Studierende. Willkommen zurück. In diesem Video
erfahren wir mehr über einen
der Rechendienste von AWS, den Elastic Beanstock Ich werde erläutern, was
Elastic Beanstock ist, Funktionen es bietet und vor
allem, welche
Funktionen es bietet und vor
allem,
welche Anwendungen es bietet.
Lass uns anfangen Aws ist ein führendes Cloud-Computing-Unternehmen mit fast 200 Diensten. Aus diesem Grund sollte man
über die meisten Dienste Bescheid wissen. Um Anwendungen auf
AWS bereitzustellen und effizient zu verwalten. Sie müssen zunächst über
mehrere AWS-Services Bescheid wissen und
wissen, wie Sie sie
kostengünstig nutzen können. Das ist in Ordnung, wenn Sie mehrere Anwendungen
oder eine große Anwendung haben . Aber was ist, wenn Sie nur eine Webanwendung
haben? Tage damit zu verbringen, AWS nur zu
erlernen eine Webanwendung
bereitzustellen ist kein sehr
effizienter Ansatz. Selbst wenn Sie sich mit AWS vertraut
gemacht haben, müssen Sie
sich die Mühe machen Ihre
Infrastruktur auf AWS zu warten. Als Entwickler möchten
Sie sich keine
Gedanken über die Skalierbarkeit der Infrastruktur, Konfiguration von Verbindungen,
Datenbanken und mehr machen. Sie möchten Anwendungen schnell bereitstellen
und instand setzen. Dies ist das Problem, mit dem
Elastic Beanstock AWS löst. Elastic Beanstock
ist ein benutzerfreundlicher
Service für die Bereitstellung und
Skalierung Er ist auch als B bekannt. Dabei handelt es sich um eine
Platform-as-a-Service, die von AWS angeboten wird Um Elastic Beanstock zu verwenden, erstellen
Sie eine Anwendung, laden eine Anwendungsversion in Form eines
Anwendungsquellpakets hoch, z.
B. eine Java-Datei,
auf Elastic Beanstock, und geben dann einige Informationen
über die Elastic Beanstock
startet automatisch ein Inventar und
erstellt und konfiguriert die AWS-Ressourcen
, die für
die Ausführung Ihres Codes erforderlich sind. Sobald Ihr Engagement gestartet
ist, können
Sie
Ihre Umgebung verwalten und neue Anwendungsversionen bereitstellen Nachdem Sie Ihre Anwendung erstellt und
bereitgestellt haben, Informationen über
die Anwendung, einschließlich Metriken, Ereignisse
und Umgebungsstatus, einschließlich der einheitlichen AWS-CLI, verfügbar APIs
der Elastic
Beanstock-Konsole oder über die
Befehlszeilenschnittstellen, einschließlich der einheitlichen AWS-CLI Wenn Sie als Entwickler EB verwenden, können
Sie Anwendungen bereitstellen, können
Sie Anwendungen bereitstellen ohne die
zugrunde liegende Infrastruktur bereitstellen zu Aws stellt sicher, dass Ihre Infrastruktur
bereit und hochverfügbar ist Intern verwendet EB Re
alle Komponenten, die wir
zuvor gesehen haben , wie RDS, Load Balancer, EC Two, um Anwendungen auszuführen Sie können EB
jedoch verwenden ohne weitere Kenntnisse über
diese internen Komponenten Es handelt sich um einen eigenständigen Dienst, aber Sie zahlen für die
zugrunde liegende Infrastruktur, die mithilfe von
Beanstock bereitgestellt Schauen wir uns nun an, wie Elastic Beanstock in AWS funktioniert Wir haben ein AWS-Konto
und eine darin enthaltene VPC. Hier werden wir eine elastische
Beanstock-Umgebung schaffen. Wie wir wissen, wird Beanstock die gesamte zugrunde liegende
Infrastruktur wie EC,
zwei Instanzen, Loadbalances,
Datenbanken,
Sicherheitsgruppen usw.
erstellen zwei Instanzen, Loadbalances, . Als Entwickler
interessieren Sie sich nur für Ihren Code. Sie möchten sicherstellen, dass sie ihre Zeit
damit verbringen, großartigen Code zu
schreiben, ihn zu
testen und die gesamte zugrunde liegende
Infrastruktur für sie verwalten zu lassen. In diesem Fall haben wir einen Entwickler, der eine
WAR-Datei mit seinem Code hat. Es
muss wirklich keine Kriegsdatei sein. Es könnte auch ein PLZ- oder
Github-Code sein. Er kann diese
WAR-Datei über
die
EB-Managementkonsole oder EVCLI bereitstellen die
EB-Managementkonsole oder EVCLI Beanstock stellt dann
die Anwendung bereit und führt den
Rest der Konfiguration durch,
z. B. den Elastic Load Balancing,
die Auto Scaling-Gruppe,
die Instanzen und sogar
eine Datenbank, das ist alles z. B. den Elastic Load Balancing, die Auto Scaling-Gruppe, die Instanzen und sogar
eine Datenbank, das ist Jetzt kümmert sich
Elastic Beanstock um die Anwendungsskalierung, das
Betriebssystem-Upgrade, das Patchen , die
Protokollierung von Metriken und alles , die
Protokollierung von Als Entwickler können Sie sich
auf Ihre Anwendung
und Ihre Geschäftsfunktionen konzentrieren auf Ihre Anwendung
und Ihre Geschäftsfunktionen Schauen wir uns nun die Funktionen von
Elastic Beanstock an. Es unterstützt verschiedene
Programmiersprachen wie Java.net PHP, Node JS, Python,
Ruby, Go und Es lässt sich in
Amazon VPC integrieren und startet AWS-Ressourcen wie EC
Two-Instances Es lässt sich in das
AWS-Identitäts- und Zugriffsmanagement und hilft Ihnen, den Zugriff auf
Ihre AWS-Ressourcen sicher zu
kontrollieren Sie können auch Cloudfront
integrieren. Cloudfront kann verwendet werden, um den Inhalt in S
Three zu
verteilen , nachdem ein elastischer Beanstock erstellt und
bereitgestellt wurde Es unterstützt die Ausführung von
RDS-Instances in der Elastic
Beanstock-Umgebung, was sich ideal für
Entwicklung Elastic Beanstock ist eine
hervorragende Wahl für Sie, um Ihre Anwendung innerhalb weniger Minuten in der
AWS-Cloud
bereitzustellen Sie benötigen keine
Erfahrung und kein Wissen Cloud Computing, um
mit Elastic Beanstock zu beginnen Sie erstellen
EV-Anwendungsumgebungen und geben einige Parameter an,
und schon sind Sie fertig Das ist alles für dieses Video.
43. Serverloses Rechnen: Hallo Studierende. Willkommen zurück. In diesem Video werden wir das Konzept
ohne Server
verstehen und verstehen, warum es im
Cloud-Computing beliebter
ist. Lass uns anfangen. Bei den meisten Diensten, die
wir bisher gesehen haben, war
der Entwicklungs- und
Bereitstellungsprozess derselbe. Entwickeln Sie Ihre Anwendung,
weisen Sie die Infrastruktur und stellen Sie dann
die Anwendung auf dieser
zugewiesenen Infrastruktur bereit und führen Sie die Anwendung auf dieser
zugewiesenen Infrastruktur So sollte es sein. Sie benötigen immer einen
zugrunde liegenden Server , um Ihren Anwendungscode auszuführen. Es bestand schon immer die Notwendigkeit,
unsere Infrastruktur
bereitzustellen und zu warten. An dieser Stelle
kommt Serverless ins Spiel. Serverless war
das Schlagwort. In der Cloud-Computing-Welt folgen
viele Anwendungen einer serverlosen Der Begriff leitet sich von der Idee ab , dass die Infrastruktur
, auf der
Ihre Anwendungen ausgeführt werden,
nicht mehr
von Ihnen oder Ihrem Team
bereitgestellt oder gewartet werden muss von Ihnen oder Ihrem Team
bereitgestellt oder gewartet Serverlos kann auch verwirrend
sein, weil in serverlosen
Architekturen Das bedeutet nicht, dass Ihrer Anwendung
kein Server zugrunde liegt Es ist nur so, dass Sie sich keine Gedanken über die
Verwaltung des Servers machen müssen . Wenn Sie ein Endbenutzer sind, könnte
es genauso gut sein, dass er nicht existiert, weil Sie sich nie um Server kümmern
müssen, daher der Begriff serverlos Aber es gibt einen Server, dessen Bereitstellung und Wartung vollständig vom
Anbieter übernommen werden Wenn wir es in die AWS-Terminologie
aufnehmen, müssen Sie kein einfach zu instanzierendes und zu
konfigurierendes Betriebssystem
für Ihre Anwendung mehr erstellen und verwalten konfigurierendes Betriebssystem
für Ihre Anwendung Das bedeutet, dass wir die gesamte
Verantwortung
für die Verwaltung des
zugrunde liegenden Servers delegieren für die Verwaltung des
zugrunde liegenden Servers und alles erledigt ist Der Server kann
automatisch skalieren und Ihnen
entsprechend Ihrer Nutzung Gebühren berechnen Serverlose Dienste sind bei vielen
modernen Cloud-Anwendungen
sehr beliebt geworden bei vielen
modernen Cloud-Anwendungen
sehr beliebt Schauen wir uns nun die
Vorteile von Serverless an. Bei Serverless müssen
keine Instanzen verwaltet werden. Sie müssen keine Hardware
bereitstellen. Es gibt keine Verwaltung von
Betriebssystemen oder Software. Die Kapazitätsbereitstellung
und das Patchen werden automatisch für
Sie erledigt Es kann auch sehr
kostengünstig sein ,
serverlose Dienste auszuführen Ihnen wird nur das in Rechnung
gestellt, was Sie tatsächlich nutzen. Code wird nur ausgeführt, wenn
Back-End-Funktionen vom Server benötigt werden , ohne dass
der
Anwendungsserver weniger
automatisch und elastisch skaliert automatisch und elastisch Es verfügt auch über eine integrierte
Hochverfügbarkeit. Sie stellen den
Code einfach als Entwickler und er wird bei Bedarf automatisch
skaliert. Angenommen, eine Funktion
muss in mehreren Instanzen ausgeführt werden. In diesem Fall starten
und beenden die
Server nach Bedarf, wobei
häufig Container verwendet werden. Infolgedessen
verarbeitet eine serverlose
Anwendung eine ungewöhnlich hohe
Anzahl von Anfragen In einer herkömmlichen
strukturierten Anwendung
mit
begrenztem Serverplatz wird
sie jedoch überfordert, wenn die Nutzung plötzlich
zunimmt Das ist alles für dieses Video.
44. AWS Lambda: Hallo, Schüler. Willkommen zurück. In diesem Video werden wir AWS Lambda
verstehen.
Lass uns anfangen Lambda ist ein serverloser
Dienst, mit dem Sie Code
ausführen können, ohne Server bereitzustellen
oder zu verwalten Im Gegensatz zu zwei Instanzen, in denen unsere Anwendung kontinuierlich ausgeführt
werden muss, ermöglicht uns
AWS Lambda das Schreiben Funktionen, die bei Bedarf ausgeführt
werden können Aws Lambda-Funktionen
können durch
Ereignisse innerhalb oder außerhalb
des AWS-Kontos ausgelöst werden Ereignisse innerhalb oder außerhalb
des AWS-Kontos und
müssen nicht ständig Sie können beispielsweise
eine Funktion schreiben , um eine
Dateiverarbeitungsaufgabe auszuführen Und es wird ausgelöst, wenn Daten in
den S Three-Dienst hochgeladen werden. Jedes Mal, wenn eine Datei auf S Three
hochgeladen wird, haben
Sie jetzt eine
Funktion, die diese Datei
automatisch
ausführt und verarbeitet. Oder Sie können eine
Lambda-Funktion verwenden, die
Werte aus einer Datenbank für
Ihre Frontend-Anwendung abruft Werte aus einer Datenbank für
Ihre Frontend-Anwendung Es gibt mehrere Möglichkeiten,
Lambda-Funktionen zu verwenden. Es kann für
alles verwendet werden, von der Ausführung kleiner Einzelaufgaben bis hin zum Ersetzen ganzer
Back-End-Anwendungen Sie sollten auch beachten, dass AWS-Lambda-Funktionen nur für kurze Ausführungen
gedacht sind Sie können Code in
Lambda nur für maximal
15 Minuten ausführen , was für die meisten Anwendungsfälle eine angemessene
Zeitspanne ist Bitte beachten Sie hier, dass sich dies
ständig ändert. Ich würde empfehlen AWS-Dokumentation
nach aktuellen Updates zu suchen. Wenn Sie jedoch einen einzelnen Prozess haben , dessen Ausführung länger als
15 Minuten dauert, müssen
Sie ihn auf
einem Server wie EC Two
Instances oder einem Container bereitstellen . Lassen Sie uns einen Blick auf einige
andere Funktionen von AWS Lambda werfen. Die erste Funktion kommt
hier, die automatische Skalierung. Wenn wir zwei EC-Instances verwenden, müssen wir Skalierungsrichtlinien immer noch manuell erstellen, obwohl
wir über eine
Autoscaling-Gruppe verfügen, um unsere
Infrastruktur zu
skalieren Wir müssen AWS anweisen, Instanzen
auf der Grundlage von Cloud-Watch-Alarmen hinzuzufügen oder zu
entfernen Im Vergleich dazu
kann AWS Lambda automatisch skalieren. Nehmen wir das gleiche Beispiel
für die Dateiverarbeitung Lambda , das jedes Mal ausgeführt wird, wenn eine Datei auf S drei hochgeladen
wird Was passiert, wenn Sie, sagen
wir, 500 Dateien hochladen sagen
wir, 500 Dateien Sie werden 500
Lambda-Funktionen
haben Ihre
Dateiverarbeitungsaufgaben ausführen Das ist die Stärke von Serverless. Sie müssen sich keine Gedanken über die
Skalierung Ihrer Infrastruktur machen. Aws stellt sicher, dass Sie immer über genügend Ressourcen verfügen
, um Ihren Code auszuführen. Beachten Sie hier, dass AWS
ein Servicekontingent von 1.000 gleichzeitig ausgeführten
Lambdas In unserem Beispiel treten möglicherweise
einige Lambda-Fehler auf, wenn Sie mehr als 1.000
Dateien auf den S Three
hochladen Dieses Limit wurde
eingeführt, um einen Missbrauch
Ihres Kontos und
unerwünschte Gebühren zu verhindern Wenn in Ihren Anwendungsfällen mehr als
1.000 Lambda-Funktionen gleichzeitig
ausgeführt werden
müssen , können
Sie dieses Limit beim
AWS-Support erhöhen lassen Die nächste Funktion ist die
Bezahlung pro Benutzer. nächste und
lukrativste Funktion von Lambda ist die Bezahlung Das bedeutet, dass Sie für
die Zeit zahlen, in der Ihr Code ausgeführt wird. Es fallen keine Gebühren an, wenn
Ihr Code nicht ausgeführt wird. Angenommen, Ihr
Lambda für die Dateiverarbeitung läuft 1 Minute lang. Sie zahlen nur die
Rechenkosten von 1 Minute. Wenn Sie zehn Lambdas 1 Minute lang
laufen lassen, zahlen
Sie für 10 Minuten
Rechenzeit usw. Das nächste Feature ist Ram. Lambda-Funktionen können
Ressourcen auf bis zu GB RAM erhöhen. Es ist auch wichtig
zu beachten, dass, wenn Sie den Arbeitsspeicher
Ihrer Lambda-Funktion
erhöhen, Ihre CPU- und
Netzwerkfähigkeit von Lambda Dies ist ein trendiges Prüfungsthema. Wie werden Sie die
CPU und das Netzwerk von Lambda erhöhen? Die Antwort ist, dass der Arbeitsspeicher erhöht werden muss
. Das nächste Feature ist die Integration. Wie ich bereits sagte, hat
AWS Lambda
viele Anwendungsfälle und wurde in viele AWS-Services integriert Schauen wir uns einige
der wichtigsten Integrationen
und ihre Anwendungsfälle Im ersten Anwendungsfall in S drei, wie in dem Beispiel, das
wir bisher genommen haben, können
Sie in S drei einen Lambda für verschiedene
Ereignistypen ausführen lassen in S drei einen Lambda für verschiedene
Ereignistypen Der nächste ist Dynamodb. Sie können einen Trigger erstellen,
sodass Lambda immer dann
ausgelöst wird , wenn ein Ereignis in unserer Dynamodb, einem Datenbankdienst
,
eintritt , Das nächste ist das API-Gateway. Integration von Lambda und API-Gateways ist einer der am
häufigsten verwendeten Anwendungsfälle von Lambda Api Gateway ist ein AWS-Service , der zur
Erstellung von Rest-APIs verwendet wird In AWS können Sie Lambda hinter
ein API-Gateway
stellen und
einen Rest-API-Endpunkt erstellen , um Ihre Lambda-Funktion
aufzurufen Das nächste ist SNS.
Sie können eine
Lambda-Funktion haben, die auf Benachrichtigungen
in einem SNS-Thema
reagiert Benachrichtigungen
in einem SNS-Thema
reagiert Sns ist außerdem in
möglicherweise alle Arten von
Ereignissen in der AWS-Konsole integriert möglicherweise alle Arten von
Ereignissen in der AWS-Konsole Mit dieser Integration können
all diese Ereignisse verwendet werden, um Lambda-Funktionen auszulösen Der nächste ist SQS. Lambda kann verwendet werden, um Nachrichten in SQS Qs zu
verarbeiten. Das letzte sind
Cloud Watch-Ereignisse. Sie können
Lambda-Funktionen auch mit
Cloud Watch-Ereignissen ausführen Lambda-Funktionen auch mit
Cloud Watch-Ereignissen Schauen wir uns abschließend einige kleine Beispiele für Lambda-Funktionen
an Wie Sie sehen können,
läuft
unsere Frontend-Anwendung auf zwei EC-Instanzen Dann haben wir ein API-Gateway , das unsere
Lambda-Funktionen für das Backend aufruft Diese Lambda-Funktion wurde
ebenfalls in
RDS integriert und ruft
Daten ab und speichert sie in der Auf der anderen Seite haben wir
die Frontend-Anwendung,
die Aufgaben an die SQS-Cues weiterleitet,
die in ein anderes Lambda integriert
wurde Für die Nachrichtenverarbeitung können Sie ein Cloudwatch-Ereignis
erstellen, ein Cloudwatch-Ereignis
erstellen das in regelmäßigen Abständen ausgelöst wird Da Sie Lambda
von einem Cloudwatch-Ereignis aus auslösen können, können
Sie eine Lambda-Funktion verwenden Dies ist ein beliebter Anwendungsfall und Prüfungsfrage, wie
ein Lambda ausgeführt wird, um einen befehlsbasierten Job auszuführen Die Antwort lautet
Cloudwatch-Ereignisauslöser. Das ist alles für diese Sitzung.
45. Datentypen: Hallo, Schüler. Willkommen zurück. Wie Sie wissen, dreht
sich in diesem Modul alles um Datenbanken. Bevor wir uns jedoch mit Datenbanken
befassen, werden
wir
Daten und ihre Typen schnell verstehen. Wir entscheiden uns
aufgrund der Art unserer Daten für eine
geeignete Datenbank . Daher ist es sehr wichtig Daten und deren Art
zu verstehen. Beginnen wir mit den
Datenquellentypen. Es gibt drei Arten
von Datenquellen:
strukturierte, unstrukturierte
und halbstrukturierte Lassen Sie uns zunächst
strukturierte Daten verstehen. Es handelt sich um Daten mit vordefinierten Datentypen, die
in einem bestimmten Format gespeichert werden. Lassen Sie uns den
vordefinierten Datentyp
und das spezifische Format anhand
eines Telefonbuchbeispiels verstehen . In dieser Tabelle können Sie
sehen, dass die oberste Zeile
unterschiedliche Namen hat , die definieren, welche Art von Daten
in den verschiedenen Spalten vorhanden sind. Die Seriennummer
steht beispielsweise für die Anzahl der Datensätze, die wir haben. Die Spalte mit dem Vornamen enthält den Vornamen jedes
Eintrags in unseren Daten. Dies ist ein Format, wenn wir diesen Daten weitere persönliche
Details
hinzufügen
möchten , müssen wir dafür
eine neue Spalte erstellen. Nehmen wir an, Sie möchten auch eine Adresse
hinzufügen. In diesem Fall müssen Sie
einen zusätzlichen Header, eine
benannte Adresse, hinzufügen . Dann können nur Sie diesen Daten
Adressen hinzufügen. Im Grunde ist dies
ein bestimmtes Format. Lassen Sie uns nun
die Datentypen verstehen. Wie Sie sehen können, haben
wir Zahlen in den Spalten Seriennummer und
Telefonnummer, und die Spalten Vorname und
Nachname haben Korrektoren Gemäß den definierten Spalten wird von
Ihnen erwartet, dass
Sie Zahlen in
die Spalten Seriennummer und
Telefonnummer
sowie Zeichen in die Spalte
Vorname und Nachname eingeben die Spalten Seriennummer und
Telefonnummer sowie Zeichen in die Spalte
Vorname und Nachname Das heißt, es ist
definiert, welche Art von Daten wir
in verschiedene Spalten eingeben können. Strukturdaten werden als
eine Reihe von Datenwerten in
definierten Tabellen gespeichert , die von
einer Datenbank-Engine
wie My Esque verwaltet einer Datenbank-Engine
wie My Esque Diese Daten sind stark strukturiert. Aus diesem Grund sind sie
sehr einfach zu analysieren und können in
hochkomplexen Abfragen verwendet werden. Der nächste Datentyp sind
unstrukturierte Daten. Unstrukturierte Daten haben
eine interne Struktur, enthalten
jedoch kein
vordefiniertes Datenmodell Stellen Sie sich zum Beispiel ein Video vor. Es sind auch Daten,
aber die Art und Weise, wie sie gespeichert werden, unterscheidet sich
von strukturierten Daten. Diese Art von Daten liegt
normalerweise in Form von Dateien vor, die in einem
Speicher wie Dropbox gespeichert sind. Dropbox ist wie eine Speichereinheit in der Sie Textdateien,
Fotos, Videos usw. speichern können . Die unstrukturierten Daten als Ganzes sind irrelevante Beispiele für unstrukturierte
Daten sind Textnachrichten, Dokumente, Videos,
Fotos und andere Diese Dateien sind nicht organisiert, sie können nur in
einem Dateisystem oder Objektspeicher abgelegt werden einem Dateisystem oder Objektspeicher Wenn Sie aus diesen Daten
aussagekräftige Informationen
herausholen möchten , müssen
Sie sie verarbeiten. Sie benötigen spezielle Tools, um die unstrukturierten Daten
abzufragen und zu verarbeiten Der letzte Datentyp sind
semistrukturierte Daten. Semistrukturierte Daten sind eine
Form strukturierter Daten. Der einzige Unterschied besteht darin, dass semistrukturierte Daten flexibel
sind und aktualisiert
werden können , ohne
das Schema für jeden
einzelnen Datensatz in einer Tabelle zu ändern das Schema für jeden
einzelnen Datensatz in einer Dies ist ein Beispiel für
semistrukturierte Daten. Wie Sie hier sehen können, gibt es zwei Datensätze und
sie sehen gleich aus, oder? Wenn Sie feststellen, dass die
zweiten Daten
eine zusätzliche
Informationsadresse haben. Semistrukturierte Daten ermöglichen es
einem Benutzer, Daten
in beliebiger Struktur zu erfassen , wenn
sich Daten im Laufe der Zeit weiterentwickeln und ändern Semis, Strukturdaten,
werden in Jason-Dateien gespeichert, die in eine
Datenbank-Engine wie Mongo Devi geladen
werden Diese Daten sind sehr flexibel
, da die Struktur
nicht streng ist und nach
Bedarf innerhalb der Tabelle geändert werden kann Sie können auch
halbstrukturierte Daten analysieren. Das ist alles, was ich in dieser Sitzung
behandeln wollte.
46. Relationale Datenbanken: Hallo Studierende. Willkommen zurück. Im letzten Video haben Sie drei
Arten von Datentypen
verstanden:
strukturierte, unstrukturierte
und halbstrukturierte Da die Art dieser
Daten unterschiedlich ist, werden
sie unterschiedlich gespeichert. In diesem Video werden wir
verstehen, wo und wie
diese Daten gespeichert werden. Am Ende dieses Videos werden
Sie wissen, warum wir
strukturierte Daten in einer
relationalen Datenbank speichern strukturierte Daten in einer
relationalen Datenbank Fangen wir mit einem Beispiel an. Wir verwenden oft ein
Excel-Blatt, um Daten zu speichern, oder? Das liegt daran, dass es
einfacher ist, die Daten in Excel zu organisieren und zu
verwalten
als in jedem anderen Tool. Diese Art von Daten wird als Strukturdaten
bezeichnet. Wir haben das in
der letzten Sitzung besprochen. Excel-Tabellen eignen sich gut
für persönliche Daten, aber wenn Sie an große Unternehmen
denken, ist
das eine ganz andere
Welt. Sie verarbeiten riesige
Datenmengen, deren Speicherung und Verwaltung sehr
schwierig sind. Wenn die Datenmenge wächst, führt
dies häufig auch zu Dateninkonsistenz und
Redundanz Angenommen, wir haben eine Tabelle Kurse
von Studenten
gespeichert Schauen Sie sich nun an, ob der Student Sham
Singh mit Studentenausweisnummer 101 mehr als einmal
gespeichert ist Dies wird als Datenredundanz bezeichnet. Ein anderes Problem könnte sein, sagen
wir, Samsung
ändert seinen Nachnamen In diesem Fall muss
sein Nachname überall
in unseren Daten geändert werden. Andernfalls könnte es
zu Dateninkonsistenzen kommen. Bei kleinen Datensystemen könnte
es einfacher sein, das Problem zu lösen Wenn das
Datensystem jedoch riesig ist, ist
es schwierig, die Daten zu
verwalten. Um
diese Probleme zu vermeiden, verwenden
wir datenbasierte Technologie. Es handelt sich um eine organisierte
Sammlung von Daten
, sodass sie leicht
abgerufen und verwaltet werden können. Nehmen wir nun an, Sie möchten eine E-Mail an Kishor
senden. Daher gibt es ein weiteres Blatt , das
Angaben zu den Schülern wie E-Mail,
Personalausweis, Telefonnummer usw. enthält Personalausweis, Telefonnummer usw. Aus dem ersten Blatt wissen
wir, dass sich Kiss in der Personalabteilung befindet, aber wir können Kiss nicht auf dem Blatt mit
den Studentendetails finden Das bedeutet, dass unsere Daten inkonsistent
sind. Wir können dieses
Problem mit einigen Regeln lösen, Beispiel kann sich ein Student
ohne
Registrierung nicht für den Kurs Auf diese Weise werden
alle Blätter
für jeden Schüler ausgefüllt. Der Punkt hier ist, dass
die beiden Excel-Tabellen
eine Beziehung haben und einer bestimmten
Regel für organisierte Daten folgen. Dies wird als Relationsdaten bezeichnet, was das Konzept der
relationalen Datenbank mit sich bringt Eine Datenbank ist eine organisierte
Sammlung verwandter Daten. Es handelt sich um eine organisierte Sammlung,
da in einer Datenbank alle Datensätze beschrieben
und miteinander in Beziehung gesetzt werden Daten sind
wie in einer relationalen Datenbank in Relationen organisiert wie in einer relationalen Datenbank in Relationen Jede Tabelle hat einen Satz, der die Datenstruktur
definiert, und ein
Datenschema, das in der Tabelle gespeichert Ein Datensatz ist eine Gruppe
von Feldern in einer Tabelle. Sie können sich
Datensätze als Zeilen oder
Tupel der Tabelle
und Felder als Spalten vorstellen Tupel der Tabelle
und Felder als Spalten In diesem Beispiel haben
Sie eine Tabelle mit
Schülerdaten, wobei jede Spalte einen Schülerdatensatz und jede Spalte
ein Feld des Studentendatensatzes darstellt ein Feld des Studentendatensatzes Ein spezielles Feld oder eine
Kombination von Feldern, die den eindeutigen Datensatz
bestimmt, wird als Primärschlüssel bezeichnet. Zum Beispiel Studentenausweis. Es ist für jeden Schüler einzigartig. Dieser Schlüssel ist normalerweise die eindeutige
Identifikationsnummer der Datensätze. Es verwendet eine Struktur, die es
ermöglicht, Daten in Bezug auf
andere Daten
in der Datenbank zu identifizieren und darauf zuzugreifen . Wie Sie sehen,
hat jeder Student eine eindeutige ID,
anhand derer der Datensatz desselben Schülers in
der
Studentenregistrierung gefunden werden kann anhand derer der Datensatz desselben Schülers in
der
Studentenregistrierung gefunden werden . Wie Sie sehen,
haben diese Daten eine bestimmte Struktur, die als Schema bezeichnet wird. relationalen Datenbanken
werden Strukturdaten gespeichert.
Sie ermöglichen es Ihnen, mithilfe
eines strukturierten Datenmodells
schnell Daten und abgefragte Daten zu sammeln mithilfe
eines strukturierten Datenmodells
schnell Daten und abgefragte Daten Die Verwendung von Tabellen zum
Speichern von Daten in Spalten und Zeilen erleichtert den
Zugriff auf und die Verwaltung Aws bietet eine Datenbanklösung für relationale Datenbanken, auf die
wir in der
Einführung in das RDS-Modul eingehen Das ist alles für diese Sitzung.
47. NoSQL-Datenbanken: Hallo, Studenten. Willkommen zurück. In diesem Video werden wir die Nosql-Datenbank
verstehen. Beginnen wir mit einem kurzen
Überblick über das vorherige Video. Wir haben verstanden, dass
die Daten in einer relationalen Datenbank
so organisiert , dass die Werte in einer Tabelle die
Werte in einer anderen Tabelle
definieren oder ändern können die
Werte in einer anderen Tabelle
definieren oder ändern Mit anderen Worten,
es besteht eine Beziehung zwischen den
verschiedenen Datentabellen Nehmen wir das gleiche Beispiel
einer relationalen Datenbank, in der die
Anmeldedaten für
Studierende gespeichert Anmeldedaten für
Studierende Eine Tabelle enthält Angaben Studierenden und eine andere definiert den Kurs,
für den sich die
Studierenden in einer relationalen Datenbank angemeldet für den sich die
Studierenden in einer relationalen Sie können eine einzelne
SQL-Abfrage ausführen, die
ein Ergebnis zurückgibt, in
dem alle Studenten angezeigt werden, die sich
aus der Buchhaltung angemeldet haben, obwohl
sich die Daten in zwei Tabellen befinden Das ist die Superkraft
relationaler Datenbanken. Lassen Sie uns nun über nicht
relationale Datenbanken sprechen. Diese Art von Datenbank
speichert Daten unterschiedlich. Aufgrund der Art der Daten speichern
wir halbstrukturierte Daten in einer nicht relationalen Datenbank Nehmen wir nun dasselbe Beispiel für eine
Datenbank mit der Registrierung von
Studentenkursen Beispiel für eine
Datenbank mit der Registrierung von
Studentenkursen Wenn Sie die Anmeldedaten für Kurse von
Studenten
in einer nicht relationalen Datenbank speichern müssten Anmeldedaten für Kurse von
Studenten , alle Informationen eines Studenten, einschließlich des zugehörigen Kurses, würden
alle Informationen eines Studenten,
einschließlich des zugehörigen Kurses, in
einem einzigen Element in
der Datenbanktabelle gespeichert einem einzigen Element in
der Datenbanktabelle Lassen Sie uns nun genauer untersuchen
,
wie Daten in einer
nichtrelationalen Datenbank gespeichert werden Nehmen wir an,
das College hat nach einem Jahr beschlossen, die Standardnote 12 zur
Studierendenregistrierungstabelle in der Datenbank hinzuzufügen die Standardnote 12 zur Studierendenregistrierungstabelle in der Datenbank Wie müssten sich die einzelnen
Datenbanktypen ändern? Nun, im Fall von
relationalen Datenbanken müssen
Sie
das Schema aktualisieren, müssen
Sie
das Schema aktualisieren um die
Noten der Schüler hinzuzufügen Das bedeutet, dass eine neue
Spalte für die Note hinzugefügt wird. Sobald Sie die neue Spalte hinzugefügt haben, ist sie für die
vorhandenen Daten leer, oder? Was zu Problemen führen kann. Denn in
relationalen Datenbanken
müssen Sie in der Regel Werte
in jede Spalte eingeben , wenn sie so eingestellt ist, dass sie für
die Datenbank Sie müssen einen Prozess erstellen, um die Note für jeden
Datensatz in der Tabelle
hinzuzufügen Sobald dieser Vorgang abgeschlossen ist, beginnen
Sie mit dem Hinzufügen neuer
Noteneinträge. In Ordnung. Irgendwelche Vermutungen darüber, was Sie in einer nicht relationalen Datenbank
tun müssen in einer nicht relationalen Datenbank
tun Nun, Sie müssen nicht raten. Alles was Sie tun müssen,
ist neue Artikel zu erstellen. Mit den neuen Attributen können
Sie zurückgehen und sich die vorhandenen Datensätze
ansehen. Sie sind nicht verpflichtet, etwas mit ihnen zu
tun. Dies ist einer der
Vorteile, die nicht-relationale Datenbanken
gegenüber relationalen Datenbanken haben nichtrelationalen Schemas müssen Sie
keine neuen
Datenattribute
definieren, bevor In einer relationalen Datenbank müssen
Sie das Schema aktualisieren, müssen
Sie das Schema aktualisieren bevor Sie
neue Datenfelder hinzufügen können Wenn es um die Speicherung
und den Umgang mit
halbstrukturierten oder
unstrukturierten Daten geht , die Wahl oft auf eine
nicht relationale Datenbank Das ist alles für diese Lektion
über nicht relationale Datenbanken.
48. On Premise im Vergleich zu Cloud-Datenbank-Hosting: Hallo, Schüler. Willkommen zurück. In diesem Video
erfahren Sie, wie wir Datenbanken im
On-Premises-Szenario verwalten und welche
Datenbankoptionen
in der AWS-Cloud verfügbar sind . Lassen Sie uns mit
lokalen Datenbanken beginnen. Sie werden auf Hardware betrieben, die Ihr Unternehmen
besitzt und verwaltet. Diese Systeme werden von
einem Team von
Datenbankadministratoren (
DBAs) verwaltet einem Team von
Datenbankadministratoren , die für die gesamte Einrichtung und
die
Arbeit mit der Datenbank verantwortlich sind gesamte Einrichtung und
die
Arbeit mit der Datenbank Im Fall von On-Premise-Systemen setzt
das Unternehmen
mehrere Server und Netzwerkgeräte ein, um die Spitzenlast
des Systems zu bewältigen Sobald sie den Server vom
Infrastrukturteam erhalten
haben, installieren sie das
Betriebssystem und erstellen einen Zeitplan für das
Patchen des Betriebssystems Als Nächstes folgt die Installation der
Datenbanksoftware. Auch hier müssen sie Datenbank-Patches planen
und durchführen. Sobald die Datenbank bereit ist, kann
sie von
der Anwendung verwendet werden. Jetzt
müssen diese Datenbanken im Laufe der Zeit verwaltet, aktualisiert, aktualisiert und
optimiert werden. Der nächste erhebliche Aufwand
betrifft die Datenbanksicherung und Einrichtung der
Hochverfügbarkeit für die geschäftskritischen
Anwendungen im Falle einer
Hochverfügbarkeitskonfiguration. Auch hier müssen die Datenbankserver
Ihres Teams dieselben Schritte für
einen anderen DB-Server ausführen,
der als Standby-Server für
Failover-Szenarien fungiert als Standby-Server für
Failover-Szenarien Darüber hinaus sind Sie jetzt auch für die Skalierung
Ihres Datenbankservers
verantwortlich Und das ist dann eine Menge Arbeit. Wenn es jetzt um die Cloud geht, haben
wir zwei Möglichkeiten. Die erste ist
wie eine lokale Datenbank, in der Sie eine virtuelle Maschine
mieten , die über ein Netzwerk und
einen Server verfügt , der von AW verwaltet
und betreut wird. Der Rest wird jedoch von Ihnen selbst
verwaltet. Auch hier sind Anstrengungen und
ein DBS-Team erforderlich, um
sich um Betriebssystem-Patches, Installation
und Patchen von
DB-Software,
DB-Backup,
Hochverfügbarkeitsskalierung usw. zu kümmern Installation
und Patchen von
DB-Software,
DB-Backup, . Der zweite ist Amazon RDS. Amazon RDS ist eine von AWS verwaltete
Datenbank, bei
der Sie die Datenbank mit
wenigen Klicks sofort einsatzbereit haben. Darauf werden
wir in der nächsten Lektion eingehen. Das ist alles für diese Sitzung.
49. Amazon Relationaler Datenbankservice: Hallo Studierende. Willkommen zurück. In diesem Video erfahren Sie mehr über den Amazon Relational
Database Service, allgemein bekannt als Amazon Ardis. Lass uns anfangen. Schauen wir uns die Übersicht über Amazon Ardis an Es handelt sich um einen relationalen
Datenbankdienst, Cloud leitet,
einrichtet, betreibt und skaliert eine relationale Datenbank
in Wie Sie wissen, ist die Verwaltung
einer Datenbank vor Ort
oder in einer einfach zu installierenden Datenbank
keine leichte Aufgabe Amazon Ardis wurde entwickelt, um den Aufwand
für die Verwaltung relationaler
Datenbankaufgaben
wie Hardwarebereitstellung,
Datenbankeinrichtung, Patchen von
Backups usw. zu
minimieren Verwaltung relationaler
Datenbankaufgaben wie Hardwarebereitstellung,
Datenbankeinrichtung, Patchen von
Backups usw. zu Sie müssen nur die
Datenbank auswählen, die Sie
starten möchten , und wir haben mit nur wenigen Klicks eine Datenbank bereit Lassen Sie uns das
anhand eines Beispiels verstehen. Angenommen, Sie haben ein Team
von vier Personen und möchten eine
Anwendung starten, die von
einer My SQL-Datenbank unterstützt
wird. Sie haben mein SQL auf
der EC Two-Instance installiert. Da wir wissen, dass die Einrichtung von
Betriebssystemdatenbank-Backups und Patches viel Arbeit
erfordert , ist
es wahrscheinlich, dass
die Entwicklungsarbeit Hintertreffen gerät, was den Start der Anwendung weiter
verzögern könnte
, Start der Anwendung weiter
verzögern da sich nur zwei Personen auf die Entwicklung
konzentrieren können Stellen Sie sich dasselbe Beispiel noch einmal vor, aber dieses Mal mit Amazon RDS Da es sich bei RDS um einen verwalteten Service handelt, kümmert sich
AWS für Sie um alle
datenbankbezogenen Arbeiten. Ihre Entwickler können sich
auf die Anwendungsentwicklung konzentrieren. Rds wurde entwickelt, um
Ihnen zu helfen , die Kosten für die
Datenbankverwaltung zu senken. Es ist ein verwalteter Dienst, der die Bereitstellung
von Datenbanken
automatisiert Aws wird das Patchen
des Betriebssystems durchführen. Sie erhalten
kontinuierliche Backups und Wiederherstellungsoptionen mit einer
Point-in-Time-Wiederherstellung Sie werden auch
Monitoring-Dashboards haben , um zu sehen, ob es unserer
Datenbank gut geht Sie können die
Lesevorgänge skalieren, indem Sie
ein RID-Replikat erstellen und
die RID-Leistung verbessern Sie haben die Möglichkeit,
mehrere
Verfügbarkeitszonen einzurichten , um sicherzustellen, dass Ihre Anwendung über einen Plan für die
Notfallwiederherstellung verfügt , falls eine gesamte Availability
Zone ausfällt Schließlich können Sie auch Wartungsfenster
für Upgrades
einrichten und
vertikal oder horizontal skalieren. Das Einzige, was wir mit einer RDS-Datenbank nicht
tun können ,
ist, dass wir keine SSH-Verbindung zu
Ihrer RDS-Datenbank-Instance herstellen Schauen wir uns nun einige Funktionen und Elemente von Amazon RDS Werfen wir einen Blick auf die
erste Verfügbarkeit von RDS. Amazon Adis bietet durch die Verwendung von
Jones-Bereitstellungen mit
mehreren Verfügbarkeiten eine
höhere Verfügbarkeit und Haltbarkeit Jones-Bereitstellungen mit
mehreren Verfügbarkeiten eine
höhere Verfügbarkeit Das bedeutet, dass
Amazon Dias
mehrere Instanzen
der Datenbank
in verschiedenen Fähigkeitszonen erstellt mehrere Instanzen
der Datenbank in verschiedenen Fähigkeitszonen Im Falle eines
Infrastrukturausfalls wechselt
Amazon Adis
automatisch Standby-Modus in einer anderen
Availability Zone Datenbankbetrieb wird wieder aufgenommen sobald der
Failover abgeschlossen ist Da Amazon Dias
einen DNS-Dienst verwendet , um
die neue Master-Instance zu identifizieren, müssen
Sie
Ihren
Datenbankverbindungsendpunkt nicht aktualisieren Ihren
Datenbankverbindungsendpunkt Das ist eine sehr gute Funktion. Der zweite ist der Instanztyp von
Dias. Wenn Sie Ihre erste
Amazon Dias-Datenbank erstellen, müssen
Sie
einige wichtige Entscheidungen treffen Zunächst müssen Sie
Ihren Datenbank-Instance-Typ festlegen
, der Ihre
Datenbankressourcen
wie CPU und Arbeitsspeicher bestimmt wie CPU und Arbeitsspeicher Er ist dem Typ AW,
EC mit zwei Instanzen etwas ähnlich . Der nächste ist Dias
Database Engine. Als Nächstes kommt die Art von
Datenbank-Engine, die Sie ausführen möchten. Sie können zwischen
Postgresql, SQL,
Maria DB, Oracle Database,
Quel Server und Amazon Aurora wählen Maria DB, Oracle Database, Quel Server und Amazon Aurora Amazon Aurora ist eine mit MyEsqul und Post GrayQul
kompatible eine mit MyEsqul und Post GrayQul
kompatible relationale Datenbank, die für die Cloud entwickelt wurde. Die Datenbank wurde von
AWS entworfen
und entwickelt, um Datenbankleistung der Unternehmensklasse zu bieten Jede Datenbank-Engine hat ihre eigenen einzigartigen
Eigenschaften und Funktionen, die Sie
je nach Ihren Anwendungs
- und Geschäftsanforderungen auswählen können . Schauen Sie sich jetzt die Preise an. Einer der
größten Vorteile von
Amazon Ardis besteht nun darin, dass
Sie nach Bedarf zahlen Der Abrechnungsprozess von Amazon Ardis besteht aus zwei
Teilen: den Instanzkosten Als Erstes zahlen Sie für die Instance, die die Datenbanken
hostet Es gibt zwei Preismodelle: On Demand und Reserved on Demand. Bei der Instance-Preisgestaltung
können Sie
die Rechenkapazität
auf Stundenbasis bezahlen . Dies ist der Fall, wenn Ihre Datenbank
zeitweise ausgeführt wird oder ein
wenig unvorhersehbar ist Die Preisgestaltung für Reserved Instances
eignet sich
hervorragend, wenn Sie kennen den Ressourcenverbrauch
Ihrer Datenbank genau Mit dieser Art von Instance können
Sie sich eine Laufzeit von ein
oder drei Jahren sichern und einen erheblichen Rabatt
gegenüber On-Demand-Preisen
erhalten. Schauen wir uns nun die Speicherkosten
an. Zweitens zahlen Sie
für den Speicherplatz und den von Ihrer
Datenbank
verbrauchten Speicherplatz , der pro
Gigabyte und Monat abgerechnet
wird By wird pro
Million Anfragen abgerechnet. Ich hoffe, Sie haben ein gutes
Verständnis von Amazon Dis. Sehen Sie sich das Video noch einmal an. Wenn Sie irgendwelche Zweifel haben
, das ist alles für dieses Video.
50. Amazon DynamoDB: Hallo, Schüler. Willkommen zurück. In dieser Sitzung werden
wir uns der AWS-NOSQL-Datenbank befassen, die Dynamo
DV anbietet Lassen Sie uns anfangen. Schauen wir uns die Übersicht über Dynamo DV an Es handelt sich um einen vollständig verwalteten
NoSQL-Datenbankdienst, eine schnelle und
vorhersehbare Leistung
mit nahtloser Skalierbarkeit bietet mit Dynamo DB ist eine der
besten Optionen zum Speichern von
NOSQL-Halbstrukturdaten Da es sich um eine vollständig
verwaltete Datenbank handelt, müssen
Sie sich nicht mit der
Hardwarebereitstellung, der
Einrichtung der
Konfigurationsreplikation, Softwarepatches
oder Clusterskalierung befassen , wenn
Sie Dynamo DB verwenden.
Ein weiterer Vorteil von Dynamo DB ist, dass Dynamo DB standardmäßig Verschlüsselung im
Ruhezustand bietet Dadurch entfallen der
betriebliche Aufwand und die Komplexität, die mit der Verwaltung von Verschlüsselungen verbunden sind Crees, sensible Daten zu schützen. Wenn es keinen
Sinn ergibt, machen Sie sich keine Sorgen, Sie daran, dass es standardmäßig
Verschlüsselung unterstützt Ich werde die Verschlüsselung im
AWS-Managementmodul ausführlich behandeln . Wir erstellen eine Datenbanktabelle in Dynamo DB, um unsere Daten zu speichern und
abzurufen Es ist wichtig, das zu
verstehen. Lassen Sie mich das vereinfachen Wenn Sie eine
Amazon RDS-Instance erstellen, erstellen
Sie darin eine Datenbank und dann innerhalb der Datenbank
eine Tabelle. Im Fall von Dynamodb erstellen
Sie die Tabelle jedoch direkt in Wenn Sie zum
Dynamodb-Dashboard wechseln, erstellen Sie eine Tabelle. Eine Dynamodb-Tabelle kann horizontal skaliert werden. Sie verteilt die Daten auf verschiedene
Backend-Server, um
sicherzustellen, dass Sie jederzeit
skalieren und eine hervorragende Leistung erzielen können und Lassen Sie uns nun verstehen, wie wir Daten in
Dynamodb speichern. Eine Dynamo-DB-Tabelle besteht aus drei Tabellen, Elemente und Attribute. Zunächst haben Sie
die Tabelle selbst, und dort werden alle Ihre Daten
in der Tabelle gespeichert. Eine Tabelle ist eine
Sammlung von Elementen. Jedes Element ist eine Sammlung
von Attributen. Elemente sind wie Zeilen in
einer relationalen Datenbank. Zum Beispiel ist der Student mit der
Studenten-ID 101 ein Objekt. Jedem Element ist eine Reihe von Attributen zugeordnet. Es sind die Daten, die wir hier in diesen Feldern
sehen, z. B. den
Nachnamen, den Vornamen und die E-Mail-Adresse. Dynamo DB verwendet Primärschlüssel, um
Elemente in einer Tabelle
eindeutig zu identifizieren, und Sekundärindizes, um mehr Flexibilität bei Abfragen zu
bieten Sie können
Dynamo-DB-Streams verwenden, um
Datenänderungsereignisse
in Dynamodb-Tabellen zu erfassen Datenänderungsereignisse
in Leistung von Dynamodb-Tabellen basiert auf der Durchsatzkapazität Die Leistung von Dynamodb-Tabellen basiert auf der Durchsatzkapazität
. Sie können
die Durchsatzkapazität
Ihrer Tabellen ohne
Ausfallzeiten oder
Leistungseinbußen nach oben oder unten skalieren Ihrer Tabellen ohne Ausfallzeiten oder
Leistungseinbußen nach oben oder Sie können die
AWS-Managementkonsole verwenden, um die Ressourcennutzung
und Leistungskennzahlen zu überwachen. Dynamo DB bietet die
On-Demand-Backup-Funktion , mit der Sie
vollständige Backups Ihrer Tabellen für die
langfristige Aufbewahrung und
Archivierung erstellen können, um der Sie
vollständige Backups Ihrer Tabellen für langfristige Aufbewahrung und die
Einhaltung gesetzlicher Vorschriften Sie können auch
On-Demand-Backups erstellen und die
Point-in-Time-Wiederherstellung für
Ihre Amazon Dynamodb-Tabelle aktivieren Point-in-Time-Wiederherstellung für
Ihre Amazon Dynamodb-Tabelle Point in Time Recovery
schützt Ihre Tabellen vor versehentlichen
Rechten oder Löschvorgängen Mit Point In Time Recovery können
Sie eine Tabelle zu einem
beliebigen Zeitpunkt
der letzten 35 Tage wiederherstellen . Außerdem können Sie
damit automatisch abgelaufene Elemente
aus Tabellen
löschen,
um den Speicherverbrauch und die
Kosten für das Speichern von Daten zu reduzieren , die
nicht mehr relevant sind. Schauen wir uns nun einige
Anwendungsfälle für Dynamodb an. Aufgrund seines flexiblen Datenmodells
und seiner zuverlässigen Leistung eignet
es sich hervorragend für
mobile Anwendungen,
webbasierte Anwendungen, Spieleanwendungen,
Technologie- und IOT-Anwendungen Technologie- und IOT-Anwendungen Sie könnten Dynamodb auch für
andere Anwendungen verwenden. Liebe Schüler, ich hoffe,
Sie verstehen jetzt Amazon Dynamodb
51. RDS-Instanz erstellen: Hallo, Schüler. Willkommen zurück. In dieser Sitzung werden wir eine RDS-Instanz
erstellen. Wir werden sehen, welche anderen Ressourcen
und Konfigurationen
benötigt werden , um eine
RDS-SQL-Instanz hochzufahren. Gehen wir jetzt zur AWS-Konsole. Geben Sie RDS in die Suchleiste ein. Klicken Sie auf die RDS-Option und
Sie gelangen
zum RDS-Dashboard. Das erste, was Sie beim Erstellen von
RDS-Instanzen tun müssen , ist die
Erstellung einer Submit-Gruppe. Eine Subnetzgruppe ist einfach
eine logische Gruppierung von Subnetzen, in der Sie die
Dias-Instanz bereitstellen Lassen Sie uns zur Seite mit den
Subnetzgruppen wechseln, indem Sie hier klicken. Wie Sie sehen können, habe ich keine
Subnetzgruppe in meinem Konto. Klicken Sie auf DB-Subnetzgruppe erstellen und
weisen Sie
der Subnetzgruppe einen Namen zu Sie müssen hier
eine Beschreibung hinzufügen, da
es sich um ein Pflichtfeld handelt Ich werde Submit
Group für meine SQL-DB hinzufügen. Wählen Sie als Nächstes BPC aus. Ich habe nur einen und ich
werde diesen wählen. Hier müssen Sie
die Verfügbarkeitszone auswählen. Wählen Sie die
Verfügbarkeitszonen aus, in denen die Ardis-Instanzen bereitgestellt werden
sollen Für mich habe ich nur Submits
in P One und P South One B. Wenn Sie Submits in der
anderen Availability Zone haben, können
Sie auch AP
South One auswählen Als Nächstes wählen wir die Subnetze
in diesen Availability Zones aus. Wie Sie sehen können,
habe ich in jeder
Availability Zone ein öffentliches und ein privates Submit Normalerweise
möchten Sie
RDS-Instances in
privaten Submits erstellen RDS-Instances in
privaten Submits Wählen Sie dazu die privaten Subnetze Hier werden RDS-Instances normalerweise in privaten Subnetzen
erstellt und von VPCs aus aufgerufen In Produktionsanwendungen möchten
Sie nicht, Ihre Datenbanken
über das Internet zugegriffen werden kann .
Klicken Sie nun auf Erstellen. Wie Sie sehen, haben wir jetzt erfolgreich eine
Subnetzgruppe für unsere Datenbank erstellt Lassen Sie uns nun
die RDS-Datenbank erstellen. Klicken Sie auf Datenbanken. habe ich keine RDS-Datenbanken in meinem Konto Bevor wir hier zur Schaltfläche „Datenbank
erstellen“ übergehen, sehen
Sie neben dieser Schaltfläche die Schaltfläche „
Aus S wiederherstellen“ Wenn wir Backups
unserer RDS-Datenbanken erstellen, werden sie
in AWS S Three wiederhergestellt hier auf diese Schaltfläche klicken, können
wir
aus einem unserer
Backups in S drei eine neue Instanz erstellen aus einem unserer
Backups in S drei eine Wenn Sie zur
Erstellung der Datenbank zurückkehren, klicken Sie auf Datenbank erstellen. Die erste Option, die Sie sehen können ist Standard Create oder As Create. Wenn Sie die Option
As Create wählen, verwendet
AWS einige Standardwerte für die Erstellung Ihrer Datenbank.
Lassen Sie uns einen Blick darauf werfen. Ich habe As Create ausgewählt. Jetzt sind die einzigen Optionen, die ich habe die Datenbanktypen und
einige andere Optionen. Wenn wir hier nach unten scrollen und die Drop-down-Ansicht mit den
Standardeinstellungen für As Create
öffnen , können
wir sehen, dass AWS einige Werte für uns fest
codiert hat. Ich möchte
unser B nicht so erstellen. Gehen wir zurück zur
Standarderstellung und wählen die
Parameter selbst aus. Klicken Sie auf Standard
Create. Wählen Sie oben den Typ My SQL Engine aus. Als Nächstes haben wir die Möglichkeit, die My SQL-Version
auszuwählen. Ich werde die neueste Version wählen mir gerade
zur Verfügung steht, nämlich meine 8.0 0.28. Die nächste Option wir haben, besteht darin, die
Vorlage gemäß unserem Anwendungsfall auszuwählen Wenn Sie sich hier für Produktion entscheiden, wählt
AWS einige
Standardoptionen für uns Der Einfachheit halber, wenn ich beispielsweise eine Produktionsvorlage
ausgewählt
habe und nach unten zu
Verfügbarkeit und Haltbarkeit scrolle, können
Sie sehen, dass die für
mich ausgewählte
Standardoption darin besteht, eine
Standby-Instance zu erstellen. Wenn ich jetzt
die Vorlage in Dave ändere und wieder nach unten scrolle, werden
Sie feststellen, dass der für
mich gewählte
Standardwert nicht darin besteht, eine Standby-DB zu
erstellen. Wenn Sie eine Vorlage auswählen, werden einfach einige Standardwerte für uns
festgelegt. Lassen Sie uns beim kostenlosen Reifen bleiben
und die Vorlage für den kostenlosen
Reifen auswählen. Die nächste Option, die wir haben,
ist die DB-ID. Dies ist der Name
unserer DB-Instance. Sie sollten hier beachten, dass
dies nicht der Name
der Datenbank ist , sondern der Name
der RDS-Instance. Lassen Sie mich das auf den
Cloud-Advisory, meine SQL-DB, ändern. Als Nächstes müssen wir
den Master-Benutzernamen und das
Passwort für die RDS-Instanz erstellen . den Benutzernamen in
RDS-Master ändere ,
gebe ich hier mein Passwort ein. Wir können AWS hier das Passwort
für diesen Benutzernamen
automatisch generieren Lassen Sie mich vorerst
mein eigenes Passwort hinzufügen. Die nächste Option besteht darin, die
Instance-Klasse für unsere Datenbank
auszuwählen. Da wir die
kostenlose Reifenvorlage ausgewählt
haben, können wir die
Instance-Typen hier nicht ändern. Wie Sie sehen können, haben wir nur
eine Option, nämlich Mikropunkte mit zwei Punkten. Wenn wir Dave
- oder Prod-Vorlagen auswählen, erhalten
wir hier alle
Instanzoptionen. Als Nächstes müssen wir
den Speichertyp für
unsere RDS-Instanz auswählen den Speichertyp für
unsere RDS-Instanz Die aktuelle Option, die wir haben, ist die Allzweck-SSD GP two. Wir können diesen Wert für komplexere Arbeitslasten auf I
01 ändern . Bleiben wir nun beim SSD-Typ GP Two. Wir können auch die automatische
Skalierung für unseren RDS-Speicher aktivieren. Wenn dieses Kontrollkästchen aktiviert ist, können
wir den maximalen Speicherplatz hinzufügen. Wir möchten, dass unsere
RDS-Instance auf den Standardwert für
dieses Feld
hochskaliert wird, der 1.000 ZB ist Wenn mein Datenbankspeicher
voll ist, skaliert
AWS
den Speicher automatisch auf bis zu 1.000 GB Die nächste Option ist
Verfügbarkeit und Haltbarkeit. Wir haben bereits gesehen, dass wir diese Option
hatten, als wir die Dave
- und Produktionsvorlagen ausgewählt hatten. Diese Option wird in Free Tire jedoch nicht
unterstützt. Als Nächstes haben wir die
Möglichkeit,
die Konnektivität für
unsere RDS-Instance auszuwählen . Wir können die VPC auswählen
, in der wir
unsere Subnetzgruppe erstellt haben, und dann
die Submit-Gruppe auswählen In der nächsten Option
haben wir die nächste Option. Wenn wir möchten, dass
auf unsere RDS-Instanz außerhalb der VPC zugegriffen werden kann Aws bietet uns
hier eine weitere Option , um den öffentlichen
Zugriff auf unsere Datenbank zu Als Nächstes müssen wir die
Sicherheitsgruppe für unseren RDS angeben. Lassen Sie uns entscheiden, eine neue SG zu
erstellen. Geben Sie ihr den Namen RDS, my SQL SG. Wir können den Standardport
für meine SQL-Datenbank hier sehen. Lassen wir das so wie es ist. Die nächste Option ist die
Datenbankauthentifizierung. Wir haben hier drei
Optionen für uns. Wir werden uns für die
Passwortauthentifizierung entscheiden. Wenn Sie mehr Sicherheit
und Kontrolle über den RDS-Zugriff wünschen, können
Sie hier die
anderen Optionen auswählen. Lassen Sie uns auch die
zusätzlichen Optionen für
RDS sehen , indem Sie hier auf dieses
Drop-down-Menü klicken. Die erste Option
ist der Datenbankname. Wenn Sie sich erinnern, hatten
wir die Möglichkeit, die Datenbank-ID hinzuzufügen , die der Name der
RDS-Datenbank-Instance
war. Hier können wir AWS bitten,
eine Datenbank wie Benutzer,
Mitarbeiter usw.
innerhalb der Cloud zu erstellen , meine SQL-Datenbank Wenn wir diesen Wert leer lassen, erstellt
AWS keine Datenbank für uns Und das müssen wir
mit meinen SQL-Befehlen tun, wenn
wir eine Verbindung zu dieser Instance herstellen. Lassen Sie uns eine Benutzerdatenbank erstellen. unserem Beispiel belasse
ich die anderen
Werte als Standard. Als nächstes haben wir die
automatische Backup-Option. Wir können hier wählen, wie
oft wir
Backups unserer Datenbank erstellen möchten , und sogar das
Zeitfenster für das Backup angeben. Die nächste Option ist die
erweiterte Überwachung. Dies ist eine beliebte
Frage bei AW-Prüfungen. Der Unterschied zwischen normaler
Cloudwatch-Überwachung und erweiterter Überwachung besteht
darin, dass RDS bei
normaler Überwachung die Metriken
vom Hypervisor erfasst Bei einer DB-Instance bezieht erweiterte Überwachung
ihre Metriken von einem Agenten Wenn Sie Metriken auf Betriebssystemebene wünschen, müssen
Sie die
erweiterte Überwachung
für unseren Anwendungsfall aktivieren erweiterte Überwachung
für unseren Anwendungsfall Wir wählen die Option „Erweiterte
Überwachung“ nicht aus Jetzt können wir
die Protokollexporte auswählen. Sie können AWS veranlassen, Protokolle an Cloud Watch-Protokolle
zu senden , indem
Sie die Optionen auswählen. Hier haben wir die nächste
Option, mit der WS
kleinere Versions-Upgrades in unserer Datenbank durchführen kleinere Versions-Upgrades in unserer Datenbank und die Zeitfenster
für diese Upgrades auswählen kann. Lassen Sie uns diese
Werte als Standard belassen. Die letzte Option, die wir haben
, besteht darin, den Löschschutz zu aktivieren. der einfachen Option können
wir unsere RDS-Instanz nicht löschen. Klicken Sie auf Datenbank erstellen. Jetzt
können wir auf der Datenbankseite sehen, wie unsere My
SQL-Datenbank erstellt wird. Lassen Sie mich das Video überspringen bis diese Instanz erstellt
wurde. Wie Sie jetzt sehen können, wurde meine
RDS-Instanz erstellt. Lassen Sie uns nun auf die Instanz klicken und die Verbindungsdetails sehen. Auf der Registerkarte Konnektivität
und Sicherheit können
Sie den Endpunkt und
den Port dieser RDS-Instanz sehen . Diese Werte werden für den Zugriff
auf die RDS-Instanz benötigt. Damit sind wir am Ende
der Sitzung angelangt. Wir haben uns alle
Parameter angesehen, die wir bei der
Erstellung der
RDS-Subnetzgruppen und Datenbanken haben der
Erstellung der
RDS-Subnetzgruppen und Datenbanken Wir haben unsere eigene RDS-Datenbank erstellt. Das ist alles für diese Sitzung. Wir sehen uns in
der nächsten Lektion.
52. Amazon Elasticache: Hallo Studierende. Willkommen zurück. In diesem Video
erfahren wir mehr über einen
der wichtigsten AWS-Services,
Amazon Elastic Cache. Lassen Sie uns mit den grundlegenden
Ms beginnen, die im Elastic Cache zum Einsatz kommen. Service-Caching ist die Technik zum Speichern
von Daten in einem Cache Es ermöglicht Ihnen,
Daten wiederzuverwenden , die
zuvor abgerufen wurden Die zukünftige Anforderung von
Datendaten wird
schneller bearbeitet, anstatt sie vom primären Standort
aus abzurufen Jetzt fragst du dich bestimmt
, was ein Cache ist. Ein Cache ist ein reservierter
Speicherort , der temporäre Daten sammelt. Es kann sich um Computerspeicher
oder Ihre Anwendung selbst handeln. Ein einfaches Beispiel ist das Speichern von Dokumenten auf
einem Computerdesktop. Häufig speichern wir eine Kopie
des häufig aufgerufenen
Dokuments auf dem Desktop. Wir müssen nicht jedes Mal zum Speicherort des
Dokuments gehen. Ein anderes gutes Beispiel
wäre ein Lesezeichen. Setzen Sie ein Lesezeichen für Links, die
wir häufiger verwenden. Sie müssen nicht jedes Mal
suchen. Lassen Sie uns nun verstehen,
was Elastic Cache ist. Elastic Cache ist eine
vollständig verwaltete
In-Memory-Datenbank-Caching-Lösung von AWS Sie unterstützt eine Vielzahl von anpassbaren Anwendungsfällen in
Echtzeit Elastic Cache
eignet sich für das Caching, wodurch die Leistung
von Anwendungen und Datenbanken verbessert von Anwendungen und Datenbanken Wir stellen dies
vor andere Datenbanken, vielleicht vor RDS oder
vor Dynamo DB Es kann auch als
Hauptdatenspeicher für
Anwendungsfälle wie CSN-Stores,
Spiele, Bestenlisten,
Streaming und Analysen verwendet Hauptdatenspeicher für
Anwendungsfälle wie CSN-Stores,
Spiele, werden, für die
keine Beständigkeit erforderlich Elastic Cache ist die
Implementierung
der Open-Source-Datenbank-Engines Dies und Memcached Schauen wir uns nun einige
Anwendungsfälle von Elastic Cache an. Es beschleunigt die
Anwendungsleistung. Wie bereits erwähnt, fungiert Elastic Cache
als Datenspeicher und Cache im Arbeitsspeicher, um die
anspruchsvollsten Anwendungen zu
unterstützen, die Reaktionszeiten Millisekunde
erfordern Der nächste Anwendungsfall ist das Laden der
Backend-Datenbank
unabhängig von Es hilft auch,
die Belastung der Datenbank zu reduzieren. Sobald Sie Daten mit häufigem
Zugriff im Elastic Cache
zwischenspeichern, werden
Datenbankaufrufe drastisch reduziert und der
Druck auf Ihre
Back-End-Datenbank verringert. Als Nächstes werden Datenspeicher mit niedriger
Latenz erstellt. Dies ist eine hervorragende
Lösung für eine Datenbank mit niedriger Latenz,
wenn Sie
nicht langlebige Datensätze
im Speicher speichern und Echtzeitanwendungen
mit Latenz im Mikrosekundenbereich
unterstützen möchten nicht langlebige Datensätze
im Speicher speichern und Echtzeitanwendungen
mit Latenz im Mikrosekundenbereich
unterstützen Schauen wir uns nun an, wie
Elastic Cache funktioniert. Sie haben eine Anwendung auf EC
konfiguriert und installiert, um sie
in Ihrem AWS-Konto zu instanzieren. Diese Anwendung verwendet die
RDS-Datenbank zum Speichern von Backend-Daten. Jetzt wird die Anwendung einige Daten
in RDS schreiben. Die Anwendung kann auch
Datenbanken in der
RDS-Datenbank lesen . Was können Sie jetzt tun? Platzieren Sie den Elastic Cache zwischen Anwendung und RDS
und speichern Sie die Sitzung oder greifen Sie häufig auf
Daten im Elastic Cache zu. Diese Daten werden dann
in den Elastic Cache geladen. Das heißt, wenn die Anwendung das nächste
Mal die Daten
aus der Datenbank lesen
muss, erhält
sie hier einen
sogenannten Cache. Das bedeutet, dass es in der
Datenbank gefunden wird und viel schneller abgerufen
werden kann,
als wenn es von RDS kommt. Das ist alles für diese Sitzung.
53. Amazon Redshift: Hallo, Studenten. Willkommen zurück. In diesem Video
werden wir verstehen, was Data Warehouse
ist und warum wir es brauchen. AWS-Datawarehouse-Service, Red Shift. Lass uns anfangen. Sie haben wahrscheinlich von
Data Warehouses gehört , sind sich aber nicht
sicher, was es genau ist. Lassen Sie mich es Ihnen erklären. Wie der Name schon sagt, handelt es sich um ein Datenlager. Es ermöglicht Ihnen,
große Datenmengen
aus mehreren Quellen zu speichern . Dies kann aus
Anwendungsprotokolldateien, Transaktionssystemen,
relationalen Datenbanken,
Marketing, Vertrieb, Finanzen,
kundenorientierten Anwendungen, externen Partnersystemen
und Im Grunde
ist ein Data Warehouse eine große Sammlung von Geschäftsdaten, die
Organisationen bei der Entscheidungsfindung unterstützen Jetzt müssen Sie sich fragen, wie diese Daten dazu beitragen können, eine Geschäftsentscheidung
zu treffen? Das Ziel jedes
Unternehmens ist es,
bessere Geschäftsentscheidungen zu treffen als die
Konkurrenz, oder? Wie trifft man eine
bessere Entscheidung? Entweder kommt es aus Erfahrung oder Sie können etwas Mathematik
machen. Stimmen Sie zu, Mathematik zu machen,
Sie benötigen Daten. Wenn es um große
Unternehmen und Organisationen geht, verwenden
sie
Business-Intelligence-Tools. B I Tools analysiert Daten
und generiert den Bericht. Heutzutage sind die meisten
Geschäftsanwender auf Berichte,
Dashboards und Analysetools angewiesen , um Erkenntnisse
aus ihren Daten zu gewinnen Data Warehouses unterstützen
diese Reportboards und Analysetools, indem sie Daten
effizient speichern Data Warehouse ist
kein neues Konzept und es gibt es
schon seit den 90er 80er Jahren, aber es wurde aufgrund der enormen Kosten für die
Speicherung der Daten vor Ort nicht verwendet Cloud Computing
revolutioniert dies da das Speichern von Daten in der
Cloud einfach und billig ist Hier bietet AWS einen Service
namens Amazon Redshift an. Was ist Amazon Redshift? Amazon Redshift ist ein schnelles, vollständig verwaltetes
Data-Warehouse-Angebot von AWS im Petabyte-Bereich Data-Warehouse-Angebot Petabyte bedeuten, dass es die Skalierbarkeitsanforderungen
der meisten Unternehmen erfüllen kann Skalierbarkeitsanforderungen
der meisten Unternehmen Es ist nicht nur
auf Terabyte beschränkt, sondern auf ein Tausendfaches Dieses Maß an
Skalierbarkeit ist mit einer Implementierung vor
Ort schwer zu erreichen Es ist ein einfacher und
kostengünstiger Service zur Analyse von Daten effizienten
Analyse von Daten mithilfe von Business
Intelligence-Tools. Es handelt sich um ein SQL-basiertes Data Warehouse dessen primärer Anwendungsfall Analytics-Workloads
sind Redshift verwendet zwei C-Instanzen. Sie müssen einen
Instanztyp und eine Instanzfamilie auswählen. Die Bezahlung erfolgt
nach Bedarf auf der Grundlage der von
Ihnen bereitgestellten Instances Redshift bewahrt stets
kostenlose Kopien Ihrer Daten bietet kontinuierliche
und inkrementelle Immer wenn Sie sehen, dass die
Datenbank
ein Warehouse sein muss und
Sie Analysen darauf durchführen müssen, dann ist Redshift die Lösung Das ist alles für diese Lektion.
54. Autoscaling: Hallo, Schüler. Willkommen zurück. In diesem Video
erfahren Sie, was Auto Scaling ist. Was ist Auto Scaling in AWS? Und was sind die Vorteile der
Nutzung der Skalierungsdienste. Aber bevor wir beginnen, wollen wir uns ansehen, wie die Skalierung
in einem herkömmlichen Rechenzentrum funktioniert. Nun, die Skalierung ist
reaktiv und manuell. In herkömmlichen Rechenzentren bedeutet
reaktive Skalierung, dass Server manuell hoch- und je nach
Änderung der Arbeitslast
manuell hoch- und
heruntergefahren werden. Das heißt, wenn die
Arbeitslast zunimmt, fügen
wir weitere Server hinzu, und wenn die Arbeitslast abnimmt, entfernen
wir die Server. Lassen Sie uns das
anhand eines Beispiels verstehen. Angenommen, es gibt
Anwendungsserver , auf die die
Benutzer der Anwendung zugreifen. Da die Anzahl der Benutzer dieser Anwendung im Laufe der Zeit zunehmen
wird, wird auch die
Auslastung des Servers zunehmen, wenn die Anzahl
der Benutzer weiter steigt. Es wird eine Zeit geben, in der
Ihr Server
seine volle Kapazität erreicht hat
und nicht genügend Arbeitsspeicher und CPU
zur Verfügung stehen, um die neuen Benutzer zu bedienen. Der Administrator
der Anwendung muss die
Serverkapazität überwachen. Er kann es manuell oder
mit Hilfe eines beliebigen Tools überwachen. Wenn er feststellt, dass der Anwendungsserver seine volle Kapazität
erreicht hat, fügt
er einen neuen Server hinzu und konfiguriert die Anwendung
auf dem neuen Server. Auch dieser Vorgang
kann
je nach Verfügbarkeit von
Servern oder Serververfügbarkeit einige Zeit
in Anspruch nehmen je nach Verfügbarkeit von
Servern oder Serververfügbarkeit . Techniker fügen den Server hinzu. Manchmal bedeutet Skalierung
den Kauf neuer Server. Dazu müssen Sie die Genehmigung
des Managements
einholen. Es kann mehrere
Monate dauern, bis die Server eintreffen. Wie Sie sehen, ist dies ein zeitaufwändiger Prozess
und nicht nachhaltig. Ein weiteres Problem bei
diesem Prozess besteht darin , dass
Sie, sobald
die Auslastung des Servers nachlässt, den zusätzlichen Server entfernen müssen, da er
sonst im Leerlauf läuft. Cloud Computing löst
all diese Probleme da es
je nach Auslastung
der Anwendung viel einfacher ist, Rechenressourcen
hinzuzufügen und zu entfernen je nach Auslastung
der Anwendung Die Hauptfrage ist nun, wie wird das
automatisch passieren? Nun, das wird
durch automatische Skalierung erreicht. Es ist eine Funktion des
Cloud-Computing
, die
Rechenressourcen je nach Nutzung und Nachfrage automatisch hinzufügt und
entfernt . Diese Funktion ist
nur in einer Cloud-Umgebung verfügbar. Autoscaling bietet
Flexibilität und Flexibilität für Ihre
Rechenanforderungen Daher wird es manchmal auch als Elastizität bezeichnet
. Elastizität bedeutet,
Rechenressourcen
je nach Nutzung und Nachfrage
hinzuzufügen oder zu entfernen . Wenn die Nachfrage steigt, erhöht
sich die
Anzahl der Ressourcen, und wenn sie sinkt, werden Ressourcen entfernt. Autoscaling gewährleistet eine nahtlose
Erhöhung der Ressourcen
bei Bedarfsspitzen und eine nahtlose Verringerung bei
sinkender Nachfrage Somit wird
eine gleichbleibende
Anwendungsleistung zu geringeren Kosten gewährleistet eine gleichbleibende
Anwendungsleistung zu geringeren Autoscaling ist so
effizient, dass die Ressourcen nur hinzugefügt
werden,
wenn der Bedarf steigt, und
sie sofort entfernt, wenn der Bedarf sinkt Auch auf diese Weise müssen Sie
die zusätzlichen Ressourcen
nicht ständig nutzen, um den Bedarf zu
Spitzenzeiten Autoscaling ist ein allgemeiner
Begriff im Cloud-Computing. Lassen Sie uns nun verstehen, was
Autoscaling in AWS ist. Aws. Autoscaling ist ein
Service, der Ihre Anwendung überwacht
und die Kapazität automatisch anpasst,
um eine konstante,
vorhersehbare
Anwendungsleistung zu den niedrigsten Kosten aufrechtzuerhalten vorhersehbare
Anwendungsleistung zu den niedrigsten Die wichtigsten Punkte sind
, dass er
Ihre Anwendung überwacht und
je nach Bedarf
zusätzliche Kapazität
hinzufügt oder entfernt, um aufrechtzuerhalten die
Anwendungsleistung zu möglichst niedrigen Kosten Wie genau
überwacht es Ihre Anwendung? Aws Auto Scaling verwendet einen AWS-Service namens Cloudwatch, um
die Anwendungsnachfrage zu überwachen Und es löst Alarme aus
, um die Ressourcen
je nach Ihren Anwendungsanforderungen nach oben oder
unten zu skalieren die Ressourcen
je nach Ihren Anwendungsanforderungen nach oben oder
unten Wir werden Cloudwatch
im
kommenden Modul ausführlich behandeln im
kommenden Modul ausführlich Derzeit ist Cloudwatch
ein Überwachungsdienst. Und es überwacht
Anwendungsmetriken wie CPU-Auslastung, Speichernetzwerk und vieles mehr Sie können einen
Schwellenwert festlegen und der Dienst
löst einen Alarm aus, wenn er diesen Schwellenwert
erreicht. Wenn die
CPU-Auslastung beispielsweise über 80% liegt, wird ein
Server hinzugefügt und dieser entfernt. Sinkt sie unter
30%,
verwendet Auto Scaling Cloud Watch, um
die Anwendung zu überwachen .
Je nach Anforderung werden
Server entweder entfernt oder entfernt, um den Bedarf zu decken. Schauen wir uns nun einige
Vorteile von AWS Auto Scaling an. Mithilfe der
AWS Auto Scaling-Gruppe können
wir das
Hinzufügen und Entfernen von
EC-Instances automatisieren , um
den tatsächlichen Bedarf zu decken. Dies ist eine der
wichtigsten Errungenschaften
der Cloud. Wie ich bereits erwähnt habe, bietet
sie Flexibilität
beim Hinzufügen
und Entfernen von Ressourcen , um der Kundennachfrage
gerecht zu werden. Somit entfällt
die gesamte reaktive Arbeit herkömmlicher Rechenzentren. Ein weiterer wesentlicher Vorteil
ist die Kostenoptimierung. Dies ist erneut ein großer
Gewinn in der Cloud. Sie müssen keine
zusätzlichen Ressourcen einsetzen, um die Spitzennachfrage zu
decken. Dadurch wird sichergestellt, dass Sie
nur für das bezahlen , was für
die Bedienung Ihrer Kunden erforderlich ist. Sie müssen nicht mehr
für ungenutzte Ressourcen bezahlen. Der letzte und wichtigste Punkt ist
die Anwendungsleistung. Da es Ihnen hilft, Ressourcen hinzuzufügen und zu entfernen,
um dem Bedarf gerecht zu werden, die Leistung der
Anwendung immer besser. Ihr Kunde wird nicht mit
Latenz und Langsamkeit
in der Anwendung konfrontiert Latenz und Langsamkeit
in der Anwendung Das ist alles für diese Sitzung.
55. EC2 Auto Scaling Group: Hallo Studierende. Willkommen zurück. In diesem Video werden wir mit Auto
Scaling fortfahren und die Elemente
der EC Two Autoscaling-Gruppe verstehen Lass uns anfangen.
Bisher haben Sie verstanden, dass Autoscaling zwei EC-Instanzen hinzufügt
und entfernt Lassen Sie uns nun verstehen,
wie das funktioniert. Sie müssen eine
Auto Scaling-Gruppe erstellen , die Amazon
C auf zwei Instances skaliert. Hier
fügt Autoscaling zwei
EC-Instances hinzu und entfernt Das bedeutet, dass die Gruppe EC
Two Autoscaling sicherstellt, dass Ihnen
genügend Amazon C Two-Instances zur Verfügung stehen, um die
Belastung Ihrer Anwendung zu bewältigen Dies erfolgt mit der Konfiguration von C zwei
Autoscaling-Gruppen. Es gibt drei Konfigurationen :
Mindestgröße, gewünschte
Kapazität und Maximalgröße Basierend auf diesen Konfigurationen passt
Autoscaling die Anzahl der
Instanzen innerhalb der minimalen
und der maximalen Anzahl
von EC Two-Instances Die gewünschte
Kapazitätskonfiguration
bestimmt die Größe
einer Auto Scaling-Gruppe Per Definition ist eine Auto
Scaling-Gruppe eine Sammlung von zwei
Amazon C-Instances, die zur automatischen
Skalierung und Verwaltung
logisch gruppiert zur automatischen
Skalierung und Verwaltung
logisch Das ist ziemlich klar, darüber haben wir
bisher gesprochen Eine Auto-Scaling-Gruppe ermöglicht es Ihnen
auch, zwei
Auto-Scaling-Funktionen von
Amazon EC zu nutzen , wie z. B. Ersatzfunktionen für
Integritätsprüfungen
und Skalierungsrichtlinien Sie hält die
Anzahl der Instances aufrecht, indem regelmäßige
Integritätsprüfungen der Instances
durchführt Wenn eine Instance
fehlerhaft wird, beendet
die
Autoscaling-Gruppe
die fehlerhafte Instance und
startet eine andere Instance ,
um sie zu ersetzen Eine weitere Richtlinie zur Funktionsskalierung , die ich in
der nächsten Sitzung behandeln werde Lassen Sie uns nun die Konfiguration
der
Autoscaling-Gruppengröße verstehen Konfiguration
der
Autoscaling-Gruppengröße Es ist wichtig, dies aus Sicht der
Zertifizierung
und
des Vorstellungsgesprächs für Cloud-Experten zu
verstehen Zertifizierung
und
des Vorstellungsgesprächs für Cloud-Experten und
des Vorstellungsgesprächs Mindestgröße definiert
die Mindestanzahl von Instanzen, die in einer Auto
Scaling-Gruppe
ausgeführt werden sollten in einer Auto
Scaling-Gruppe
ausgeführt In diesem Fall haben wir einen. Die Mindestgröße
stellt sicher, dass Sie immer eine feste Anzahl
von Instances haben, die ausgeführt werden. Die Autoscale-Gruppe
beendet niemals Instances
unter dieser Anzahl. Die gewünschte Kapazität bestimmt wie viele EC Two-Instances
Sie ausführen möchten Idealerweise haben wir in diesem
Fall zwei. Autoscaling wird versuchen, die
ganze Zeit
zwei C-2-Instanzen aufrechtzuerhalten ganze Zeit
zwei C-2-Instanzen Die gewünschte Kapazität kann
zwischen
der Mindest- und
Höchstgrößenbeschränkung skaliert zwischen
der Mindest- und
Höchstgrößenbeschränkung Sie muss größer oder
gleich der Mindestgröße
der Gruppe und kleiner oder gleich der maximalen
Gruppengröße maximale Größe ist die Anzahl der EC2-Instances, die ausgeführt werden dürfen. Dies ist die maximale Anzahl von Instances,
die in der Autoscaling-Gruppe ausgeführt Autoscale-Gruppen werden
niemals mehr als
die angegebene maximale Anzahl von
Instanzen erstellen die angegebene maximale Anzahl von
Instanzen Zusammenfassend lässt sich sagen, dass Amazon C
Two Auto Scaling Group die Anzahl der
Instances
beibehält und automatisch skaliert Das ist alles, was ich in diesem Video
behandeln wollte.
56. EC2-Autoscaling-Richtlinien: Studierende, willkommen zurück. Bisher haben wir verstanden
, dass Autoscaling eine Autoscaling-Gruppe benötigt , um
C-2-Instanzen zu verwalten und zu skalieren, oder? Das hängt ziemlich stark von der Autoscaling-Gruppenkonfiguration Wie Mindestgröße,
Maximalgröße und gewünschte Kapazität. Im
letzten Video haben wir auch verstanden, dass die gewünschte Kapazität
je nach Auslastung und
Verkehr Ihrer Anwendung ändern
sollte . Nun stellt sich die Frage, wie sich diese Zahl ändern wird. Wie wird die Anzahl der Instanzen
nach oben und nach unten skaliert? Nun, die Skalierung beginnt mit
einem Ereignis oder einer Skalierungsaktion weist die
Autoscaling-Gruppe an, Amazon
EC entweder zu starten oder zu
beenden In zwei Fällen
entstehen Autoscaling-Richtlinien Es gibt verschiedene Arten von Autoscaling-Richtlinien, die für verschiedene
Zwecke konzipiert sind für verschiedene
Zwecke konzipiert Lassen Sie uns
diese verstehen. Als Hinweis: Dies ist
zum Beispiel ein sehr wichtiges Thema und aus Sicht des
Interviews. Ich werde empfehlen,
besonders aufmerksam zu sein
und sich Notizen zu machen. Ich werde auch
einen zusätzlichen Lernlink
im Abschnitt Ressourcen hinzufügen . Die erste
Autoscaling-Richtlinie ist die manuelle Skalierung Dies ist die einfachste
Methode zur Skalierung Ihrer Ressourcen Hier ändern Sie Ihre
Autoscaling-Gruppen, maximale, minimale oder gewünschte
Kapazität, Amazon C zwei Auto Scaling verwaltet
den Prozess der Erstellung oder
Beendigung von Instances gemäß diesen Updates Wenn Sie wissen, wann wahrscheinlich mehr Traffic zu
Ihrer Anwendung fließen
wird, können
Sie die Größe
einer vorhandenen
Autoscaling-Gruppe manuell ändern einer vorhandenen
Autoscaling-Gruppe Sie können entweder
die gewünschte Kapazität der Autoscaling-Gruppe oder
die Instances aktualisieren , die an
die Autoscaling-Gruppe
angehängt sind Die manuelle Skalierung kann nützlich
sein, wenn Sie eine feste
Anzahl von Instanzen verwalten
müssen Die nächste ist die dynamische Skalierung. Bei der dynamischen Skalierung
definieren wir, wie die Kapazität
der
Auto Scaling-Gruppe
als Reaktion auf die sich ändernde Nachfrage skaliert werden kann. Das bedeutet, dass Sie die Anzahl der Instances während
des Spitzenbedarfs,
auch bekannt als Scale-Out,
erhöhen Instances während
des Spitzenbedarfs, auch bekannt als Scale-Out, und die Anzahl der Instances
während des Lastbedarfs verringern können, auch als Skalierung bezeichnet wird. Lassen Sie uns das
anhand eines Beispiels verstehen. Nehmen wir an, Sie haben eine
Webanwendung, die derzeit auf
zwei C-2-Instanzen läuft. Ihr Ziel ist es,
die CPU-Auslastung
dieser Instanzen
unabhängig von der Anwendungslast bei etwa 50% zu halten dieser Instanzen
unabhängig von der Anwendungslast bei etwa 50% . Das bedeutet, dass Sie
eine zusätzliche EC Two-Instance hinzufügen müssen ,
wenn die CPU-Auslastung 50%
überschreitet, Sie aber nicht wissen, wann sie 50%
erreichen wird. Machen Sie sich keine Sorgen. Sie können Ihre
Autoscaling-Gruppe so konfigurieren , dass sie dynamisch skaliert, um
diesen Anforderungen gerecht zu werden, indem Sie einen Zielverfolgungsschritt oder eine
einfache Skalierungsrichtlinie Lassen Sie uns nun diese
dynamischen Skalierungsrichtlinien verstehen. schrittweisen und einfachen Skalierung
können Sie
die Skalierungsmetriken
und Schwellenwerte für
den Cloudwatch-Alarm auswählen die Skalierungsmetriken
und Schwellenwerte für , der die Skalierung einleitet Wir werden Cloud Watch im
AWS-Managementmodul lernen. Sie definieren, wie Ihre Auto
Scaling-Gruppe
skaliert werden soll , wenn ein Schwellenwert eine bestimmte
Anzahl von Malen
erreicht Nehmen wir dasselbe Beispiel. Immer wenn die durchschnittliche
CPU-Auslastung
aller C-2-Instances für 5 Minuten
über 50% steigt, fügen Sie der
Auto Scaling-Gruppe 12 Instanzen hinzu. Wenn
die CPU-Auslastung 10 Minuten lang unter 30%
liegt, können Sie alternativ 10 Minuten lang unter 30%
liegt, eine C Two-Instance
aus der Autoscaling-Gruppe
entfernen Dies ist eine einfache oder schrittweise
Skalierung, da wir
den Triggerpunkt definieren , an dem Maßnahmen ergriffen sollen und wie viele Instanzen hinzugefügt oder entfernt werden
sollen Sie wählen eine Skalierungsmetrik und legen im Ziel einen
Zielwert fest. Skalierungsrichtlinien verfolgen, das ist alles. Es ist eine sehr einfache Methode eine dynamische
Skalierungsrichtlinie zu
definieren. Jetzt erstellt und
verwaltet Amazon C Two Auto
Scaling die Cloudwatch-Alarme , die die Skalierungsrichtlinie auslösen Und berechnen Sie die
Skalierungsanpassung auf der
Grundlage der Metrik
und des Zielwerts Die Skalierungsrichtlinie fügt zwei Instanzen hinzu oder
entfernt sie, um die Metrik auf oder
nahe dem angegebenen
Zielwert zu
halten . Sie können beispielsweise
eine
Skalierungsrichtlinie für die Zielverfolgung so konfigurieren, eine
Skalierungsrichtlinie für die Zielverfolgung Ihrer Out-Scaling-Gruppe durchschnittliche
Gesamt-CPU-Auslastung bei 50% liegt. Anschließend
skaliert die ASG automatisch, um
sicherzustellen, dass das Ziel von 50% eingehalten wird skaliert die ASG automatisch, um
sicherzustellen, dass das . Die
nächste ist die geplante Skalierung geplante Skalierung
hilft Ihnen dabei,
Ihren Skalierungsplan
entsprechend vorhersehbaren Laständerungen einzurichten Ihren Skalierungsplan
entsprechend vorhersehbaren Laständerungen Nehmen wir zum Beispiel an, dass
der Traffic zu Ihrer
Wave-Anwendung
jede Woche der Traffic zu Ihrer
Wave-Anwendung am Mittwoch zunimmt, am Donnerstag hoch
bleibt und am Freitag
abnimmt. Sie können einen
Zeitplan für Amazon EC Two konfigurieren:
automatische Skalierung, um die
Kapazität am Mittwoch zu erhöhen und Kapazität am Freitag zu
verringern. Dies ist sehr nützlich, wenn wir wissen , dass
Änderungen im Voraus vorgenommen werden. Wir gehen davon aus, dass die Skalierung
auf dem Muster bekannter Benutzer basiert. Die nächste ist die prädiktive Skalierung. Sie hilft,
schneller zu skalieren, indem sie Kapazität vor
der prognostizierten Auslastung aktiviert Der Unterschied besteht darin, dass die
dynamische Skalierung
reaktiv ist und
bei Bedarf skaliert Andererseits skaliert die prädiktive
Skalierung die Kapazität sowohl auf der Grundlage von
Echtzeitmetriken als auch auf historischen Daten Stellen Sie sich zum Beispiel
eine Anwendung vor, die während der
Geschäftszeiten
stark und wenig genutzt Durch vorausschauende
Skalierung über Nacht kann die Kapazität vor dem ersten Zufluss von Datenverkehr zu Beginn jedes
Geschäftstages erhöht werden Sie hilft Ihrer Anwendung ihre hohe Verfügbarkeit
und Leistung aufrechtzuerhalten , wenn sie von einem Zeitraum mit niedrigerer
zu einem höheren
Nutzungszeitraum zu einem höheren
Nutzungszeitraum Sie müssen nicht auf die
dynamische Skalierung warten , um auf den sich ändernden Datenverkehr
zu reagieren. Sie müssen auch keine
Zeit damit verbringen, die
Lademuster Ihrer
Anwendungen zu überprüfen und
mithilfe
der geplanten Skalierung die richtige Kapazität einzuplanen . Predictive
Scaling nutzt also
maschinelles Lernen, um den zukünftigen
Verkehr im Voraus vorherzusagen. Es wird die Verkehrsmuster der
Vergangenheit untersuchen und prognostizieren, was in Zukunft
mit dem Verkehr passieren wird Es wird automatisch zwei Mal im
Voraus
die richtige Anzahl von
EC-Instanzen angeben zwei Mal im
Voraus
die richtige Anzahl von
EC-Instanzen , die dem
prognostizierten Zeitraum entspricht. Dies ist von Vorteil, wenn
Sie wiederkehrende Muster
beim Ein- und Ausschalten von Workloads oder
Anwendungen haben Muster
beim Ein- und Ausschalten von Workloads oder ,
deren
Initialisierung lange dauert und die zu spürbarer Latenz führen Gehen wir nun zurück und , wie die Auto
Scaling-Richtlinie abgeschlossen wird Der Auto-Scaling-Prozess. Wie wir wissen, hängt die
automatische Skalierung von verschiedenen Faktoren wie Ereignissen,
Metriken und Schwellenwerten Und basierend auf unseren Anforderungen haben wir eine
automatische Skalierungsrichtlinie konfiguriert Diese Richtlinie weist
Auto Scaling an, zwei
C-Instanzen hinzuzufügen und zu entfernen Das war's für diese Sitzung.
57. Startkonfiguration und Startvorlage: Hallo, Schüler. Willkommen zurück. Bisher haben wir verstanden
, dass Autoscaling die Anzahl der
EC Two-Instances erhöht und verringert, um der Nachfrage
gerecht zu Wie Sie wissen, müssen
wir beim
Start der EC Two-Instance einige Konfigurationen bereitstellen Wir müssen
diese Konfiguration auch für die
automatische Skalierung vordefinieren diese Konfiguration auch für die
automatische Skalierung vordefinieren Das machen wir mit Startkonfiguration
und der Startvorlage Lassen Sie uns weitermachen und
das genauer verstehen. Sowohl die Startkonfiguration
als auch die Startvorlage definieren die Eigenschaften
des EC. Zwei Instances, die wir starten
möchten, wenn
die Nachfrage besteht. Aws hat 2014 die
Startkonfiguration eingeführt und
seitdem verwenden wir Startkonfiguration mit zwei Auto-Scaling-Gruppen von
EC. Andererseits wurde
kürzlich die
Startvorlage eingeführt, kürzlich eine ähnliche Aufgabe wie die
Startkonfiguration erfüllt. Da es
sich bei der Startvorlage um den neuesten Service
handelt, verfügt sie über einige zusätzliche Funktionen und Fähigkeiten, die uns die
Arbeit ein wenig erleichtern. Lassen Sie uns mit
einer Startkonfiguration beginnen und
dann mit der Startvorlage fortfahren
. Eine Startkonfiguration ist eine
E-2-Instance-Konfigurationsvorlage, in der wir
Konfigurationen unserer
EC-Two-Instance definieren , die Auto Scaling starten soll, wenn
die Nachfrage kommt. Konfiguration ist die
Konfigurationsvorlage für EC Two-Instances
, die Autoscaling verwendet, um
neue EC Two-Instances zu starten Wenn wir eine
EC Two-Instance erstellen, entweder über die
AWS-Managementkonsole oder mithilfe der AWS-CLI, stellen wir verschiedene
EC-Two-Instance-Konfigurationen bereit, z. B. die AM-ID, die Größe des Instance-Typs die Konfiguration
des Speichers Welche Instance verwendet das Keypair , das für die Verbindung
zu dieser Instance verwendet wird Wir definieren auch die
Netzwerkkonfiguration und die
Sicherheitsgruppen Dadurch werden die IP-Adresse und der
Port festgelegt , von denen aus auf die Instanz zugegriffen
werden kann. Wir können Benutzerdaten definieren, bei denen es sich um eine Reihe von
Befehlen oder Skripten handelt , die ausgeführt werden, während eine
Instanz gestartet wird. Wir können auch
die IAM-Rollen definieren, die an die Instanz angehängt
werden und
die Erlaubnis zum
Zugriff auf Dienste gewähren Im Wesentlichen
beinhaltet dies alles
, was wir normalerweise beim
Starten einer Instance definieren Wir können
alle Einstellungen in der
Startkonfiguration definieren und speichern , die als Vorlage für die automatische Skalierung beim
Starten neuer Instances dient. Die Startkonfiguration
kann nicht bearbeitet werden. Sie definieren sie einmal und diese
Konfiguration wird protokolliert. Wenn wir
die Konfiguration einer
Startkonfiguration anpassen möchten , müssen
Sie eine neue erstellen und diese neue
Startkonfiguration verwenden. Bei der
Startkonfiguration gibt es einige Probleme , die in der Startvorlage
verbessert wurden. Wie wir bereits gesehen haben, ähnelt
die Startvorlage der
Startkonfiguration. Sie bietet die
EC-Two-Konfiguration, die von
der EC Two Auto Scaling-Gruppe
beim Starten von C Two-Instances verwendet der EC Two Auto Scaling-Gruppe wird. Darüber hinaus kann die
Startvorlage auch verwendet
werden, um
EC Two Instances oder eine
Flotte von EC Two
Instances direkt von der
AWS-Managementkonsole oder
der AWS-CLI aus zu starten Flotte von EC Two
Instances direkt von der
AWS-Managementkonsole oder
der AWS-CLI aus . Da es sich bei der Startvorlage
um den neuesten Service
handelt, enthält sie mehrere
zusätzliche Funktionen. zusätzlich zu den
Konfigurationsfunktionen Schauen wir uns diese zusätzlich zu den
Konfigurationsfunktionen nacheinander
an. Damit können wir mithilfe
verschiedener Konfigurationen mehrere Versionen der Startvorlage erstellen. Wir können mehrere
Instance-Typen angeben, sogar Instance-Typen, die auf
Instance-Typattributen wie Arbeitsspeicher,
CPU-Speicher usw. basieren Instance-Typattributen wie Arbeitsspeicher, . Es ist in der Lage,
sowohl On-Demand- als auch
Spot-Instances zu verwenden , was
zu weiteren enormen Einsparungen führt Es deckt auch zwei bis
drei unbegrenzte Funktionen ab. Platzierungsgruppen, Kapazität, Reservierungen, elastische Grafiken und Funktionen für dedizierte Hosts sind in der
Startvorlage verfügbar, aber diese Funktionen
fehlten in der
Startkonfiguration. Es ermöglicht außerdem EBS, Volume-Tagging und eine
elastische Schnittstelle Aws empfiehlt, anstelle der
Startkonfiguration eine
Startvorlage zu verwenden , da diese mehr
architektonische Vorteile
bietet Lassen Sie uns nun verstehen, wo
die Startkonfiguration, eine Startvorlage, in
den Auto-Scaling-Prozess passt. Wenn Sie sich aus der
vorherigen Sitzung erinnern, hängt die
automatische Skalierung von verschiedenen Faktoren wie Ereignissen, Metriken
und Schwellenwerten Basierend auf unseren Anforderungen haben wir eine
Autoscaling-Richtlinie konfiguriert Diese Richtlinie weist
Auto Scaling an, zwei
EC-Instances hinzuzufügen und zu entfernen Jetzt
benötigt Autoscaling die
Instance-Startkonfiguration , um die EC Two-Instance zu
starten Stimmt das? Um
C Two-Instances zu starten, verwenden
wir die Startkonfiguration
und die Startvorlage , um der Autoscaling-Gruppe zwei EC-Konfigurationen
zur Verfügung Autoscaling-Gruppe zwei EC-Konfigurationen
zur Jedes Mal, wenn Autoscaling eine EC Two-Instance
startet, bezieht sich
dies auf die
Startkonfiguration die wir
mit Autoscaling konfigurieren Das ist alles für diese Lektion über Startkonfiguration
und Startvorlage
58. Load balancer: Hallo, Studenten. Willkommen zurück. Im letzten Video
haben wir verstanden, wie EC
Two Auto Scaling
Ihre automatisch hoch- und herunterskaliert EC Two-Instances
je nach Bedarf
automatisch hoch- und herunterskaliert. In dieser Lektion lernen wir das allgemeine Konzept
des Lastenausgleichs kennen, da dies
die Grundlage für
unser nächstes Video,
Elastic Load Balancer, bilden wird unser nächstes Video,
Elastic Load Balancer, Lass uns anfangen. Gehen wir davon aus, dass Sie zum Einchecken in ein
Fünf-Sterne-Hotel gehen. Es gibt zehn Rezeptionisten, die Buchungen
überprüfen, ein- und auschecken Die meisten Kunden
stehen in wenigen Warteschlangen,
was zu einer ungleichmäßigen Verteilung
der Kunden pro Leitung führt , während andere Rezeptionisten
herumstehen und nichts anderes
tun Die Kunden kommen rein
und haben keine
Ahnung, wohin sie gehen sollen Aber wenn Sie
über die Situation nachdenken, wäre
es hilfreich, wenn wir einen Gastgeber am Eingang
hätten. Jeder Kunde,
der reinkommt, muss wissen, wer weniger Leute hat
und wer effizient ist. Im Moment
werden die Kunden von
einem Gastgeber an der Tür begrüßt Er wird sie an
die entsprechende Leitung im Hotel weiterleiten die entsprechende Leitung im ,
wo sie ein- und
auschecken Der Gastgeber behält die Rezeptionisten
im Auge und zählt die Anzahl der Personen in der Schlange, die jede Rezeptionistin bedient Jetzt
wird jeder neue Kunde an die Rezeptionistin
mit der kürzesten Warteschlange weitergeleitet ,
was der geringsten Warteschlange entspricht was Folglich wird es sogar Wartezeiten
zwischen den Rezeptionisten geben, sodass die Kunden so effizient
wie möglich
bedient werden effizient
wie möglich
bedient Denken Sie jetzt an AWS,
Auto Scaling Group. Sie haben mehrere
EC-Instances dieselbe Anwendung
ausgeführt wird. Anfrage,
welche EC-2-Instanz sie bearbeiten
wird, wenn Woher weiß die Anfrage,
welche EC-2-Instanz sie bearbeiten
wird, wenn eine Anfrage eingeht? Wie können Sie
eine gleichmäßige Verteilung der
Arbeitslast auf zwei C-Instanzen sicherstellen? Sie benötigen eine Möglichkeit, Anfragen
gleichmäßig an verschiedene Instanzen weiterzuleiten , um diese Anfragen zu bearbeiten. An dieser Stelle
kommt der Load Balancer ins Spiel. Es handelt sich um eine Netzwerklösung
, die den Datenverkehr
auf mehrere Server verteilt , um die Anwendungsleistung zu verbessern Auch hier handelt es sich um eine
Software, die Sie installieren,
verwalten, aktualisieren und skalieren können verwalten, aktualisieren und skalieren Ein Load Balancer kann
für zwei oder mehr C Two-Instances installiert werden , aber das Problem ist
die Skalierbarkeit Lasst uns das verstehen. Sie haben einen
Load Balancer vor zwei C Two-Instances
und Ihre Anzahl von EC Two-Instances wird je nach Auslastung
steigen Vor allem, wenn
Sie überskalieren gibt es keine
Beschränkung für C-2-Instances Es kann von nichts auf 100
oder sogar mehr
C-2-Instanzen skaliert werden, oder? Nun, wie wird ein Load
Balancer alle Anfragen bearbeiten? Es muss auch skaliert
werden, oder? Hier bietet AWS einen weiteren Service namens
Elastic Load Balancer
59. Was ist ein Elastic Load Balancer (ELB)?: Hallo, Studierende. Willkommen zurück. In diesem Video
werden wir
einen anderen AWS-Service verstehen ,
nämlich Elastic Load Balancer Dieser Service arbeitet sehr eng mit Auto Scaling zusammen, um den
Traffic gleichmäßig auf zwei
Instanzen zu verteilen . Lass uns anfangen. Was ist Elastic Load Balancer? Dies ist ein AWS-Service , der zur
Verteilung der Last verwendet wird Er wurde entwickelt, um die undifferenzierte
Schwerlast des Lastenausgleichs zu bewältigen In der vorherigen Lektion haben
Sie etwas über einen
Load Balancer gelernt, der für die Verteilung des
eingehenden Datenverkehrs
zwischen verfügbaren
EC-Instances verantwortlich ist der für die Verteilung des
eingehenden Datenverkehrs . Elb skaliert automatisch
, wenn sich der Verkehr zu Ihren Servern ändert
, wenn der Verkehr zunimmt Elb ermöglicht es dem Load Balancer , die zusätzliche
Last zu bewältigen, indem
er sie verteilt , wann immer Ihre EC
Two Autoscaling-Gruppe
skaliert und eine
neue EC Two-Instance hinzugefügt Der Autoscaling-Service
sendet eine Benachrichtigung an den Elastic Load Balancer, dass eine neue Instance bereit ist, den Datenverkehr
zu In ähnlicher Weise sendet die EC
Two Autoscaling-Gruppe , also wenn sie
den Prozess zum
Beenden einer Instance initiiert , eine Benachrichtigung an den , also wenn sie
den Prozess zum
Beenden einer Instance initiiert, eine Benachrichtigung an den Elastic
Load Jetzt ist es die Aufgabe von ELB, das Senden des Datenverkehrs an die ausgewählte Instance
zu
beenden Danach wartet es,
bis
die vorhandenen Anfragen abgeschlossen Sobald alle vorhandenen
Anfragen erfüllt wurden, beendet Auto
Scaling die Instanzen, ohne
die bestehenden Kunden zu stören Der Elastic Load Balancer leitet
den eingehenden Anwendungsdatenverkehr
automatisch über verschiedene Instanzen hinweg weiter Er fungiert als Kontaktstelle
für den eingehenden Datenverkehr. Jeglicher Datenverkehr, der zu Ihrer
Anwendung kommt, trifft zuerst auf den Load Balancer und wird dann an eine
verfügbare Instance gesendet Es überwacht auch den
Zustand der
beiden laufenden EC-Instances , da es
die Datenverkehrsanfragen nur an die
fehlerfreien Instances sendet die Datenverkehrsanfragen nur an die
fehlerfreien Instances Ordnung, jetzt wissen
Sie, wie der Sie, wie Elastic Load Balancer
externen Traffic an
Ihre EC-2-Instances weiterleitet externen Traffic an
Ihre EC-2-Instances Nicht nur das, es wird auch für das Routing des internen
Datenverkehrs
verwendet Lassen Sie uns das anhand
eines Beispiels für ML verstehen. Angenommen,
viele Nutzer verwenden ihr Gmail. Sie öffnen den Invox, dann fungiert die Seite
als Webserver Ein Benutzer kompiliert die Nachricht und klickt auf die Schaltfläche Senden Wenn wir darüber sprechen, was auf dem Mailserver
passiert, verarbeitet
ein App-Server Ihre E-Mails, einschließlich der Speicherung
in einer Datenbank, Sendens an die
jeweiligen Benutzer usw. Wenn immer mehr Nutzer
Gmail verwenden, wird auch
die Anzahl der Webserver steigen Daher muss
C to Auto Scale auch die Anzahl
der App-Server erhöhen. Es sollte
jedem Ab-Server bestätigt werden , dass ein neuer App-Server verfügbar ist
, der den Datenverkehr akzeptiert. Stellen Sie sich nun vor, Sie haben potenziell Hunderte von
Serverinstanzen auf beiden Ebenen. Wir können das
Appserver-Verkehrschaos auch
mit einem internen ELB lösen auch
mit einem internen ELB Elb leitet den Verkehr an den App-Server weiter, der die
wenigsten ausstehenden Anfragen hat Der Wave-Server weiß
nicht und es ist ihm egal, wie viele
Appserver-Instanzen laufen Nur ELB kümmert sich um die Weiterleitung des Datenverkehrs zu
verfügbaren Apservern. Dies wird als
entkoppelte Architektur bezeichnet. In dieser Architektur bleiben
alle Rechenkomponenten
völlig autonom und wissen nicht, dass sie die jeweils andere Aufgabe unabhängig voneinander ausführen. Elastic Load Balancer ist
der Dienst, den wir
vor einem Waveserver verwenden können , um den eingehenden Verkehr zu
verteilen Er wird auch als
öffentlicher Load Balancer bezeichnet. Wir können auch den Elastic Load
Balancer hinter dem Waveserver verwenden den Verkehr
gleichmäßig auf den Waveserver zu verteilen Da dies intern funktioniert, wird
es als interner privater Load Balancer bezeichnet Studenten, das ist
alles für dieses Video.
60. AWS Elastic Load Balancer (ELB): Hallo, Studierende. Willkommen zurück. In diesem Video werden wir verschiedene
Arten von ELB
verstehen. Lass uns anfangen. Aws, Elastic Load Balancing, unterstützt vier Load Balancer, Application Load Balancer,
Network Load Balancer, Classic Load Balancer
und Gateway Load Balancer Lassen Sie uns sie eins nach dem anderen verstehen
. Diese Load Balancer arbeiten
mit verschiedenen OSI-Modellen. OSI-Referenzmodell steht für Open System Interconnection
Reference Es beschreibt, wie Informationen
mithilfe eines Netzwerks von
einer Software
auf einem Computer in einen anderen umgewandelt einer Software
auf einem Computer in werden Dies wird erreicht, indem
die Datenkommunikation
in mehrere Schichten aufgeteilt wird, wodurch die Kontrolle über das Senden von
Daten von einer Schicht zur anderen gegeben wird. Wie der Name schon sagt, arbeiten
Application Load
Balancer auf der siebten Schicht
des OSI-Modells, der
Anwendungsschicht Der Network Load Balancer
arbeitet auf Schicht vier
, der Netzwerkschicht Der Classic Load Balancer ist der älteste und erste Elastic
Load Balancer-Service Er ist so konzipiert, dass er
sowohl auf Anwendungs
- als auch auf Netzwerkebene funktioniert sowohl auf Anwendungs
- als auch auf Netzwerkebene Der Gateway Load Balancer ist der neueste Dienst in der
Elastic Load Balancer-Familie
, der auf Layer 3.4 arbeitet.
Als nächstes folgt der Protokoll-Lister, also
die
verschiedenen Protokolle
, die diese Load
Balancer Application Load
Balancer unterstützt
nur das nur Der Network Load Balancer
verarbeitet die TCP- und UDP-Protokolle. Der Gateway Load Balancer überwacht
nur IP. Wie bereits erwähnt, kann
ein klassischer
Load Balancer
sowohl bei Anwendungs-
als auch bei Netzwerk-Playern eingesetzt Daher unterstützt er sowohl Anwendungs- als auch
Netzwerk-Player-Protokolle wie TCP, SSL by TLS, TTP, TTPs Schauen wir uns nun verschiedene Anwendungsfälle für
diese Load Der häufigste Anwendungsfall für Application Load Balancer
sind Web-Apps Eine Web-App, die auf dem Micro
Services Framework basiert, kann
ALB als Load Balancer verwenden ALB als Load Balancer bevor eingehender Datenverkehr Ihr EC,
zwei Instances oder die für ein Servicenetzwerk
gehosteten Container
erreicht zwei Instances oder die für ein Servicenetzwerk
gehosteten Container für ein Servicenetzwerk
gehosteten Load Balancer deckt die
verbleibenden Szenarien
ab, in denen ALB ,
zum Beispiel die Apps ,
zum Beispiel die Apps, die von einem
anderen Protokoll als STTP abhängig sind, die zeitkritischen Apps, der Echtzeit-Datenfluss
und die Apps, die vom
Streaming von Audio, Video,
Währungscodes usw. abhängig sind, Verwendung von LB profitieren
werden. Der Gateway Load Balancer
arbeitet auf Ebene drei. Er macht es einfach und
kostengünstig,
virtuelle Appliances
von Drittanbietern bereitzustellen, zu skalieren und deren Verfügbarkeit zu verwalten skalieren und deren Der klassische Lode-Balancer
kann für
fast alle Anwendungsfälle von Lode-Balancer für
Anwendungen und
Netzwerke verwendet werden fast alle Anwendungsfälle von Lode-Balancer für Anwendungen und
Netzwerke Da die Anwendung und
der Netzwerk-Lode-Balancer jedoch die neuesten
sind und
für einen bestimmten Zweck konzipiert wurden, verwenden
Sie sie, um das Beste daraus zu machen Aws stellt den
klassischen Load Balancer
am 15. August 2022 in den Ruhestand am 15. August Die Verwendung wird nicht empfohlen. Der nächste ist der Zieltyp, d.
h. wohin
der Load Balancer den Datenverkehr leiten
kann Es könnten
unter anderem C, zwei Instanzen,
feste IP-Adressen, AWS, Lambda-Funktionen Sie können dies einfach
mit den oben genannten Anwendungsfällen in Verbindung bringen. Der Application Load Balancer
unterstützt IP C zwei Instanzen und der Lambda Network Load Balancer unterstützt IP C Und auch der Application
Load Balancer kann Datenverkehr an ALB senden Der Gateways Load Balancer unterstützt zwei IP- und Der klassische Load Balancer
unterstützt auch zwei IP- und
EC-Instances Wir können auf jeden Load Balancer
detailliert eingehen, aber das ist
für diesen Kurs nicht erforderlich Sie müssen sich nur an
diese vier Arten
von Loadbalances,
Typen, Protokollen und Anwendungsfällen erinnern diese vier Arten
von Loadbalances, Typen, Protokollen und Anwendungsfällen Das ist alles für diese Lektion.
61. ELB und Auto Scaling gemeinsam verwenden: Hallo, Studierende. Willkommen zurück. Im vorherigen Lab,
im Modul EC Two, haben
wir
den STTDP-Service
für die EC Two-Instance bereitgestellt , die wir über
die AWS-Konsole erstellt haben In diesem Lab werden wir zwei
EC-Instances mithilfe der
AWS Autoscaling-Gruppe erstellen zwei
EC-Instances mithilfe der
AWS Autoscaling-Gruppe Wir werden sehen, wie
die AWS-Autoscaling-Gruppen konfiguriert werden. der Autoscaling-Gruppe bereitgestellt Der STTDP-Service
wird automatisch für alle Instances in und
der daraus resultierende
STTDP-Anwendungszugriff
über
den Application Load Balancer angezeigt daraus resultierende
STTDP-Anwendungszugriff
über
den Application . Gehen wir zur AWS-Konsole
und geben Sie C two in die und geben Sie C Klicken Sie auf C zwei, um direkt zum EC Two-Dashboard zu
gelangen. im linken Dashboard Klicken
Sie im linken Dashboard auf Vorlagen
starten. Sie spezifizieren die Konfiguration
von zwei EC-Instanzen. Lass uns einen Blick darauf werfen.
Klicken Sie auf Erstellen. Vorlage starten. Fügen Sie einen zusammengepackten
Namen für die Startvorlage hinzu, Elting. Lassen Sie uns Launch Template
für Auto Scaling hinzufügen. Demo als Beschreibung, wir können Steuern hinzufügen, indem wir hier auf
diese Drop-down-Schaltfläche klicken. Wenn Sie aus einer vorhandenen Startvorlage eine neue Vorlage kopieren, ändern
oder
eine neue erstellen möchten aus einer vorhandenen Startvorlage eine neue Vorlage kopieren, ändern
oder
eine neue erstellen , können
Sie dies tun, indem Sie hier
auf das nächste Drop-down-Menü klicken. Die nächste Option, die wir haben,
ist die Auswahl des AMI. Geben wir Amazon, Linux, zwei in die Suchleiste ein und
wählen Sie das erste AMI aus. Wie Sie sehen können,
ist dieses AMI für Gratis-Reifen qualifiziert, was bedeutet, dass wir dafür nichts bezahlen
müssen. Die nächste Option besteht darin, den Instance-Typ
auszuwählen. Wir können mehrere
Instance-Typen sehen wenn du hier nach unten scrollst Da wir
keine speziellen
Instanzanforderungen haben keine speziellen
Instanzanforderungen und wir auch in der kostenlosen Version
bleiben wollen, wählen
wir die Zwei-Punkte-Micro-Instance Als Nächstes müssen wir das Schlüsselpaar
auswählen. Wir werden es benötigen, wenn
wir H der Instanz zuordnen. Außerdem müssen Sie ein Schlüsselpaar
angeben,
da wir H
in diesem Labor nicht anhand der Instanz bewerten werden Lassen Sie uns dies als Standard belassen. Wenn Sie SSH ausprobieren und Befehle selbst
ausführen möchten, können
Sie ein
vorhandenes Schlüsselpaar wie
dieses auswählen oder ein neues Schlüsselpaar erstellen,
indem Sie auf diesen Link klicken Wir müssen die Netzwerkeinstellungen für
unsere
EC Two Instances angeben Netzwerkeinstellungen für
unsere
EC Wir müssen hier keine Subnetze
auswählen. Lassen Sie uns diese
Standardeinstellung vorerst belassen. Als Nächstes müssen wir
die Sicherheitsgruppe konfigurieren. Bitte beachten Sie, dass diese
Sicherheitsgruppe
letztendlich an
die beiden von uns erstellten EC-Instanzen
angehängt wird. Anhand dieser Startvorlage können
wir eine
neue Sicherheitsgruppe erstellen oder eine bestehende
Sicherheitsgruppe auswählen. Ich habe die Sicherheitsgruppe
aus dem vorherigen Lab. Ich kann mir das aussuchen. Lassen Sie mich jedoch den Prozess der
Erstellung einer Sicherheitsgruppe
demonstrieren. Klicken Sie erneut auf Sicherheitsgruppe
erstellen und fügen Sie den
Namen und die Beschreibung der Sicherheitsgruppe hinzu. Wählen Sie die richtige VPC aus. Als Nächstes werden wir Regeln hinzufügen. Klicken Sie auf
Sicherheitsgruppenregel hinzufügen
und dann auf
Sicherheitsgruppenregeln hinzufügen. Wählen Sie in dieser Quelle in der
Spalte Typ die Option STTP aus. Wählen Sie Irgendwo aus.
Ich habe die SSH-Regel nicht hinzugefügt, da wir das in diesem Lab nicht tun
werden Wenn Sie SSH ausprobieren möchten, müssen
Sie einen
Hauptzahler auswählen und die SSH-Regel hinzufügen Wir haben jetzt
die Sicherheitsgruppe für
unsere Startvorlage konfiguriert die Sicherheitsgruppe für
unsere Als Nächstes können wir hier die
EBS-Volume-Konfiguration hinzufügen. Lassen Sie uns das überspringen. Für dieses Lab können
wir die
Startvorlage aufrufen, indem wir hier klicken, aber wir haben keine
derartigen Anforderungen. Lassen Sie uns auch das überspringen. Klicken Sie auf Erweiterte Optionen. Wir müssen hier
keine Optionen ändern. Gehen Sie weiter und kritzeln Sie
zum Ende der Seite. Sie werden hier die Option für
Benutzerdaten sehen. Hier können wir
die Befehle eingeben, die wir ausführen möchten, wenn
unsere Instanz gestartet wird. Im vorherigen Lab haben wir STTPD manuell
installiert. In diesem Lab werden wir
unsere Befehle
hier in dieses Textfeld einfügen unsere Befehle
hier in dieses Textfeld Aws führt
sie automatisch aus , wenn unsere
Instanz gestartet wird Bei den folgenden
Befehlen aktualisieren. Dies dient dazu, die
Standardpakete in
unserer Instanz zu aktualisieren . Installieren Sie sttpDoy Dieser Befehl
installiert STTPD auf unserem Starten Sie STTPD. Dieser Befehl startet den stTPD-Dienst auf
den Dieser Befehl auf dem Bildschirm zeigt uns eine benutzerdefinierte STML-Seite Klicken Sie auf
Startvorlage erstellen. Wir haben erfolgreich eine Startvorlage
erstellt. Klicken Sie hier, um die Startvorlagen anzuzeigen. Sie können Ihre
Startvorlage jetzt in der Liste sehen. Lassen Sie uns nun zum
Autoscaling Group-Dashboard übergehen. Klicken Sie im linken Dashboard auf Autoscaling-Gruppen und dann
auf Autoscaling-Gruppe erstellen Geben Sie den Namen Packed Up ASG und wählen Sie die
Startvorlage aus, die wir Beachten Sie, dass Sie über diesen Link auch hier zur
Seite „
Startvorlage erstellen“ gelangen können erstellen diesen Link auch hier zur
Seite „
Startvorlage Klicken Sie auf Weiter, wählen Sie die komprimierte VPC aus und wählen Sie Public Submt
One und Public Submate Wählen Sie zwei beliebige
Standardsubnetze aus der Liste aus. Wenn Sie keine eigene VPC
in Ihrem Konto haben , klicken Sie auf
Weiter Wir können unserer Autoscaling-Gruppe
direkt von dieser Seite aus einen Load Balancer
hinzufügen, direkt von dieser Seite aus einen Load Balancer
hinzufügen, aber das werden wir
später über das Load
Balancer-Dashboard tun später über das Load
Balancer-Dashboard Lassen wir das vorerst aus. Klicken Sie auf Weiter, wir sehen drei
wichtige und nützliche Optionen. Gewünschte Kapazität. Dieser Wert gibt
die gewünschte Anzahl von Instanzen an, die
Sie haben möchten. Lassen Sie uns diesen Wert auf drei ändern. Als Nächstes haben wir die
Mindestkapazität. Dieser Wert gibt
die Mindestanzahl von Instances an, über die die Auto
Scaling-Gruppe verfügen soll. Wenn Sie über eine
Mindestkapazität von zwei verfügen, stellt
AWS sicher, dass
Sie immer über
mindestens zwei Instances verfügen. Lassen Sie uns diesen Wert auf zwei ändern. Als nächstes haben wir die maximale Kapazität. Dieser Wert gibt die
maximale Anzahl von Instanzen die die Autoscaling-Gruppe verfügen
soll, wenn sie hochskaliert wird Wenn Sie eine maximale
Kapazität von vier haben, lassen Sie uns diesen Wert
auf vier Instanzen ändern Wir können die
Ziel-Tracking-Skalierungsrichtlinie hinzufügen,
indem wir die Option
hier für unser Beispiel hinzufügen Später werden
wir unserer Autoscaling-Gruppe einfache
Skalierungsrichtlinien Klicken Sie auf Weiter, wir können auf dieser Seite
eine Benachrichtigung hinzufügen. Wir können beispielsweise
ein SNS-Thema erstellen, das uns jedes Mal, wenn die
Autoscaling-Gruppe
skaliert oder heruntergefahren wird,
eine E-Mail an uns sendet jedes Mal, wenn die
Autoscaling-Gruppe
skaliert oder heruntergefahren wird,
eine E-Mail an uns Autoscaling-Gruppe
skaliert oder heruntergefahren wird, Wir haben keine derartigen Anforderungen Klicken Sie auf Weiter, wir können
hier ein Tag hinzufügen. Lassen Sie uns das überspringen. Klicken Sie auf Weiter, überprüfen Sie Ihre
Autoscaling-Gruppe und klicken Sie dann auf
Autoscaling-Gruppe erstellen Unsere Autoscaling-Gruppe mit der gewünschten
Kapazität von drei, einer
Mindestkapazität von zwei
und einer maximalen Kapazität von vier
aufgeführt Mindestkapazität von zwei und einer maximalen Kapazität Der Status, also die Aktualisierung der
Kapazität, da wir
die gewünschte Kapazität
von drei haben und diese
Autoscaling-Gruppe
derzeit keine Instanzen hat, wird
sie versuchen, drei
C-2-Instanzen für uns zu erstellen Sie können sich das ansehen, indem Sie
Ihre Autoscaling-Gruppe auswählen und
auf die Aktivität klicken Sie werden drei erfolgreiche
Instance-Starts sehen. In der Spalte „Ursache“ können
Sie sehen, dass der
Autoscaling-Gruppendienst versucht, die Kapazität zu erhöhen (0-3). Bevor wir
zum EC Two-Dashboard gehen und uns unsere Instances ansehen, fügen
wir der Autoscaling-Gruppe Skalierungsrichtlinien
hinzu Klicken Sie auf den Tab Automatische Skalierung
. Neben dem Tab Aktivität sehen
Sie, dass wir
unserer Autoscaling-Gruppe
keine Richtlinien hinzugefügt haben unserer Autoscaling-Gruppe
keine Richtlinien hinzugefügt Lassen Sie uns eine dynamische
Skalierungsrichtlinie erstellen. Wählen Sie „Einfache Skalierung“ aus dem Richtlinientyp
und fügen Sie den Namen hinzu. Fügen Sie eine Instanz hinzu. Wenn die CPU-Auslastung geringer
ist als automatische Skalierung,
benötigt die Gruppe einen Cloudwatch-Alarm , um die CPU-Auslastung zu verfolgen Lassen Sie uns den
Alarm erstellen, indem Sie hier auf die CW-Alarmseite Klicken Sie auf
Metrik auswählen und dann auf zwei. Für C2-Metriken benötigen
wir die gesamte
Autoscaling-Gruppenmetrik und nicht die
Metrik pro Instanz für diesen Alarm Wählen Sie nach
Autoscaling-Gruppe aus und suchen Sie unter dem Metriknamen nach
der
CPU-Auslastung Wählen Sie die
Zeile CPU-Auslastung aus und klicken Sie auf Metrik auswählen. Sie können das
Diagramm zur CPU-Auslastung auf der linken Seite sehen. Wir möchten, dass unsere
Autoscaling-Gruppe skaliert. Die CPU-Auslastung liegt über 80%. Scrollen Sie nach unten,
wählen Sie
im Bedingungsfeld die Option Höher aus und
geben Sie den Wert 80 Das bedeutet, dass unser
Alarm ausgelöst wird , wenn der
CPU-Auslastungswert über 80 liegt. Wir müssen
die anderen Parameter
für den Alarm nicht ändern . Klicken Sie auf Weiter, wir können
Benachrichtigungen und
Aktionen auf dieser Seite hinzufügen , aber lassen Sie uns das vorerst überspringen. Wir werden
auf der Autoscaling-Gruppenseite eine Alarmaktion hinzufügen auf der Autoscaling-Gruppenseite Klicken Sie auf Weiter, geben Sie den
Namen und die Beschreibung ein und erstellen Sie den Alarm wieder auf
der Autoscaling-Gruppenseite Aktualisieren Sie die Alarm-Option. Suchen Sie Ihren
Scale-Up-Alarm in der Liste. Wählen Sie den Alarm in der Aktion aus. Wählen Sie, ob Sie eine Kapazitätseinheit hinzufügen möchten. Dadurch wird jedes Mal, wenn
dieser Alarm ausgelöst wird, eine Instanz zu
unserer ASG hinzugefügt jedes Mal, wenn
dieser Alarm ausgelöst wird, eine Instanz zu
unserer ASG Wir haben unsere
einfache Skalierungsrichtlinie entwickelt , um den Raum für
automatische Skalierung zu Lassen Sie uns eine weitere
Richtlinie zur Reduzierung der Skalierung erstellen. Klicken Sie auf Dynamische
Skalierungsrichtlinie erstellen. Wählen Sie Einfache Skalierung aus. Fügen Sie den Namen hinzu. Entfernen Sie
eine Instanz, wenn die CPU-Auslastung unter 30
liegt. Wir müssen auch einen neuen Alarm
erstellen. Klicken Sie auf den Link Alarm erstellen. Klicken Sie auf Metrik auswählen. Sie die Metrik der
Autoscaling-Gruppe nach Metrik aus und wählen Sie
die Metrik zur CPU-Auslastung Dieses Mal möchten wir, dass unser
Alarm ausgelöst wird, wenn die
CPU-Auslastung
im Alarmzustandsfeld unter 30% Wählen Sie niedriger aus und
fügen Sie den Wert 30 hinzu. Klicken Sie auf Weiter, überspringen Sie
die Benachrichtigungen, fügen Sie einen Namen und eine Beschreibung und erstellen Sie den Alarm auf der
Autoscaling-Gruppenseite Aktualisieren Sie, wählen Sie den Alarm aus. Wählen Sie, ob Sie eine
Kapazitätseinheit entfernen und die Richtlinie erstellen möchten. Lassen Sie uns diese
Richtlinien in Aktion sehen. Wir haben gerade eine Richtlinie hinzugefügt, das Herunterfahren bei einer
CPU-Auslastung unter 30% vorsieht. Da wir auf unserem EC Two keine
Workloads haben, wird
die durchschnittliche
CPU-Auslastung unter 30% liegen, was diesen Alarm auslöst Wenn Sie den Aktivitäts-Tab
Ihrer Auto Scaling-Gruppe sehen, werden
Sie bald feststellen,
dass AWS
die gewünschte Kapazität um 3-2 reduziert die gewünschte Kapazität um 3-2 und die Instance nun beendet Im Fallabschnitt werden
Sie sehen, dass
dies daran liegt, dass wir
die Richtlinie gerade erst erstellt haben, obwohl
unsere ASG herunterskaliert wurde Wenn Sie es auf
der Registerkarte Cloudwatch sehen, befindet sich
der Scale-Down-Alarm immer noch
im ausgelösten Das liegt daran, dass
auf unseren EC Two-Instances immer noch
keine Prozesse laufen und
die CPU-Auslastung gering ist Im Idealfall reduziert AWS
eine weitere Instanz aus unserer ASG. Da wir
die Mindestkapazität
jedoch auf zwei festgelegt haben , wird AWS Ihre Instance nicht herunterskalieren AWS ändert Ihre
gewünschte Kapazität wie bei den Skalierungsrichtlinien, aber es ändert nie die Mindest- und
Höchstkapazitätswerte Wenn Sie die Auto
Scaling-Gruppe bearbeiten und den
Mindestkapazitätswert auf eins
ändern, wird
sehr bald
eine weitere Instance beendet. Lassen Sie uns das nicht tun und
unsere beiden Instances am Laufen halten. Gehen Sie vom linken Dashboard
aus zur Instanzseite. Wir können sehen, dass sich
zwei Instances
im Status Running und eine Instance im Status
Beendet haben. Wählen Sie eine der laufenden
Instances aus und kopieren Sie deren öffentliche IP-Adressen die IP-Adressen
des Instance-Browsers. Sie werden feststellen, dass,
obwohl wir
in der Instanz keine Befehle
manuell ausgeführt haben , HTTPD installiert ist
und läuft Lassen Sie uns nun einen
Application Load Balancer erstellen und diese Webseite über
die Load Balancer-URL aufrufen Klicken Sie auf Load Balancers. Im linken Dashboard können
Sie sehen, dass wir derzeit
keine Load Balancer in
unserem Konto Klicken Sie auf Create Load Balancer, wählen Sie Application Load
Balancer geben Sie den Namen
Cloud Die nächste Option besteht
darin, auszuwählen, ob wir Internet verbundenen oder einen
internen Load Balancer
wünschen Auf interne Load Balances kann
nur lokal
innerhalb der VPC zugegriffen werden kann
nur lokal
innerhalb der VPC zugegriffen Da wir unsere Website über
das ALV von überall auf der Welt aus
sehen möchten , müssen
wir
in der Netzwerkbox die Option
Internetzugriff auswählen Netzwerkbox die Option
Internetzugriff Wählen Sie im Bereich
Sicherheitsgruppe
die VPC und die öffentlichen Subnetze aus Lassen Sie uns eine neue
Sicherheitsgruppe erstellen. Fügen Sie den Namen und die Beschreibung hinzu. Wählen Sie dieselbe VPC wie
die beiden EC-Instances aus. Und fügen Sie eine STTP-Regel , um STTP-Verbindungen
von überall aus zuzulassen Erstellen Sie die Sicherheitsgruppe wieder auf
der Load Balancer-Seite. Aktualisieren Sie die
Sicherheitsgruppenoption. Wählen Sie die, die Sie gerade erstellt haben. Alb's benötigen etwas, das als Zielgruppe
bezeichnet wird. Eine Zielgruppe ist eine Gruppe
von C-2-Instanzen oder anderen Ressourcen, an die ALB ihre Anfragen
weiterleitet Lassen Sie uns eine neue Zielgruppe erstellen indem Sie hier auf diesen Link klicken Geben Sie den Namen
der Zielgruppe und belassen Sie die anderen
Werte als Standard. Klicken Sie auf Weiter, wählen Sie
Ihre Instances und fügen Sie sie unten als ausstehend hinzu. Klicken Sie wieder
auf der ALB-Erstellungsseite auf Zielgruppe. Formulieren Sie die Option Zielgruppe neu
und wählen Sie die Option aus, die
Sie gerade erstellt haben Klicken Sie auf Load
Balancer erstellen. Wir haben unser
ALB erfolgreich erstellt. Klicken Sie auf View Load Balancers. Wir können jetzt unseren Load
Balancer in der Konsole sehen. Klicken Sie auf den
Load Balancer, Poppy, den DNS-Wert und fügen Sie
ihn in Sie können die Waypage und
die IP-Adresse der Instanz sehen die IP-Adresse der ,
die unsere Anfrage
bedient Da der Load Balancer unsere Anfragen nach dem Zufallsprinzip an
die beiden EC-Instances
weiterleitet, werden
Sie feststellen, dass die IP-Adresse jedes
Mal ändert, wenn wir die Seite neu laden So stellen Sie Webanwendungen
in der Wir haben
mithilfe von Autoscaling Group und ALB erfolgreich
eine hochverfügbare und
skalierbare Architektur implementiert skalierbare Architektur mithilfe von Autoscaling Group und ALB erfolgreich
eine hochverfügbare und Lassen Sie uns jetzt weitermachen und unsere
Infrastruktur löschen. Gehen Sie dazu zur
Autoscaling-Gruppenkonsole und löschen Sie die
Autoscaling-Gruppe, indem Sie auf Aktionen klicken Löschen Sie den Load Balancer
auf der Load Balancer-Seite. Löschen Sie die Zielgruppe auf der Zielgruppenseite auf
der Sicherheitsgruppenseite Löschen Sie alle
Sicherheitsgruppen mit Ausnahme der
Standardsicherheitsgruppe für Ihre VPCs Das ist alles für diese Sitzung. Wir sehen uns in der nächsten. Hör zu.