Erste Schritte mit AWS | Pravin Mishra | Skillshare

Playback-Geschwindigkeit


1.0x


  • 0.5x
  • 0.75x
  • 1x (normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      AWS-Konten

      4:27

    • 2.

      AWS-Konto erstellen

      5:25

    • 3.

      Kostenloses AWS-Kontingent

      4:16

    • 4.

      Sichern eines AWS-Kontos

      6:05

    • 5.

      MFA-Richtlinie und Passwort-Richtlinie konfigurieren

      4:52

    • 6.

      Budget und Alarm einrichten

      5:08

    • 7.

      Methoden der Interaktion mit AWS

      8:03

    • 8.

      Verwenden der AWS-Management-Konsole

      8:44

    • 9.

      AWS CLI installieren

      2:51

    • 10.

      Verwendung der AWS CLI

      4:15

    • 11.

      AWS-Regionen und Verfügbarkeitszonen

      14:18

    • 12.

      AWS Edge-Standorte

      5:23

    • 13.

      Was ist Identitäts- und Zugriffsmanagement?

      7:24

    • 14.

      Benutzer, Gruppen und Rollen

      9:23

    • 15.

      Einen IAM-Benutzer und eine IAM-Gruppe erstellen

      7:49

    • 16.

      Mit IAM-User anmelden und Rolle erstellen

      4:46

    • 17.

      IAM-Richtlinien

      10:14

    • 18.

      Best Practices von IAM

      6:45

    • 19.

      Überblick über Amazon S3

      6:31

    • 20.

      S3 Verfügbarkeit, Haltbarkeit und Datenreplikation

      5:53

    • 21.

      Speicherklassen

      9:58

    • 22.

      S3 Bucket-Demo

      6:40

    • 23.

      Übersicht über EBS (Elastic Block Storage)

      6:24

    • 24.

      Übersicht über EFS (Elastic File System)

      5:40

    • 25.

      Einführung in das Netzwerken

      1:24

    • 26.

      Was ist eine VPC?

      4:28

    • 27.

      Subnet, Internet-Gateway, Routen-Tabelle und NAT-Gateway

      8:19

    • 28.

      Sicherheitsgruppen und NACL

      5:34

    • 29.

      Erstelle eine VPC, ein öffentliches und privates Subnetz

      9:45

    • 30.

      DNS und Amazon Route 53

      4:12

    • 31.

      AWS VPN und AWS Direct Connect

      5:00

    • 32.

      Compute Services in AWS

      4:16

    • 33.

      Virtuelle Maschine

      6:00

    • 34.

      EC2 Elastic Compute Cloud

      4:17

    • 35.

      Komponente von Amazon EC2

      5:43

    • 36.

      EC2-Instanz-Namenskonvention

      7:10

    • 37.

      Instanztypen

      9:15

    • 38.

      Starte deine erste EC2-Instanz

      14:18

    • 39.

      SSH EC2-Instanz, Installiere Httpd

      7:35

    • 40.

      Eine Windows EC2-Instanz erstellen

      5:27

    • 41.

      ECS Elastic Container-Service

      5:57

    • 42.

      AWS Elastic Beanstalk

      6:15

    • 43.

      Serverloses Rechnen

      3:52

    • 44.

      AWS Lambda

      7:35

    • 45.

      Datentypen

      5:01

    • 46.

      Relationale Datenbanken

      5:12

    • 47.

      NoSQL-Datenbanken

      3:49

    • 48.

      On Premise im Vergleich zu Cloud-Datenbank-Hosting

      2:43

    • 49.

      Amazon Relationaler Datenbankservice

      6:30

    • 50.

      Amazon DynamoDB

      5:01

    • 51.

      RDS-Instanz erstellen

      11:47

    • 52.

      Amazon Elasticache

      4:27

    • 53.

      Amazon Redshift

      3:47

    • 54.

      Autoscaling

      6:51

    • 55.

      EC2 Auto Scaling Group

      3:34

    • 56.

      EC2-Autoscaling-Richtlinien

      8:22

    • 57.

      Startkonfiguration und Startvorlage

      6:05

    • 58.

      Load balancer

      3:21

    • 59.

      Was ist ein Elastic Load Balancer (ELB)?

      4:48

    • 60.

      AWS Elastic Load Balancer (ELB)

      4:56

    • 61.

      ELB und Auto Scaling gemeinsam verwenden

      17:29

  • --
  • Anfänger-Niveau
  • Fortgeschrittenes Niveau
  • Fortgeschrittenes Niveau
  • Jedes Niveau

Von der Community generiert

Das Niveau wird anhand der mehrheitlichen Meinung der Teilnehmer:innen bestimmt, die diesen Kurs bewertet haben. Bis das Feedback von mindestens 5 Teilnehmer:innen eingegangen ist, wird die Empfehlung der Kursleiter:innen angezeigt.

100

Teilnehmer:innen

--

Projekte

Über diesen Kurs

Dieser Kurs „Erste Schritte mit AWS-Kurs wird dich vom absoluten Anfänger zum AWS-Cloud-Profi bringen. Der Kurs bietet alles Richtige, von den Grundlagen bis hin zu praktischen Demos der Amazon Web Services (AWS)-Services. Dieser Kurs ist ideal für Anfänger, es ist keine AWS-Erfahrung erforderlich!

Nach erfolgreichem Abschluss dieses Kurses:

  • Du hast ein gründliches Verständnis des AWS-Kontos, seiner Erstellungskonzepte und der damit verbundenen Sicherheit.

  • Du kannst ein AWS-Konto erstellen und die kostenlosen Ressourcen des Kontingents verwenden und wie du dein AWS-Konto sicherer machen kannst.

Wenn du nach einem kürzeren und umfassenderen Kurs suchst, um deine Reise mit der AWS zu beginnen, ist dies der richtige Kurs für dich! I  hoffe, dich im Kurs zu sehen.

Triff deine:n Kursleiter:in

Teacher Profile Image

Pravin Mishra

Cloud For Everyone

Kursleiter:in

AWS Community Builder | AWS Solutions Architect - Professional | Google Cloud Certified Trainer

12+ years of experience in IT and 8 years of teaching experience. Enterprise Architect, specialized in Architecting, Designing, Developing and Implementing Multi-Cloud base solutions.

Vollständiges Profil ansehen

Skills dieses Kurses

Entwicklung Webentwicklung
Level: Beginner

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. AWS-Konten: Hallo Studenten, willkommen zu einem anderen Video. Bevor wir zu AWS wechseln und mit der Erforschung seiner Dienste beginnen, benötigen wir als erstes ein AWS-Konto. Bevor Sie jedoch Ihr AWS-Konto erstellen, Sie einige Dinge müssen Sie einige Dinge wissen. In diesem Video. Wir werden über die Elemente eines AWS-Kontos und die Dinge sprechen , die wir benötigen, um ein Konto für uns selbst zu erstellen. Lasst uns gleich darauf eingehen. Dies ist ein AWS-Konto. Ich gehe davon aus, dass Sie noch kein Konto haben. Also werden wir in der nächsten Lektion eine erstellen. Und das AWS-Konto ist ein Container, in dem Sie alle Ihre AWS-Ressourcen und -Services erstellen und verwalten. Das erste, was Sie zum Erstellen und Verwalten eines AWS-Kontos benötigen , ist eine Identität. Wir werden die Identität im IAM-Modul behandeln. Aber im Moment können Sie es als Benutzer verstehen. Dieser Benutzer kontrolliert und verwaltet sein gesamtes Konto. Dann erstellen Sie ein Konto für sich selbst. Sie werden als Identität fungieren. Jetzt erstellen Sie als Benutzer einige Ressourcen in Ihrem Konto, die schließlich einige Rechnungen generieren. Sie können alle Arten von Abrechnungen auch im selben Konto verwalten . Daher verfügt jedes Konto über seine AWS-Ressourcen, seine Identität und seinen Aufbau. Ein AWS-Konto ist eine natürlich sichere Umgebung. Niemand außerhalb Ihres Kontos kann auf Ihre Ressourcen zugreifen und Sie erhalten die Rechnungen. Nur für die Ressourcen, die Sie in Ihrem Konto bereitstellen. Sie können Ihre AWS-Reise mit einem einzigen Konto beginnen. Wenn Ihr Unternehmen jedoch an Größe und Komplexität zunimmt, kann es schwierig sein, alles auf einem einzigen Konto zu verwalten. Aus diesem Grund empfiehlt AWS, mehrere Konten zu verwenden. Sie können beispielsweise separate Konten für Entwicklungs-, Test- und Produktionsteams in Ihrer Organisation erstellen . Weil es den Sicherheitskontroll - und Abrechnungsprozess für jedes Team vereinfacht und verschiedenen Teams die erforderliche Flexibilität bietet , damit sie sich auf Innovation konzentrieren können. Sehen wir uns nun an, was Sie zum Erstellen eines AWS-Kontos benötigen. Als erstes benötigen Sie eine E-Mail-ID, die eindeutig sein muss. Das bedeutet, dass es in keinem anderen AWS-Konto verwendet werden sollte . Sie benötigen auch eine Kreditkarte oder Debitkarte, die für Abrechnungszwecke erforderlich ist. Mit diesen beiden Informationen können Sie ein AWS-Konto erstellen. Wenn Sie ein neues AWS-Konto erstellen, erstellen Sie im Grunde einen Benutzer, der die Kontrolle über alle Dienste und Ressourcen in Ihrem Konto hat . Diese Identität oder dieser Benutzer wird als AWS-Konto bezeichnet , der Root-Benutzer. Der Root-Benutzer kann sich mit der E-Mail-Adresse und dem Passwort anmelden , die Sie bei der Erstellung des Kontos verwendet haben. Wir werden im AWS-Sicherheitsmodul ausführlich über Root-Benutzer sprechen . Wenn Sie sich bei Ihrem AWS-Konto anmelden, wird das erste Dashboard , das Sie sehen als AWS Management Console bezeichnet. Es ist eine webbasierte Konsole , auf die Sie über einen Webbrowser zugreifen können. Es gibt auch andere Möglichkeiten, auf AWS-Konten zuzugreifen, die wir im nächsten Modul sehen werden. Sie werden auch aufgefordert, Ihre Identität zu authentifizieren , wenn Sie sich zum ersten Mal anmelden. Dies ist im Grunde das Identitäts - und Zugriffsmanagement, allgemein bekannt als IAM-Service, sicheren Zugriff auf Ihr AWS-Konto und die darin enthaltenen Ressourcen gewährleistet . Wir werden uns auch in einem späteren Modul ausführlich befassen. Jetzt sind wir bereit, ein AWS-Konto zu erstellen. 2. AWS erstellen: Hallo Studenten, willkommen zurück. In diesem Video erstellen wir ein Konto für das kostenlose Kontingent für AWS. Der Zweck des AWS Free, der Kunden und neuen Benutzern ermöglicht, AWS zu erkunden und die erforderlichen praktischen Erfahrungen zu sammeln, bevor sie tatsächlich mit dem Aufbau ihrer Cloud-Infrastruktur beginnen. Wie der Name schon sagt, besteht die Freizeit aus Diensten und Ressourcen , die in der AWS mit einigen Geschäftsbedingungen kostenlos verwendet werden können. Wir haben im vorherigen Video diskutiert. Sie benötigen eine eindeutige E-Mail-ID und eine Kreditkarte, um Ihr AWS-Konto zu erstellen. Sie benötigen auch ein Formular, um einen SMS-Bestätigungscode zu erhalten , der Teil der Kontoeröffnung ist. Jetzt denken Sie vielleicht, dass Sie Ihre Kartendaten eingeben müssen, wenn Sie nur kostenlose CAS-Dienste nutzen möchten? Nun, das liegt daran, dass der kostenlose Reifen ein begrenztes Angebot ist. Und falls Sie das Limit oder den Benutzerservice ausschöpfen , der nicht unter den kostenlosen Reifen fällt. Wir haben eine hübsche Farbe die Menge. Daher ist es zwingend erforderlich, unsere Abrechnungsmethode wie das Erstellen Ihres AWS-Kontos einzurichten. Aber das ist nichts, worüber man sich Sorgen machen müsste. In diesem Training. Wir werden nur schreckliche Dienste in Anspruch nehmen. Und wenn Sie sich an das halten, was wir in diesem Training tun, werden Sie nicht in Rechnung gestellt, um dies weiter zu gewährleisten. Wir werden auch ein Budget für unser Konto festlegen und eine Warnung konfigurieren, damit wir eine Benachrichtigung erhalten. Wenn wir das CIP-Projekt überqueren. Öffnen wir einen Webbrowser und erstellen unser kostenloses Konto. Ich habe hier einen Webbrowser geöffnet, und ich habe dies für das kostenlose Kontingent von AWS getan. Und das allererste Ergebnis hier, AWS Freizeit, ist das, was wir wollen. Die erste Seite hilft Ihnen zu verstehen, was ein kostenloses Konto ist und welche Dienste unter die kostenlose Diät fallen? Ich werde in der nächsten Lektion über einen dummen Ruhestand berichten. Lassen Sie uns sie also überspringen und ein kostenloses Konto erstellen. Sie müssen dann die erforderlichen Details ausfüllen . Ihre eindeutige E-Mail-Adresse für den Root-Benutzer und wählen Sie dann einen Namen für Ihr Konto aus. Sie können auch den Namen und den LES-Buchstaben ändern. Wenn du willst. Klicken Sie dann auf Verifizieren, E-Mail-Adresse, überprüfen Sie Ihre E-Mail. Geben Sie hier den Bestätigungscode ein und klicken Sie auf Bestätigen. Sie werden begrüßt. Du bist es, deine E-Mail-Adresse wurde vollständig überprüft. Geben wir nun ein Passwort für den Root-Benutzer ein und bestätigen das Passwort. Und klicken Sie auf Weiter. Du hast Schritt eins beendet. Und dann wird es uns brauchen, um die erste Frage zu überstehen. Wie planen Sie, AWS zu verwenden? Wähle einfach Poznan. Fügen Sie dann Ihren Namen, Telefonnummer, Ihr Land oder Ihre Region und Ihre Adresse hinzu. Klicken Sie dann auf Die Allgemeinen Geschäftsbedingungen akzeptieren und fahren Sie mit dem nächsten Schritt fort. Als nächstes folgt die Abrechnungsseite , auf der Sie Ihre Rechnungsinformationen eingeben müssen. Geben Sie Ihre Kreditkartennummer, das Ablaufdatum, Namen des Karteninhabers und die Formel sowie Aufwärtsrisiko ein und fahren Sie dann mit Schritt vier fort. Möglicherweise werden Sie aufgefordert, Ihre Identität zu bestätigen. Sie müssen also erneut Ihre Telefonnummer und die Sicherheitsprüfung eingeben . Und Sie erhalten auf Ihrem Telefon ein Angebot , das Sie hier eingeben müssen. Ich hatte meinen Verifizierungscode hier nicht. Und klicken wir auf Weiter. Hier haben wir den Support-Plan. Dies ist eine Möglichkeit, Echtzeit-Hilfe von AWS in Bezug auf Ihre Ressourcen und Dienste zu erhalten . Zu unserem Zweck wählen wir die grundlegende Unterstützung. Es ist völlig kostenlos und hilft Ihnen nur bei Konto - oder Abrechnungsproblemen. Klicken Sie abschließend auf „Anmeldung abschließen“. Und das war's. Wir können jetzt zur AWS-Managementkonsole gehen. Klicken Sie auf den Button in der Mitte des Bildschirms. Hier werden wir nach einer Konto-ID oder einem Konto-Alias gefragt. Wir haben keinen Alias für das Konto angegeben. Und ich weiß nicht, was die Konto-ID ist. Wir haben auch keinen Benutzernamen, da dies ein IAM-Benutzername ist. Was wir haben, ist die Root-User-E-Mail. Lassen Sie uns also mit Routing und einer E-Mail anmelden und geben Sie die E-Mail-Adresse ein, und geben Sie die E-Mail-Adresse ein bei der wir uns gerade angemeldet haben. Geben Sie das Passwort ein und klicken Sie auf Anmelden. Herzlichen Glückwunsch. Vietnam hat sich bei unserem Konto angemeldet. Und das ist die Management Console. Jetzt ist es an der Zeit, ein Konto für sich selbst zu erstellen , um mit diesem Training fortzufahren. Das ist alles für diese Lektion. Wir werden die Angebote von AWS Free Gyre in der nächsten Sitzung verstehen . Bis bald. 3. AWS kostenlose Tier: Willkommen zurück Studenten. Im letzten Video haben Sie ein neues AWS-Konto erstellt und Ihre Kartendaten zur Abrechnung hinzugefügt. Dies erinnert uns daran , dass wir AWS-Services in einer geplanten Weise nutzen müssen . Andernfalls zahlen Sie am Ende für einige Dienste. Nun, mach dir keine Sorgen. In dieser Sitzung werde ich Sie erläutern, wie Sie Ihr AWS-Konto verwenden , damit Ihnen die nächsten Sitzungen nicht belastet werden . Ich helfe Ihnen auch dabei, Ihr Konto zu sichern, ein Budget für Ihr Konto festzulegen und einen Alarm. Sie werden also benachrichtigt, wenn Sie das Budgetlimit überschreiten. Lasst uns also mit dem kostenlosen Reifen von AWS beginnen. dem kostenlosen Reifen können Sie bestimmte AWS-Services für einen bestimmten Zeitraum ausprobieren , ohne etwas bezahlen zu müssen. Dies bedeutet, dass AWS eine Liste von AWS-Services bereitstellt, die Sie kostenlos auf der AWS-Plattform verwenden können , um praktische Erfahrungen zu sammeln . Lassen Sie mich Sie nun zur Webseite des kostenlosen Kontingents von AWS bringen. Dies ist die Seite des kostenlosen Kontingents von AWS. Sie können alle Details zu AWS-freien Reifen sehen , der in drei Kategorien unterteilt ist. Der erste ist kostenlose Testversionen. Im Rahmen dieses Angebots können Sie einige AWS-Services für einen kurzen Zeitraum nutzen . Und dann sind diese Dienste und am Ende dieses Zeitraums der zweite 12 Monate kostenlos. Dies bedeutet, dass Sie 12 Monate Zeit haben, um diese Dienste kostenlos auszuprobieren. Und es beginnt mit dem Datum, an dem Sie Ihr AWS-Konto erstellt haben. Der letzte ist immer kostenlos. Diese Dienste stehen Ihnen für immer zur Verfügung, aber es gibt ein Limit, in welcher Menge Sie diese Dienste nutzen können. Sie laufen also nie ab, bis Sie das verfügbare Limit überschritten haben. Als Nächstes haben wir hier die Möglichkeit, AWS-Produkte nach verschiedenen Kategorien und einer kostenlosen Testversion zu filtern AWS-Produkte nach . Einfach genug, oder? Probieren wir es aus, um es besser zu verstehen. Wählen wir Immer kostenlos aus. Hier sehen Sie nur diese Dienste, die innerhalb einer bestimmten Grenze immer kostenlos sind . Nehmen Sie jetzt AWS Lambda. Es ist eine serverlose Rechenoption, die wir in einem späteren Modul sehen werden. Aber hier können Sie es auch aus der Produktkategorie filtern . Ab heute. Es erlaubt 1 Million aufgerufene Patienten pro Monat. Das heißt, wenn Sie unter 1 Million Aufrufen bleiben, ist es immer kostenlos. Diese Freizeit läuft nie ab. Wählen Sie jetzt 12 Monate kostenlos aus. In dieser Kategorie, Mal sehen, Lagerung. S3 zum Beispiel. Es ist ein Object Storage Service, der für 12 Monate oder bis zu fünf Gigabyte Speicher kostenlos ist . Danach müssen Sie einen bestimmten Betrag bezahlen. S3 ist eine großartige Option , um eine statische Website auszuprobieren. Das werden wir im Lagermodell dieses Trainings sehen. Das letzte Beispiel ist Amazon EC2, dem Sie Ihre Anwendung bereitstellen. Aws bietet monatlich eine zwölfmonatige Testversion von bis zu 750 Stunden Nutzungsdauer für den T2-Micro-Instance-Typ an. Dies bedeutet, dass Sie Ihre Anwendung 12 Monate lang kostenlos ausführen können. Dies ist ein bedeutender Zeitraum, um AWS zu meistern. Sie können fast alle Kerndienste ausprobieren und erlernen. Und ich hoffe, du nutzst es am besten aus. Das ist alles für diese Lektion. Ich würde empfehlen, diese Seite vorher zu überprüfen. Und während Sie AWS-Services nutzen, gibt es so viele Dienste, die Sie kostenlos ausprobieren können, aber stellen Sie sicher, dass Sie über die kostenlose Verfügbarkeit des Dienstes Bescheid wissen , bevor Sie ihn nutzen. Das ist alles für dieses Video. 4. Ein AWS sichern: Hallo Studierende. In diesem Video werden wir verstehen, wie Sie Ihr AWS-Konto mit Passwortrichtlinien und Multi-Faktor-Authentifizierung oder kurz MFA sichern können Ihr AWS-Konto mit Passwortrichtlinien und Multi-Faktor-Authentifizierung . in diesem Video werden wir uns auch den Zugriff Später in diesem Video werden wir uns auch den Zugriff und den geheimen Schlüssel ansehen. Beginnen wir also mit der Multi-Faktor-Authentifizierung. Das heißt, MFA. Sie haben eine E-Mail-ID und Passwort, um sich bei Ihrem AWS-Konto anzumelden. Und sobald Sie sich angemeldet haben, können Sie auf die AWS Management Console zugreifen und verschiedene Vorgänge ausführen. Nehmen wir an, jemand hat Ihr Passwort gestohlen. Jetzt kann sich diese Person einloggen und alles in Ihrem Konto tun, oder? Insbesondere wenn er Administratorzugriff hat, kann er Produktionsressourcen löschen, vertrauliche Daten übertragen, die Anwendungskonfiguration ändern und was auch immer. Wie schützen Sie Ihr Konto zusätzlich zum Passwort? Nun, Sie können eine Multi-Faktor-Authentifizierung oder einen MFA verwenden. Was ist die Multi-Faktor-Authentifizierung? Es ist eine Authentifizierungsmethode, bei der jeder Benutzer mindestens zwei Verifizierungstypen bereitstellt, die als Faktoren bezeichnet werden, um Zugriff auf ein Konto oder eine Ressource wie eine Website oder ein Mobiltelefon zu erhalten App oder Dienste. Abgesehen von Benutzernamen und Passwort müssen Benutzer ein einmaliges Passwort oder OTP eingeben, per SMS, E-Mail oder eine Authentifikator-App wie Google und Microsoft Authenticator geliefert oder eine Authentifikator-App wie wird. Ein gutes Beispiel für die Zwei-Faktor-Authentifizierung ist ein Google Mail-Login von einem neuen Gerät aus. Jedes Mal, wenn jemand versucht, sich bei Ihrem Google Mail-Konto anzumelden, fragt er nach dem Passwort und einem vom System generierten Einmalkennwort, also OTP. Es wird unter der registrierten Handynummer gesendet. Multi-Faktor-Authentifizierung wird in der Kombination aus einem Passwort und einem Sicherheitsgerät verwendet , das Sie besitzen, wie Ihrem Telefon. Sobald Sie MFA für Ihr AWS-Konto konfiguriert haben, müssen Sie jedes Mal, wenn Sie sich bei Ihrem AWS-Konto anmelden, ein MFA-Token bereitstellen . Mfa fügt im Grunde eine weitere Sicherheitsebene für Ihr Passwort hinzu. Selbst wenn jemand das Passwort für Ihr Konto hat, kann er sich immer noch nicht anmelden Da er auch MFA benötigt, um was zu tun? Daher empfiehlt es sich, MFA in Ihrem AWS-Konto zu konfigurieren. Mfa und Sicherheit sind wichtige Themen sowohl aus Sicht des Interviews als auch aus Prüfungspunkten. Sie können Fragen erwarten, wie wie fügen Sie Ihrem AWS Route- oder IAM-Benutzer eine zusätzliche Sicherheitsebene hinzu? Die Antwort auf diese Frage wird die Multi-Faktor-Authentifizierung sein. Neben der Managementkonsole können wir auch über CLI und das SDK auf AWS zugreifen. Wir werden dies im nächsten Thema verstehen , indem wir mit AWS interagieren. Wenn Sie jedoch über eine dieser Methoden auf AWS zugreifen, verwenden Sie einen Zugriffsschlüssel und einen geheimen Schlüssel. Diese Tasten sehen aus wie die auf dem Bildschirm vorhandenen Codes, die möglicherweise nicht benutzerfreundlich als Benutzername und Passwort sind. Sie müssen sie jedoch in Ihrem Code verwenden, um sich bei Ihrem AWS-Konto anzumelden, entweder über CLI oder SDK. Diese werden als Zugriffsschlüssel bezeichnet und werden für den programmatischen Zugriff verwendet. Wir werden später im Kurs einige Zugriffsschlüssel erstellen und sehen, wie Sie sie verwenden, um sich anzumelden. Lassen Sie uns nun zum nächsten Thema übergehen, nämlich Passwortrichtlinie. Kennwortrichtlinie ist eine Möglichkeit, ein sicheres Kennwort für Ihr AWS-Konto durchzusetzen , da Ihr Konto sicherer ist , wenn Sie über ein sicheres Passwort verfügen. Dies können wir über die Passwortrichtlinie erreichen. Alles, was Sie tun müssen, ist alle Regeln zu aktivieren, die Ihre Benutzer beim Erstellen oder Zurücksetzen ihres Passworts befolgen sollen . Und das ist alles. In der Kennwortrichtlinie. Sie können eine Regel für die Mindestkennwortlänge festlegen. Dann können Sie bestimmte Zeichentypen erzwingen. Möglicherweise möchten Sie beispielsweise mindestens einen Großbuchstaben, einen Kleinbuchstaben und eine Zahl haben. Ansonsten können Sie auch nicht alphanumerische Zeichen wie Prozentsatz, Straße usw. angeben , die enthalten sein sollten. Dann können Sie den Kennwortablauf aktivieren, was bedeutet, dass der Benutzer sein Passwort nach bestimmten Tagen drehen muss . Zum Beispiel nach 90 Tagen, 120 Tagen usw. Als Nächstes können Sie dem Benutzer erlauben, sein Passwort zu ändern, oder Sie können sich auch dafür entscheiden nur der Administrator das Passwort ändert. Schließlich können Sie die Wiederverwendung von Kennwörtern auch verhindern , damit Benutzer sie beim Ändern ihrer Passwörter nicht in das ändern, das sie bereits in der Vergangenheit verwendet haben. Das ist also großartig. Eine Passwortrichtlinie ist sehr hilfreich für alle meine Kollegen. Versuchen Sie es mit Ihrem Konto. Passwortrichtlinien sind unter der AWS-Sicherheit aus Sicht der Zertifizierungsprüfung oder des Interviews ein wichtiges Thema AWS-Sicherheit aus Sicht der Zertifizierungsprüfung . Das ist alles, was ich in diesem Video behandeln wollte. 5. MFA und Password konfigurieren: Hallo Studenten. Ich hoffe, Sie haben Ihr AWS-Konto erstellt. In diesem Video sichern wir unsere Konten, indem wir eine Multi-Faktor-Authentifizierung hinzufügen und eine Kennwortrichtlinie einrichten . Bevor wir mit der Konfiguration beginnen, lassen Sie uns schnell verstehen, was MFA ist. Es ist eine Authentifizierungsmethode, die die Identität des Benutzers validiert. Wenn also ein Benutzer versucht, auf etwas zuzugreifen , das mit MFA gesichert ist, müssen Sie zwei oder mehr Beweise vorlegen, um Zugang zu erhalten. Gehen wir also in unser AWS-Konto und sichern es mit MFA. Dafür müssen wir zum Identitäts- und Zugriffsverwaltungsdienst gehen . Also hier sind wir im IAM-Dashboard. Und wie Sie sehen können, haben wir bereits ein paar Sicherheitsempfehlungen von AWS erhalten . Das erste, was es sagt, ist, dass Sie einen MFA für den Root-Benutzer hinzufügen sollten. Fügen wir also hinzu, wählen Sie mein Konto und klicken Sie dann auf Sicherheitsanmeldeinformationen. Hier sehen Sie die Kontodaten. Scrollen wir ein bisschen nach unten. Hier. Sie können sehen, dass wir keine Geräte zugewiesen haben. Klicken wir also auf MFA-Gerät verwalten. Wir werden hier ein virtuelles MFA-Gerät verwenden. Sie müssen eine Authentifikator-App auf Ihrem Mobilgerät oder Ihrem Computer installieren eine Authentifikator-App auf . Früher habe ich die Google Authenticator-App auf meinem Handy verwendet, da diese völlig kostenlos genutzt werden kann. Also werde ich das benutzen. Wenn Sie jedoch noch keine auf Ihrem Telefon installiert haben , installieren Sie die Google Authenticator-App und klicken Sie dann auf Weiter. Als Nächstes klicken Sie auf QR-Code anzeigen. Sobald Sie den QR auf Ihrem Bildschirm sehen, scannen Sie ihn einfach mit Ihrem Telefon. Und es sollte die Google Authenticator App öffnen. Wenn du es richtig machst. Es generiert einen Code und zeigt diesen auf Ihrem Bildschirm an. Was Sie also tun müssen, ist diesen Code hier hinzuzufügen. So habe ich meins hinzugefügt. Und dann musst du warten, bis dieser Code abläuft. Weil es einen neuen Code generiert. Sie müssen den neuen Code in die MFA-Code-Toolbox eingeben . Klicken Sie anschließend auf MFA zuweisen. Sie haben jetzt MFA für Ihr Konto aktiviert. Und Sie können sehen, dass wir einen ARN- oder Amazon-Ressourcennamen für unser virtuelles Gerät haben. Es ist also ziemlich einfach, MFA in Ihr Konto zu aktivieren. Lassen Sie uns nun auch eine Kennwortrichtlinie konfigurieren. Gehen wir zum IAM-Dashboard. Schon wieder. Die Passworteinstellung finden Sie in den Kontoeinstellungen. der linken Seite klicken wir auf Passwortrichtlinie ändern und setzen eine Richtlinie für unser Konto durch. Sie können viele Dinge über das Passwort ändern. Zum Beispiel die minimale Passwortlänge. Lasst uns es auf 16 ändern. Benötigt der Benutzer Groß-, Kleinbuchstaben- oder Kleinbuchstaben? Sie können alle oder einen von ihnen auswählen. Ich wähle alles wie aus. Dies empfiehlt sich, sowohl Groß- als auch Kleinbuchstaben im Passwort zu verwenden . Und ich empfehle dir, das Gleiche zu tun. Sie können Ihre Passwortrichtlinie ganz nach Ihren Wünschen anpassen Ihre Passwortrichtlinie ganz nach Ihren Wünschen und dann auf Änderungen speichern klicken, wodurch die Arbeit erledigt wird. Jetzt muss jeder neue Benutzer in Ihrem Konto diese Kennwortrichtlinie befolgen , während er Passwort erstellt oder zurücksetzt, was die Sicherheit Ihres Kontos verbessert. Studenten sind also die wenigen anfänglichen Sicherheitsmaßnahmen , die jeder Cloud-Ingenieur kennen sollte. Cloud-Sicherheit ist im Allgemeinen ein sehr wichtiges Thema, sowohl aus ihrer Zertifizierungsprüfung aus interviewter Sicht. Und ich hoffe, du verstehst es gründlich. Das ist alles für dieses Video. 6. Budget und Warnung einrichten: Hallo Studenten, willkommen zurück. Sie haben jetzt ein eigenes kostenloses Testkonto und haben es mit Multi-Faktor-Authentifizierung und Kennwortrichtlinie gesichert . Sie verstehen auch AWS, kostenlosen Reifen und die verschiedenen Angebote unter Rate. In dieser Schulung werden wir nur kostenlos nutzen, um Dienste für die praktische Praxis in AWS hinzuzufügen. Wenn Sie sich also nur an diese kostenlosen Angebote halten , werden Ihnen keine Gebühren berechnet. Aber nur für den Fall, dass Sie versehentlich einen kostenpflichtigen Dienst nutzen oder vergessen, einen Dienst zu löschen , der nach einer bestimmten Zeit bezahlt werden könnte. Es ist wichtig, ein Budget und eine Abrechnung festzulegen. Vieles, dass Sie per E-Mail oder SMS benachrichtigt werden, wenn Sie das bestimmte Limit erreichen. In diesem Video konfigurieren wir das Budget und die Warnung für unser AWS-Konto. Gehen wir also zur AWS-Managementkonsole. Wie Sie sehen können, habe ich mich bei meinem Konto bei root-Benutzer angemeldet. Und oben rechts oben unter meinem Kontonamen wählen wir das Abrechnungs-Dashboard aus. Dies bringt uns zum Dashboard. Scrollen wir nach unten zum Abschnitt Kostenmanagement und klicken Sie auf Budgets. Hier haben wir einige zusätzliche Informationen über Budget und Alarmbereitschaft, wie es funktioniert, Vorteile und Funktionen. Klicken Sie auf Erste Schritte, wenn Sie es weiter lesen möchten. Ich empfehle Ihnen dringend, dies zu tun , da es Ihnen weitere Einblicke gibt. Jetzt scrollen wir zurück und klicken auf Budget erstellen. Hier. Das empfohlene Kostenbudget ist standardmäßig ausgewählt. Also klicken wir auf Weiter. Lassen Sie alles standardmäßig. Und hier geben Sie Ihren budgetierten Betrag ein. Wir werden unser Budget eintragen. Für diese Demo. Ich wähle 3$ aus. Scrollen Sie nach unten und geben Sie den Namen Ihres Budgets ein. Benennung Ihres Budgets ist wichtig, da Sie in Zukunft möglicherweise mehrere Budgets haben. Nennen wir es 3-Dollar-Alarm. So wird es einfach sein, Letzteres zu identifizieren und auf Weiter zu klicken. Klicken Sie nun auf Alarmschwellenwert hinzufügen. Hier können Sie mehrere Schwellenwerte erstellen. Wenn wir also 50 in den Schwellenwert eingeben , erhalten Sie eine Benachrichtigung, wenn Ihre AWS-Ausgaben 50% von 3 USD erreichen, was 1,5 USD entspricht. In diesem Fall. Sie können auch mehrere Schwellenwerte hinzufügen. Fügen wir einen weiteren Schwellenwert hinzu, damit wir eine weitere Benachrichtigung erhalten , bevor der Betrag das festgelegte Limit erreicht. Diesmal werden wir 80% hinzufügen. Hier. In der Benachrichtigungsoption. Wir haben ein paar Möglichkeiten , wie wir benachrichtigt werden möchten. Entscheiden wir uns für eine E-Mail-Benachrichtigung. Geben Sie die E-Mail-Adresse ein , an der wir die E-Mail erhalten möchten. Und klicken Sie dann auf Weiter. Belassen Sie alles als Standard auf der Aktionsseite „Anhängen“ und klicken Sie auf Weiter. Sehen wir uns nun alles und klicken Sie dann auf Budget erstellen. Es wird ein paar Sekunden dauern und wir werden eine Meldung sehen , dass das Budget erfolgreich erstellt wurde. Hier sehen Sie, dass der Schwellenwertstatus in Ordnung ist. Sie können diesen Budget-Link verwenden, um die Details und die Grafik unserer Ausgaben anzuzeigen. Derzeit haben wir hier keine Details, da es etwa 24 Stunden dauert, um die Daten zu füllen. Wenn Sie also ein Budget erstellen, würde ich vorschlagen, dass Sie nach ein oder zwei Tagen hierher zurückkehren und sich diese DJs ansehen. Scrollen wir wieder nach oben. Und in der oberen Ecke von hier aus können Sie auch das Budget bearbeiten und löschen. Dies ist sehr wichtig, da Sie möglicherweise das Budget in Zukunft anpassen müssen. Probieren Sie es aus. Für dieses Video. Es geht so ziemlich viel um das Budget. Wir werden die erste Warnung erhalten, wenn unsere AWS-Rechnung 50% von 3 USD erreicht. Und der zweite Alarm bei 80%. Gemäß der Warnung können wir zurückkommen und überprüfen, welche Dienste ausgeführt werden. Und wenn wir sie nicht brauchen, können wir sie kündigen, um Kosten zu sparen. Im nächsten Video werden wir das Thema Verständnis des AWS-Kontos und des kostenlosen Reifens zusammenfassen . Wir sehen uns im nächsten. 7. Methoden des Interagierens mit AWS: Hallo Studenten, willkommen zurück. Zuvor haben wir die verschiedenen Cloud-Bereitstellungsmodelle besprochen , die IS Pass und sagt: Aber wussten Sie, dass wir AWS-Services auch als eines dieser Modelle verwenden können , wenn Sie dies nicht tun. Nun, keine Sorgen. Lasst uns das in diesem Video verstehen. Hier werden wir verstehen, welche Methoden es gibt , um mit Ihrem AWS-Konto und Ihren Diensten zu interagieren . Bisher haben wir über die Managementkonsole, eine Webschnittstelle , mit AWS interagiert Managementkonsole, eine Webschnittstelle , mit AWS . Darüber hinaus haben wir zwei weitere Möglichkeiten, mit AWS zu interagieren. Erstens ist die AWS CLI oder die Befehlszeilenschnittstelle. Es ist ein Tool, das Sie auf Ihrem Computer installieren und konfigurieren, dem Sie auf die AWS-Services zugreifen und sie über Ihren Computer terminale Skripte automatisieren können. Die zweite Methode ist SDK, das für Software Development Kit steht. Es wird von Programmierern und Entwicklern verwendet, um direkt aus dem Anwendungscode mit AWS-Services zu interagieren . Wenn das nicht ganz sinnvoll ist, machen Sie sich keine Sorgen. Wir werden sie im Detail verstehen. Beginnen wir mit der AWS-Konsole. Schon wieder. Es ist ein Webinterface, um mit AWS-Services zu interagieren. Und da über Ihren Webbrowser darauf zugegriffen werden kann, ist es die einfachste Möglichkeit, Ressourcen in AWS zu verwalten. Melden Sie sich einfach bei Ihrem AWS-Konto an und machen Sie, was Sie wollen. weitere oder mobile Version der AWS Management Console ist ebenfalls verfügbar. Sie können es auf Ihrem Telefon installieren und von Ihrem Telefon aus auf fast alle AWS-Services zugreifen. Ist das nicht großartig? Sehen wir uns nun einige Vorteile der Verwendung von AWS Management Console an. Wenn Sie ein Anfänger sind, ist die AWS Management Console der richtige Anfang. Da können Sie sehr einfach mit AWS-Services interagieren. Es ist, als würde man nur auf einer anderen Website navigieren. Aber wie wir besprochen haben, ist es aufgrund seiner sehr sauberen, schrittweisen Benutzeroberfläche einfacher . Aus all diesen Gründen ist die Managementkonsole die beste Wahl für Ausführung von administrativen Aufgaben als Anfänger. Jetzt weiß nur für Anfänger. Nun, das liegt daran, dass einige Vorgänge in der AWS-Konsole oder im Handbuch Zeit in Anspruch nehmen. Daher ist es nicht möglich, alles über die Managementkonsole zu automatisieren. Und deshalb verwenden wir eine Befehlszeilenschnittstelle oder eine CLI. Lasst uns das jetzt verstehen. Die AWS Command Line Interface oder CLI ist ein einheitliches Tool zur Verwaltung Ihrer AWS-Services. Es ist eine Befehlszeilenschnittstelle, mit der Sie Ihren AWS-Service über Ihr Computerterminal verwalten können. Dies ist ein Tool, das Sie einfach auf Ihrem Computer installieren können. Es unterstützt Windows -, Mac - und Linux-Betriebssysteme. Sie können alles tun , was Sie mit dem Beispiel der AWS Management Console tun können . Wenn Sie alle Benutzer in Ihrem Konto auflisten möchten, öffnen Sie ein Terminal Ihrem Computer und geben AWS-Listenbenutzer ein. Sie erhalten eine Liste aller verfügbaren Benutzer in Ihrem Konto. Und wenn Sie einen Benutzer löschen möchten, können Sie den Befehl verwenden AWS delete user, username, und er löscht diesen Benutzer aus Ihrem Konto. Sie können diese beiden Befehle auch kombinieren , um welche Aufgaben in einem Schritt auszuführen. Das ist ein wesentlicher Vorteil der Verwendung von AWS CLI über die Managementkonsole. Sie können Aufgaben in der CLI automatisieren. Angenommen, Sie haben 50 Benutzer in Ihrem Konto. Und Sie möchten Benutzer löschen , deren Name mit M beginnt . Wenn Sie dies über die AWS Management Console tun müssen, müssen Sie jeden Benutzer finden und nacheinander löschen, oder? Aber das ist bei CLI nicht der Fall. Hier können Sie das Skript schreiben und die beiden oben genannten Befehle verwenden , um dieselbe Aufgabe auszuführen. Und das wird schnell geschehen. Ebenso können Sie mehrere AWS-Services mit demselben Skript verwalten . Um über CLI auf AWS zugreifen zu können, müssen Sie sich wie in der AWS Management Console authentifizieren . Anstatt Benutzernamen und Passwort zu verwenden, müssen Sie jedoch Zugriff bereitstellen, und geheime Schlüsselzugriffsschlüssel fungiert wie Benutzername und geheimer Schlüssel Ihr Passwort. Wenn irgendetwas verwirrend klingt. Wir werden AWS CLI in der nächsten Lektion installieren und konfigurieren . Schauen wir uns nun einige Vorteile der Verwendung von AWS CLI an. Es ist eine großartige Möglichkeit, über ein Computerterminal mit AWS zu interagieren und ist eine hervorragende Möglichkeit, Aufgaben zu automatisieren und Infrastruktur als Code zu erreichen. Schließlich haben wir das SDK, steht für Software Development Kit. Dave-Junge. Kurz gesagt, wie der Name schon sagt, handelt es sich um eine Reihe von Softwaretools und Programmen, die von Entwicklern zum Erstellen von Anwendungen verwendet werden. Wenn Sie denken, dass es AWS CLI ähnlich ist, stimmt das nicht, da Sie das AWS SDK nicht in Ihrem Computerterminal verwenden können . Dies wird nur zum Lesen oder innerhalb Ihres Anwendungscodes verwendet , wodurch Ihre Anwendung mit AWS-Services interagieren kann. Sdk unterstützt viele verschiedene Programmiersprachen wie C plus plus, Java, javascript.net, Node.js, PHP, Python und Ruby. Es gibt auch mobile SDKs für Android und iOS haben Level. Lasst uns das an einem Beispiel verstehen. Angenommen, Sie entwickeln eine mobile Anwendung, Benutzer ihre Fotos teilen können. Dafür verwenden Sie Amazon S3 als Speicher. Wir werden in einem anderen Modul ausführlich über S3 sprechen. Aber in diesem Fall muss Ihre Anwendung mit AWS, Amazon S3-Dienst, interagieren , oder? Sie können in diesem Szenario keine AWS Management Console oder AWS CLI verwenden , da Sie möchten, dass Ihr Anwendungscode mit dem AWS-Service interagieren soll. Daher verwenden Sie das AWS SDK. Es ermöglicht Ihnen, über Ihren Anwendungscode auf Ihre AWS-Services zuzugreifen und diese zu verwalten. Möglicherweise kennen Sie bereits die Vorteile der Verwendung von SDK. Es ist ein perfektes Tool , um mit AWS über Anwendungscode zu interagieren . Es eignet sich hervorragend für die Interaktion mit AWS innerhalb des Anwendungscodes. Ich hoffe, dass Sie jetzt alle drei Methoden der Interaktion mit AWS verstehen. 8. Die AWS Management Console verwenden: Hallo Studenten, willkommen zurück. In der letzten Lektion haben wir uns verschiedene Möglichkeiten zur Interaktion mit AWS-Services angesehen . In dieser Lektion werden wir tiefgreifend in die AWS-Managementkonsole eintauchen und verstehen, wie Sie sich der AWS Management Console anmelden können. Wie erstelle ich ein Konto, LES, wie wählt man eine AWS-Region in unserem Konto und wie wir zu verschiedenen AWS-Services und deren Dashboard gelangen . Also lasst uns gleich darauf eingehen. Zuerst müssen Sie sich bei Ihrem AWS-Konto anmelden , um zur AWS-Verwaltungskonsole zu gelangen. Und die Anmeldeinformationen, mit denen Sie sich anmelden bestimmen, welche Art von Benutzer Sie sind. Ab sofort. Sie kennen den Root-Benutzer, der der Eigentümer des Kontos ist. Dieser Benutzer hat Zugriff auf alle Ressourcen und Dienste innerhalb des Kontos. Dann gibt es andere Arten von Benutzern in Ihrem Konto, die IAM-Benutzer genannt werden. Diese Benutzer haben eingeschränkten Zugriff auf Ressourcen und Dienste. Lassen Sie uns nun den Unterschied zwischen Root-Benutzer und IAM-Benutzer verstehen . Root-Benutzer ist der Benutzer, der erstellt wurde, als wir das Konto zum ersten Mal erstellt haben. Wenn wir uns also mit Root-Anmeldeinformationen anmelden, haben wir Zugriff auf das gesamte Konto. Auf der anderen Seite werden IAM-Benutzer vom Root-Benutzer erstellt. Wir werden in den späteren Modulen mehr darüber sprechen. Melden Sie sich bei AWS Als Root-Benutzer benötigen Sie die von uns verwendete E-Mail-ID und das Passwort sowie die Multi-Faktor-Authentifizierung, die wir bei der Erstellung des AWS-Kontos aktiviert haben. sich jedoch als IAM-Benutzer anmelden, benötigen Sie einen Benutzernamen, Passwort und entweder eine zwölfstellige, AWS, eine Konto-ID oder Kontoideen. Da wir weder einen IAM-Benutzer noch das Konto haben. Loggen wir uns also mit dem Root-Benutzer ein, den wir bereits erstellt haben , und erstellen Sie ein Konto LES. Hier befinden wir uns auf der AWS-Signaturseite. Ich gebe die E-Mail-ID ein und klicke dann auf Weiter. Ich gebe mein Passwort. Klicken Sie dann auf „Anmelden“. Da ich die Multi-Faktor-Authentifizierung konfiguriert habe, muss ich zusätzlich zu meinem Passwort einen eindeutigen Code eingeben , um mich anmelden zu können. Also gebe ich den Code ein. Jetzt bin ich bei der AWS-Konsole angemeldet. Jetzt, da wir in der Konsole sind, gibt es ein paar Dinge, die wir schnell überprüfen sollten. Einer von ihnen ist Account. Hier sehen Sie die Kontoeinstellungen, die Details Ihres Kontos wie Kontaktinformationen, alternativen Kontakt für Abrechnung, Betrieb und Sicherheit enthalten Ihres Kontos wie Kontaktinformationen, . Erinnern Sie sich an die Einrichtung des Budgets? Im letzten Thema werden wir schnell unser Abrechnungs-Dashboard überprüfen. Klicken Sie auf Abrechnungs-Dashboard. Sie sehen die Abrechnungszusammenfassung und andere Details, einschließlich der Rechnung für den aktuellen Monat, frühere Builds und Budgetkontrolle. Obwohl ich glaube, dass Sie ein Budget eingerichtet und eine Warnung aktiviert haben , empfehle ich dennoch, diese Seite regelmäßig zu überprüfen , um festzustellen, ob Sie unerwünschte Rechnungen haben. Gehen wir nun zurück und erstellen hier in diesem Suchfeld einen Kontoaliasnamen Typ IAM und klicken Sie auf IAM-Identitäts - und Access Management Service-Dashboard. Und wie Sie hier auf der rechten Seite sehen können, haben wir eine Konto-ID und darunter der Account-Alias. Bitte beachten Sie, dass der Account-Alias der Konto-ID übereinstimmt. Hier ist also unsere zwölfstellige Konto-ID. Aber sich daran zu erinnern, könnte eine Herausforderung sein. Wir werden also einen Alias erstellen , der viel einfacher zu merken ist. Klicken Sie dazu auf Erstellen, fügen Sie Ihre ID, das Cloud-Advisory 2050 und speichern Sie dann die Änderungen. Dadurch wird eine ID für Sie erstellt. Wir verwenden diese ID oder diesen Alias jedes Mal, wenn wir uns mit dem IAM-Benutzer anmelden. Gehen wir nun zurück zum Benutzerkonto-Link. Um dies zu tun, klicken Sie einfach auf das AWS-Logo. Daneben haben wir ein weiteres Dropdown-Menü zur Auswahl der AWS-Region. Wählen wir also eine Region für unser Konto aus. Wir befinden uns derzeit in North Virginia. Us Ost, One ist der Grund genannt. Jede Region hat einen bestimmten Code und wir verwenden diesen Code, wenn wir AWS, CLI und SDK verwenden. Wir werden in den kommenden Sitzungen darüber sprechen. Wir haben bereits die globale Infrastruktur von AWS diskutiert. Und Sie können sehen, dass es in AWS viele Regionen und unterstützte Regionen gibt. Wir melden uns bei der AWS Management Console an und wählen eine AWS-Region aus, um diese Dienste in einer bestimmten Region zu erstellen. Dies ist das erste, was Sie tun wenn Sie einen neuen Service erstellen, mit Ausnahme einiger, die nicht regionssensibel sind. Wenn wir umschalten und die Region Asien-Pazifik auswählen , ist dies nichts anderes als die Region Mumbai. Alle Dienste, die wir jetzt erstellen werden nur in der Region Mumbai eingeführt. Daher ist es wichtig, die Region zu entscheiden und auszuwählen , in der Sie Ihre AWS-Services erstellen möchten. Und was wichtig ist, wenn Sie einige AWS-Ressourcen erstellen und diese Ressourcen nicht in der Konsole sehen. Das bedeutet, dass Sie es in verschiedenen Regionen erstellt haben und zu ihrer Region wechseln müssen, um sie zu sehen. Lassen Sie uns nun vorankommen und sehen, wie Sie zu AWS-Services navigieren können. Die AWS-Verwaltungskonsole bietet mehrere Möglichkeiten, zu einzelnen Service-Dashboards zu navigieren . in das Suchfeld in der Navigationsleiste Geben Sie in das Suchfeld in der Navigationsleiste den Namen des Dienstes ein. Sie werden die Ergebnisse sehen. Wählen Sie den gewünschten Service aus der Suchergebnisliste aus. Gehen wir zum Beispiel zum S3-Dienst. Wir können einfach Schulden eingeben und wir erhalten eine Liste aller Dienste, die S3 enthalten. In diesem Fall würden wir hier nur nach S3 suchen. Und wenn wir darauf klicken, gelangen wir zum Dashboard dieses bestimmten Dienstes . Als nächstes können wir auch zur Homepage zurückkehren, indem wir auf das AWS-Logo klicken. Wählen Sie als Nächstes Dienste aus, um eine vollständige Liste der Dienste zu öffnen. Hier oben rechts auf der Seite. Wählen Sie eine Gruppe aus, um die nach Kategorie aufgeführten Dienste anzuzeigen, oder wählen Sie einen Jet aus, um eine alphabetische Auflistung anzuzeigen. Wählen Sie dann den gewünschten Dienst aus. Scrollen Sie beispielsweise nach unten und wählen Sie die Speicherkategorie aus, die AWS Backup, EFS, S3 und viele mehr enthält . Ich werde mehr darüber in einem der späteren Module sprechen. Dies gibt uns jedoch eine hochrangige Möglichkeit die Dienstleistungen basierend auf ihrer Kategorie zu betrachten. Als nächstes folgt der kürzlich besuchte Tab. Hier sehen Sie die neuesten Dienste, die ich innerhalb der Konsole besucht habe, einschließlich S3, RDS, ec2. Dies sind also die Dienste , mit denen ich kürzlich zusammengearbeitet habe. Für den Fall, dass Sie nur mit einer Handvoll Dienstleistungen arbeiten. Dies kann eine sehr schnelle Möglichkeit sein, einfach darauf zu klicken und zu den spezifischen Service-Dashboards zu wechseln. Das ist alles für diese Sitzung. 9. AWS CLI installieren: Willkommen zurück Studenten. Wir werden unsere Diskussion über die Interaktion mit AWS-Services fortsetzen . Und in diesem Demovideo werden wir AWS CLI auf unserem System installieren. Da ich einen Mac habe, gehe ich mit den Installationsanweisungen für Mac. Der Prozess bleibt jedoch für andere Betriebssysteme, einschließlich Windows und Linux, gleich . Gehen wir also zum Browser und suchen die Installationsdokumentation. In dieser Suchleiste. Ich habe AWS CLI auf dem Mac installiert. Sie können auch online nach Ihren Betriebssystemen wie installierter AWS CLI suchen. Installieren Sie als Nächstes auch AWS CLI unter Windows. Wir werden die Überholspur öffnen, Installation und Aktualisierung ihres Tests war eine AWS CLI. Diese Seite enthält das Installationsprogramm Anweisungen für alle drei Betriebssysteme, einschließlich Linux, Mac OS und Windows. Ich gehe für Mac OS und folge dem Vorgang. Scrollen wir nach unten. Und hier ist die Installationsanleitung. Wir brauchen eine dunkle EKG-Datei, die ein grafisches Installationsprogramm ist. Also lade ich die Datei von hier herunter. Sobald Sie es heruntergeladen haben, öffnen Sie es und klicken Sie auf Weiter, fahren Sie fort, fahren Sie fort und stimmen Sie zu. Erteilen Sie die Berechtigung zur Installation für alle Benutzer auf diesem Computer. Klicken Sie auf Weiter und klicken Sie auf, installieren Sie es. Wir haben die CLI auf Ihrem System installiert. Warten wir, bis alles erledigt ist. Das System schreibt die Dateien. Und schließlich ist die Installation jetzt erfolgreich. Da ich das Installationsprogramm nicht mehr brauche, verschiebe ich es in den Müll. Überprüfen Sie die Installation. Ich öffne ein Terminal, gehe zur Suchoption und tippe eine Minute ein. Und dann füge ich AWS hinzu. Wenn Sie eine laufende CLI auf Ihrem System haben, sollte es eine Version der AWS-Ausführungstabelle zurückgeben. Warten wir eine Weile. Hier haben wir die Antwort auf unseren Befehl, der zeigt, dass alles korrekt installiert wurde. Bitte laden Sie die CLI auf Ihr System herunter, da wir sie in zukünftigen Lektionen verwenden werden. Im Falle von Problemen schauen Sie sich diesen Kerl an. 10. Die AWS CLI verwenden: Hallo Studenten, willkommen zurück. Wir werden unsere Diskussion über die Interaktion mit AWS-Services fortsetzen . Und in dieser Demo lernen Sie, wie Sie AWS CNI verwenden , um mit AWS-Services zu interagieren. Also lasst uns anfangen. Lass mich das Terminal auf meinem Laptop öffnen. zunächst sicher, dass Sie AWS CLI bereits installiert haben. Sie können dies überprüfen, indem Sie eingeben. Aws war nicht auf Ihrem Terminal und gab die AWS CLI einfach zurück. Zweitens müssen Sie AWS CLI authentifizieren, um auf AWS-Services zugreifen zu können. Und wie wir besprochen haben, greifen AWS CLI-Benutzer auf Schlüssel zur Authentifizierung zu. Wir behandeln die Authentifizierung und Autorisierung im Thema Identitäts- und Zugriffsmanagement ausführlich. für diese Demo jedoch Gehen wir für diese Demo jedoch zur AWS Management Console und erstellen einen Zugriffsschlüssel. Hier. Klicken Sie auf Konto und dann auf Sicherheitsanmeldeinformationen. Wir befinden uns jetzt in meinem Zugriffsschlüssel für Sicherheitsanmeldeinformationen. Und hier können wir neue Zugriffsschlüssel erstellen. Zugriffsschlüssel sind entscheidend, da sie zur Steuerung der Authentifizierung und Autorisierung verwendet werden , wenn Sie die CLI und das SDK für den Zugriff auf das AWS-Konto verwenden . Als Hinweis, werden wir hier Zugriffsschlüssel erstellen. Ich werde diese Schlüssel jedoch sofort nach dieser Tabelle löschen . Sie sollten auch keine Root-Benutzerzugriffsschlüssel täglich verwenden . Dies ist keine gute Vorgehensweise. Auch hier werden wir dies im Thema Identitäts- und Zugriffsmanagement ausführlich lernen . Klicken wir vorerst auf Neuen Zugriffsschlüssel erstellen und dann den Zugriffsschlüssel anzeigen. Hier haben wir sowohl unseren Achsen - als auch den geheimen Zugriffsschlüssel. Dies werden wir verwenden, um über die CLI auf unsere AWS-Ressourcen zuzugreifen . Kopieren wir beide Schlüssel in eine Textdatei. Sie können es auch herunterladen indem Sie auf Herunterladen und Zulassen klicken. Gehen wir nun zurück zur AWS CLI und geben das Terminal ein. Aws konfigurieren. Geben Sie nun zuerst den Zugriffsschlüssel und den geheimen Zugriffsschlüssel ein. Geben Sie nun den Standardnamen für die Region ein. Und in diesem Fall wählen wir das API-Salz aus. Endlich wählen wir das Standardausgabeformat aus. In diesem Fall wählen wir das gestische Format aus. Sobald wir das alles vorhanden haben, drücken Sie Enter. Wir haben die AWS CLI erfolgreich konfiguriert , sodass wir in der Lage sein sollten, die AWS CLI zu verwenden, um Informationen über die AWS-Ressourcen zu erhalten. Schauen wir es uns schnell an. Wir führen einen Befehl aus, der den S3-Bucket auflistet. Geben wir AWS ein. Und es wird eine Liste aller verschiedenen S3-Bucket zurückgeben , die ich in diesem Konto erstellt habe. Wenn Sie keinen Eimer haben, wird nichts zurückgegeben. Um schnell zu überprüfen, was wir in dieser Lektion getan haben, wir Zugriffsschlüssel für unsere Benutzer mit der Vorsicht erstellt, dass wir im Allgemeinen keine Zugriffsschlüssel für den Root-Benutzer erstellen möchten . Sei es immer noch für diese Demo erstellt. Aber solange Sie es löschen, sollte das in Ordnung sein. Und schließlich greifen wir auf das S3 zu, um zu überprüfen, ob wir auf die AWS-Ressourcen zugreifen können. Das ist alles für dieses Video. 11. AWS-Regionen und Verfügbarkeitszonen: Hallo Studenten, willkommen zurück. In diesem Video erfahren wir mehr über die AWS-Regionen, verschiedene Availability Zones und die Bedeutung von Regionen und Verfügbarkeitsjoule. Also lasst uns anfangen. Angenommen, Sie möchten unsere Webanwendung hosten. Dafür bräuchten Sie Ihr eigenes Rechenzentrum, richtig? Jetzt, da Sie über AWS und andere Cloud-Services Bescheid wissen, müssen Sie unser Rechenzentrum nicht einrichten und können Ihre Anwendung einfach in der AWS Cloud hosten. Nehmen wir jedoch an, Sie verwenden immer noch ein lokales Rechenzentrum. Jetzt ist hier eine Frage. Was ist, wenn eine Katastrophe Ihr Rechenzentrum trifft? Das ist ein gültiges Kissen, oder? Alles kann passieren. Und da Sie das Rechenzentrum besitzen und verwalten, müssen Sie herausfinden, was Sie in einer so extremen Situation tun werden. Eine Möglichkeit, ein vollständiges Herunterfahren Ihrer Anwendung zu vermeiden , besteht darin, ein zweites Rechenzentrum an einem anderen Ort auszuführen . Wenn also einer untergeht, wird der andere als Backup da sein. Die Wartung eines anderen Rechenzentrums wird jedoch die Hardware- und Wartungskosten verdoppeln. Mach dir keine Sorgen. Das war nur ein Beispiel. Ein AWS hat eine bessere Lösung für diese Möglichkeit, nämlich die AWS-Region. Eine AWS-Region ist nichts anderes als die geografischen Standorte weltweit, wir sind verschiedene Rechenzentren gruppiert. Das bedeutet, dass AWS mehrere Rechenzentren an einem Ort unterhält . Gemäß AWS-Standards muss es mindestens zwei Rechenzentren in einer Region geben. Und jedes Rechenzentrum sollte redundanten Strom, Kühlung, Heizung, Vernetzung und Konnektivität haben . Alle diese Regionen sind erneut über das AWS-Backbone-Netzwerk verbunden, das im Grunde ein sehr schnelles Netzwerk ist. Jede dieser Regionen hat unterschiedliche Namen und Codes. Diese Namen basieren auf ihrer weltweiten geografischen Lage. Geografische Lage bedeutet physische Lage wie Mumbai, Tokio , Frankfurt, Nordamerika, Südamerika, China, Südafrika und der Mittlere Osten. Dies sind einige Beispiele. Nun, mein AP South One. Moon Bay ist ein physischer Ort, oder? Sie nennen es also eine Einweg-Region und es hat Episode eins genannt. Gleiches gilt für Singapur und andere Standorte. Singapur, API Südost, eins, Sydney, API Südost bis Kapstadt, Süd-One. Wenn Sie also ein AWS-Konto haben, können Sie auswählen, aus welchem Grund Sie Ihre AWS-Services bereitstellen möchten, ob Sie sie in Mumbai oder in Tokio starten möchten. Dies hängt auch von verschiedenen Faktoren , über die ich in diesem Video sprechen werde. Mit einfachen Worten, Sie können sagen, dass AWS ein Cloud-Dienstanbieter ist und Rechenzentren auf der ganzen Welt hat. Derzeit gibt es 26 geografische Regionen mit 84 Verfügbarkeitszonen auf der ganzen Welt. Und AWS fügt immer wieder neue Regionen hinzu. Wenn Sie sich diese Sitzung ansehen, diese Zahlen möglicherweise geändert. Sie können sich also den Link im Ressourcenbereich unter diesem Video ansehen und die neueste Anzahl von AWS überprüfen. Lassen Sie uns vorankommen und über die Verfügbarkeit sprechen Jones. Nun, was unsere Verfügbarkeit Jones, es ist ein oder mehrere einzeln getrennte und unterschiedliche Rechenzentren mit redundanter Leistung, Vernetzung und Konnektivität in einer AWS-Region. Mit anderen Worten, es ist nichts anderes als ein isoliertes Rechenzentrum. Im Rahmen des Zumutels besteht der einzige Unterschied darin, dass es über redundante Stromversorgung, Netzwerk und Konnektivität verfügt. Jede Availability Zone verfügt also über eine Reihe von Rechenzentren, die von anderen Availability Zones isoliert sind. Also glaube ich, dass wir es getan haben. Joan ist nichts anderes als eine Gruppe von Rechenzentren. Und gemäß AWS Standard muss eine AWS-Region über zwei Availability Zones verfügen. Nehmen Sie also ein Beispiel für die Moon Bay-Region. Es hat drei Availability Zones. Wie wir bereits gesehen haben. Jede Region hatte einen bestimmten Code. Ebenso hat die Verfügbarkeit Jones auch einen entsprechenden Code , der aus einem Regionalcode gefolgt vom Alphabet besteht . Wenn Sie sich erinnern, ist der Code der Region Mumbai ap Salt One. Jetzt lasst uns sehen. Der Code für die Availability Zone, Verfügbarkeit John One hat den Code API South One. Und in ähnlicher Weise ist die Verfügbarkeit John Code zwei ein Stück Out1 und die Availability Zone dritte hat die Code-Episode eins. Sehen Sie, ich hoffe, es ist klar , dass der Regionalcode gefolgt von Alphabet die Verfügbarkeit im Juni kalt macht. Bis jetzt wissen wir, dass jede AWS-Region zwei oder mehr Verfügbarkeit hat Jones, genau wie Mumbai drei Availability Zones hat. North Virginia hat die Avenue de Jones und so weiter. Lassen Sie uns nun verstehen, warum uns diese Availability Zones wichtig sind. Wir wissen also, dass eine Region aus mehreren Availability Zones besteht. Hier. Lassen Sie mich Ihnen sagen, dass jede Verfügbarkeit June kein einziges Rechenzentrum ist, sondern aus Clustern von Rechenzentren besteht. Einige Verfügbarkeit Jones kann zwei Rechenzentren haben, während andere drei oder mehr haben können. Alle diese Verfügbarkeitszonen befinden sich irgendwo im Abstand von 5200 Kilometern. man auf die Bedeutung der Verfügbarkeit zurückgeht, würde Jones annehmen, wenn eine Verfügbarkeitszone ausfällt, würde der gesamte Cluster von Rechenzentren dort hinuntergehen. Rechenzentren in anderen Availability Zones werden jedoch weiterhin arbeiten. Und daher werden Sie nicht mit einem vollständigen Herunterfahren Ihrer Anwendung oder Website konfrontiert . Aws-Infrastruktur wurde entwickelt, um die hohe Verfügbarkeit der Anwendungen sicherzustellen. Und wenn du denkst, wie ist es dir wichtig, lass es mich dir sagen. Angenommen, Sie möchten Ihre Anwendung in der Region Mumbai bereitstellen . Und wie Sie wissen, hat eine Moon Bay-Region drei verschiedene Verfügbarkeitszonen. Das erste, was Sie tun würden, ist, einen Server in einem der Jones gemäß Ihren Anforderungen zu starten . Sobald der Server gestartet wurde, können Sie jetzt über das Internet darauf zugreifen. Sie müssen sich keine Gedanken darüber machen , in welcher Availability Zone Sie Ihren Server gestartet haben, solange Sie über das Internet darauf zugreifen können. Angenommen, die Availability Zone, in der Sie Ihren Server gestartet haben, geht vollständig aus. Das bedeutet, dass auch die Bewerbung erfolgt. Aber das ist es nicht. Sie können auch nicht auf Ihre Anwendungsdaten zugreifen . Wenn Sie diese Daten nicht haben, können Sie Ihre Anwendung nicht wiederbeleben. Um solche Situationen zu vermeiden, hat AWS Verfügbarkeit Jones. Werfen wir einen Blick auf die Vorteile der Verfügbarkeit Jones. Der erste Vorteil ist die höhere Verfügbarkeit. Wenn Sie Ihre Anwendungen entwerfen, stellen Sie sicher, dass Sie alle Ihre Server und Datenbanken in mehrere Availability Zones gelegt haben alle Ihre Server und . Wenn also einer untergeht, müssen Sie für eine Sekunde eine andere Zone abdecken. Wenn Sie sich erinnern, haben wir darüber gesprochen, dass die Entfernung zwischen zwei Zonen zwischen 5200 Kilometern liegt. Angenommen, Sie haben eine Primärdatenbank in einem John. In diesem Fall können Sie das Replikat dieser Datenbank im sekundären Jones haben . Es ist auch möglich, eine synchrone Replikation zwischen zwei Datenbanken durchzuführen. Dadurch werden alle Ihre Daten gleichzeitig in beide Datenbanken kopiert . Wenn ein John untergeht, haben wir einen anderen, der normal arbeitet, was als Fehlertoleranz bezeichnet wird. Bitte beachten Sie, dass dies kein Standarddesign von AWS ist. Sie müssen Ihre Anwendung in mehreren Availability Zones gestalten, um eine hohe Verfügbarkeit und Fehlertoleranz zu erreichen. Studenten, ich hoffe, die Availability Zone ist klar. Werfen wir nun einen Blick auf eine Beispielarchitektur, in der wir sehen werden, wie wir die Verfügbarkeit von Jones nutzen , um unsere Anwendung hochverfügbar zu machen . Angenommen, in einer AWS-Region haben wir zwei Availability Zones, die wir als Availability Zone One und Availability Zone zwei bezeichnen werden . Das erste, was wir tun würden, ist, einen EC2-Server und die entsprechende Datenbank in der Availability Zone One zu starten einen EC2-Server und . Ebenso würden wir einen anderen Webserver und eine entsprechende Datenbank in der Availability Zone starten einen anderen Webserver und . Jetzt sind Ihre Anwendung und Ihre Datenbank hochverfügbar und sie können aufrechterhalten, wenn einer John ausfällt. Kurz gesagt, die AWS-Region ist jetzt der geografische Standort auf der ganzen Welt und die Verfügbarkeit Joan ist der Cluster von Rechenzentren. Bestimmte Region. Okay, also lasst uns jetzt vorankommen und verstehen, warum heute so viele Regionen benötigt werden. Natürlich gibt es Ihnen die Flexibilität, Ihre Anwendung in jeder AWS-Region bereitzustellen Ihre Anwendung in jeder AWS-Region , die für Sie von Vorteil ist. Ansonsten ist der Hauptgrund der Zugriff auf Anwendungen mit geringer Latenz. Wenn sich Ihre Benutzerbasis in den USA befindet, Bereitstellung Ihrer Anwendung in den USA nur sinnvoll. Wenn Sie Ihre Benutzerbasis in Indien haben, wählen Sie die Moon Bay-Region aus. Der zweite Grund ist die Einhaltung gesetzlicher Vorschriften. Verschiedene Länder haben unterschiedliche Regeln für die Regulierung der Daten. Wenn Sie mehrere Regionen haben, haben Sie die Freiheit zu wählen, was für Sie am besten geeignet ist. Der dritte Grund besteht darin, jede Art von Katastrophe aufrechtzuerhalten. Alle diese AWS-Regionen befinden sich auf der ganzen Welt und der Mindestabstand zwischen zwei Regionen sollte 300 Kilometer betragen, was wir als Notfallwiederherstellungsstandort bezeichnen. Dies soll sicherstellen, dass Ihre Anwendung auf einer der Websites ausgeführt wird. Und die andere Seite sollte mindestens 300 Kilometer voneinander entfernt sein, um sicherzustellen, dass sie nicht Teil derselben Systeme sind. Daher können Sie auch den Nutzen mehrerer Regionen nutzen. Abgesehen von den Latenzanforderungen, Einhaltung gesetzlicher Vorschriften und der Disaster Recovery gibt es einige zusätzliche Überlegungen, die Sie auch bei der Verwendung mehrerer Regionen betrachten können. Zum Beispiel möchten Unternehmen für die globale Anwendung ihren Benutzern auf der ganzen Welt die beste Benutzererfahrung bieten . Eine Möglichkeit , dies zu erreichen, besteht darin, Ihre Anwendung in der Region näher an Ihren Zielgruppen bereitzustellen . Beispielsweise wird die US-basierte Anwendung die Region Mumbai verwenden , um dem indischen Benutzer ein besseres Erlebnis zu bieten . Die Kosten sind ein weiterer Vorteil der Verwendung mehrerer Regionen. Da jedes Land eine andere Wirtschaft hat, die Preise für die Verwendung von würde die Preise für die Verwendung von AWS von Land zu Land variieren. Daher erhalten Sie in einigen Ländern günstigere Dienstleistungen. Und als unsere Organisation ist das eine großartige Möglichkeit , Geld zu sparen. Als Nächstes haben Sie einen reduzierten Explosionsradius. Viele Menschen und Organisationen möchten , dass sie im Falle einer vollständigen Region möglicherweise eine andere Region als Notfallwiederherstellung nutzen möchten . Oft verteilen sie ihre Workloads auch auf die Regionen falls einer Region etwas zustößt. Eine andere Region ist aktiv und so reduzieren sie den Explosionsradius der Katastrophe. Studenten, bei denen es um die AWS-Regionen und die Verfügbarkeit ging Jones stellt sicher, dass Sie alles gut verstehen , da sie aus Sicht des Interviews wichtig sind. Das ist alles für dieses Video. 12. AWS Edge Locations: Hallo Studenten, willkommen zurück. Im letzten Video haben wir die AWS-Regionen und Availability Zones verstanden. In diesem Video werden wir einen weiteren wichtigen Aspekt der globalen Infrastruktur von Amazon diskutieren , nämlich der Edge-Standort. Beginnen wir mit unserem Verständnis der AWS-Region und wie wählen Sie eine Region für Ihre Anwendung aus? Es gibt viele Faktoren für die Wahl einer AWS-Region. Das Hauptkriterium ist die Nähe zu Ihren Zielkunden. Wir wählen immer eine Region aus, die unseren Zielkunden am nächsten liegt . Aber was ist, wenn Sie Kunden weltweit haben? Angenommen, Sie haben eine Video-Streaming-Anwendung , mit der Benutzer den Zeitraffer der indischen Landschaft veröffentlichen können . Sie haben Ihre Bewerbung und ihre Daten aus Mumbai begründet , da Ihre Kunden aus Indien kommen. Aber wer sah nach ein paar Monaten eine gute Menge an Verkehr aus Japan? Ab sofort bedienen Sie alle japanischen Kundenanfragen nur aus der Moon Bay-Region. Aufgrund der großen Entfernung zwischen Indien und Japan haben Ihre japanischen Benutzer aufgrund eines Problems mit geringer Latenz möglicherweise keine gute Benutzererfahrung. Jetzt können Sie Ihre Anwendung in Japan ordnungsgemäß einführen , indem Sie Ihre Daten im Falle von AWS in einer Cloud-Region in Japan, Tokio kopieren . Und so können Sie Ihre Kunden dort bedienen. Dies war ein Beispiel für das Caching. Definition ist Gushing das Speichern einer Kopie von Daten an unserem temporären oder Cache-Speicherort. So kann schneller darauf zugegriffen werden. In diesem Fall können Sie Ihre Daten im Rechenzentrum von Tokio zwischenspeichern und uns japanischen Kunden eine reibungslose Benutzererfahrung bieten. Ein anderes Konzept, das Sie verstehen müssen , ist das Content Delivery Network, allgemein bekannt als cdn. Es ist nichts anderes als ein Fachbegriff, den wir für das Zwischenspeichern von Daten in einem Rechenzentrum verwenden Zwischenspeichern von Daten in , das näher an den Kunden liegt. Bitte beachten Sie, dass CDN kein AWS-spezifischer Begriff ist. Ein Content Delivery Network oder CDN zwischengespeichert Inhalte wie Bilder, Videos oder Webseiten in Proxy-Servern, die sich näher an Endbenutzern befinden als bei Ursprungsservern. Auch hier befinden sich diese Proxy-Server im Rechenzentrum, und diese Rechenzentren werden als Edge-Standorte bezeichnet. Jetzt müssen Sie überlegen, was ist der Unterschied zwischen Region und Edge-Standort als unsere beiden Rechenzentren, oder? Der Unterschied besteht darin, dass Edge-Standorte kleinere Rechenzentren sind und in allen großen Städten der Welt verfügbar sind . Wenn Sie vergleichen, beträgt die Gesamtzahl der Edge-Standorte mehr als das 12-fache der Anzahl der Regionen. So haben Sie mehr Möglichkeiten, Ihre Daten zwischenzuspeichern und schnell für Ihre Kunden zu lösen. Der zweite Unterschied besteht darin, dass die Edge-Standorte von Regionen getrennt sind und sich an anderen Standorten befinden. Auf diese Weise können Sie Ihre Inhalte aus Regionen an eine Sammlung von Edge-Standorten auf der ganzen Welt übertragen Regionen an eine Sammlung . Der Unterschied ist, dass AWS Edge Location Host I Spatial Service, um diese Inhalte schneller bereitzustellen , als Amazon CloudFront bezeichnet wird. Während die AWS-Region fast alle AWS-Services hostet. Anders als CloudFront. Aws-Edge-Standorte führen auch unseren Domainnamen-Service oder DNS aus, bekannt als Amazon Route 53. Wir werden Cloudfront und Route 53 in späteren Modulen behandeln. Ordnung, es gibt so viel mehr als das über die globale Infrastruktur von AWS. Aber lassen Sie es uns einfach halten und einen kurzen Blick auf die wichtigsten Punkte der globalen Infrastruktur von AWS werfen. Nummer eins: Regionen sind geografisch isolierte Standorte, an denen Sie auf AWS-Services zugreifen können , die zum Ausführen Ihrer Anwendung erforderlich sind. Nummer zwei: Regionen enthalten Availability Zones, die physisch getrennt sind. Gebäude mit ihrer Energie Heizung, Kühlung und Netzwerk. Availability Jones hilft Ihnen bei der Lösung hoher Verfügbarkeit und Disaster Recovery Szenarien mit hoher Verfügbarkeit und Disaster Recovery ohne zusätzlichen Aufwand. Nummer drei, AWS, Edge-Standorte betreiben Amazon CloudFront, um Inhalte näher an Ihre Kunden zu bringen , egal wo sie sich in freier Wildbahn befinden. Das ist alles für dieses Video. 13. Was ist Identitäts- und Zugriffsmanagement?: Hallo, Studierende. Willkommen zurück. Wissen Sie, warum Ihre Bildungseinrichtungen Ihnen den Personalausweis geben? Weil die Ausweise eines Instituts ihnen die Kontrolle darüber geben , wer Zugang zu ihren Einrichtungen hat. Ihr Personalausweis dient als Nachweis dafür, dass Sie an dieser Hochschule studiert haben, und somit können Sie deren Einrichtungen nutzen. In ähnlicher Weise bietet AWS einen Service, Unternehmen bei der Verwaltung ihrer Identität in der Cloud unterstützt. In diesem Video lernen wir Konzepte der Identitäts- und Zugriffsverwaltungsdienste Bezug auf IAM, Identifizierung, Authentifizierung und Autorisierung Beginnen wir damit, was ist Identitäts- und Zugriffsmanagement? Identitäts- und Zugriffsmanagement ist ein Framework, das sicherstellt, dass die richtigen Personen in Ihrem Unternehmen auf den einzigen Dienst zugreifen können , den sie für ihre Arbeit benötigen. Denken Sie daran, dass es nicht empfehlenswert ist, Ihr Root-Konto für alles zu verwenden , was Sie und Ihr Team tun, da dies zu schwerwiegenden Sicherheitsproblemen führen kann. Lassen Sie uns hier eine Analogie ziehen. Angenommen, Sie arbeiten in einer Organisation und müssen jeden Tag, wenn Sie den Haupteingang betreten, Ihren Personalausweis dem Wachmann vorzeigen oder Sie müssen Ihre Login-Karte durchziehen Auf diese Weise stellt Ihre Organisation sicher, dass Sie die richtige Person sind , die Zugang zu den Räumlichkeiten der Organisation hat Und genau so funktioniert IAM. Wenn Sie Ihren Personalausweis vorzeigen, beweisen Sie, dass Sie die richtige Person sind Sie als Person sind eine Identität. Wenn Sie nun dem Sicherheitsbeamten Ihren Personalausweis zeigen, schaut er sich Ihr Ausweisfoto und Ihr Gesicht an und überprüft, ob beide übereinstimmen Nach erfolgreicher Überprüfung erhalten Sie durch diesen gesamten Vorgang Zugriff Sie als Person erhalten Zugang zu den richtigen Räumlichkeiten. Das ist es nicht. Dieser Personalausweis dient als Nachweis für den Zugang zu vielen anderen Diensten und Einrichtungen in Ihrer Organisation. Beispielsweise können einige Personen nur den Kontobereich nutzen, während andere nur die Personalabteilung usw. nutzen können. Es gibt ein klar definiertes System, wer was auf die gleiche Weise nutzen kann . Identity and Access Management, kurz IAM, ist ein Service in AWS sicherstellt, dass die richtige Person Zugriff auf das Richtige hat AWS IAM bietet Zugriffskontrolle alle AWS-Services und -Ressourcen Sie können angeben, wer unter welchen Bedingungen auf welche Services und Ressourcen zugreifen kann unter welchen Bedingungen auf welche Services und Ressourcen Es gibt auch das Konzept der IAM-Richtlinie, Sie die Berechtigungen für Ihre Mitarbeiter und Ihr System verwalten können, um die Berechtigungen Ihre Mitarbeiter und Ihr System den geringsten Rechten sicherzustellen Wenn es keinen Sinn ergibt, machen Sie sich keine Sorgen. Ich werde all dies in den nächsten Themen behandeln. Lassen Sie uns zunächst drei wichtige Konzepte der Identitäts - und Zugriffsverwaltung, Identifizierung, Autorisierung und Authentifizierung verstehen drei wichtige Konzepte der Identitäts - und Zugriffsverwaltung, . Diese drei Begriffe sind eng miteinander verwandt, aber sie sind nicht identisch. Lasst uns sie jetzt verstehen. Identifikation ist die Fähigkeit , einen Benutzer eindeutig zu identifizieren. Es bedeutet, wie eine Person oder ein System identifiziert werden kann. Im letzten Beispiel identifizieren Sie sich mit einem Personalausweis. Richtig? Und das ist von System zu System unterschiedlich. Wenn Sie sich in Ihr Bankkonto einloggen, verwenden Sie Benutzername und Passwort. Sie identifizieren sich im Bankportal mit Ihrem Benutzernamen und Passwort. Ihre Identifikation ist Ihr Benutzername und die Passwortidentifikation dient im Wesentlichen dazu, jeden einzelnen Benutzer zu identifizieren , der auf Ihre Dienste oder Einrichtungen zugreift. Das zweite Konzept spricht von Authentizität. Authentifizierung ist der Prozess der Erkennung der Identität eines Benutzers. Wenn Sie dem Wachmann Ihren Personalausweis zeigen, überprüft er Ihr Personalausweisfoto mit Ihrem Gesicht Das ist Authentifizierung. Wenn Sie sich bei Ihrem Bankkonto anmelden, geben Sie Ihren Benutzernamen und Ihr Passwort ein. Das Bank-Backend-System vergleicht Ihren Benutzernamen und Ihr Passwort mit dem Benutzernamen und den Passwörtern in ihrem System gespeichert sind Das System stellt sicher, dass Sie den richtigen Benutzernamen und das richtige Passwort erhalten Wenn Sie den richtigen Benutzernamen und das richtige Passwort kennen, sind Sie der Besitzer des Kontos. Wenn Sie eine eindeutige Identität erhalten haben, muss es ein System geben, das diese bei jeder Verwendung Ihrer eindeutigen Identität erkennt . Dieser Prozess zur Erkennung der Echtheit Ihrer Identität wird als Authentifizierung bezeichnet. Schließlich ist Autorisierung der Prozess bei dem jemandem die Erlaubnis erteilt wird, auf etwas zuzugreifen. Sobald Sie autorisiert sind, können Sie die Büroräume betreten und in Ihren Bürobereich gehen. Sie können jedoch nicht in die Kantinenküche gehen , weil Sie nicht berechtigt sind, oder wir können sagen, dass Sie gemäß Ihrer beruflichen Funktion nicht berechtigt sind, den Küchenbereich der Kantine zu betreten gemäß Ihrer beruflichen Funktion nicht berechtigt sind, den Küchenbereich der Kantine Lassen Sie uns nun das Identitäts - und Zugriffsmanagement in Bezug auf AWS verstehen in Bezug Identitäts- und Zugriffsmanagement AWS ist ein AWS-Service, der einer Organisation hilft von AWS ist ein AWS-Service, der einer Organisation hilft, den Zugriff auf ihr AWS-Konto und ihre Dienste für ihre Mitarbeiter zu verwalten ihr AWS-Konto und . Es bietet eine detaillierte Zugriffskontrolle für alle AWS-Services Feinkörnig bedeutet, dass Sie festlegen können, wer unter welchen Bedingungen auf welche Services und Ressourcen zugreifen kann zugreifen unter welchen Bedingungen auf welche Services und Ressourcen Wenn Sie möchten, dass die Person nur auf den Service AWS EC Two und Person Y nur auf den Service S Three zugreift, ist das durchaus möglich Dies wird mit der IAM-Richtlinie geschehen. 14. Benutzer, Gruppen und Rollen: Hallo, Schüler. Willkommen zurück. Im letzten Video haben wir AWS IAM verstanden. In dieser Lektion werden wir über die Elemente von IAM sprechen, zu über die Elemente von IAM sprechen, denen Benutzergruppen und Rollen gehören Fangen wir mit den Benutzern an. Ein Benutzer ist eine Person, die einen AWS-Service in einem AWS-Konto nutzt AWS-Service in einem AWS-Konto Wie wir in der vorherigen Lektion besprochen haben, gibt es bei AWS zwei Benutzertypen Root-Benutzer und IAM-Benutzer Der Root-Benutzername selbst gibt einen Hinweis darauf, dass es sich um den Spatial-Benutzer handelt Er wird erstellt, als das AWS-Konto erstellt wurde. Wenn Sie ein AWS-Konto erstellen, erstellt AWS eine Identität oder einen Benutzer für Sie. Dieser Identitätsbenutzer wird AWS-Root-Benutzer genannt. Dieser Benutzer hat Zugriff auf alle AWS-Services und -Ressourcen im Konto. Einige wichtige Punkte zu AWS-Root-Benutzern. Sie können sich mit der E-Mail-Adresse und dem Passwort, mit denen Sie das Konto erstellt haben, als Root-Benutzer E-Mail-Adresse und dem anmelden. Der Root-Benutzer hat vollständigen Zugriff auf alle AWS-Services und -Ressourcen im Konto. Daher ist es keine gute Praxis den Root-Benutzer für alltägliche Aufgaben zu verwenden. Sie sollten niemals Root-Benutzeranmeldedaten mit anderen teilen . Nur sehr wenige zuverlässige Personen sollten über die Root-Anmeldeinformationen verfügen. Jetzt wissen wir, dass wir den Root-Benutzer nicht für unsere tägliche Arbeit verwenden können . Hier kommt der IAM-Benutzer ins Spiel. IAM-Benutzer ist eine Entität, die Sie als Root-Benutzer in einem AWS-Konto erstellen, um den Benutzer darzustellen , der mit AWS-Ressourcen in Ihrem Konto interagiert AWS-Ressourcen in Lassen Sie uns das nun anhand eines Beispiels verstehen. Nehmen wir an, Sie sind der Teamleiter in einer Organisation und haben ein AWS-Konto. Sie haben zwei Entwickler, Ram Sham, und zwei Administratoren, Ta und Geta In Ihrem Team benötigt Ihr Team Zugriff auf ein AWS-Konto, um eine Anwendung zu hosten, da Sie ihnen keinen Zugriff auf Ihr Root-Konto gewähren möchten Sie können IAM-Benutzer für Ihre Teammitglieder erstellen und ihnen den Zugriff auf die Dienste gewähren , die sie für ihre Arbeit benötigen Hier repräsentiert jedes Teammitglied einen IAM-Benutzer, da jedes Teammitglied mit einem AWS-Konto interagieren muss, um seine Arbeit zu erledigen Sie werden vier IAM-Benutzer für Ram Shamtha und Geta erstellen. Okay, jetzt verstehen wir den IM-Benutzer. Schauen wir uns an, wie ein IAM-Benutzer funktioniert und wie wir verschiedenen IAM-Benutzern Berechtigungen zuweisen Wenn Sie einen Benutzer erstellen, erhält der Benutzer einen Benutzernamen, ein Passwort und Zugangsschlüssel, die Sie mit den jeweiligen Personen teilen , um auf das AWS-Konto zuzugreifen Benutzername und Passwort werden für den Zugriff auf die AWS-Managementkonsole und der Zugriffsschlüssel für den programmatischen Zugriff mit AWS CLI verwendet AWS-Managementkonsole und Zugriffsschlüssel für den programmatischen Zugriff mit AWS CLI Jeder Benutzer wurde einem einzigen AWS-Konto hinzugefügt Jeder Benutzer hat seine eigenen Anmeldeinformationen für den Zugriff auf das AWS-Konto Die wichtige Frage ist nun, welche AWS-Ressourcen sie verwenden können. Nun, jeder neue IAM-Benutzer hat keine Standardberechtigung für den Zugriff auf Ihre AWS-Ressourcen, um Ihren IAM-Benutzern Berechtigungen geben, die Sie benötigen, um ihnen die erforderlichen Sie können dies tun, indem Sie jedem IAM-Benutzer IAM-Richtlinien hinzufügen. IAM-Richtlinie definiert die Berechtigungen, die jedem Benutzer erteilt werden, der mit einem AWS-Konto interagiert Wir werden uns im nächsten Thema mit der IAM-Richtlinie befassen. Kurz gesagt, Sie erstellen IAM-Benutzer, fügen Richtlinien hinzu, um Berechtigungen zu erteilen, und der Benutzer kann diese Anmeldeinformationen verwenden , um auf diese Ressourcen zuzugreifen Ein wichtiger Punkt an dieser Stelle ist, dass IAM-Benutzer keine tatsächliche Person repräsentieren muss Es könnte eine Anwendung sein. Nehmen wir auch an, Sie haben eine Anwendung im Frame, die auf einen AWS-Service zugreifen muss. Sie können den Zugriffsschlüssel in der Anwendung für den Zugriff auf AWS-Services konfigurieren . Dies ist ein weiterer wichtiger Anwendungsfall für den Zugriffsschlüssel. Okay, lassen Sie uns jetzt die IAM-Gruppe verstehen. Eine IAM-Gruppe ist eine Sammlung von Benutzern und Berechtigungen, die diesen Benutzern zugewiesen sind Kehren wir zum gleichen Beispiel zurück. In Ihrem Team haben Sie zwei Entwickler Sham und zwei Administratoren, Ta und Gier. Stimmt das? Beide Entwickler werden dieselben AWS-Services anbieten und darauf zugreifen . Und das Gleiche gilt auch für beide Administratoren. Anstatt einzelnen Benutzern Berechtigungen zuzuweisen, können Sie diese auch gruppieren und dieser Gruppe gleichzeitig Berechtigungen zuweisen In unserem Fall können Sie zwei Gruppen erstellen. Eine Gruppe für Entwickler und eine Gruppe für Administratoren. Iam Group bietet eine einfache Möglichkeit, Berechtigungen für Benutzer entsprechend ihren Aufgabenbereichen zu verwalten entsprechend ihren Aufgabenbereichen zu Wenn Sie einen Benutzer erstellen, weisen Sie dem einzelnen Benutzer eine Richtlinie zu Im Fall einer Gruppe fügen Sie der Gruppe jedoch eine Richtlinie hinzu, und die Berechtigung gilt für alle Benutzer in dieser Gruppe. Nehmen wir einen weiteren guten Anwendungsfall für die IAM-Gruppe. Wie Sie wissen, verfügt jeder Benutzer in einer bestimmten Benutzergruppe automatisch über die Berechtigungen , die der Benutzergruppe zugewiesen sind Wenn ein neuer Benutzer Ihrer Organisation beitritt und Administratorrechte benötigt, können Sie die entsprechenden Berechtigungen zuweisen, indem den neuen Benutzer einfach zu dieser Administrator-Benutzergruppe hinzufügen . Ebenso können Sie, wenn ein vorhandener Mitarbeiter zu einem neuen Projekt wechselt, eine neue Rolle in derselben Organisation innehat, anstatt die Berechtigungen dieses Benutzers zu bearbeiten, zu einem neuen Projekt wechselt, eine neue Rolle in derselben Organisation innehat, anstatt die Berechtigungen dieses Benutzers zu bearbeiten, ihn oder sie aus der alten Benutzergruppe entfernen und ihn oder sie zu den entsprechenden neuen Benutzergruppen hinzufügen . Die IM-Gruppe ist eine Möglichkeit, Richtlinien mehreren Benutzern gleichzeitig zuzuordnen . Wenn Sie einer Benutzergruppe eine identitätsbasierte Richtlinie zuordnen, alle Benutzer in der Benutzergruppe erhalten alle Benutzer in der Benutzergruppe die Berechtigung, die Benutzergruppe. Lassen Sie uns nun die IAM-Rolle verstehen. Eine IAM-Rolle ist eine IAM-Identität, die Sie in Ihrem Konto mit bestimmten Berechtigungen erstellen können Eine IAM-Rolle ähnelt einem IAM-Benutzer, der mit einer IAM-Richtlinie verknüpft ist, die festlegt, was eine Rolle in AWS tun kann und was Jetzt müssen Sie sich fragen, was der Unterschied zwischen einer IAM-Rolle und einem Benutzer ist? Richtig, lassen Sie mich es Ihnen erklären. Ein IAM-Benutzer ist eine einzigartige Person, die über einen Benutzernamen, ein Passwort und einen Zugriffsschlüssel mit den damit verbundenen Berechtigungen verfügt Passwort und einen Zugriffsschlüssel mit den damit verbundenen Berechtigungen Die IAM-Rolle hat jedoch weder einen Benutzernamen, ein Passwort noch einen Zugriffsschlüssel Die IAM-Rolle kann nicht direkt mit einer Person oder einem Dienst verknüpft Stattdessen kann sie von einer Person oder Ressource für eine bestimmte Sitzung übernommen werden einer Person oder Ressource für eine bestimmte Sitzung Was bedeutet das? Lassen Sie mich das anhand dieses Bildbeispiels erklären. Nehmen wir an, Sie haben eine Anwendung auf einer EC Two-Instance läuft. Und eine EC Two-Instance muss auf ein Image von S Drei zugreifen. In diesem Fall übernimmt EC Two die Rolle und greift auf der Grundlage der Richtlinie auf das Bild von S Drei zu. Wie bereits erwähnt, sind Rollen keine Zugriffsschlüssel oder Anmeldeinformationen zugeordnet. Die Anmeldeinformationen sind temporär und werden von AWS anonym zugewiesen Aws gibt die temporären Anmeldeinformationen an die Rolle weiter, damit sie die Aufgabe erledigen kann, wenn sie benötigt wird Das ist alles für dieses Video. 15. Einen IAM-Benutzer und eine IAM-Gruppe erstellen: Helfen Sie den Schülern. Willkommen zurück. In dieser Lektion werden wir IAM-Benutzer und -Gruppen erstellen. Am Ende dieses Labs werden Sie in der Lage sein, diese IAM-Entitäten zu erstellen und bequem durch die AWS IAM-Konsole zu navigieren Lass uns anfangen. Hier befinden wir uns auf der Startseite der AWS-Konsole. Lassen Sie uns mithilfe der Suchoption oben in der AWS-Konsole zu IAM navigieren der Suchoption oben in der AWS-Konsole zu IAM Wie Sie sehen, können Sie die linke Navigationsleiste verwenden , um in Benutzergruppen, Richtlinien, Rollen und Identitäten zu navigieren in Benutzergruppen, Richtlinien, , die für den Umfang dieses Labs vorgesehen Wir arbeiten nur mit Benutzergruppen und ihren Richtlinien Beginnen wir mit der Erstellung von zwei Benutzern, Ram und Sham. In unserem Beispiel ist Ram ein Entwickler und Sham ein AWS-Administrator. Sie können zur Seite des Benutzers navigieren, indem Sie im IAM-Dashboard auf die Benutzeroptionen Dies ist die Benutzerseite, auf der Sie alle Benutzer sehen , die für Ihr Konto erstellt wurden Lassen Sie uns nun unseren ersten AWS-Benutzer erstellen indem wir auf die Schaltfläche Benutzer hinzufügen klicken. Wir beginnen damit, Ihrem Benutzer einen Benutzernamen zu geben. Nennen wir diesen Benutzer Ram. Wenn Sie mehr als einen Benutzer in denselben Eigenschaften erstellen, können Sie einfach einen weiteren Benutzernamen hinzufügen indem Sie auf die Schaltfläche „Einen weiteren Benutzer hinzufügen“ klicken. In diesem Beispiel werden wir dies jedoch nacheinander tun. Die nächste Option, die wir sehen, ist der AWS-Anmeldeinformationstyp. Sie sollten Cess, Key Programmatic Access auswählen Key Programmatic Access damit dieser Benutzer auf AWS-CLI-Befehle zugreifen oder das AWS-SDK und die AW-API verwenden kann AWS-CLI-Befehle zugreifen oder das AWS-SDK und die AW-API verwenden Das brauchen wir für unser Beispiel nicht. Wir wählen nur Zugriff auf die AWS-Managementkonsole mit dem Passwort, sodass der Benutzer Ram über die Managementkonsole auf die AWS zugreifen kann. Dies gibt uns einige weitere Optionen. Sie können AWS ein automatisch generiertes Passwort erstellen lassen oder Sie können manuell ein einfaches Passwort für diesen Benutzer hinzufügen. unserem Beispiel lassen wir uns von AWS ein automatisch generiertes Passwort geben. Die nächste Option ist ein Zurücksetzen des Passworts erforderlich. Sie sollten dieses Kästchen markieren, wenn Sie möchten, dass Ihr Benutzer sein Passwort zurücksetzt , wenn er zum ersten Mal auf die Konsole zugreift. Wir werden das Häkchen für diese Demo entfernen Klicken Sie auf „Nächste Berechtigungen Hier haben wir drei Optionen. Sie können Benutzer zu einer Benutzergruppe hinzufügen. Sie können die Berechtigungen eines vorhandenen Benutzers kopieren , den Sie bereits in Ihrem Konto haben, oder Sie können Richtlinien direkt anhängen. Wir haben keine Benutzer oder Benutzergruppen in unserem Konto, wir haben keine Optionen. Wenn Sie jedoch auf die dritte Option klicken und vorhandene Richtlinien direkt anhängen, vorhandene Richtlinien direkt anhängen, wird eine vollständige Liste von Richtlinien auch wenn Sie in Ihrem Konto noch nie eine Richtlinie erstellt haben. Dies sind die von AWS verwalteten Richtlinien. Das bedeutet, dass diese Richtlinien von AWS verwaltet werden und dass, falls Änderungen erforderlich sind, diese von AWS vorgenommen werden. Diese sind sehr nützlich für einfache Anwendungen, bei denen Sie nicht Ihre eigenen Richtlinien erstellen und verwalten möchten Ihre eigenen Richtlinien erstellen und verwalten und A all dies für Sie erledigen lassen möchten. Wir können hier eine Richtlinie wie Amazon S Three, Read Only Access auswählen und unserem Benutzer diese Berechtigung erteilen. Lassen Sie uns zunächst einen Benutzer ohne Berechtigungen erstellen. Klicken Sie auf Next Tags. Hier können wir unseren Benutzern Tags hinzufügen. Lassen Sie uns ein Beispiel-Tag hinzufügen, Department Finance. Klicken Sie dann auf Weiter, wodurch die Bewertungsseite geöffnet wird, auf der Sie die endgültigen Details zu Ihrem Benutzer sehen. Klicken Sie auf Benutzer erstellen. Dies führt uns zum letzten Schritt der Erstellung eines AWS-Benutzers. Hier können wir sehen, dass der Benutzer Ram erstellt wurde. Sie können sogar das Passwort dieses Benutzers einsehen. Klicken Sie auf CSV herunterladen , eine CSV-Datei mit Benutzeranmeldedaten auf Ihren Computer herunterzuladen. Es ist wichtig zu wissen , dass Sie diese Anmeldeinformationen nach der Erstellung des Benutzers irgendwo speichern sollten . Wenn Sie diese Seite verlassen, können Sie die Anmeldeinformationen nicht mehr erneut abrufen. Klicken Sie auf Schließen. Wir können sehen, dass unser Benutzer Ram zur Benutzerprofil hinzugefügt wurde. Lassen Sie uns einen anderen Benutzer erstellen, Sam. Wir folgen demselben Prozess. Füge den Benutzernamen Sham hinzu. Erlauben Sie AWS-Zugriff über die Konsole. Belassen Sie alle Werte auf den Standardeinstellungen, außer dass das Passwort zurückgesetzt werden muss. Und klicken Sie auf Weiter, wir werden keine Berechtigungen hinzufügen. Klicken Sie auf Weiter. Wir fügen das Muster-Tag hinzu, genau wie wir es für die Finanzen der Benutzerabteilung getan haben. Klicken Sie auf Weiter und dann auf Create a User Download CSB, um die Anmeldeinformationen zu speichern Bitte beachten Sie erneut, dass Sie nach dem Schließen dieser Seite keine Anmeldeinformationen abrufen können nach dem Schließen dieser Seite keine Anmeldeinformationen abrufen Nachdem wir unsere beiden Benutzer, Ram und Sham, erstellt haben , wollen wir nun unsere Benutzergruppe erstellen Klicken Sie auf Benutzergruppen und dann auf Gruppe erstellen, um unsere erste Benutzergruppe Fügen Sie den Namen Entwickler hinzu. Wir können dieser Gruppe Benutzer aus der folgenden Tabelle hinzufügen. Lassen Sie uns Ram, einen Entwickler, zu dieser Gruppe hinzufügen. Der nächste Schritt besteht darin, dieser Gruppe Richtlinien hinzuzufügen. Wir möchten , dass unsere Entwickler vollen Zugriff auf C zwei und S drei haben. Deshalb überprüfen wir Amazon C zwei Vollzugriff und Amazon S drei Vollzugriff in der Richtlinientabelle hier und klicken dann auf Gruppe erstellen. Wir haben jetzt eine Entwicklergruppe, die nur eine hat. Lassen Sie uns auch eine Administratorgruppe erstellen. Klicken Sie auf Gruppe erstellen, geben Sie die Gruppe ein und nennen Sie Administratoren. Dieses Mal werden wir dieser Gruppe jetzt keinen Betrug hinzufügen . Lassen Sie uns eine Gruppe ohne Benutzer erstellen. Lassen Sie uns nun Richtlinien an diese Gruppe anhängen. Wir werden die Administratorzugriffsrichtlinie anhängen. Klicken Sie auf Gruppe erstellen, und wir können sehen, dass unsere Gruppe erstellt wurde. Die Administratorgruppe hat derzeit jedoch keine Benutzer. Lassen Sie uns nun Sham hinzufügen. Gehe zur Seite des Benutzers. Es hat sowohl die Benutzer Ram als auch Sham. Klicken Sie auf Sham, Sie können sehen , dass dieser Benutzer keine Erlaubnis hat. Wechseln Sie von den Berechtigungen zu den Gruppen-Stabgruppen. Dadurch erhalten Sie eine Liste von Benutzergruppen. Lassen Sie uns Sham hier zu seiner Administratorgruppe hinzufügen. Wenn Sie nun zur Registerkarte „Berechtigungen“ zurückkehren, können Sie sehen, dass die Berechtigung diesem Benutzer hinzugefügt wurde . Hat er nun die Administratorzugriffsrichtlinie von der Administratorgruppe angehängt? Wir haben zwei Gruppen mit AWS-Zugriff erstellt. Diesen Benutzern wurden von AWS verwaltete Richtlinien zugewiesen. Das ist alles, was ich in dieser Station behandeln wollte. 16. Anmelden mit IAM User & Create Role: Hallo Studierende. Willkommen zurück. In dieser Lektion melden wir uns mit einem IAM-Benutzer an der AWS-Konsole an und erstellen eine Rolle Ich gehe davon aus, dass Sie die letzte Demo abgeschlossen haben und einen Benutzer namens Sham und sein Passwort Lass uns anfangen. Loggen wir uns zunächst als Administrator Sham ein und erstellen damit eine Rolle. Lassen Sie uns nun die CSV-Datei öffnen Sie beim Erstellen des Benutzer-Shams heruntergeladen haben. Hier sehen Sie, dass dies den Benutzernamen, die Passwort-Zugriffsschlüssel-ID, die geheime Schlüssel-ID und den Anmeldelink für die Konsole enthält Passwort-Zugriffsschlüssel-ID, , da wir keinen programmatischen Zugriff ausgewählt haben Aus diesem Grund sind der Zugriffs - und Geheimschlüssel leer. Kopieren wir den Anmeldelink der Konsole und öffnen ihn im Browser. Hier sehen Sie, dass der Account-Alias bereits gefüllt ist, und das haben wir in einer anderen Demo erstellt. Sie können auch die Konto-ID verwenden. Falls Sie sich erinnern, fügen Sie Ihren Benutzernamen und Ihr Passwort wie in der CSV-Datei angezeigt hinzu. Dadurch gelangen wir zur AWS-Konsole. Jetzt können wir die AWS-Konsole wie zuvor sehen, aber wenn Sie die obere rechte Ecke Ihres Bildschirms sehen, können Sie sehen, dass wir als Scheinbenutzer angemeldet sind. Navigieren Sie zur IAM-Konsole. Klicken Sie erneut im linken Dashboard auf die Option Rollen und dann auf die Schaltfläche Rolle erstellen Die erste Option besteht darin , die vertrauenswürdige Entität auszuwählen. Das heißt, wir sollten auswählen , wofür diese Rolle bestimmt ist. Wer oder welcher Dienst wird diese Rolle nutzen. Die erste Option ist der AWS-Service. Sie sollten wählen, wann Sie diese Rolle AWS-Services wie EC Two Lambda oder ECS zuweisen AWS-Services wie EC Two Lambda oder ECS Was wir hier tun werden. Das nächste ist das AWS-Konto. Dies wird verwendet, um eine Rolle zu erstellen, auf die von anderen AWS-Konten aus zugegriffen werden kann. Wenn Sie möchten, dass sich jemand von einem anderen Konto aus bei Ihrem anmelden kann , wählen Sie diese Option. Die nächste Option ist B-Entität. In diesem Fall möchten Sie, dass Benutzer diese Rolle übernehmen und über eine B-Entität wie Google Facebook-Login auf die AWS-Konsole zugreifen können diese Rolle übernehmen und über eine B-Entität wie Google Facebook-Login auf die AWS-Konsole zugreifen . Die nächste Option ist SAML 2.0 Federation. Saml ist ein Service zur Benutzerverwaltung, der von großen Unternehmen verwendet wird, um ihren Mitarbeitern den Zugriff auf verschiedene Dienste in den Organisationen zu ermöglichen ihren Mitarbeitern den Zugriff auf verschiedene Dienste in den Organisationen zu verschiedene Dienste in den Dieser kann in AWS integriert werden , um Zugriff auf die AWS-Konsole zu gewähren Die letzte Option, die wir haben, ist eine benutzerdefinierte Vertrauensrichtlinie. Sie können dies verwenden, um eine Jason-Vertrauensrichtlinie zu definieren. Sie sich keine Sorgen, wenn die letzten drei Optionen Sie keinen Sinn ergeben haben. Die ersten beiden Optionen sind wichtig für diesen Kurs. Wählen Sie den AWS-Service und anschließend EC Two. Aus den folgenden Optionen erstellen wir eine Rolle, die einer EC Two-Instance zugewiesen werden kann . Klicken Sie auf Weiter. Hier sehen wir eine Liste der Richtlinien, die wir dieser Rolle zuordnen können. Fügen Sie die Amazon S Three Vollzugriffsrichtlinie bei. Und klicken Sie auf Weiter, geben Sie den Rollennamen ein. Sie sehen eine Beschreibung bereits mit einer aussagekräftigen Nachricht gefüllt ist. Erlauben Sie EC-Instances, AWS-Services in Ihrem Namen aufzurufen. Überprüfen Sie die Rolle und klicken Sie auf Rolle erstellen. Es wird ein paar Sekunden dauern. Jetzt können Sie die Rolle, die Sie erstellt haben, auf der Rollenseite sehen. Wir werden diese Rolle in kommenden Demos verwenden. Studenten und IAM-Benutzer sind die besten, um Zugriff auf Ihr AWS-Konto zu gewähren, auch wenn Sie es verwenden sollten Ich empfehle Ihnen, einen IAM-Benutzer mit Administratorrechten für sich selbst zu erstellen und ihn in Zukunft zu verwenden Stellen Sie außerdem sicher, dass MFA auch für IAM-Benutzer aktiviert ist. Ich glaube, Sie haben Ihren Root-Benutzerzugriff und Ihren geheimen Schlüssel, die wir in der letzten Demo erstellt haben, bereits gelöscht Ihren Root-Benutzerzugriff und Ihren geheimen Schlüssel, die wir in der letzten Demo erstellt haben Zu diesem Zeitpunkt wissen Sie, dass Sie auch einen Zugriffs- und Geheimschlüssel für Ihr IAM erstellen Sie finden den Link im Ressourcenbereich. Das ist alles für diese Sitzung. 17. IAM-Richtlinien: Willkommen zurück, Schüler. In der letzten Sitzung ging es ausschließlich um IAM-Benutzer, Gruppen und Rollen Wir haben auch kurz über IAM-Richtlinien zur Erteilung von Berechtigungen gesprochen , aber das ist nicht genug Das Verständnis von Richtlinien ist für eine effektive Arbeit mit IAM von entscheidender Bedeutung effektive Arbeit mit IAM In dieser Lektion werden wir detailliert auf IAM-Richtlinien eingehen, einschließlich ihrer Definition und Typen Lass uns anfangen. Lass mich dir eine Frage stellen. Was kommt Ihnen in den Sinn, wenn Sie das Wort Politik hören? Wenn Sie über Regeln oder Richtlinien nachgedacht haben. Hab es richtig gemacht. Ich bin Politik ist mehr oder weniger dasselbe. In der vorherigen Sitzung ist Ihnen aufgefallen, dass wir Benutzergruppen und Rollen bestimmte Berechtigungen erteilt erstellten Benutzergruppen und Rollen bestimmte Berechtigungen erteilt haben Dann konnten nur sie die Aktionen gemäß den erteilten Berechtigungen ausführen. Diese Berechtigungen sind nichts anderes als Richtlinien, über die wir in dieser Sitzung sprechen werden. Per Definition ist eine IAM-Richtlinie eine Entität, die, wenn sie an eine Identität oder Ressource angehängt wird, deren Berechtigungen definiert Wie ich bereits sagte, enthalten Richtlinien Berechtigungen, die festlegen , ob eine Anfrage zulässig oder abgelehnt wird Das bedeutet, dass unabhängig von der Aktion, die von einer Identität ausgeführt wird, die Genehmigung durch ihre Richtlinie erteilt wird. Sie können die IAM-Richtlinie verwenden, wenn Sie die Berechtigungen für eine Identität in IAM festlegen müssen die Berechtigungen für eine Identität in IAM festlegen Lassen Sie uns das nun anhand desselben Beispiels verstehen. Sie haben ein Team von zwei Entwicklern, Ram und Sham, und zwei Administratoren, Ta und Geta Sie haben zwei Gruppen erstellt, die Entwicklergruppe und die Administratorgruppe Je nach Aufgabenstellung und Berechtigungen die Entwickler in Ihrer Organisation können die Entwickler in Ihrer Organisation die EC-Two-Instance starten und beenden , und die Administratoren können die EC-Two-Instance erstellen und löschen. C Two ist nichts anderes als ein Rechenservice in AWS. Wir werden in den kommenden Modulen darüber sprechen. Sie werden zwei Richtlinien erstellen. Eine Richtlinie für Entwickler, die es ermöglicht, zwei C-Instanzen aufzulisten und zu beenden. Eine weitere Richtlinie für Administratoren, die es ihnen ermöglichen würde , EC-2-Instanzen zu erstellen und zu löschen. Sie werden diese Richtlinien den jeweiligen Gruppen zuordnen. Was hier passieren würde, ist, dass die Richtlinie entsprechend auf alle Mitglieder dieser Gruppen angewendet würde . Das bedeutet, dass sowohl Ram als auch Sham über Berechtigungen als Entwickler und Ta und Geta als Administratoren verfügen werden Berechtigungen als Entwickler und Ta und Geta als Administratoren In diesem Beispiel gestatten wir also, indem wir der Entwicklergruppe eine Entwicklerrichtlinie zuordnen, indem wir der Entwicklergruppe eine Entwicklerrichtlinie zuordnen, den Mitgliedern der Gruppe, bestimmte Aktionen auszuführen und nichts weiter. Jetzt wissen wir, wie Richtlinien funktionieren. Lassen Sie uns die verschiedenen Arten von IAM-Richtlinien verstehen. Wenn wir noch einmal zur Richtliniendefinition zurückkehren, handelt es sich bei der IAM-Richtlinie um eine Entität, die, wenn sie an eine Identität oder Ressource angehängt wird, deren Berechtigungen definiert Gemäß der Definition kann eine Richtlinie entweder Identitäten oder Ressourcen zugewiesen werden entweder Identitäten oder Ressourcen Wie Sie bereits wissen, ist Identität nichts anderes als IAM-Benutzergruppen und -Rollen der Ressource handelt es sich um AWS-Services wie C, zwei Instanzen, S, drei Bucket Lambda, die wir in späteren Modulen behandeln werden Basierend auf den beiden Arten kann eine Richtlinie angehängt werden. Es gibt zwei Arten von identitätsbasierte Richtlinien und ressourcenbasierte Richtlinien. Jetzt werden wir beide nacheinander verstehen. Identitätsbasierte Richtlinien sind an eine Identität angehängt , die sich aus IAM, Benutzergruppen und Rollen zusammensetzt Diese Richtlinien steuern, welche Aktionen und Identitäten auf welchen Ressourcen und unter welchen Bedingungen ausgeführt werden können auf welchen Ressourcen und unter welchen Bedingungen ausgeführt Bitte beachten Sie, dass diese Richtlinien benutzerspezifisch sind , sodass Benutzer über ihre eigenen Konten auf die AWS-Ressourcen zugreifen können. Eine IAM-Benutzergruppe oder -rolle kann mehrere Richtlinien haben , die zusammen die Berechtigungen für diesen bestimmten Benutzer darstellen Beispielsweise können Sie die Richtlinie an den IAM-Benutzer mit dem Namen Ram anhängen die Richtlinie an den IAM-Benutzer mit dem Namen Ram und angeben, dass er die Amazon C Two-Run-Instance-Aktion ausführen darf die Amazon C Two-Run-Instance-Aktion ausführen Sie können außerdem angeben , dass Ram Artikel aus einem Amazon S Three Bucket abrufen darf Artikel aus einem Amazon S Three Bucket abrufen Mein Bucket kombiniert beide Berechtigungen, Ram kann nur C zwei Instanzen starten und darauf zugreifen. Mein Bucket. Der andere Typ ist eine ressourcenbasierte Richtlinie. Diese Richtlinien sind an eine AWS-Ressource angehängt, z. B. an einen Amazon C, zwei Instances , drei Buckets usw. Diese Richtlinien steuern, welche Aktion ein bestimmter AWS-Service oder AWS‑Identität auf anderen Ressourcen ausführen kann und unter welchen Bedingungen Lassen Sie uns das anhand eines Beispiels verstehen. Manchmal wird es Szenarien geben, in denen EC Two Instance auf den S Three Bucket zugreifen möchte. Sie müssen die Richtlinie auch an die C-2-Instanz anhängen und die erforderliche Berechtigung für den Zugriff auf S Three erteilen . Außerdem gibt es zwei Arten von identitätsbasierten Richtlinien verwaltete Richtlinien und Inline-Richtlinien. Die verwaltete Richtlinie wird weiter in AWS-Richtlinien, verwaltete Richtlinien und vom Kunden verwaltete Richtlinien unterteilt . Schauen wir sie uns nun eins nach dem anderen an. AWS verwaltete Richtlinien sind Richtlinien, die von AWS erstellt und verwaltet werden. Wie der Name schon sagt, ist Ihnen klar, dass diese Richtlinie von AWS erstellt und verwaltet wird und Sie keine Änderungen vornehmen können. Zum Beispiel Amazon S Three Read Only Access oder S Three Full Access. Im Wesentlichen sind sie so konzipiert , dass sie eng mit den in der IT-Branche häufig verwendeten Funktionen wie Administrator, Entwickler oder Leser abgestimmt IT-Branche häufig verwendeten Funktionen sind. Sie können S 3 dem Administrator volle Zugriffsrechte und S 3 dem Prüfer nur Lesezugriff gewähren Ziel ist es , die Erteilung von Berechtigungen für diese Standard-Jobfunktionen zu vereinfachen Von AWS verwaltete Richtlinien können nicht geändert werden und AWS verwaltet und aktualisiert die Richtlinien bei Bedarf. Vom Kunden verwaltete Richtlinien werden vom Kunden erstellt und verwaltet. Grundsätzlich können Sie als Kunde diese Richtlinien erstellen und verwalten. Wenn Sie eine vollständig kontrollierte Richtlinie wünschen , die Sie beibehalten können, können Sie eine vom Kunden verwaltete Richtlinie verwenden, die Sie in Ihrem AWS-Konto erstellen und verwalten. Sie bietet eine genauere Kontrolle über Ihre Richtlinien als die von AWS verwalteten Richtlinien. Ein weiterer Vorteil von kundenverwalteten Richtlinien besteht darin , dass Sie sie mehreren Entitäten innerhalb Ihres Kontos zuordnen können , was die Skalierung erheblich erleichtert. Beispielsweise haben Sie in Ihrem Konto vier Leserbenutzer für ein anderes Team, die alle denselben Typ von Amazon C benötigen , um nur lesend darauf zuzugreifen. Sie können eine vom Kunden verwaltete Richtlinie erstellen und diese allen vier Benutzern zuordnen. Wenn Sie diese Richtlinie ändern müssen, können Sie sie in einer einzigen Richtlinie ändern, die für alle gilt Sie bietet Ihnen ein integriertes und zentralisiertes Änderungsmanagement. Bei diesen verwalteten Richtlinien haben Sie die vollständige Kontrolle und können die Berechtigungen auf jeder Ebene verwalten , die Sie für erforderlich halten. Der nächste und letzte Punkt ist die Inline-Richtlinie. Die Inline-Richtlinie ist direkt mit dem Benutzer oder der Gruppe verknüpft. Sie unterhält ein striktes Eins-zu-Eins-Verhältnis zu Richtlinien und Identität. Das bedeutet, dass eine Inline-Richtlinie an eine einzelne Entität angehängt ist. wird in der Regel erstellt , wenn Sie eine Identität erstellen , und gelöscht, wenn Sie die Identität löschen. Es ist von Vorteil , wenn Sie einem temporären Benutzer oder einer temporären Gruppe die Erlaubnis erteilen müssen. Sie erstellen eine Inline-Richtlinie während Sie einen Benutzer oder eine Gruppe erstellen. Und wenn Sie den Benutzer löschen, wird auch die Richtlinie gelöscht. In Ordnung, es geht so ziemlich um die Richtlinien. Lassen Sie uns kurz zusammenfassen, was wir in dieser Sitzung gelernt haben. Eine Richtlinie ist im Grunde eine Genehmigung, die entscheidet, welche Maßnahmen in Bezug auf die AWS-Konten ergriffen werden sollen Und wir lernen die verschiedenen Arten von IAM-Richtlinien kennen, denen es sich um identitätsbasierte Richtlinien und ressourcenbasierte Richtlinien Identitätsbasierte Richtlinien werden weiter in zwei Typen unterteilt: verwaltete Richtlinien und Inline-Richtlinien Verwaltete Richtlinien können von AWS oder vom Kunden verwaltet werden. 18. Best Practices von IAM: Hallo, Studierende. Willkommen zurück. In diesem Video lernen wir einige bewährte Methoden für IAM kennen, um die Sicherheit unserer AWS-Konten zu gewährleisten Lass uns anfangen. Die erste bewährte Methode für IAM besteht darin, die Weitergabe von Anmeldeinformationen zu vermeiden Anstatt Root-Benutzeranmeldedaten mit verschiedenen Benutzern in Ihrer Organisation zu teilen mit verschiedenen Benutzern in Ihrer Organisation zu Sie sollten IAM-Benutzer für Einzelpersonen erstellen , die Ihre AWS-Ressourcen nutzen werden Lassen Sie uns das anhand eines Beispiels verstehen. Angenommen, Sie haben zwei Entwickler und zwei Administratoren in Ihrem Team. Manchmal erstellen die Leute einen IM-Benutzer und teilen Benutzeranmeldeinformationen mit all diesen vier Personen. Dies ist jedoch keine gute Praxis. Stattdessen sollten wir entsprechend den Rollen dieser Teammitglieder vier verschiedene Benutzer erstellen entsprechend den Rollen dieser Teammitglieder vier verschiedene Benutzer den Rollen dieser Teammitglieder und die Benutzeranmeldeinformationen mit ihnen teilen. Das Ziel dabei ist, dass jeder Benutzer seine eigenen IAM-Anmeldeinformationen für den Zugriff auf Ihr Konto haben sollte seine eigenen IAM-Anmeldeinformationen für den Zugriff auf Ihr Konto Es spielt keine Rolle, ob sie über die Verwaltungskonsole oder über die AWS-CLI oder ein anderes SDK auf das Konto zugreifen Verwaltungskonsole oder über die AWS-CLI oder ein anderes SDK Die nächste bewährte Methode besteht darin, Gruppen zu erstellen. Es wird immer empfohlen , Gruppen zu erstellen und diesen Gruppen nur die erforderlichen Berechtigungen zuzuweisen. Das heißt, wenn es in Ihrer Organisation mehrere Benutzer mit derselben Jobrolle gibt in Ihrer Organisation mehrere Benutzer , können Sie, anstatt einzelnen Benutzern Berechtigungen zuzuweisen, anstatt einzelnen Benutzern Berechtigungen zuzuweisen, eine Gruppe erstellen, dieser Gruppe eine Berechtigung zuweisen und alle Benutzer hinzufügen, und alle Benutzer hinzufügen die dieselbe Jobrolle in der Gruppe haben Jeder Benutzer wird diese Berechtigungen annehmen. Lassen Sie uns das anhand desselben Beispiels verstehen. Angenommen, Sie haben zwei Entwickler und zwei Administratoren im Team. Anstatt diesen vier einzelnen Benutzern Berechtigungen zu erteilen , sollten Sie zwei Gruppen erstellen. Eine für die Administratoren und eine weitere für die Entwickler und fügen Sie diesen Gruppen die erforderlichen Berechtigungen hinzu. Sie können jetzt Benutzer zu ihren jeweiligen Gruppen hinzufügen. Die Benutzer übernehmen automatisch die ihren jeweiligen Gruppen zugewiesenen Berechtigungen. Diese Vorgehensweise hilft Ihnen dabei, die Berechtigungen auf Gruppenebene statt auf Benutzerebene zu verwalten die Berechtigungen auf Gruppenebene statt auf . Lassen Sie uns zur nächsten bewährten Methode übergehen, der Autorisierung. Aws empfiehlt, immer Berechtigungen für das zu erstellen , was der Benutzer entsprechend seiner Rolle benötigt. Diese Berechtigungen werden als Berechtigungen mit den geringsten Rechten bezeichnet . Wenn die Aufgabe eines Benutzers beispielsweise darin besteht, die EC Two-Instances zu starten und zu stoppen, dann sollten wir, anstatt vollen Zugriff auf EC Two zu gewähren, nur die EC-2-Instance starten und beenden. Wir sollten bei der Gestaltung von Berechtigungen immer Berechtigungen und Richtlinien mit den geringsten die Berechtigungen und Richtlinien mit den geringsten Rechten festlegen. In Zukunft ist das Auditing eine weitere bewährte Methode. Laut AWS sollten wir Cloud Trail immer in jedem einzelnen AWS-Konto aktivieren . Wenn Sie Cloud Trail nicht kennen, handelt es sich um einen AWS-Service , der mit Ausnahme des Speichers kostenlos ist. Immer wenn ein Benutzer mit Ihrem AWS-Konto interagiert, protokolliert Cloud Trail jede einzelne Aktivität, was Ihnen letztendlich bei der Prüfung helfen wird Wir werden Cloud Trail im AWS-Sicherheits - und Verwaltungsmodul ausführlich kennenlernen im AWS-Sicherheits - und Verwaltungsmodul ausführlich Lassen Sie uns das anhand eines Beispiels verstehen. Angenommen, ein Benutzer hat sich bei Ihrem AWS-Konto angemeldet, eine EC Two-Instance erstellt und diese dann beendet. AWS Cloudtrail protokolliert alle drei Aktivitäten. Auf diese Weise erhalten Sie eine Aufzeichnung aller Aktivitäten, die Benutzer in Ihrem Konto ausführen Die nächste bewährte Methode in der Liste ist das Hinzufügen von Passwortrichtlinien. Laut Aws sollten Sie immer Passwortrichtlinien konfigurieren, was wir im vorherigen Video getan haben. Passwortrichtlinien stellen sicher, dass jeder Benutzer ein sicheres Passwort hat. Die nächste bewährte Methode ist MFA, die Multi-Faktor-Authentifizierung Sie sollten immer die Multi-Faktor-Authentifizierung für privilegierte Benutzer aktivieren Multi-Faktor-Authentifizierung für privilegierte Benutzer Ich würde empfehlen, dass Sie MFA für jeden Benutzer erzwingen. Sie können eine Richtlinie erstellen und diese Richtlinie allen Gruppen zuordnen Wenn sich Benutzer jetzt bei einem AWS-Konto anmelden, müssen sie ihre Identität zweimal authentifizieren Dann können nur sie in Ihrem Konto alles tun Dies ist eine sehr gute Methode, um sicherzustellen, dass Ihr Konto und Ihre AWS-Ressourcen sicher sind. Die nächste bewährte Methode besteht darin , die Anmeldeinformationen abwechselnd zu verwenden. Jeder, der auf Ihr AWS-Konto zugreift , muss ab und zu seine Benutzeranmeldeinformationen ändern . Sie können diese Richtlinie sogar bei den Benutzern durchsetzen , sodass sie ihre Anmeldeinformationen alle zwei Monate, drei Monate oder sechs Monate wechseln müssen ihre Anmeldeinformationen alle zwei Monate, drei Monate oder sechs Monate wechseln . Dies ist ein Teil Ihrer Passwortrichtlinie in Ihrem AWS-Konto, den wir in der vorherigen Demo gesehen haben. Gemäß dieser Richtlinie müssen Benutzer nicht nur ihre Passwörter wechseln, sondern auch die Zugriffs- und Geheimschlüssel. Zu guter Letzt ist es ein Root-Benutzer. Sie sollten den Root-Benutzer nicht für Ihre täglichen Aktivitäten verwenden, da dadurch Ihre Root-Benutzeranmeldeinformationen offengelegt werden könnten. Darüber hinaus sollten Sie den Zugriff des Root-Benutzers einschränken , sobald Sie ein AWS-Konto haben, die Root-Benutzeranmeldedaten an einem privaten Ort speichern und einen IAM-Benutzer erstellen, auch für sich selbst Liebe Schüler, ich hoffe, dass Sie jetzt verstehen , dass die Kontosicherheit ein echtes Problem ist und Sie sollten diese Methoden anwenden , um Ihr Konto vor allen möglichen Bedrohungen zu schützen Das ist alles für dieses Video. 19. Überblick über Amazon S3: Willkommen zurück. In diesem Video erfahren wir mehr über einen der wichtigsten AWS-Services, den Simple Storage Service, bekannt als S Three. Wir beginnen mit der Übersicht über S Three. Verstehe den S-Drei-Bucket und auch den Ordner. Beginnen wir mit dem, was S3s3 für Simple Storage Service steht Wie Sie die ersten Zeichen von Simple Storage Service RS sehen können , heißt es deshalb S drei. Es ermöglicht Ihnen, jede Datenmenge zu jeder Zeit von überall im Internet zu speichern , abzurufen, darauf zuzugreifen und zu sichern Datenmenge zu jeder Zeit von überall im Internet S Three ist eine perfekte Speicherlösung für die Speicherung großer Datenmengen Zum Beispiel Audiodateien, Filme, große Fotospeicher, große Datensätze usw. Wir können entweder über die Managementkonsole, die AWS-CLI oder das AWS-SDK auf S Three zugreifen AWS-CLI oder das AWS-SDK Lassen Sie uns nun darüber sprechen, wie wir Daten in S Three speichern. Um Daten in S Drei zu speichern, müssen wir einen Bucket in einem AWS-Konto erstellen. Ein S Three-Bucket ist ein logischer Container , in dem Daten in S Three gespeichert werden. Um Daten in S Drei zu speichern, müssen wir einen Bucket erstellen. Wir können auch mehrere Buckets erstellen, um unsere Daten zu organisieren. Der Bucket wird anhand seines Namens identifiziert und sollte in allen Regionen und Konten weltweit einzigartig Wenn ich beispielsweise einen Bucket erstelle und ihn meinen Bucket nenne, kann ihn niemand sonst in einem AWS-Konto verwenden. Mit anderen Worten, sobald ein S Three-Bucket erstellt wurde, kann kein anderes AWS-Konto den S Three-Bucket mit einem ähnlichen Namen erstellen. S Three Bucket dient einfach als Speicher, in dem wir unbegrenzt viele Daten entweder direkt im Bucket speichern unbegrenzt viele Daten entweder direkt im oder einen Ordner erstellen und die Daten dann in diesen Ordner legen können. Lassen Sie uns nun verstehen , was ein Ordner ist. Ordner werden zum Gruppieren und Organisieren von Dateien verwendet. Im Gegensatz zu einem herkömmlichen Dateisystem Amazon S Three keine verwendet Amazon S Three keine Hierarchie, um seine Dateien zu organisieren Aus Gründen der organisatorischen Einfachheit unterstützt die Amazon S Three-Konsole das Ordnerkonzept als Mittel zur Gruppierung von Daten Sie können mehrere Ordner oder Dateien in einem einzigen Bucket Im Grunde ist der Ordner ein Namensraum innerhalb des Buckets. Lassen Sie uns das anhand eines Beispiels verstehen. Innerhalb des AWS-Kontos haben wir einen S Three-Service. In diesem Service können wir Buckets erstellen, wie wir bisher gelernt haben In diesem Bucket können wir unsere Dateien, Bilder, Videos oder Daten speichern Bilder, Videos oder Daten Wenn wir unsere Daten organisieren möchten, können wir außerdem Ordner innerhalb des Buckets und auch Ordner in Ordnern erstellen . Dann können wir unsere Daten auch in diesen Ordnern speichern. Es wird sinnvoller sein, wenn wir die Demo in der nächsten Lektion machen werden. Ein weiteres wichtiges Konzept in S Drei ist Objekt. Wenn wir Daten speichern, bei denen es sich um Dateien, Dokumente, Bilder, Videos usw. handeln könnte , werden sie in AWS als Objekte bezeichnet Daher ist das Objekt nichts anderes als Ihr Dateidokument, Bild, Video usw. Alles, was sich auf Ihrer Festplatte befindet, wird als Datei bezeichnet. Aber wenn Sie diese Datei in S drei hochladen, wird sie als Objekt bezeichnet. Und der Bucket in S Drei ähnelt dem Dateiverzeichnis auf Ihrer Festplatte. Jetzt werden wir über die Eigenschaften von Objekten sprechen , die Sie kennen müssen. Die maximale Größe eines einzelnen Objekts, das Sie auf S Three hochladen können, beträgt 5 Terabyte Bitte beachten Sie, dass fünf Terabyte nicht der Größe der Gesamtdaten entsprechen, die Sie hochladen können Stattdessen ist es die maximale Größe einer einzelnen Datei, die Sie mit S three hochladen können heißt aber nicht, dass Sie keine Objekte hochladen können , die größer als 5 Terabyte Wenn Sie ein Objekt haben, das größer als 5 Terabyte ist, müssen Sie es in mehrere Teile aufteilen und dann einen sogenannten mehrteiligen Upload verwenden einen sogenannten mehrteiligen Die maximale Objektgröße beträgt 5 Terabyte, aber Sie müssen einen mehrteiligen Upload verwenden, sobald Sie ein Objekt mit einer Größe von mehr als 5 Terabyte hochladen Ein weiteres Merkmal ist die Verschlechterung des Objekts. Es ist nichts anderes, als mehrere Varianten desselben Objekts beizubehalten , wenn wir einige Änderungen daran vornehmen In S3 können Sie Objekte verwenden, um sie vor unbeabsichtigten Aktionen oder sogar vor dem versehentlichen Löschen eines Objekts zu schützen unbeabsichtigten Aktionen oder sogar vor dem versehentlichen Löschen eines Objekts Das bedeutet, dass Sie immer die vorherigen Versionen eines Objekts behalten Das nächste Merkmal ist die Speicherklasse. Sie können mehrere Buckets erstellen und diese in verschiedenen Datenklassen oder Datenreihen speichern diese in verschiedenen Datenklassen oder Datenreihen Klassen handelt es sich um unterschiedliche Speicherebenen mit unterschiedlichen Kosten, je nachdem wie häufig Sie Ihre Daten verwenden Sie können eine Klasse wählen, wenn Sie Ihre Daten nicht häufig verwenden, Sie können eine günstigere Klasse wählen und Ihre Daten dort belassen und so weiter. Wir werden in Kürze ausführlich darüber sprechen. guter Letzt können Sie dann Berechtigungen erstellen, um einzuschränken, wer auf Ihre Objekte zugreifen oder sie sehen kann. Eine der gängigsten Richtlinien in der Bucket-Richtlinie ist eine ressourcenbasierte Richtlinie , mit der Sie Ihrem Bucket und seinen Objekten Berechtigungen gewähren können . In dieser Sitzung haben wir uns die drei Bucket-Ordnerobjekte und ihre Eigenschaften angesehen die drei Bucket-Ordnerobjekte . 20. S3 Verfügbarkeit, Haltbarkeit und Datenreplikation: Hallo Studierende. Willkommen zurück. In diesem Video werden wir drei wichtige Konzepte verstehen : Verfügbarkeit, Beständigkeit und Datenreplikation, die in der nächsten Sitzung häufig verwendet werden. Sie uns zunächst die verschiedenen Speicherklassen verstehen Lassen Sie uns zunächst die verschiedenen Speicherklassen verstehen und zunächst mit der Verfügbarkeit beginnen. Es bezieht sich auf die Systembetriebszeit. Dies bedeutet einfach, wie lange das System verfügbar ist. Mit anderen Worten, es ist die Zeit, für die das System betriebsbereit ist und Daten auf Anfrage liefern kann. Wir messen diese Verfügbarkeit in Prozent. Dies wird auch als SLA bezeichnet, was für Service Level Agreement steht Es ist im Grunde ein Versprechen , das Dienstleister ihren Kunden gegenüber hinsichtlich der Verfügbarkeit ihrer Dienste oder Systeme haben ihren Kunden gegenüber hinsichtlich der Verfügbarkeit ihrer Dienste oder Systeme Wenn sie ihr Versprechen einhalten und Kunden alles innerhalb der versprochenen Zeit erhalten, bedeutet das, dass das SLA erfüllt ist Nehmen wir ein Beispiel. Supermärkte sagen, dass sie rund um die Uhr geöffnet haben. Das bedeutet, dass es rund um die Uhr für Sie verfügbar ist. Wenn sie ihr Versprechen halten und den ganzen Tag, die Woche, den Monat und das Jahr über geöffnet haben, können wir sagen, dass ihre Verfügbarkeit zu 100% ist und sie die SLA erfüllen Das nächste Konzept ist Haltbarkeit. Es bezieht sich auf langfristigen Datenschutz. Das bedeutet einfach, wie gut Ihre Daten vor möglichen Verlusten oder Beschädigungen geschützt sind. Zusätzlich zur Verfügbarkeit sollten Ihre Daten nicht verloren gehen oder beschädigt werden wenn Sie sie für längere Zeit auf einem Speichergerät speichern. Die Haltbarkeit wird auch in Prozent gemessen. Lassen Sie uns das anhand eines Beispiels verstehen. Angenommen, Sie haben 1.000 Kilogramm Kartoffeln sechs Monate lang im Kühlhaus gelagert . Als Sie sie zurückhatten, waren es nur 800 kg Das bedeutet, dass entweder 200 kg Kartoffeln verdorben oder von Ratten gefressen wurden, Das heißt, der Kühlhaus-Service war nicht dauerhaft. Wenn Sie das nächste Mal darauf achten, Kartoffeln in einem gut ausgestatteten Kühlhaus zu lagern, wird es keinen Verlust geben. Das nennt man Haltbarkeit. Jetzt wissen wir, was Datenbeständigkeit und Verfügbarkeit sind. Es ist auch wichtig zu wissen, wie Daten in S drei gespeichert werden. Es basiert auf einem Konzept namens Datenreplikation. Lasst uns das verstehen. Wenn Sie sich an das letzte Labor erinnern, haben wir in der Region Mumbai einen S-3-Bucket erstellt und ein Bild hochgeladen. Wenn Sie Daten aus Ihrem Bucket hochladen, werden diese Daten in eine der Availability Zones in der Region übertragen. In unserem Fall haben wir einen Bucket in der Region Mumbai erstellt. Unser Bild wurde in eine der Verfügbarkeitszonen hochgeladen. Um unsere Daten zu schützen, erstellt AWS jedoch zusätzliche Kopien unserer Daten und repliziert sie in anderen Availability Zones Die Daten werden in allen verfügbaren Jones innerhalb derselben Region gespeichert und repliziert in allen verfügbaren Jones innerhalb derselben Nun stellt sich die Frage: Warum macht AWS das? Hier müssen wir uns daran erinnern, dass AWS Datenbeständigkeit von 11 Nines versprochen hat Es bedeutet einfach, dass AWS 99 zusätzliche 9 Punkte verspricht, Garantie von 9% für die Datenbeständigkeit AWS garantiert keine hundertprozentige Datenbeständigkeit, aber laut eigenen Angaben besteht eine zusätzliche Wahrscheinlichkeit von 99 Punkten von neun, 9%, dass Ihre Daten nicht verloren gehen. Wie stellt AWS sicher, dass beim Hochladen von Daten innerhalb von S Three keine Verluste entstehen AWS verwaltet Kopien unserer Daten in allen Verfügbarkeiten Jones in derselben Region Im Falle eines Datenverlusts stellen sie die Daten aus anderen Verfügbarkeitszonen in der verlorenen Zone wieder her. Auf diese Weise sind Daten immer in allen Verfügbarkeitszonen einer Region vorhanden. Und das ist der Grund, warum er im Extremfall eine Haltbarkeit von 119% verspricht. Wenn eine Verfügbarkeitszone ausfällt, sind unsere Daten weiterhin in anderen Verfügbarkeitszonen dieser bestimmten Region verfügbar. Okay. Dies ist einer der wesentlichen Vorteile der Verwendung von Amazon S Three. Dies ist ein einfaches Beispiel dafür , wann wir neue Daten hochladen. Lassen Sie uns nun verstehen , was passiert, wenn wir Änderungen an unseren Daten vornehmen. Angenommen, dieses Bild ist seit drei Jahren verfügbar und wir haben die Farbe dieses Bilds geändert und es hochgeladen. Dann aktualisiert AWS automatisch die verbleibenden zwei Kopien Ihrer Daten. In anderen Jones gilt das Gleiche auch für das Löschen. Wenn Sie Ihre Daten aus One Joe löschen, werden sie aus allen Verfügbarkeitszonen in der Region gelöscht . Den Studierenden war bewusst, dass Daten dauerhaft verfügbar sind und AWS dank Datenreplikation 11 Monate Datenbeständigkeit verspricht Datenreplikation 11 Monate Datenbeständigkeit Das ist alles für diese Sitzung. 21. Speicherklassen: Hallo, Schüler. Willkommen zurück. In diesem Video werden wir verschiedene Speicherklassen verstehen. Diese Sitzung wird voller Fakten sein. Ich empfehle Ihnen allen, sich Notizen zu machen. Wir haben im Ressourcenbereich einige ergänzende Lernressourcen hinzugefügt. Bitte stellen Sie sicher , dass Sie sie optimal nutzen. Lass uns anfangen. In einem der vorherigen Videos haben wir das Bild in einem Amazon S Three Bucket gespeichert. Beim Hochladen des Objekts haben wir festgestellt, dass die Speicherklassen unter den Eigenschaften angezeigt wurden Aws bietet verschiedene Optionen , um unsere Daten in der Cloud zu speichern Diese Optionen werden als Speicherklassen bezeichnet. Wir können jede Klasse auswählen, je nachdem wie oft wir auf unsere Daten zugreifen. Diese drei Speicherklassen wurden speziell entwickelt, um den kostengünstigsten Speicher für unterschiedliche Zugriffsmuster bereitzustellen . Das bedeutet, dass verschiedene Arten von Speicherklassen so konzipiert sind , dass sie unterschiedliche Zwecke beim Speichern von Daten erfüllen. Cloud-Techniker für Studierende, es ist sehr wichtig, diese Kurse zu verstehen, da sie Ihnen Zeit und Geld sparen können. Lasst uns sie eins nach dem anderen verstehen. Der erste ist der S-Drei-Standard. Es handelt sich um eine Allzweck-Speicherklasse für Daten verwendet wird, auf die häufig zugegriffen wird. Sie bietet eine hohe Haltbarkeit, Verfügbarkeit und Leistung. Der Standard S Three ist auf eine Verfügbarkeit von 99,999% und eine Haltbarkeit von 11 9% ausgelegt Verfügbarkeit von 99,999% und eine Haltbarkeit von 11 9% Mit anderen Worten, sie machen nur 0,001% aus, wenn Ihre Daten verloren gehen könnten und so weiter Es bietet Ihnen eine geringe Latenz und einen hohen Durchsatz und kann bis zu zwei gleichzeitige Anlagenausfälle aushalten Das heißt, wenn zwei Availability Junes Probleme haben, Ihre Daten trotzdem sicher, da sie eine geringe Latenz und einen hohen Durchsatz Drei-Standard eignet sich für eine Vielzahl von Anwendungsfällen wie Cloud-Anwendungen, dynamische Websites, Inhaltsverteilung, Mobil- und Spieleanwendungen Big-Data-Analysen Die nächste ist die Speicherklasse mit seltenem Zugriff. Wie der Name schon sagt, wird diese Speicherklasse für Daten verwendet , auf die seltener zugegriffen Daten, auf die Sie nur ab und zu zugreifen haben. Sie möchten aber auch, dass diese Daten sofort verfügbar sind, wann immer Sie sie benötigen . Sie müssen verfügbar sein, sobald Sie sie anfordern. In diesem Fall können Sie die Speicherklasse für seltenen Zugriff verwenden Es ist auf eine Verfügbarkeit von 99,9% und eine Haltbarkeit von 11% ausgelegt Verfügbarkeit von 99,9% und eine Haltbarkeit von 11% Verfügbarkeit seltener Kurse ist niedriger als der S-3-Standard , da wir nicht sehr häufig auf unsere Dateien zugreifen Er ist günstiger als der Amazon S Three Standard. Wenn wir jedoch auf die Dateien zugreifen, zahlen wir eine Abrufgebühr pro GB Das ist das A und O in diesem Kurs. Wir zahlen weniger für die Speicherung , müssen aber bei jedem Zugriff auf unsere Daten eine Abrufgebühr zahlen jedem Zugriff auf unsere Daten eine Abrufgebühr Diese Kombination aus niedrigen Kosten und hoher Leistung macht S Three Standard Infrequent Access zur idealen Lösung für Langzeitspeicherung, Backup und Disaster Recovery Unsere Daten dieser Klasse sind auch widerstandsfähig gegen den Ausfall einer gesamten Availability Zone Als Nächstes haben wir eine Zone, auf die nur selten zugegriffen wird. Dies ist der Klasse für seltenen Zugriff sehr ähnlich, der einzige Unterschied besteht jedoch darin, dass in einer Zone mit seltenem Zugriff die Daten in einem einzigen Verfügbarkeits-Joe gespeichert werden, wohingegen sie in der Klasse für seltenen Zugriff in mindestens drei Verfügbarkeitszonen gespeichert werden Im Grunde sind Ihre Daten weniger verfügbar, da sie nur in einer Verfügbarkeit, nämlich im Juni, vorliegen Das Beste daran ist , dass Sie immer noch eine geringe Latenz und eine hohe Durchsatzleistung haben . Da die Daten im Juni nur einmal gespeichert werden, sind sie zudem 20% günstiger als bei seltenem Zugriff Die Zone S31 mit seltenem Zugriff ist ideal für Kunden, die eine kostengünstigere Option für häufig abgerufene Daten benötigen , aber nicht auf die Verfügbarkeit und Belastbarkeit von S-3-Standard oder S3-Standardzugriff angewiesen Dies ist eine gute Option für die Speicherung sekundärer Sicherungskopien von Daten vor Ort oder von Daten , die einfach erstellt werden können Auch hier können Sie die regionsübergreifende S-3-Replikation verwenden , um Daten, die aus einer anderen AWS-Region repliziert wurden, kostengünstig zu speichern aus einer anderen AWS-Region repliziert wurden Das nächste ist S Three Intelligent Tiring. Wie der Name schon sagt, verfügt diese Speicherklasse über eine integrierte Intelligenz , die Daten anhand ihres Zugriffsmusters automatisch auf die kostengünstigste Zugriffsebene verschiebt auf Hier gibt das Zugriffsmuster an, wie häufig auf eine Datei zugegriffen wird Hier werden die Objekte automatisch von einer Speicherklasse in eine andere verschoben , basierend auf den sich ändernden Zugriffsmustern dieser Objekte Infolgedessen werden Daten mit häufigem Zugriff in den Speicher mit häufigem Zugriff verschoben, und Daten, auf die selten zugegriffen wird, werden durch intelligentes S3-Tiering in die richtige Kategorie verschoben intelligentes S3-Tiering in die richtige Kategorie Er hat dieselbe niedrige Latenz und dieselbe hohe Durchsatzleistung wie der S Three-Standard Dies ist jedoch in hohem Maße kostenoptimiert. Wenn Daten beispielsweise in die Klasse mit seltenem Zugriff verschoben werden, können bis zu 40% der Speicherkosten eingespart Durch die Umstellung auf die Klasse Glacier können bis zu 68% der Speicherkosten eingespart werden Es ist außerdem auf eine Haltbarkeit von 119% und eine Verfügbarkeit von 99,9% über ein bestimmtes Jahr bei mehrfacher Verfügbarkeit ausgelegt Verfügbarkeit von 99,9% über ein bestimmtes Jahr bei mehrfacher Verfügbarkeit Jos, als Nutzer dieses Dienstes müssen Sie nur eine geringe monatliche Gebühr für Überwachung und automatische Reifung zahlen . Auf diese Weise erhalten Sie die größtmögliche Kostenoptimierung ohne zu viel darüber nachzudenken Es ist auch widerstandsfähig gegen Ereignisse, die sich auf die gesamte Verfügbarkeit auswirken können. Joe. Jetzt ist die nächste Speicherklasse Glacier Amazon S Three. Glacier ist die kostengünstigste Speicherklasse in S3 und unterstützt die langfristige Aufbewahrung und digitale Aufbewahrung von Daten, auf die ein - oder zweimal pro Jahr zugegriffen wird. Es ist hilfreich für Kunden, insbesondere für Kunden aus stark regulierten Branchen wie Finanzdienstleistungen, Gesundheitswesen und dem öffentlichen Sektor. Diese Branchen speichern Datensätze für einen Zeitraum von sieben bis zehn Jahren oder länger, um die gesetzlichen Anforderungen zu erfüllen. Es ist für eine Haltbarkeit von Objekten bis 119 in mehreren Verfügbarkeitszonen konzipiert . Wie der Name schon sagt, erwarten Sie, dass Ihre Daten eingefroren werden, was bedeutet, dass sie für einen längeren Zeitraum aufbewahrt werden . Das bedeutet, dass die Gültigkeit des Objektabrufs sehr lang ist. Jetzt unterstützt AWS in Zukunft drei Arten von Gletschern für unterschiedliche Zugriffsmuster Lassen Sie uns nun schnell verschiedene Gletschertypen vergleichen. Amazon S drei, sofortiges Abrufen von Gletschern. Drittens bietet Glacier Instant Retrieval eine Abrufzeit in Millisekunden bei derselben Leistung wie S Three Standard Amazon Three, Glacier Flexible Retrieval derselben Leistung wie S Three Standard Amazon Three Standard Amazon Bei Glacier Flexible Retrieval die Abrufzeit zwischen Minuten und Stunden kann die Abrufzeit zwischen Minuten und Stunden konfiguriert werden. kostenlose Massenabruf Der kostenlose Massenabruf eignet sich am besten für Sicherungs- und Notfallwiederherstellungsszenarien, in denen große Datenmengen schnell und kostengünstig abgerufen werden müssen schnell und kostengünstig abgerufen werden Amazon Es hat drei Glacier Deep Archive. Im Tri Glacier Deep Archive liegt die Abrufzeit von Daten innerhalb von 12 Stunden Es handelt sich um die kostengünstigste Speicherklasse, die für die langfristige Aufbewahrung von Daten konzipiert langfristige Aufbewahrung von Daten , die sieben bis zehn Jahre aufbewahrt werden Es ist eine ideale Alternative zu Magnetbandbibliotheken. Liebe Schüler, ich hoffe, Sie verstehen jetzt den Speicherunterricht. Falls Sie Zweifel haben, empfehle ich Ihnen, diese Sitzung noch einmal durchzugehen. 22. S3 Bucket-Demo: Willkommen zurück. In dieser Demositzung erfahren wir, wie Sie einen S-Bucket Holder mit drei Schläuchen erstellen und Daten in ihn hochladen. Gehen wir zur AWS-Managementkonsole. Denken Sie daran, dass wir zuerst die AWS-Region auswählen müssen . Ich werde die Region Mumbai auswählen. Danach gehen wir zur S Three-Konsole. Es gibt drei Möglichkeiten den S Three-Dienst in der Konsole zu finden. Die erste Methode besteht darin, im Suchfeld nach S drei zu suchen . Im Ergebnis erhalten wir S drei. Die zweite Methode besteht darin, die S drei im Menü „ Alle Dienste“ zu finden . Erweitern Sie einfach das Menü, suchen Sie den S three-Dienst und klicken Sie, um ihn zu öffnen. Wenn Sie S Three zuvor in Ihrem Konto verwendet haben, wird dieser schließlich S Three zuvor in Ihrem Konto verwendet haben, unter den kürzlich besuchten Diensten aufgeführt. Geben wir hier S drei ein und klicken Sie, um zu bestätigen. Wenn wir zum ersten Mal auf der S Three-Konsole ankommen, sehen wir eine Liste der Buckets innerhalb des AWS-Kontos Da S Three einen globalen Namespace verwendet, müssen Sie bei der Verwendung der Konsole keine Region auswählen bei der Verwendung der Konsole keine Region Wenn Sie jetzt nachdenken, warum haben wir die Region ausgewählt? Es gibt also einen globalen Service. Nun, es ist eine gute Praxis, jedes Mal, wenn Sie in Ihrem Konto arbeiten, die richtige Region auszuwählen Mal, wenn Sie . Es spielt keine Rolle, ob der Dienst regionsabhängig ist. Lassen Sie uns nun weitermachen und einen S-Drei-Bucket erstellen. Klicken Sie dazu auf Create Bucket und wählen Sie einen Namen. Eine Sache, die Sie hier beachten sollten , ist , dass der Bucket-Name eindeutig sein sollte. Um diesen Namen einzigartig zu machen, fügen wir am Ende einige Zufallszahlen hinzu. Jetzt gibt es einige Regeln, die wir bei der Benennung von Buckets beachten müssen Die erste Regel besagt , dass der Bucket-Name 3-63 Zeichen lang sein sollte Zweitens muss der Name ein niedrigeres Klappern, Zahlen, Punkte und Er sollte entweder mit einem Buchstaben oder einer Zahl beginnen und enden. Schließlich sollte Ihr Bucket-Name in AWS eindeutig sein. Wählen Sie die Region aus, in der Ihr Bucket erstellt werden soll, Sie die restlichen Standardeinstellungen bei und erstellen Sie den Bucket. Jetzt wurde der Bucket erstellt, und es hat nicht länger als eine Sekunde gedauert. Auf dieser Seite können Sie den Bucket-Namen, die Region, in der Sie den Bucket erstellt haben, und den Zugriff auf das Bucket-Objekt sehen Region, in der Sie den Bucket erstellt haben . Gehen wir nun zum Bucket. Jetzt können Sie hier die verschiedenen Tabs sehen , darunter Eigenschaften, Berechtigungen, Metriken, Verwaltung und Zugriffspunkte. Hier ist das Objekt in diesem Bucket. Dies ist der Ort, an dem wir unsere Dateien hochladen. Wie wir in der letzten Sitzung gelernt haben, können wir entweder Objekte in den S-3-Bucket hochladen oder wir können auch Ordner innerhalb des Buckets erstellen , um unsere Daten zu organisieren. Lassen Sie uns weitermachen und einen Ordner erstellen und ihn als Demo benennen. Jetzt können wir unser Objekt in den Bucket oder diesen Ordner hochladen . Lass uns auf Upload klicken. Hier haben wir zwei Möglichkeiten. Entweder können wir Dateien hochladen oder Ordner hochladen. Wir werden hier eine Datei hochladen. Klicken Sie auf Dateien hinzufügen. Hier können wir einige zusätzliche Einstellungen an unserem Objekt vornehmen. Klicken Sie einfach auf Eigenschaften und Sie werden die Speicherklasse sehen. Es ist standardmäßig Standard. Wir werden dies bald in diesem Modul ausführlich behandeln. Lassen Sie uns das vorerst behalten und auf Hochladen klicken. Jetzt wurde unsere Datei erfolgreich hochgeladen. Ich werde den Vorgang beenden, indem ich auf Schließen klicke. Jetzt habe ich ein Objekt, meinen S Three Bucket mit dem Namen Demo Dot JPG. Wenn wir auf unser Objekt Demo-JPG klicken , gelangen wir zum Objekt-Dashboard, wo wir die Rechte und die Version der Objekteigenschaften sehen . Gehen wir zur Registerkarte Eigenschaften. Hier finden wir alle Details zu unserem Objekt. Zum Beispiel, wer der Eigentümer des Objekts ist, in welche Region das Objekt hochgeladen wird und wann das Objekt zuletzt geändert wurde, die Größe des Objekts, der Typ-Objektschlüssel, die URL, das Amazon-Ressourcennamen-Tag und hier ist die Objekt-URL. Es ist der Link zur Datei. Wir können es öffnen, indem wir darauf klicken, aber lassen Sie uns es in einem neuen Tab öffnen. Wie Sie sehen können, wurde mir der Zugriff verweigert, weil dieser Bucket nicht öffentlich ist. Und ich habe nicht das Recht , auf dieses Objekt zuzugreifen. Wenn der Bucket nicht öffentlich ist und Sie versuchen, die Datei mit ihrer öffentlichen URL zu öffnen , wird sie nicht geöffnet. Gehen wir nun zurück zum Objekt-Dashboard. Wir haben eine andere Möglichkeit, dieses Objekt zu öffnen , indem wir einfach auf Öffnen klicken. Es öffnet sich ein neuer Tab und zeigt uns unser Demo-Bild. Jetzt denken Sie bestimmt, warum funktioniert das, auch wenn der Bucket nicht öffentlich ist? Nun, wenn wir ein Objekt durch Öffnen öffnen, wird es geöffnet, weil es sich um eine eindeutige URL handelt. Wie Sie sehen können, ist die URL viel, viel länger und ähnelt keiner öffentlichen URL. Dies ist eine spezielle URL für mich als Besitzer dieses Objekts. Ich bin berechtigt, über diese URL auf dieses Objekt zuzugreifen. Das Letzte, was ich Ihnen zeigen wollte, ist, wie man ein Objekt aus S Drei löscht. Dafür gehe ich zurück zum Bucket, wähle das Objekt aus und klicke dann auf Löschen. Hier müssen Sie Löschen eingeben , um zu bestätigen, dass Sie das Objekt löschen möchten, dann Objekt löschen Dadurch wird dieses Objekt dauerhaft gelöscht. Liebe Studierende, ich hoffe, dass Sie jetzt Vertrauen in S 3 und seinen Umfang haben . In dieser Sitzung haben wir eine Demo gesehen, in der wir einen S-Three-Bucket Holder erstellt, Objekte erfolgreich hochgeladen und sie gelöscht haben . Machen Sie jetzt weiter und machen Sie es selbst. 23. Übersicht über EBS (Elastic Block Storage): Hallo Studierende. Willkommen zurück. In diesem Video erfahren Sie mehr über eine der Speicheroptionen für EC Two-Instances, den Elastic Block Storage, auch bekannt als EBS Wir beginnen mit der Definition und den Grundlagen von EBS gefolgt von seinen Anwendungsfällen und Typen. Lass uns anfangen Amazon EBS ist wie eine Festplatte in der Cloud, die persistenten Blockspeicher für Amazon EC Twin Stances bereitstellt . EBS-Speicher wird in der AWS-Terminologie als EBS-Volumes bezeichnet AWS-Terminologie als EBS-Volumes Daher werden wir es von nun an EBS-Volume nennen. Sie können EBS-Volumes an Ihre EC Twin Stances anhängen und auf diesen Volumes ein Dateisystem erstellen auf diesen Volumes ein Dateisystem Wenn Sie eine Datenbank oder einen Server darauf ausführen oder sie auf andere Weise verwenden, würde ein Blockspeicher verwendet werden Aber was ist Blockspeicher? Es ist eine Technologie , die Daten in Blöcke zerlegt und sie als separate Teile speichert Jeder Datenblock erhält eine eindeutige Kennung, die es einem Speichersystem ermöglicht, die kleineren Daten dort zu platzieren die kleineren , wo es am bequemsten ist Ein Blockspeicher-Volume funktioniert ähnlich wie eine Festplatte. Sie können beliebige Dateien darauf speichern oder sogar ein ganzes Betriebssystem installieren. Ebs Volume ist ein an das Netzwerk angeschlossenes Laufwerk. Was bedeutet das? Nun, das bedeutet, dass das EBS-Volume nicht wirklich an Ihre C-to-Instance angehängt ist, sondern physisch über ein Netzwerk innerhalb von AWS Da es über eine Netzwerkverbindung angeschlossen ist, EBS-Volume problemlos angeschlossen oder getrennt werden Für C-2-Instances bedeutet dies, dass Sie Ihr EBS-Volume von einer laufenden Instance auf eine andere verschieben können und die Änderung innerhalb weniger Sekunden erfolgt Sie können sich EBS als eine Computerfestplatte vorstellen , die an eine beliebige, von einer Instanz getrennte Instanz angeschlossen und sofort über das Netzwerk wieder mit einer anderen Instanz verbunden werden kann beliebige, von einer Instanz getrennte Instanz angeschlossen und sofort über das Netzwerk wieder mit einer anderen Instanz verbunden einer anderen Instanz Nun stellt sich hier die Frage, warum dies als elastischer Blockspeicher bezeichnet wird Wenn Sie ein EBS-Volume bereitstellen, müssen Sie dessen Größe und IOPS definieren Iops bedeutet einfach Eingabe-Ausgabe-Operationen pro Sekunde. Sie müssen AWS mitteilen, dass Sie ein EBS-Volumen von beispielsweise 100 B benötigen, das 1.000 IOPs, also 1.000 Eingabe-Ausgabe-Operationen pro Sekunde, ausführen kann 1.000 Eingabe-Ausgabe-Operationen pro Sekunde, Aber nur weil Sie definieren, dass EBS 100 GB groß ist, heißt das nicht, dass Sie bei einem 100-GB-Laufwerk feststecken Sie können die Größe oder die IOPS-Kapazität von EBS-Volumes jederzeit gemäß Ihren Anforderungen ändern von EBS-Volumes jederzeit gemäß Ihren Anforderungen Das ist die Elastizität , die EBS bietet, und aus diesem Grund ist EBS ein elastischer Blockspeicher und nicht nur ein Blockspeicher Schauen wir uns nun einige EBS-Funktionen an. Ein wichtiger Punkt, den Sie bei EBS beachten sollten, ist, dass es nur an eine C-2-Instanz angehängt werden kann Sie können nicht zwei C Two-Instances mit einem einzigen EBS-Volume verbinden AWS hat jedoch kürzlich eine Funktion veröffentlicht, mit der ein IOPS-SSD-EBS-Volume an IOPS-SSD-EBS-Volume angehängt werden kann In diesem Kurs müssen wir nicht ins Detail gehen. Im Wesentlichen ist EBS ein Netzlaufwerk , das von einer Instanz zur anderen verschoben werden kann Dieser Prozess hat jedoch eine Einschränkung. EBS-Volumes sind auf eine Availability Zone beschränkt . Das bedeutet, dass die EBS-Volumes zwar schnell von einer Instance auf eine andere verschoben werden können, aber nicht innerhalb der Availability Zone verschoben werden können Beispielsweise kann ein EBS-Volume in der Availability Zone P, South One A, nicht an eine EC Two-Instance in AP South One B angehängt werden . Es kann nur zwischen Instances in AP South One A verschoben werden Wenn Sie jedoch EBS-Volumes von einer Availability Zone in eine andere verschieben möchten , müssen Sie einen Snapshot davon erstellen. In einem Bonusthema werden wir mehr über Schnappschüsse erfahren. Arten von EBS-Volumes. Lassen Sie uns weitermachen und die verschiedenen Arten von EBS-Volumes verstehen die verschiedenen Arten von EBS-Volumes Nehmen wir hier ein Beispiel. Eines der wichtigen Kriterien beim Kauf eines neuen Laptops ist Speicherplatz, oder? Wenn Sie über Computerspeicher sprechen, damit Festplatten gemeint. Ihre Computerfestplatten können von verschiedenen Typen sein, wie SSD, HDD usw. In ähnlicher Weise wird das EBS-Volumen auch in sechs Typen eingeteilt. Allzweck-SSD, GP zwei und GP drei. Vicent IOPSSD, I 01 und I 02 durch optimierte SD: eine HDD, Old HDD S, eine HDD Eine Sache, die hier zu beachten ist, ist, dass werden können all diesen Typen nur die SSDs als Systemstartvolume verwendet Startvolume ist das Volume , das das Betriebssystem enthält Aws erlaubt nur die schnellen SSDs als Startvolume. Das ist alles, was wir über EBS und den EBS-Volumetyp wissen müssen. 24. Übersicht über EFS (Elastic File System): Hallo Studierende. Willkommen zurück. In diesem Video erfahren Sie mehr über eine der Speicheroptionen von EC Two Instances, das elastische Dateisystem, auch bekannt als EFS. Wir beginnen mit den Grundlagen und einer kurzen Beschreibung von EFS, gefolgt von seinen Anwendungsfällen. Lassen Sie uns also anfangen. Was ist das Dateisystem? Bevor Sie verstehen, was EFS ist, sollten Sie wissen, was ein Dateisystem ist. Ein Dateisystem definiert, wie Dateien auf einem beliebigen Speichergerät benannt , gespeichert, gelesen und verwendet werden . Es ist auf jedem Speichergerät installiert, unabhängig davon, ob es sich um ein Festplattenlaufwerk oder eine CD handelt. Jedes Mal, wenn Sie eine Operation an einer Datei auf Ihrem Computer ausführen , z. B. Ihre Betriebssysteme bearbeiten, löschen oder lesen, verarbeitet das Dateisystem diese. Speicher ist einfach ein riesiger Datenblock. Ohne ein Dateisystem, denn ohne ein Dateisystem weiß das Betriebssystem nie, das Betriebssystem nie, wo es nach Ihren Daten suchen muss Stellen Sie sich einen Lagerraum voller Dokumente und Seiten vor, die überall verstreut sind. Sie können nicht erkennen, welche Seiten sich auf welche Seiten beziehen , die zu demselben Ordner gehören, oder? Es sind nur zufällig verstreute Daten. So wird ein Speichergerät ohne Dateisystem aussehen. Im Vergleich dazu ist eine Bibliothek ein reales Beispiel ein Dateisystem, in dem jedes Dokument organisiert ist. Als ob eine Bibliothek ein System hat. Ihr Betriebssystem hat ein Dateisystem , das der Computer ist, auf dem Sie Ihre Dateien finden. Betriebssysteme verfügen über ein branchenübliches Dateisystem , das als Teil Ihres Betriebssystems verwaltet wird. Es ist Ihnen jedoch jederzeit möglich , Ihr eigenes Dateisystem für Anwendungen zu erstellen. Sie nun wissen, was ein Dateisystem ist, lassen Sie uns über EFS sprechen. Amazon EFS ist ein Cloud-basierter Dateispeicherdienst. Wie der Name schon sagt, handelt es sich um eine skalierbare Speicherlösung , die automatisch wächst und Hinzufügen und Entfernen von Dateien automatisch wächst und AWS nicht anweisen muss, , die automatisch wächst und beim Hinzufügen und Entfernen von Dateien automatisch wächst und AWS nicht anweisen muss, ein Dateisystem mit 100 GB oder 200 GB zu erstellen . Sie erstellen einfach ein EFS und es wächst und schrumpft, Sie erstellen einfach ein EFS und es wächst und wenn Sie Dateien hinzufügen oder Dadurch wird sichergestellt, dass Ihr EFS immer über den Speicher verfügt, der Ihren Anforderungen entspricht. Es kann automatisch von einem kleinen Megabyte auf ein Dateisystem im Petabyte-Bereich wachsen auf ein Dateisystem im Petabyte-Bereich Es gibt keine Mindestgebühr für die Nutzung von EFS. Sie müssen lediglich für den Speicherplatz bezahlen, den Sie nutzen. Wenn Sie nur 500 MB EFS verwenden, zahlen Sie nur für die 500 MB Ähnlich wie EBS ist auch EFS ein an das Netzwerk angeschlossener Dienst. Das bedeutet, dass Ihr Dateisystemspeicher über ein Netzwerk und nicht physisch mit zwei EC-Instances verbunden ist über ein Netzwerk und nicht physisch mit zwei EC-Instances Im Gegensatz zu EBS, das jeweils nur mit einer EC-Instance verbunden werden konnte , können wir EFS mit einer beliebigen Anzahl von EC Two-Instances verbinden Eine der wichtigsten Funktionen von EFS ist die Speicherung Ihrer Daten in verschiedenen Verfügbarkeitszonen Sie können EFS mit mehreren EC Two-Instances in verschiedenen Availability Zones verbinden . Nehmen wir an, Sie haben ein EFS in der Region Mumbai. Dieses EFS kann von einer beliebigen Anzahl von EC Two-Instances aus allen Availability Zones in dieser Region verwendet EC Two-Instances aus werden, nicht nur von zwei EC. Sie können EFS auch mit Diensten wie ECS-, EKS- und Lambda-Funktionen oder sogar mit Ihrem lokalen Computer Sie können Hunderte von EC Two-Instances, Lambda-Funktionen und Ihre PCs gleichzeitig mit EFS verbinden Hunderte von EC Two-Instances, Lambda-Funktionen und Ihre PCs Derzeit ist EFS nur mit Linux-basierten Instances kompatibel Es ist wichtig , an dieser Stelle zu beachten, dass Windows-Instanzen EFS nicht verwenden können. Aws hat ein anderes Dateisystem für Windows-Instanzen namens SX. Jetzt fragen Sie sich bestimmt, warum Sie EFS verwenden und nicht Ihr eigenes Dateisystem erstellen sollten. Ja, das Erstellen eines Dateisystems auf jedem Speichergerät ist möglich. nicht nur ein hochgradig skalierbarer Dienst, EFS ist nicht nur ein hochgradig skalierbarer Dienst, sondern auch ein verwalteter Dienst Das bedeutet, dass es die Speicherinfrastruktur für Sie verwaltet Und als Benutzer müssen Sie nur das Dateisystem verwenden. Sie müssen sich keine Gedanken über den zugrunde liegenden Speicher oder Wartung oder das Patchen Ihres Dateisystems Efs erledigt all diese zusätzliche Arbeit für Sie, wann immer ein Dateisystemspeicher erforderlich ist , der für mehrere Dienste und lokale Computer verwendet werden kann mehrere Dienste und lokale Computer Denken Sie an EFS, das ist alles für diese Sitzung. 25. Einführung in das Netzwerken: Hallo und willkommen zurück zum fünften Modul dieser Schulung. In diesem Modul werden wir uns mit der VPC befassen, dem Netzwerkbereich des Cloud Computing Hier werden wir uns eingehend Themen wie Virtual Private, Cloud- oder VPC-Subnetz, Cloud- oder VPC-Subnetz, Internet-Gateway-Routtabelle und Nat-Gateway-Sicherheitsgruppen und Nat-Gateway-Sicherheitsgruppen Wir führen auch eine Demo in AWS durch, um eine VPC sowie öffentliche und private Subnetze zu erstellen Nach erfolgreichem Abschluss dieses Moduls verfügen Sie über umfassende Kenntnisse der Erstellung von VPCs und der Erstellung privater und öffentlicher Subnetze Sie werden wissen, wie das öffentliche und das private Subnetz in VPC funktionieren und wie das Internet-Gateway eine VPC mit dem Internet verbindet Sie werden auch lernen, wie Sie Sicherheitsgruppen und NACL verwenden, um den Verkehr zu und von Ressourcen in einer VPC zu steuern Studierende. Um das Beste aus dieser Schulung herauszuholen, empfehlen wir Ihnen, gesamten Schulung Notizen zu machen. Ich hoffe, Sie machen sich bereits Notizen. Das ist alles für diese Einführung. 26. Was ist eine VPC?: Hallo Studierende. Willkommen zurück. In diesem Video werden wir mehr über Virtual Private Cloud oder VPC erfahren über Virtual Private Cloud oder VPC Kurz gesagt, es ist der Netzwerkaspekt von Cloud Computing. Und es kann etwas schwierig sein , es mit unserem täglichen Leben in Verbindung zu bringen. Wir werden versuchen, es so einfach wie möglich zu machen. Da dies ein sehr wichtiger Abschnitt und Baustein für die restlichen Themen in diesem Modul ist. Ich empfehle Ihnen, diesem Thema besondere Aufmerksamkeit zu schenken. Nehmen wir ein Beispiel. Angenommen, es gibt ein Wohnhaus mit vielen Wohnungen. In diesen Wohnungen leben Hunderte von Menschen. Nehmen wir an, ich besitze Wohnung Nummer 810 und Sie besitzen Wohnung B 20 in diesem Gebäude. Wir können auch sagen, dass Wohnung B 20 Ihr privater Teil des Gebäudes ist , in dem Sie Ihre Sachen aufbewahren und die vollständige Kontrolle darüber haben. Sie können auch Sicherheitsfunktionen wie eine Schlosskamera, Überwachung usw. hinzufügen , genauso wie andere Personen private Bereiche haben , die ihnen gehören. Lassen Sie uns nun dieses Beispiel mit AWS und VPC verbinden und das Gebäude durch AWS-Wohnungen mit VPCs ersetzen In unserem AWS-Konto erstellen und verwalten wir alle Arten von Ressourcen wie EC, zwei RDS und so weiter den späteren Modulen werden wir uns In den späteren Modulen werden wir uns mit diesen spezifischen Ressourcen befassen. Diese Ressourcen in Ihrer VPC sind genau wie Ihre Sachen in Ihrer Wohnung Die AWS-VPC ist wie Ihr privater Bereich in AWS, in dem Sie Ihre Ressourcen und Services platzieren können So wie eine Wohnung ein anderes Sicherheitsniveau hat, können Sie auch ein gewisses Maß an Sicherheit für diese Ressourcen festlegen Mit anderen Worten, wir können sagen, dass Sie Personen entweder Zugriff auf Ihre Datenbank oder Ihre Cloud-Ressourcen gewähren Ihre Datenbank oder Ihre Cloud-Ressourcen oder sie auch daran hindern können. Lassen Sie uns nun die Definition von AWS VPC, einer Virtual Private Cloud, verstehen einer Virtual Private Cloud Eine virtuelle private Cloud ist ein virtuelles Netzwerk, das Ihrem AWS-Konto gewidmet Es ist logisch von anderen virtuellen Netzwerken in der AWS-Cloud isoliert anderen virtuellen Netzwerken in der AWS-Cloud , in denen Sie Ihre AWS-Ressourcen wie Amazon EC-Instances starten können Ihre AWS-Ressourcen wie Amazon EC-Instances Vpc steht für Virtual Private Cloud. Es ist nichts anderes als ein virtuelles Rechenzentrum auf den Amazon Wab-Diensten Dies ist privat, weil es nur für Sie ist und Sie die vollständige Kontrolle darüber haben Dies ist ein vollständig isoliertes logisches Netzwerk, das Sie bei der Erstellung einer VPC nach Ihren Wünschen verwenden können bei der Erstellung einer VPC nach Ihren Wünschen Im Grunde erstellen Sie ein logisch isoliertes Netzwerk. Wenn ich in meinem Konto eine VPC erstelle und Sie in Ihrem Konto eine VPC erstellen, handelt es sich um zwei Sogar zwei oder mehr VPCs mit unterschiedlichen IP-Adressen innerhalb desselben Kontos werden ebenfalls isoliert Sie können die IP-Adresse als die Adresse Ihrer Wohnung verstehen als die Adresse Ihrer Wohnung Diese IP-Adresse wird CIDR genannt, was für Classless Inter Domain Routing steht Es handelt sich um eine Reihe von Internetprotokollstandards, denen eindeutige Kennungen für Netzwerke erstellt werden Wenn Sie eine VPC erstellen, geben Sie einen Bereich von IP-Adressen für die VPC in Form eines CIDR-Blocks an Zum Beispiel 10.0 0.0 0.0 mal 16. Ab sofort wissen Sie, dass VPC ein Netzwerk innerhalb Ihres AWS-Kontos ist Sie können auch Subnetzwerke innerhalb eines Netzwerks erstellen , die auch als Subnetze bezeichnet werden Wir werden uns in der nächsten Phase mit Subnetzen befassen. 27. Subnet, Internet-Gateway, Routen-Tabelle und NAT-Gateway: Hallo Studierende. Willkommen zurück. In diesem Video werden wir Subnetz, Internet-Gateway und Routing-Tabelle verstehen . Lass uns anfangen Wie wir im vorherigen Video besprochen haben, ist VPC ein Netzwerk in unserem AWS-Konto Wir können auch Subnetzwerke in unserer VPC erstellen. Diese Subnetzwerke werden auch als Subnetze bezeichnet. Schauen wir uns unser vorheriges Beispiel an. Wir besitzen eine Wohnung in der Wohnung, und diese Wohnung ist unser privater Bereich. Wir haben ein Schlafzimmer, ein Wohnzimmer und eine Küche in dieser Wohnung. Im Wesentlichen sind dies verschiedene Unterabschnitte unserer Wohnung, die für verschiedene Zwecke genutzt werden In ähnlicher Weise erstellen wir in AWS, VPC, ein Subnetzwerk wie Public Submit und Private Submit Wenn wir einen Submit erstellen, geben wir den CIDR-Block für den Submit an , der eine Teilmenge des VPC-CIDR-Blocks ist Wenn die CID unserer VPC 10,0 0,0 mal 16 ist, können wir 10,0 0,0 0,0 bis 24,10 0,0 0,1 0,0 mal 24 verwenden Als CIDR unseres Submit können wir AWS-Ressourcen in einem bestimmten Submit starten, können wir AWS-Ressourcen in einem bestimmten Submit starten wie z. B. Easy-to-Instances Ein wichtiger Punkt , an den Sie sich erinnern sollten, ist, dass jedes Subnetz vollständig innerhalb einer Verfügbarkeit, Joe, liegen muss und sich nicht über Jones erstrecken darf Das werden wir bei der praktischen Bearbeitung der Karte sehen Es gibt zwei Arten von Öffentliche Einreichung und private Einreichung. Wir könnten es mit unserer Wohnung in Verbindung bringen. Wir haben ein Gästezimmer mit direktem Zugang von außen. Es ist wie eine öffentliche Einreichung, während unser Schlafzimmer für uns völlig privat ist. Lassen Sie uns nun verstehen, was ein öffentliches Subnetz ist. Es ist ein Subnetz, das mit dem Internet interagiert und über das Internet zugänglich ist Das bedeutet, dass auf alle Ressourcen, die in Ihrem öffentlichen Subnetz erstellt wurden, z. B. Wab-Server, z. B. Wab-Server, über das Internet zugegriffen werden kann Da öffentliche Subnetze mit dem Internet interagieren, werden wir unseren Load Balancer oder unsere mit dem Internet verbundenen Anwendungen im öffentlichen Bereich bereitstellen oder unsere mit dem Internet verbundenen Anwendungen im öffentlichen Darauf werde ich im Modul EC Two ausführlich eingehen. Das nächste ist ein privates Subnetz. Es ist ein Subnetz, das vom Internet aus nicht erreicht werden kann. Das bedeutet, dass wir die AWS-Ressourcen erstellen können , die nur innerhalb der VPC für interne Zwecke verwendet werden Lassen Sie uns nun alles zusammenfügen. Wir haben eine Region in unserem AWS-Konto, und in dieser Region wird es eine VPC Die VPC wird über einen sogenannten CIDR-Bereich verfügen, bei dem es sich um einen Bereich von IP-Adressen handelt, der innerhalb unserer VPC zulässig Die VPC kann auch zwei Availability Zones durchqueren: Availability Joe One und Availability Joe Availability Joe One enthält eine öffentliche und eine private Einreichung In ähnlicher Weise enthält Availability Joe Z two auch ein öffentliches und ein privates Submit. Somit haben wir zwei Availability Jones, eine VPC und vier Subnetze In diesem Beispiel müssen Sie sich jetzt fragen, was ist der Unterschied zwischen einer öffentlichen Einreichung und einer privaten Nun, es gibt keinen Unterschied zwischen diesen Architekturen. Der Prozess ihrer Erstellung ist genau derselbe. Was Sie in ihnen konfigurieren, bestimmt jedoch , ob ein Subnetz öffentlich oder privat ist Sie müssen zwei Änderungen an einem Subnetz vornehmen , um es öffentlich zu machen Zunächst müssen Sie ein Internet-Gateway hinzufügen. Es handelt sich um eine von AWS verwaltete Komponente , die an Ihre VPC angehängt ist Sie fungiert als Gateway zwischen Ihrer VPC und dem Internet, also quasi der Außenwelt Fügen wir hier ein Internet-Gateway hinzu. Wir haben jetzt ein Internet-Gateway an unsere VPC angeschlossen, das eine Verbindung aus dem Internet herstellt Nun, wenn Sie denken, dass eine öffentliche Einreichung jetzt Zugang zum Internet hat, ist das nicht wahr In der VPC gibt es eine weitere Komponente namens Router. Welches bestimmt, wohin der eingehende Verkehr geleitet wird Dieser Vorgang wird als Routing bezeichnet. Der Router verwendet sogenannte Routentabellen, um den Netzwerkverkehr zu steuern. Daher muss jedes Subnetz innerhalb der VPC einer Routing-Tabelle zugeordnet sein Immer wenn wir ein Subnetz erstellen, wird es mit einer Standardroute geliefert, bei der es sich um eine lokale Route handelt Wie wir sehen können, hat diese Routentabelle ein Zielfeld und ein Zielfeld Das Zielfeld enthält die Zieladresse, die Sie erreichen möchten. Das Ziel spezifiziert die Route, dieses Ziel, was bedeutet, dass jede Anfrage innerhalb der VPC-IP-Adresse lokal ist Um eine öffentliche Übermittlung vorzunehmen, müssen wir die Zieladresse als Internet hinzufügen, was 0,0 0,0 0,0 mal Null ist, und das Ziel als Internet-Gateway Diese neue Route hier in der Routentabelle hat ein Ziel von 0,0 0,0 0,0 mal Null. Das bedeutet, dass jede IP-Adresse, die in der Routentabelle nicht bekannt ist, sie an dieses Ziel sendet. In diesem Fall ist dieses Ziel das Internet-Gateway. Dieser Teil hier ist einfach die ID des Internet-Gateways. Das bedeutet, dass jeder andere Verkehr als das VPC-Netzwerk zum Internet-Gateway geleitet wird Daher ist diese Einreichung jetzt eine öffentliche Einreichung. Jetzt sind diese beiden Subnetze öffentliche Subnetze und die anderen beiden sind private Hoffe, das ist dir klar. Wenn Sie eine Instance in einem privaten Subnetz haben, ist sie nicht über das Internet zugänglich Möglicherweise möchten Sie ihr jedoch Zugriff auf das Internet gewähren , um Dateien herunterzuladen oder Betriebssystemupdates zu erhalten In diesem Fall können wir ein sogenanntes At Gateway verwenden, das von AWS oder Instance verwaltet wird. Es kann auch selbst verwaltet werden, sodass Sie innerhalb Ihres privaten Subnetzes auf das Internet zugreifen können innerhalb Ihres privaten Subnetzes auf das Internet At Gateway ist ein hochverfügbarer, von AWS verwalteter Service , der es Ihren Instances im privaten Subnetz ermöglicht , eine Verbindung zum Internet In unserem öffentlichen Beitrag erstellen wir ein At Gateway. Wir erstellen eine Route von den privaten Subnetzen zum At-Gateway und vom At-Gateway zum Internet-Gateway Dadurch können Ihre privaten Subnetze Internetkonnektivität herstellen Das ist alles für diese Sitzung. Ich hoffe, Sie verstehen jetzt BPC und seine Elemente. Falls Sie irgendwelche Zweifel haben, empfehle ich Ihnen, diese Sitzung noch einmal durchzuführen, da dies für Ihr Zertifizierungsgespräch und generell auch sehr wichtig ist für Ihr Zertifizierungsgespräch und generell auch sehr wichtig und generell auch 28. Sicherheitsgruppen und NACL: Hallo Studenten. Willkommen zurück. In diesem Video erfahren wir, warum wir eine Sicherheitsgruppe und eine NCL benötigen Was sind diese und was sind die Unterschiede zwischen ihnen? Sicherheitsgruppen und NSLs fungieren beide als virtuelle Firewalls. Sie kontrollieren den Verkehr zu und von den Ressourcen in einer BPC, indem sie einige Regeln für eingehenden und ausgehenden Datenverkehr befolgen Eingehend oder ausgehend steht für die Richtung des Datenverkehrs zwischen Netzwerken Die Richtung wird in Bezug auf ein Referenznetzwerk definiert Bezug auf ein Referenznetzwerk Eingehender Verkehr bezieht sich auf die Informationen, die in ein Netzwerk eingehen Hier ist das Referenznetzwerk Ihr internes Netzwerk. Es könnte Ihr Computer sein. Wie Sie sehen können, fließen auch Daten aus dem Internet auf Ihren Computer. Das wird eingehender Verkehr genannt. Ausgehender Verkehr bezieht sich auf Informationen, die das Netzwerk verlassen Auch hier sehen Sie, dass Daten aus dem Referenznetzwerk, bei dem es sich um Ihren Computer handelt , nach außen fließen Ihren Computer handelt , Auch hier erfolgt der Datenfluss von Ihrem Netzwerk zum Internet. Es wird als ausgehender Verkehr bezeichnet. Kommen wir nun zurück zur Sicherheitsgruppe und zur NSA. Wir werden zuerst mit der Sicherheitsgruppe beginnen. Eine Sicherheitsgruppe ist eine AWS-Firewall-Lösung zum Filtern des eingehenden und ausgehenden Datenverkehrs von einem EC zur Instance. Sie fungiert als virtuelle Firewall für C-2-Instances, um den eingehenden und ausgehenden Verkehr auf der Grundlage einiger definierter Regeln zu kontrollieren und die Sicherheit auf Instanzebene zu gewährleisten Sowohl eingehende als auch ausgehende Regeln funktionieren unabhängig voneinander . Regel für eingehenden Datenverkehr kann beispielsweise zulassen, dass Datenverkehr von einer bestimmten IP-Adresse nur auf die Instanz zugreift Während eine Regel für ausgehenden Datenverkehr möglicherweise den gesamten Datenverkehr aus der Instance verläßt, da Sicherheitsgruppen auf Instanzebene funktionieren, können wir in einer VPC eine Sicherheitsgruppe auch auf eine oder mehrere Instances anwenden eine Sicherheitsgruppe auch auf eine oder mehrere Instances In ähnlicher Weise kann eine Instance auch einer oder mehreren Sicherheitsgruppen zugeordnet werden einer oder mehreren Sicherheitsgruppen zugeordnet Schauen wir uns jetzt NSR an. Es steht für Network Access Control, das den Verkehr zu oder von einem Submit nach bestimmten definierten Regeln steuert einem Submit nach bestimmten definierten Regeln Das bedeutet, dass auf der Sendeebene eine zusätzliche Sicherheitsebene hinzugefügt wird. Eine Regel für eingehenden Datenverkehr kann beispielsweise eingehenden Datenverkehr von einem Bereich von IP-Adressen verweigern, wohingegen eine Regel für ausgehenden gesamten Datenverkehr aus dem Submit-Bereich zulassen kann Da NSLs auf der Submit-Ebene einer VPC arbeiten, können wir eine NCL auf eine oder mehrere Submits anwenden Jede Einreichung darf jedoch nur einer einzigen NCL zugeordnet sein einer einzigen NCL zugeordnet Schauen wir uns nun an, was der Unterschied zwischen der Sicherheitsgruppe und NSL ist der Unterschied zwischen der Sicherheitsgruppe und NSL Die Sicherheitsgruppe arbeitet auf Instanzebene, NSL jedoch auf der Submit-Ebene Die Unterstützung von Sicherheitsgruppen erlaubt nur Regeln, NSL lässt Regeln zu und verweigert Regeln Die Sicherheitsgruppe ist statusbehaftet, was bedeutet, dass Rückverkehr unabhängig von Regeln automatisch zugelassen wird unabhängig von Regeln automatisch zugelassen Wie wir bereits besprochen haben, gibt es keine Möglichkeit, eine Regel für ausgehenden Datenverkehr hinzuzufügen gesamte zulässige Verkehr kehrt standardmäßig zurück , der Status des zulässigen Datenverkehrs wird beibehalten Aus diesem Grund wird es State Full genannt. NSL ist stateless. Das bedeutet, dass Rückverkehr standardmäßig nicht erlaubt ist. Es sollte explizit erlaubte Regeln geben, die das zulassen Die Sicherheitsgruppe gilt nur dann für eine Instanz, wenn jemand die Sicherheitsgruppe angibt. Nun, wenn Sie die Instance starten oder die Sicherheitsgruppe der Instance zu einem späteren Zeitpunkt zuordnen, gilt NSL automatisch für alle Instances in dem Subnetz , mit dem sie verknüpft ist, bietet somit eine zusätzliche Schutzebene , falls die Sicherheitsgruppenregeln zu freizügig sind Sicherheitsgruppen und NSLs operieren jedoch auf unterschiedlichen Ebenen in der VPC. Dies ist die beste Methode, um Ihr Netzwerk, Ihre Sicherheitsgruppen oder NSLs zu schützen . Bei Tiefenverteidigung geht es um Schichten von Sicherheitsgruppen, und NSLs sind nur zwei dieser Schichten. Daher ist es eine bessere Lösung, beide zu implementieren, um Ihr Netzwerk zu sperren Das ist alles für diese Sitzung. 29. Erstelle eine VPC, ein öffentliches und privates Subnetz: Hallo Schüler. Willkommen zurück. In dieser Demo werden wir eine VPC in unserem AWS-Konto erstellen. Wir werden uns auch die Parameter und Optionen ansehen , die AWS zur Erstellung einer VPC bietet Wir werden auch ein Internet-Gateway einrichten und öffentliche und private Submits konfigurieren Am Ende dieses Labs werden Sie ein umfassendes Verständnis davon haben, wie VPCs erstellen und private und öffentliche Einreichungen Gehen wir zunächst zur AWS-Konsole. Zuerst müssen wir die Region auswählen. Ich werde Mumbai wählen, da ich eine VPC in der Region Asien-Pazifik Mumbai einrichten möchte eine VPC in der Region Asien-Pazifik Mumbai einrichten Um nun zum VPC-Dashboard zu gelangen, suchen wir in der Suche nach der VPC und klicken auf VPC, um das Dashboard zu öffnen Wie Sie hier im Dashboard sehen können, haben wir bereits eine VPC in unserem Konto erstellt Dies ist die Standard-VPC, die AWS erstellt. Diese VPC verfügt in allen Regionen über ein Routing-Kabel und ein Internet-Gateway Wir können die Standard-VPC für Demo-Zwecke verwenden, es wird jedoch immer empfohlen eine eigene VPC für Entwicklung, Test und Produktion zu erstellen , Test und Produktion am Wenn Sie in eine beliebige Region gehen, finden Sie dort eine VPC und einige Routing-Tabellen sowie ein dazugehöriges Internet-Gateway Lassen Sie uns nun unsere eigene VPC erstellen. Klicken Sie auf VPCs und dann auf Create VPC. Wir werden ihm den Namen Pa up geben. Die nächste Option für uns besteht darin, auszuwählen, ob wir IPV vier oder IPV sechs Adressen in unserer VPC haben möchten IPV vier oder IPV sechs Adressen in unserer Wir werden uns für IPV vier entscheiden und 10.0 0.0 0.0 x 16 als privaten IP-Bereich für diese VPC angeben 0.0 0.0 x 16 als privaten IP-Bereich Dann haben wir den Mietvertrag, der festlegt , wo Ihre Infrastruktur bereitgestellt Wenn wir die Standardtenancy wählen, werden unsere C-2-Instances auf gemeinsam genutzter Hardware mit anderen AWS-Benutzern betrieben Wenn Sie eine VPC wünschen, bei der sich alle C-Two-Instances auf dedizierter Hardware befinden, können Sie eine dedizierte VPC erstellen Die nächste Option sind Tags. Wie Sie sehen können, hat AWS bereits ein Namensschild für uns erstellt. Wir werden keine weiteren Tags benötigen. Klicken wir auf Create VPC. Wir haben jetzt unsere eigene VPC in dieser Region erstellt. Gehen wir zurück zur VPC-Seite. Sie können sehen, dass wir jetzt zwei VPCs in dieser Region haben. Wir werden jetzt ein Internet-Gateway erstellen und es an unsere VPC anschließen Klicken Sie dazu auf Internet-Gateway. Und wie Sie sehen können, haben wir bereits Internet Gateway. für die Standard-VPC Klicken wir für die Standard-VPC auf Create Internet Gateway und geben Sie Ihr Namenspaket IGW Klicken Sie nun auf Internet-Gateway erstellen. Als Nächstes müssen wir dieses Internet-Gateway an unsere VPC anschließen. Wir können das direkt tun, indem wir hier in der oberen grünen Leiste auf An VPC angehängt klicken in der oberen grünen Leiste auf An VPC angehängt Oder indem Sie hier auf die Schaltfläche „ Aktionen“ klicken. Klicken Sie auf An VPC anhängen und wählen Sie Ihre VPC aus. Wenn Sie AWC LI verwenden, können Sie auf diese Scrollleiste klicken und sie an Ihre VPC anhängen Da wir AWS C, L, I nicht verwenden, können wir hier klicken und dieses Internet-Gateway direkt anhängen Wir haben jetzt eine VPC mit einem Internet-Gateway. Aber wir können immer noch keine Infrastruktur in der VPC erstellen. Dafür benötigen wir Subnetze. Lassen Sie uns Subnetze erstellen. Klicken Sie hier auf Subnetze, je nachdem, in welcher Region Sie sich befinden. Sie werden hier 34 Subnetze sehen. Dies sind die öffentlichen Standardsubnetze die Standard-VPC angeschlossen Als Nächstes erstellen wir dafür Subnetze Klicken Sie auf Zuerst müssen wir die VPC auswählen. Wir entscheiden uns für die Pat Cup VPC, die wir erstellt haben. Fügen Sie nun unserem Submit einen Namen hinzu. Öffentlich Reichen Sie eins ein. Wir wählen den AP South, eine Availability Zone, und geben dem Submit einen IP-Bereich von 10,0 0,0 mal 24 zu. Lassen Sie uns die Tags vorerst überspringen und auf klicken. Subnetz erstellen. Wir können jetzt unseren Beitrag in der Liste sehen, wir werden drei weitere Subnetze erstellen Wählen Sie die komprimierte VPC aus, geben Sie den Namen public subnet an, um P eine Availability Zone auszuwählen , und geben einen IP-Bereich von 10.0 0.1 0.0 Klicken Sie erneut auf Create Subnet und wiederholen Sie den Vorgang. Diesmal geben wir den Namen Privates Subnetz eins Verfügbarkeit eins P eins und den IP-Bereich 10,0 0,2 0,0 mal 24. Ich wiederhole das ein letztes Mal. Geben Sie der Availability Zone P den Namen privates Subnetz. Also ein IP-Bereich von 10,0 0,3 0,0 mal 24. Bitte beachten Sie, dass es in Subnetzen keine überlappenden IP-Bereiche Jetzt haben wir vier Subnetze in zwei Verfügbarkeitszonen in der Aber was ist der Unterschied zwischen unseren privaten und öffentlichen Subnetzen Wir haben sie mit derselben Methode erstellt, nur dass ihre Namen unterschiedlich sind Derzeit sind alle vier Subnetze, die wir erstellt haben, privat Der Unterschied zwischen privaten und öffentlichen Subnetzen besteht darin, dass die Routing-Tabellen der öffentlichen Subnetze einen Internet-Gateway-Eintrag haben Wenn wir die Details der Routentabellen in unseren Subnetzen sehen, haben wir nur einen Eintrag, 10.0 0.0 0.0 Das bedeutet einfach, dass alle Anfragen, die an Routen innerhalb dieses Bereichs gerichtet sind , innerhalb der VPC weitergeleitet werden müssen Lassen Sie uns weitermachen und eine öffentliche Routing-Tabelle für unsere Subnetze erstellen eine öffentliche Routing-Tabelle für unsere Klicken Sie dazu auf die Routentabelle Wie Sie sehen können, haben wir bereits zwei Routentabellen in unserem Konto Eine ist an die Standard-VPC der Region angehängt, und die andere ist an die neue VPC angehängt, die wir Wenn Sie die Standard-Routing-Tabelle der Standard-VPC im Abschnitt Route sehen , können Sie sehen, dass es einen Eintrag zum Internet-Gateway gibt einen Eintrag zum Das bedeutet, dass alle Standardsubnetze der Standard-VPC über diese Route verfügen , sodass sie Wenn Sie die Routing-Tabelle unserer VPC sehen, haben wir nur die lokale Route wodurch unsere Klicken Sie nun auf Create Route Table und geben Sie ihr den Namen Pat Cup, Arch Public Als Nächstes wählen wir unsere VPC aus und klicken auf Create Route Table. Wir haben jetzt eine weitere private Routentabelle. Jetzt müssen wir den Internet-Gateway-Pfad zur Tabelle hinzufügen . Klicken Sie dazu auf Routen bearbeiten und dann auf Route hinzufügen. Wählen Sie 0,0 0,0 mit Null als Ziel. Wählen Sie das Internet-Gateway als Ziel aus. Und wählen Sie das Paket IGWCreated aus. Klicken Sie dann auf Sichere Änderungen. Wir haben eine neue öffentliche Routing-Tabelle in unserer VPC. Lassen Sie uns nun unsere Routing-Tabelle öffentlichen Subnetzen zuordnen. Wir können das tun, indem wir auf Aktionen klicken , Untervermietungszuordnungen bearbeiten, die öffentliche Option Submit 1.2 auswählen und dann auf Verknüpfungen speichern klicken Gehen wir zur Subnetz-Seite und schauen wir uns unsere Subnetze an Sie werden sehen, dass die öffentlichen Subnetze der neuen Routing-Tabelle zugeordnet sind , die den Internet-Gateway-Eintrag enthält Sie können dies auch tun , indem Sie auf die Schaltfläche Routentabellenzuordnung bearbeiten um die Routentabellen für ein Subnetz zu ändern Jetzt haben wir eine VPC mit zwei öffentlichen und zwei privaten Subnetzen erstellt , die wir während dieser Sitzung verwenden werden Wie gesagt, das Erstellen und VPC-Internet-Gateway- und Routing-Tabellen ist völlig kostenlos Sie müssen sie nicht löschen, Studierende. Ich hoffe, du hast das alles verstanden. Was wir in dieser Demo gemacht haben, das ist alles für diese Sitzung. 30. DNS und Amazon Route 53: Hallo, Studenten. Willkommen zurück. In diesem Video erfahren wir mehr über DNS und den DNS-Service von AWS, die Amazon Route 53. Wir werden mit dem Verständnis von DNS und Route 53 beginnen und uns dann deren Funktionen und Anwendungsfälle ansehen . Lass uns anfangen. Dns steht für Domain Name System. Es ist das Telefonbuch des Internets. Es ist ein System, mit dem Sie eine Verbindung zu Websites herstellen können , indem es einen für Menschen lesbaren Domainnamen wie Google.com oder Facebook.com abgleicht. Im Grunde übersetzt es den Domainnamen Lassen Sie uns das nun anhand eines Beispiels verstehen. Wenn Sie Ihren Freund anrufen, suchen Sie in der Kontakt-App nach seiner Telefonnummer, oder? Da es jedoch schwierig ist, sich eine Telefonnummer zu merken, speichern wir Telefonnummern in der Kontakt-App. Ähnlich wie Telefonnummern haben Websites und Anwendungen IP-Adressen. Haben Sie jemals die IP-Adresse von Google.com oder YouTube.com verwendet , um eine Verbindung zu ihnen Nein, denn auch hier ist es schwer, sich daran zu erinnern. Dies wird mit DNS vereinfacht. Wie gesagt, DNS ähnelt unserem Telefonbuch, dem die IP der Websites gespeichert wird. Die DNS-Server übersetzen einfach Domainnamen in IP-Adressen. Wenn Sie auf YouTube.com zugreifen geht die Anfrage zuerst an einen DNS-Server und dann an die IP-Adresse von YouTube.com. Jetzt verstehen wir DNS und Aws bietet auch einen DNS-Dienst namens Route 53 an. Route 53 erfüllt eine ähnliche Aufgabe. Lassen Sie uns nun Route 53 im Detail verstehen. Route 53, hochverfügbarer und skalierbarer DNS-Service von AWS. Es ist auch der einzige Service auf AWS, der eine Verfügbarkeit von 100% behauptet. Das bedeutet, dass der Route 53-Service niemals ausfällt. Nehmen wir an, Sie haben eine Webanwendung in Ihrem AWS-Konto, die auf der EC Two-Instance ausgeführt wird Wenn Sie diese Website auf der Domain yourname.com hosten möchten , können Sie in Route 53 einen DNS-Eintrag erstellen , um die Domain auf die IP-Adresse von EC Two zu verweisen Jetzt gibt es auch ein paar weitere Funktionen. Die erste ist die Domainregistrierung. Route 53 ist auch ein Domain-Registrar. Das bedeutet, dass Sie damit auch neue Domainnamen über die Route 53-Konsole selbst kaufen können , wenn Sie Ihren Domainnamen auf einer anderen Website wie Go Daddy gekauft haben auf einer anderen Website wie Go Daddy Route 53 bietet auch eine Funktion zum Übertragen Domainnamen von anderen Domain-Registraren auf Route 53. Die nächste ist eine gehostete, die wir erstellen können. The Hosted Jones Hosted Joe ist ein Container für Datensätze, die Informationen darüber enthalten, wie der Verkehr für eine Domain weitergeleitet Die nächste Funktion ist der Gesundheitscheck. Route 53 bietet auch die Möglichkeit, Zustandsprüfungen Ihrer Ressourcen durchzuführen. Es verwendet diese Zustandsprüfungen , um den Zustand Ihrer Ressourcen zu ermitteln und den Datenverkehr nur an intakte Ressourcen weiterzuleiten. Der letzte ist der Verkehrsfluss. Er wird auch als Verkehrsfluss bezeichnet und bietet Ihnen eine weitere Automatisierungsstufe für die Art und Weise, wie Sie Ihren Datenverkehr an Ihre Ressourcen weiterleiten. Das ist alles, was Sie über Amazon Route 53 wissen müssen. 31. AWS VPN und AWS Direct Connect: Hallo, Studierende. Willkommen zurück. In dieser Sitzung werden wir uns verschiedenen Verbindungsoptionen von AWS zu den lokalen Rechenzentren befassen. Lass uns anfangen. Lassen Sie uns das anhand eines Beispiels verstehen. Nehmen wir an, Ihr Unternehmen plant, eine geschäftskritische Anwendung mit Compliance-Daten in die AWS-Cloud zu migrieren eine geschäftskritische Anwendung mit Compliance-Daten in die AWS-Cloud zu . Ihr Sicherheitsteam besteht darauf, dass Sie die Anwendung in die Cloud verschieben können, Daten müssen jedoch lokal bleiben und alle Compliance-Anforderungen erfüllen Jetzt haben Sie sich für die Region Mumbai entschieden und VPC in Ihrem AWS-Konto erstellt Um Ihre Anwendung bereitzustellen, haben Sie eine EC Two-Instance erstellt Ihre Anwendung verwendet auch andere AWS-Services wie Amazon, S Three, Cloudwatch usw. Dies ist Ihr Rechenzentrum vor Ort, in dem Sie über eine Datenbank verfügen Schließlich haben Sie Ihre Anwendung, die auf einem EC ausgeführt wurde, so konfiguriert, dass sie eine lokale Datenbank instanziert. Ihr Sicherheitsteam hat erkannt, dass diese Datenbank über das öffentliche Internet mit der Anwendung verbunden ist. Sie beschweren sich, dass dies gegen die Sicherheitsrichtlinien verstößt. Diese Verbindung muss privat und sicher sein. Es gibt eine Reihe von Optionen, die Sie in AWS verwenden können , um diese Verbindung privat zu machen. Eines davon ist Site-to-Site-VPN. Dies wird als Site-to-Site-VPN bezeichnet, da wir einen AWS-Site mit einem anderen Standort-Rechenzentrum verbinden. Ein VPN steht für Virtual Private Network. VPN erstellt einen Tunnel , über den Sie auf das Internet zugreifen und Ihren Internetdienstanbieter, den ISP, umgehen Ihren Internetdienstanbieter, den ISP, Dieser Prozess verschlüsselt alle Daten, die Sie senden, und verwendet verschiedene Sicherheitsmaßnahmen, um sicherzustellen, dass alle Daten sicher sind Wir erstellen ein VPN zwischen Ihrem AWS-Konto, der VPC und Ihrem lokalen Netzwerk Es gibt ein paar Komponenten , die wir konfigurieren müssen Auf der VPC-Seite haben wir ein virtuelles privates Gateway in AWS bereitgestellt Dann haben wir das Customer Gateway, das im Rechenzentrum des Unternehmens bereitgestellt wird Das ist nun ein Gerät im Unternehmensrechenzentrum, das Sie auf eine bestimmte Weise konfiguriert haben. Das eigentliche Kunden-Gateway wird jedoch innerhalb von AWS erstellt. Es handelt sich im Wesentlichen um ein von Ihnen erstelltes Konfigurationselement , das Ihr virtuelles privates Gateway auf Ihr VPN-Gerät in Ihrem Unternehmensrechenzentrum verweist Ihr virtuelles privates Gateway auf . Sobald Sie diese haben, können Sie eine virtuelle private Netzwerkverbindung herstellen. Dies ist eine verschlüsselte Verbindung , die über das Internet übertragen wird. Sie erhalten den Schutz durch Verschlüsselung, nutzen aber immer noch das Internet. Auch jetzt haben Sie eine Sicherheitsüberprüfung durchgeführt und sie beschweren sich, dass diese Verbindung verschlüsselt ist, aber sie läuft immer noch über das Internet. Gemäß den Sicherheitsrichtlinien muss diese Verbindung privat sein. Jetzt gibt es einen anderen Dienst. Wir haben AWS Direct Connect. Dies ist eigentlich eine private Verbindung zwischen AWS und Ihrem Rechenzentrum oder Büro. AWS Direct Connect ist eine Hochgeschwindigkeitsverbindung mit niedriger Latenz, mit der Sie von Ihrer lokalen, d. h. lokalen Infrastruktur aus auf öffentliche und private AWS-Cloud-Services zugreifen können von Ihrer lokalen, d. h. lokalen Infrastruktur aus auf öffentliche und private AWS-Cloud-Services . Die Verbindung wird über Standleitungen hergestellt und umgeht das öffentliche Internet, um die Unvorhersehbarkeit und Überlastung des Netzwerks zu verringern Sie verbinden ein Ende des Kabels mit Ihrem Router und das andere Ende mit einem AWS Mithilfe dieser Verbindung können Sie virtuelle Schnittstellen erstellen , die direkt mit Amazon verbunden sind. Der AWS-Direktverbindungsstandort von Vpc ermöglicht Zugriff auf AWS in der Region , der es zugeordnet ist Dabei wird eine private Verbindung zwischen Ihrem Rechenzentrum und dem AWS Direct Connect-Standort und von dort aus eine private Verbindung zu AWS verwendet Ihrem Rechenzentrum und dem AWS Direct Connect-Standort und von dort aus eine private Verbindung zu AWS Jetzt ist es teurer als ein VPN zu haben. Die wichtigste Erkenntnis ist , dass es sich bei der Direktverbindung um eine private Verbindung handelt, was bedeutet, dass Sie ein konsistentes Netzwerkerlebnis erhalten , wohingegen ein VPN öffentlich ist und obwohl es verschlüsselt ist, es öffentlich ist. Das ist alles für diese Sitzung. 32. Compute Services in AWS: Hallo und willkommen zurück. Compute ist ein weiteres Kernangebot im Bereich Cloud Computing. Und in AWS sind verschiedene kostengünstige und flexible Rechendienste für unterschiedliche Anforderungen verfügbar. In dieser Lektion werden wir verstehen, was genau Datenverarbeitung ist und welche verschiedenen Rechendienste in AWS verfügbar sind . Nehmen wir ein Beispiel. Stellen Sie sich vor, Sie haben Ihren Traumjob als Architekt bei einem Weltraumtechnologieunternehmen, wo Ihre Aufgabe darin besteht, im Data-Science-Team zu arbeiten und die Daten zu verarbeiten. Um das Ganze zu verstehen, das Forschungsteam Ihres Unternehmens hat das Forschungsteam Ihres Unternehmens riesige Mengen an Bilddaten gesammelt , die zur Entdeckung von Wasser auf dem Mars führen könnten . Jetzt ist es die Aufgabe Ihres Teams, diese Bilddaten zu verarbeiten und die Ergebnisse zu ermitteln. Aber als Sie mit der Verarbeitung der Daten begannen, wurde Ihnen klar, dass Sie keine freien Server haben , um die Arbeit zu erledigen. Was bedeutet es, keine freien Server zu haben? Nun, wir brauchen leistungsstarke Computer um die riesigen Daten zu verarbeiten, und in diesem Fall ist die Rechenleistung, die Sie für die Verarbeitung der Daten benötigen, nicht verfügbar. Diese Rechenleistung wird als Rechenleistung oder beliebiges Programm oder Anwendung bezeichnet , das Sie ausführen möchten. Sie benötigen etwas Speicher, um das Programm zu öffnen, und etwas CPU, um die Befehle zu verarbeiten , die Sie innerhalb des Programms eingeben. Daher wird die Kombination aus Speicher und CPU hier als Berechnung bezeichnet . Es könnte auch andere Ressourcen wie Netzwerkspeicher usw. beinhalten . Abhängig von der Art der Anwendung, die Sie ausführen, hat es Cloud Computing sehr einfach gemacht , die Rechenleistung zu nutzen, wann immer Sie möchten, sie nach Ihren Anforderungen zu konfigurieren und nur für das zu bezahlen, was Sie tatsächlich nutzen AWS bietet verschiedene Rechendienste für unterschiedliche Anforderungen. Es ist jedoch wichtig zu verstehen, Es ist jedoch wichtig zu welche Rechenressourcen am besten zu Ihrer Arbeitslast passen und welche verschiedenen Rechenoptionen in AWS verfügbar sind . Lassen Sie uns zunächst verstehen, was AWS-Datenverarbeitung ist. Aws bietet einen On-Demand-Computing-Service für die Ausführung von Cloud-basierten Anwendungen. Dies sind Anwendungen , die auf einem Remote-Server bereitgestellt und über das Internet abgerufen werden können. Aws stellt Rechenressourcen wie Instances und Container bereit. Instanzen sind nichts anderes als virtuelle Maschinen. Aw bietet auch serverloses Computing zum Ausführen Anwendungen, für die Sie keine Einrichtung oder Konfiguration der Infrastruktur benötigen Wenn Sie sich für eine serverlose Rechenoption von AWS entscheiden, sind Rechenressourcen auf Abruf verfügbar und können mit nur einem Mausklick erstellt werden Sie zahlen nur für die Ressourcen, die Sie nutzen, und nur so lange, wie Sie sie nutzen. AWS-Rechenressourcen werden grob in drei Kategorien eingeteilt. Instanzen, bei denen es sich um virtuelle Maschinen, Container und serverloses Computing In diesem Modul werden wir sie alle besprechen. Es hilft Ihnen bei der Entscheidung, welcher Rechendienst für Ihre Anforderungen am besten geeignet ist. Wenn Sie mehr über AWS Compute erfahren möchten, klicken Sie auf den Link im Abschnitt Ressourcen. Das Dokument enthält verschiedene Beispiele und Szenarien, in denen Sie verschiedene Rechendienste verwenden könnten. Jetzt wissen wir, welche Rechenleistung und welche Dienste in AWS verfügbar sind. Lassen Sie uns damit dieses Video beenden. 33. Virtuelle Maschine: Hallo und willkommen zurück. In dieser Schulung haben wir bisher einige Male den Begriff virtuelle Maschinen verwendet. Ich hoffe, Sie haben bereits eine Vorstellung davon. Aber bevor wir uns eingehender mit den Dingen befassen, wollen wir virtuelle Maschinen im Detail verstehen. Was ist eine virtuelle Maschine? Eine virtuelle Maschine ist eine virtuelle Umgebung , die wie ein Computer innerhalb eines Computers funktioniert. Klingt komplex, oder? Lass es uns aufschlüsseln. Im Grunde. Eine virtuelle Maschine wird allgemein als VM bezeichnet. Es unterscheidet sich nicht jedem anderen physischen System wie einem Laptop oder Smartphone. Es verfügt über CPU-Speicherplatten zum Speichern Ihrer Dateien und ein Netzwerk für die Verbindung zum Internet. Ihr Laptop und Ihr Smartphone klingen echt, weil sie physisch sind VMs können als virtuelle Computer innerhalb eines physischen Computers betrachtet virtuelle Computer innerhalb eines physischen Computers Jetzt müssen Sie darüber nachdenken, wie es möglich ist , einen virtuellen Computer in einem physischen Computer zu haben in einem physischen Computer Nehmen wir an, Sie haben einen Laptop. Es hat ein Windows-Betriebssystem drauf. Jetzt hast du Lust, Linux zu lernen. Dafür benötigen Sie ein Linux-Betriebssystem. Was würdest du tun? Würden Sie einen neuen Laptop kaufen und das Linux-Betriebssystem installieren? Nein. Eine einfachere und effizientere Methode besteht darin, mithilfe der Virtualisierungstechnik Ihren vorhandenen Laptop zu virtualisieren und das Linux-Betriebssystem darauf zu installieren Grundsätzlich können Sie beide Betriebssysteme auf demselben Laptop verwenden beide Betriebssysteme auf demselben Laptop Wie verwenden wir nun Virtualisierungstechniken, um eine virtuelle Maschine zu erstellen? Und diese Animation hier ist Ihr physischer Computer. Dieser physische Computer kann Ihr PC, ein Remoteserver oder ein Server sein. Im Rechenzentrum eines Cloud-Anbieters verwenden wir Software namens Hypervisor, die auch als Virtual Machine Manager bekannt ist In Ihrem Fall können Sie Oracle VM Virtual Box verwenden. Der Hypervisor erstellt eine softwarebasierte oder virtuelle Version eines Computers mit gewünschten Menge an CPU-Arbeitsspeicher und Speicher Die virtuelle Maschine leiht sich immer CPU-Speicher und zwar vom physischen Host-Computer Das bedeutet, dass ein Teil der CPU, des RAMs und des Speichers Ihres Computers jetzt als eigenständiger Computer funktioniert zum besseren Verständnis davon aus, dass Sie einen physischen Computer mit acht GB RAM, zwei CPUs und einer 40-GB-Festplatte Sie können ein Virtualisierungstool verwenden, um zwei oder mehr virtuelle Maschinen zu erstellen und CPU-Speicher und Festplatte zwischen diesen beiden virtuellen Maschinen zu verteilen CPU-Speicher und Festplatte zwischen diesen beiden virtuellen Maschinen Hier haben wir zwei virtuelle Maschinen, VM eins und VM zwei. Sie haben vier GB RAM, eine CPU und 20 GB Festplatte. Jedes und noch wichtiger, zwei verschiedene Betriebssysteme. Wie Sie sehen können, verhält sich eine virtuelle Maschine wie ein echter Computer und hat ein anderes Betriebssystem. Trotz der Verwendung derselben Hardware ist die virtuelle Maschine vollständig vom Rest des Systems isoliert. Die Software-Insider-VM kann nicht mit dem Host-Computer oder einer anderen virtuellen Maschine auf demselben physischen Computer interagieren . Die virtuellen Maschinen laufen wie einzelne Computer mit separaten Betriebssystemen. Sie bleiben völlig unabhängig von einer anderen virtuellen Maschine und der physischen Hostmaschine. Da VMs unabhängig voneinander sind, sind sie auch sehr portabel Das bedeutet, dass Sie eine VM auf einem Hypervisor sofort auf einen anderen Hypervisor auf einem völlig anderen Computer verschieben einen anderen Hypervisor auf einem völlig anderen auf einem völlig Virtuelle Maschinen sind flexibel und portabel. Sie bieten viele Vorteile, wie z. B. Kosteneinsparungen. Sie können mehrere virtuelle Maschinen auf einem einzigen physischen Host ausführen . Dies kann Ihre Kosten für die physische Infrastruktur drastisch senken , da Sie weniger physische Computer kaufen müssen. Agilität und Geschwindigkeit. Das Hochfahren einer virtuellen Maschine ist eine relativ einfache und schnelle Aufgabe. Es ist viel einfacher als die Bereitstellung einer völlig neuen physischen Maschine für Ihre Entwickler Auf diese Weise beschleunigt die Virtualisierung die Ausführung von Dave-Testszenarien erheblich Als nächstes folgt die Verkürzung der Ausfallzeiten. Virtuelle Maschinen sind so portabel und lassen sich leicht von einer Maschine auf eine andere übertragen. Das bedeutet, dass sie eine hervorragende Lösung für Backups sind , wenn die Host-Maschinen unerwartet ausfallen. Skalierbarkeit Mit virtuellen Maschinen können Sie Ihre Anwendungen einfach skalieren , da die Erstellung einer virtuellen Maschine einfacher ist als die Einrichtung einer physischen Maschine. Sie können einfach virtuelle Server hinzufügen und die Arbeitslast auf mehrere virtuelle Maschinen verteilen So können Sie die Verfügbarkeit und Leistung Ihrer Apps erhöhen die Verfügbarkeit und Leistung Ihrer Apps Dies sind alle Vorteile virtueller Maschinen. 34. EC2 Elastic Compute Cloud: Hallo und willkommen zurück. In dieser Lektion beginnen wir mit dem gängigsten Rechenservice, den AWS zu bieten hat. Es ist die Elastic Compute Cloud, allgemein bekannt als EC Two. Lass uns anfangen. Ec two steht für Elastic Compute Cloud. Es bietet eine skalierbare Rechenoption in der Amazon-Cloud. Aber was ist Rechenkapazität? Nun, wir haben bereits gelernt , dass es sich nur um virtuelle Maschinen handelt, und EC Two ist ein Rechenservice in AWS. C Two ist skalierbar. Das bedeutet, dass Sie die Größe einer virtuellen Maschine je nach Ihren Anforderungen erhöhen oder verringern können. Wenn das nicht funktioniert, können Sie auch zusätzliche virtuelle Maschinen erstellen. Mithilfe von Amazon EC Two. Sie können die Einrichtung der Hardware für die Ausführung Ihrer Anwendung komplett vermeiden und können Anwendungen schneller entwickeln und bereitstellen. Ein weiterer Vorteil der Verwendung von EC Two besteht darin, dass Sie nicht in Hardware investieren müssen. Sie können virtuelle Maschinen mit der gewünschten Kapazität haben , auf die Sie mit Ihren normalen Computern zugreifen können . Ec Two ist eine IAAS-Infrastruktur als Service, da Sie eine virtuelle Maschine von AWS mieten und AWS sich um den Kauf und die Wartung der Hardware kümmert Kauf und die Wartung der Hardware Sie können die gewünschte Kapazität erhalten ohne sich um die Hardware kümmern zu müssen Es wurde entwickelt, um Cloud-Computing im Web-Scale-Maßstab Entwicklern das Verständnis von Cloud-Computing im Web-Scale-Maßstab zu erleichtern. Gehen wir zurück zu den Zeiten, als Cloud Computing noch nicht dazu da war, eine Anwendung zu hosten, sondern man ein Rechenzentrum einrichten oder einen physischen Server mieten musste . Das ist für große Organisationen durchaus möglich. Aber denken Sie an mittelständische Unternehmen, Start-ups oder sogar einzelne Entwickler wie Sie und ich. Sie können es sich nicht leisten, die Rechenzentren und die Hardware zu kaufen. Aber nach dem Cloud-Computing wurde es für die Entwickler deutlich einfacher , sich alle virtuellen Maschinen zu besorgen. Dank Cloud Computing können Sie Amazon C two verwenden, um so viele oder so wenige virtuelle Maschinen zu starten , wie Sie benötigen. Es gibt keine Einschränkung. Wenn Sie eine virtuelle Maschine möchten, können Sie sich eine besorgen. Wenn Sie 1.000 virtuelle Maschinen benötigen, können Sie 1.000 virtuelle Maschinen erwerben. Amazon C. Two erleichtert das Hoch- oder Herunterskalieren der virtuellen Maschinen , um unerwartete Lasten zu bewältigen. Sie müssen den Datenverkehr nicht prognostizieren Sie können virtuelle Maschinen auf der Grundlage des Datenverkehrs und der Beliebtheit Ihrer Anwendungen hoch- und herunterskalieren . Amazon C Two hat eine Autoscaling-Funktion, die wir später verstehen werden Wir können Auto Scaling so konfigurieren , dass die Anzahl der virtuellen Maschinen je nach Auslastung Ihrer Anwendung erhöht oder verringert die Anzahl der virtuellen Maschinen je nach Auslastung Ihrer Anwendung Es bietet Ihnen die vollständige Kontrolle über Ihre Computerressourcen und ermöglicht es Ihnen der bewährten Computerumgebung von Amazon zu arbeiten. Wie wir inzwischen wissen, befinden sich die beiden virtuellen Maschinen von EC im Amazon-Rechenzentrum. Da Sicherheit für Ihre Anwendungen sehr wichtig ist, gibt Ihnen AWS die vollständige Kontrolle über diese Server, sodass Sie Ihre Anwendung nach Ihren Wünschen sichern können . Es gibt auch andere Möglichkeiten, diese Server zu sichern , auf die wir in späteren Videos eingehen werden. Es unterstützt Macos. Seit Kurzem unterstützen Amazon Web Services auch virtuelle Maschinen, die auf Mac-Betriebssystemen basieren. Wenn Sie virtuelle Maschinen auf Mac OS benötigen, können Sie diese auch bei AWS-Studenten erwerben. Dies sind einige der wichtigsten Vorteile von Amazon EC Two. 35. Komponente von Amazon EC2: Willkommen zurück, Studierende. Im letzten Video haben wir Elastic Compute Cloud C two und seine Vorteile verstanden . Wir werden mit derselben Diskussion fortfahren und die Elemente von Amazon C Two verstehen. Aber bevor wir beginnen, lassen Sie uns die Definition von EC Two noch einmal zusammenfassen Es ist eine virtuelle Maschine in Amazon Web Services, aber AWS nennt sie nicht virtuelle Maschinen Stattdessen werden einige spezifische Begriffe für EC 21 verwendet. Diese Begriffe beziehen sich auf die Instanz, bei der es für EC 21 verwendet. Diese Begriffe beziehen sich auf die Instanz, bei der es sich lediglich um eine virtuelle Maschine mit Amazon C Two handelt. Wenn wir eine virtuelle Maschine bei Amazon starten, sagen wir, dass wir in Zukunft eine C-2-Instance gestartet haben. Anstatt sie als virtuelle Maschine E two zu bezeichnen, werden wir sie als EC Two-Instance bezeichnen. Ein weiteres wichtiges Element in Amazon C two ist AM I. Es steht für Amazon Machine Image. Dabei handelt es sich im Grunde um eine Vorlage, die ein Betriebssystem und zusätzliche Software enthält, ein Betriebssystem und die zum Starten von EC Two Instances benötigt werden. Machen wir es uns einfach. C Two Instance ist eine virtuelle Maschine, oder? Und eine virtuelle Maschine, sie ähnelt Ihrem Laptop. Nehmen wir an, Sie haben einen neuen Laptop gekauft. Sie müssen das Betriebssystem und einige allgemeine Software wie Treiber, Browser, Mediaplayer usw. installieren, oder? Denn ohne diese Betriebssysteme und Software ist Ihr Laptop nur eine Box Das Gleiche gilt auch für EC Two Instance. Es ist auch wie Ihr Computer und benötigt deshalb ein Betriebssystem und zusätzliche Software, um es in AWS verwenden zu können. Sie können dies tun, indem Sie AMI verwenden. Sobald Sie eine EC Two-Instance gestartet haben, möchten Sie darauf zugreifen, damit Sie Ihre Anwendung installieren oder eine Konfiguration vornehmen können . Um auf Ihre EC Two-Instance zugreifen zu können, benötigen Sie einige Zugangsdaten, und diese Zugangsdaten sind nichts anderes als eine Grundgebühr , über die wir gerade sprechen. Ein Schlüsselzahler besteht aus einem öffentlichen Schlüssel und einem privaten Schlüssel. Dabei handelt es sich um eine Reihe von Sicherheitsanmeldedaten, mit denen Sie Ihre Identität nachweisen, wenn Sie eine Verbindung zu einem Amazon EC Zwei Instanzen: Wenn Sie eine Instance starten, fragt AWS nach einem Keypayer Sie können ein vorhandenes Schlüsselpaar auswählen oder ein neues erstellen. Wenn wir ein Keypair erstellen, können Sie bei AWS den privaten Schlüssel herunterladen und der öffentliche Schlüssel wird beibehalten. Wenn Sie eine EC Two-Instance starten, speichert Amazon den öffentlichen Schlüssel standardmäßig den öffentlichen Schlüssel Im Grunde verwenden Sie Ihren privaten Schlüssel, um sich bei Ihrer Instance anzumelden Wir werden das sehen, wenn wir die Demo von EC machen. Zwei wichtige Dinge, die Sie hier beachten sollten Da Sie einen privaten Schlüssel verwenden, um sich bei Ihren EC-Instances anzumelden, kann sich jeder, der über diesen privaten Schlüssel verfügt , auch mit Ihren Instances verbinden. Stellen Sie sicher, dass Sie Ihren privaten Schlüssel an einem sicheren Ort aufbewahren . Ein weiterer wesentlicher Bestandteil von EC Two ist die Sicherheitsgruppe. Dies ist ein weiterer Dienst, den Sie verwenden können , um Ihre Instances weiter zu sichern. Mit der Sicherheitsgruppe können Sie steuern, wer auf Ihre EC Two Instances zugreifen kann. Sie fungiert als virtuelle Firewall für Ihre beiden EC-Instances, die den eingehenden und ausgehenden Datenverkehr kontrolliert Eingehend bedeutet, dass Sie konfigurieren können, wer von außen eine Verbindung zu Ihren EC Two-Instances herstellen kann, und ausgehend bedeutet, womit Ihre beiden Instances Ein weiteres Element von EC Two sind Tags. Ein Tag ist eine Bezeichnung für Ihre AWS-Ressourcen. Es kann von Ihnen oder AWS zugewiesen werden. Und jedes Tag besteht aus einem Schlüssel und einem Wert. Wenn Sie eine EC Two-Instance erstellen, können Sie Ihre virtuellen Maschinen mit unterschiedlichen Namen taggen. Dabei kann es sich um die Umgebung, Eigentümer der Kostenstelle oder den Namen der Anwendung handeln. Diese Tags helfen Ihnen dabei, Ihre Server zu identifizieren , wenn in Ihrem Konto Tausende von Servern laufen. Jeder Tag-Schlüssel muss für jede Ressource einzigartig sein. Und jeder Tag-Schlüssel kann nur einen Wert haben. Sie können Tags verwenden, um Ihre Ressourcen in Ihrem Konto zu organisieren und Ihre AWS-Kosten mithilfe von Kostenzuweisungs-Tags zu verfolgen . Lassen Sie uns die Tags zur Kostenzuweisung verstehen. In einigen Organisationen gab es früher eine Kostenstelle, wenn Sie mehrere Anwendungen in einem AWS-Konto ausführen wollten. Sie können zwei EC-Instances mit Kostenstelle, Schlüssel und Wert kennzeichnen , was Ihnen hilft, die Kosten pro Kostenstelle nachzuverfolgen . Bisher sind dies die verschiedenen Begriffe und Funktionen, die Sie in Bezug auf Amazon EC Two kennen und verstehen müssen . Lassen Sie uns diese Lektion hier abschließen. 36. EC2-Instanz-Namenskonvention: Hallo Studierende. Willkommen zurück. In der letzten Sitzung haben wir die verschiedenen Elemente einer EC-Two-Instance wie Amazon Machine Image oder AMI Security Group, Key Payer und Tax verstanden EC-Two-Instance wie Amazon Machine Image oder AMI Security Group, Key Payer und Tax Es ist noch ein wichtiges Merkmal der beiden EC-Instanzen übrig, das wir verstehen müssen Es handelt sich um die Art der EC-Zweiinstanz. Vorher werden wir jedoch die Benennungskonvention für zwei C-Instanzen verstehen. Es wird Ihnen beibringen, wie man die Namen von zwei EC-Instanzen liest. In diesem Video lernen Sie zunächst die Benennungskonvention für zwei EC-Instanzen kennen. Sie werden im Internet keine klare Erklärung dazu finden , auch nicht in der AWS-Dokumentation. Ich bitte Sie, diesem Video besondere Aufmerksamkeit zu schenken, da es Ihnen auch auf Ihrer Reise mit AWS Cloud sehr helfen wird. Lass uns anfangen. Der Name der AWS-Instanz sieht wie auf dem Bildschirm M 6.2 groß aus. Wie Sie sehen können, enthält der Name Zeichen und Zahlen. Der vollständige Name hat nicht wirklich eine Bedeutung. Wir werden es aufschlüsseln und versuchen, einen Sinn daraus zu machen. Eines ist klar: Wenn wir alles zusammenfügen, handelt es sich um einen Instanztyp. Wenn Sie sich einen Instanztyp ansehen, wird er ungefähr so aussehen. Lassen Sie uns es jetzt aufschlüsseln. Der Name dieses Instanztyps besteht aus vier Komponenten: Instanz, Familie, Instanzgenerierung, zusätzliche Funktionen und Instanzseite. Sie können das Video hier anhalten oder ein Bild oder einen Screenshot davon machen, um später darauf zurückgreifen zu können. Gehen wir sie eins nach dem anderen durch. Der erste Buchstabe des Instanztyps steht für die EC-Two-Instance-Familie. Hier steht das M für die Instanzfamilie. Diese AWC-Instance gehört zur Familie der Allzweck-Computing-Instances Der Typ AWS hat vier Hauptkategorien von Instance-Typen. Diese sind für allgemeine Zwecke , rechenoptimiert, speicheroptimiert und speicheroptimiert. Wir werden sie in der nächsten Lektion ausführlich behandeln. Es gibt auch Unterklassifizierungen innerhalb dieser vier Instanzfamilien, aber das ist auf dieser Ebene nicht unbedingt erforderlich, wir werden sie als Nächstes überspringen Die Zahl sechs in M six steht für die Generation der AWS C Two-Instance Die neueste oder aktuelle Generation von AWS C Two-Instances ist immer besser. Es ist auch billiger als die vorherige Generation. Aus diesem Grund empfiehlt AW immer , den Instance-Typ der neuesten Generation zu verwenden. Man kann es mit einem Auto in Verbindung bringen. Das Unternehmen bringt immer neue Automodelle mit einigen neuen Zusatzfunktionen auf den Markt. Es empfiehlt seinen Kunden die neuesten Modelle, da diese neue Funktionen zu einem besseren Preis enthalten. Dann haben wir in derselben Instanz, was die zusätzliche Leistungsfähigkeit der EC darstellt , zwei Instanzen. Diese Tabelle enthält all diese Funktionen. Amd und Graviton Two sind die beiden Prozesse innerhalb dieser beiden EC-Instanzen Wenn der Prozessor auch Ihren Anforderungen entspricht, können Sie auch eine prozessorbasierte C2-Instanz auswählen Aws bietet auch lokalen NVME-SSD-Speicher , der direkt mit EC Two verbunden ist , um eine bessere Netzwerkleistung Daher sind hohe Netzwerkfähigkeit und zusätzliche Kapazität die beiden Funktionen dieses Instance-Typs Die letzte und wichtigste Komponente dieses Instance-Typs ist die Instance-Größe. Die Größe 2 x L von M 6,2 x Large steht für die Instance-Größe. Lassen Sie uns verstehen, was die beiden x groß bedeuten. Die Zahl zwei x groß steht für die Darstellung der Hemdgröße der AWS-C-2-Instanz Es steht für die Menge an CPU-Speicher, Speicher und Netzwerkleistung einer C Two-Instance Diese Instanz, die zwei x groß ist, verfügt über die doppelte Anzahl CPU-Arbeitsspeicher und Speicherressourcen im Vergleich zur Basisgröße, die X groß ist. Wie funktioniert sie? Lass uns das verstehen. Wenn jede Instanz doppelt so groß ist wie bei der vorherigen Größe, verfügen wir über doppelt so viele CPUs und Arbeitsspeicher wie bei der vorherigen Größe. Das ist groß, 26x groß entspricht 162x In ähnlicher Weise entspricht 262 x groß einer Größe von 154x. Lassen Sie uns das nun aus der Kapazitätsperspektive betrachten. Wenn Sie zur AWS-Dokumentation gehen und zu den sechs Instance-Typen navigieren, wird Ihnen dieses Bild angezeigt. X large hat im Vergleich zu Large die doppelte Anzahl an CPUs und Arbeitsspeicher. Die R-Kosten bei Bedarf sind ebenfalls doppelt so hoch. Jetzt fragen Sie sich bestimmt, ob ich mich für 12x Large Instances oder zwei x Large Instances entscheiden sollte oder zwei x Large Instances Schauen wir uns dazu den Preis und die Kapazität jeder Instanz an Wie Sie sehen können, gibt es keinen Unterschied zwischen ihnen. ob Sie zwei x groß oder 12 x groß wählen, erhalten Sie am Ende die gleiche Kapazität zu gleichen Kosten Es ist jedoch immer besser, eine kleinere Instance-Größe anstelle einer größeren zu verwenden eine kleinere Instance-Größe anstelle einer , es sei denn, Sie haben spezielle Anforderungen Es gibt viel zu viele Standing-Klassifizierungen von AWS, EC zwei Wir werden die wichtigsten im nächsten Video behandeln, obwohl dies nirgends gut dokumentiert ist, hat AWS C two eine hervorragende Namenskonvention Ich hoffe, dieses Video hat Ihnen geholfen, dies zu verstehen Falls Sie sich nicht sicher sind, empfehle ich, es erneut anzusehen. Das ist alles für diese Lektion. 37. Instanztypen: Hallo, Studenten. Willkommen zurück. In der letzten Lektion haben wir die Benennungskonvention für Instanztypen gelernt. Sie haben mehr über EC bis hin zu Instanzgröße, Generierung von Produktfamilien und weiteren Funktionen gelernt . All dies hilft Ihnen bei der Auswahl des EC-Top-Instance-Typs für Ihre Anwendung. In diesem Video werden wir etwas tiefer gehen und die verschiedenen EC-Instance-Typen verstehen. Sobald Sie diese Lektion erfolgreich abgeschlossen haben, können Sie entscheiden welcher Instance-Typ Ihren Anforderungen am besten entspricht. Lassen Sie uns mit einer kurzen Zusammenfassung dessen beginnen was der EC-Two-Instance-Typ ist Es ist eine Kombination aus CPU-Speicher, Speicher und Netzwerkkapazität Verschiedene Kombinationen helfen Ihnen bei der Auswahl der geeigneten Mischung für Ihre Anwendungen. Beim Start ist der Instance-Typ C Two eines der obligatorischen Elemente, für die Sie sich entscheiden müssen, aber warum er so wichtig ist. Lassen Sie uns das anhand eines Beispiels verstehen. Wenn Sie einen Laptop kaufen, definieren Sie zunächst Ihre Anforderungen. Und auf der Grundlage dieser Anforderungen wählen Sie eine Konfiguration für Ihren Laptop aus, z. B. Arbeitsspeicher, Speicher, Grafik usw. Das Gleiche gilt auch für die EC Two-Instance. Wenn Sie eine C2-Instance in Amazon starten, müssen Sie CPU-Speicher-, Speicher- und Netzwerkkonfigurationen bereitstellen , um Ihnen die Arbeit zu erleichtern. AWS gibt es Instance-Typen mit unterschiedlichen Int-Werten in Bezug auf CPU-Speicher, Speicher und Netzwerk. Jeder Instance-Typ hat mehrere Größenoptionen für unterschiedliche Workloads Wir haben uns bereits mit der Instanzgröße befasst. In der letzten Lektion sollten Sie Instance-Typen starten , die für Ihre Anwendungen am besten geeignet sind . Verstehen Sie jetzt, was wir hier mit „am besten geeignet“ meinen. Jede Anwendung ist anders konzipiert und erfordert eine bestimmte Hardwarekonfiguration. Einige benötigen mehr Speicher, andere benötigen mehr CPU und so weiter. Daher sollten Sie die entsprechende Rechenkapazität für Ihre Anwendung verwenden . Es ist einfach, die beste Konfiguration für Ihre Anwendungen in AWS auszuwählen . Wie bei Amazon werden Instance-Typen in Familien eingeteilt , um unterschiedlichen Anwendungsfällen gerecht zu werden. Wir werden uns vier grundlegende und unverzichtbare ECto-Instance-Typen ansehen . Sie umfassen Allzweck-Instances, rechenoptimierte Instances, speicheroptimierte Instances und speicheroptimierte Instances. Beginnen wir mit dem Allzweck-Instanztyp. Er bietet ein ausgewogenes Verhältnis zwischen Rechenspeicher und Netzwerkressourcen und kann für eine Vielzahl von Workloads verwendet werden Wie der Name schon sagt, handelt es sich dabei um den grundlegendsten und vielseitigeren Typ AWS, EC to Instances. Wir verwenden Allzweck-Instances, Wir verwenden Allzweck-Instances bei denen wir nicht sicher sind, ob die Anwendung mehr CPU oder Arbeitsspeicher benötigt, da dies mit einem ausgewogenen Verhältnis von Arbeitsspeicher, Rechenleistung und Netzwerk einhergeht Arbeitsspeicher, Rechenleistung und Wenn wir später herausfinden , dass diese Anwendung eher speicher - oder rechenoptimiert ist, können wir uns für bestimmte Arten von Instances entscheiden Schauen wir uns nun die besten Anwendungsfälle für Allzweckinstanzen an. Sie eignen sich für Webserver, die Flotten zwischenspeichern, und für verteilte Datenspeicheranwendungen Da diese Anwendungen ein ausgewogenes Verhältnis zwischen Arbeitsspeicher, CPU und Netzwerk erfordern , eignen sie sich auch für Entwicklungs- und Demoumgebungsanwendungen . Der nächste Instanztyp ist die rechneroptimierte Instanz. Sie eignen sich ideal für rechenintensive Anwendungen , die von Hochleistungsprozessen profitieren. Dieser Instance-Typ ist im Vergleich zu anderen Rechenleistungen wie Arbeitsspeicher, Speicher und Netzwerken für CPUs optimiert Vergleich zu anderen Rechenleistungen . Daher fällt der Instance-Typ mit leistungsstärkeren CPUs in diese Kategorie Lassen Sie uns über ihre Anwendungsfälle sprechen. Dies ist am besten für Anwendungen geeignet , die eine hohe Rechenleistung benötigen. Die rechenoptimierten Instances eignen sich hervorragend für die Batch-Verarbeitung von Medien, Transcodierung, Hochleistungs-Wave-Server, Hochleistungsrechnen, wissenschaftliche Modellierung, dedizierte Gaming-Server, Add Server-Engines, maschinelles Lernen, Inferenz und andere rechenintensive Anwendungen Als Nächstes folgen speicheroptimierte Instanzen. Sie sind so konzipiert, dass sie eine schnelle Leistung für Arbeitslasten bieten, die für die Verarbeitung großer Datensätze viel Speicher benötigen Verarbeitung großer Datensätze viel Speicher Diese Instances sind hier speicheroptimiert , wenn wir uns Instance-Typen der Kategorien Speicheroptimierung und Speicheroptimierung ansehen der Kategorien Speicheroptimierung . Mehr Arbeitsspeicher als Speicher, CPU und Netzwerk. Mit anderen Worten, speicheroptimierte Instance-Typen sind eher für den Arbeitsspeicher als für andere Funktionen optimiert. Schauen wir uns ihre Anwendungsfälle an. Speicheroptimierte Instanzen werden in Anwendungen wie Open-Source-Datenbanken, in Speicher-Caches und Big-Data-Analysen in Echtzeit Die nächste Option sind speicheroptimierte Instanzen. Speicheroptimierte Instances sind für Workloads konzipiert, die einen hohen sequenziellen Lese- und Schreibzugriff auf riesige Datensätze und lokalen Speicher erfordern hohen sequenziellen Lese- und Schreibzugriff auf riesige Datensätze und Sie sind für die Bereitstellung von Zehntausenden zufälliger Eingabe- und Ausgabeoperationen mit niedriger Latenz pro Sekunde für Anwendungen optimiert zufälliger Eingabe- und Ausgabeoperationen mit niedriger Latenz pro Sekunde für Anwendungen Dieser Instance-Typ ist auf der Netzwerkseite der EC Two-Instance optimiert . Er unterstützt mehr Lese- und Schreibaktionen auf der Festplatte. Wenn unsere Anwendung viel Lese - und Schreibvorgänge in der Festplattendatenbank oder im Netzwerk durchführt, sollten wir einen speicheroptimierten Instance-Typ verwenden. Dieser Instance-Typ maximiert die Anzahl der pro Sekunde verarbeiteten Transaktionen oder eingabe-, ausgabeintensiven und geschäftskritischen Workloads Transaktionen pro Sekunde bedeutet die Anzahl der Transaktionen die das Netzwerk in einer Sekunde verarbeiten kann Wenn die EC Two-Instance in der Lage ist, zehn Transaktionen zum und vom Speicher ohne Verzögerung abzuschließen , können Sie sagen, dass die Instance maximal zehn Transaktionen pro Sekunde verarbeiten kann . Schauen wir uns ihre Anwendungsfälle an. Die Anwendung verfügt über mittelgroße Datensätze, die eine hohe Rechenleistung und einen hohen Netzwerkdurchsatz erfordern Dazu gehören relationale Datenbanken wie Mysql, Mariadb, Post Gray Sql und NOSQL-Datenbanken wie Ke, DB, Ilab wie Ke, DB, Ilab Dieser Instance-Typ eignet sich auch ideal für Workloads, die einen sehr schnellen Zugriff auf mittelgroße Datensätze auf lokalem Speicher erfordern , wie Suchmaschinen und Datenanalyse-Workloads wie Es sind so viele Informationen. Lassen Sie mich es zusammenfassen, es wird Ihnen helfen die beste Entscheidung für den Instance-Typ zu Das Wichtigste ist, diese vier Hauptklassifizierungen zu verstehen Sobald Sie diese verstanden haben, wird sie Ihren häufigsten Anwendungsfällen dienen Bei der Auswahl eines beliebigen Instance-Typs für Ihre Anwendung sollten Sie sich außerdem fragen, ob Ihre Anwendung speicherintensive oder rechenintensive Arbeit leistet . Benötigt sie viel Arbeit? Oder ist es nur die generische Arbeit, die es leisten wird? Sobald Sie die Hauptklassifikation verstanden haben , kann die Unterklassifikation ganz von selbst kommen. Wie in einer speicheroptimierten Instanz benötigen Sie möglicherweise mehr RAM oder höher optimierten Speicher Sobald Sie den Instance-Typ kennen, sollten Sie schließlich immer die kleinere Instanz wählen, um auf der Grundlage des Experiments durchzuführen und die tatsächliche Instanzgröße als Faustregel festzulegen Wählen Sie immer eine kleinere Instanzgröße, was Geld spart. Das ist alles für diese Lektion. 38. Starte deine erste EC2-Instanz: Hallo Studierende. Willkommen zurück. In diesem Video werden wir unsere erste EC Two-Instance über die AWS-Konsole starten . Wir werden uns auch die verschiedenen Schritte und Funktionen ansehen AWS beim Start der beiden EC-Instances bietet. Am Ende dieses Videos werden Sie in der Lage sein, EC Two Instances über die Managementkonsole zu starten . Sehen Sie sich das Video bis zum Ende an und probieren Sie es dann selbst aus. Gehen wir zur AWS-Managementkonsole, geben EC two in die Suchleiste ein und klicken Sie auf das Suchergebnis EC two. Gehen Sie direkt zum EC Two-Dashboard. Wie Sie sehen können, habe ich keine Instanzen in meinem Konto. Wenn wir hier auf Instanzen klicken , gelangen Sie zur Instanzseite. Diese Seite enthält die Liste aller Instances in dieser Region. Da wir keine Instanzen haben, ist die Liste leer. Lassen Sie uns unsere erste EC Two-Instance starten. Stellen Sie zunächst sicher, dass Sie eine Region auswählen , die sich in Ihrer Nähe oder in der Nähe Ihres Kunden befindet. Da ich in Indien bin, werde ich die Region Mumbai auswählen. Klicken wir auf Launch Instances. Zunächst müssen wir ein AMI namens Amazon Machine Image auswählen . Hier haben wir eine Liste von AMIs zur Auswahl. Es hat Amazon, Linux, zwei, Max OS, Red Hat und viele mehr. Wenn Sie sich das Dashboard auf der linken Seite ansehen, werden Sie andere Optionen sehen. Gehen wir hier zu meinen AMIs Sie werden die Liste Ihrer eigenen maßgeschneiderten AMIs sehen. Derzeit haben wir keine AMIs in unserem Konto erstellt. Wir können hier keine AMIs aufgeführt sehen. Die nächste Option ist AWS Marketplace, wo wir Tausende von AMIs haben , die von Drittanbietern erstellt wurden. Dann haben wir Community-AMIs, die von AWS und seinen Benutzern entwickelt wurden. Sie können von jedem kostenlos genutzt werden. Bitte beachten Sie, dass Sie immer vorsichtig sein sollten , wenn Sie AMIs verwenden von anderen Personen als AWS oder vertrauenswürdigen AWS-Anbietern erstellt wurden. Sie könnten Sicherheitslücken enthalten. Es gibt auch einen Filter , der nur freie Reifen anzeigt. Dadurch werden uns nur die AMIs angezeigt, die für das Gratis-Tier in Frage kommen . Wenn wir dies für diese Demo überprüfen, erstellen wir eine Linux-to-Instance mit Amazon Linux Two. Ami. Dieses AMI ist für das kostenlose Abonnement geeignet, was bedeutet, dass wir die Instance starten können , ohne dafür Geld auszugeben. Wählen Sie Amazon, Linux zwei , und wir werden zu Schritt zwei weitergeleitet. Wählen Sie einen Instance-Typ. Wie Sie jetzt sehen können, uns viele Instance-Typen zur Verfügung. Scrollen Sie einfach nach unten und Sie werden eine lange Liste von Instanzen sehen. Wir haben die Möglichkeit, diese Instanzen nach ihrer Familie und Generation zu filtern . Wir haben verschiedene Instanzen, die auf unterschiedlichen Anforderungen basieren. Die Liste umfasst Instanzen mit RAM-Optimierung, CPU-Optimierung, GPU-Optimierung usw. In dieser Demo werden wir Two Point Micro verwenden, da wir keine besonderen Anforderungen haben und wir auch im freien Modus bleiben wollen. Wie Sie sehen können, ist Two Point Micro die einzige Instanz, die kostenlos verfügbar ist. In einigen Regionen werden Sie auch Three Point Micro sehen. Wenn Sie nur üben, stellen Sie sicher, dass Sie immer den Instance-Typ wählen , für den ein kostenloses Abonnement in Frage kommt, um Code zu vermeiden. Wir können unsere Instance jetzt überprüfen und sofort starten , indem wir einfach hier klicken. Aber bevor wir das tun, gehen wir zur Konfiguration der Instanzdetails über. Dies wird eine ganze Reihe von Optionen eröffnen. Lassen Sie uns nacheinander einige wichtige Parameter untersuchen . Die erste Option ist die Anzahl der Instanzen. Wenn Sie mehr als eine Instanz benötigen, können Sie dies ändern und mehrere C2-Instanzen mit derselben Konfiguration erstellen . Wir können auch eine C-2-Instance in der Gruppe Launch to Autoscaling starten, indem wir auf den Link Launch into Autoscaling Lassen Sie uns vorerst bei einer Instanz bleiben. Dies werden wir im nächsten Modul behandeln. Als Nächstes haben wir die Netzwerkoption, um unsere VPCs auszuwählen. Wählen wir die Pat Cup VPC , die wir im vorherigen Lab erstellt haben Wählen Sie das Subnetz aus, in dem wir die Instance starten möchten. Da wir möchten, dass auf unsere Instance über das Internet zugegriffen werden kann, sollten wir ein öffentliches Subnetz wählen der nächsten Option werden wir gefragt, ob AWS dieser Instance eine öffentliche IP zuweisen soll Lassen wir das vorerst aktiviert. Der nächste wichtige Parameter ist die Rolle. Die Rolle wird verwendet, um Berechtigungen dafür zu erteilen , wer auf diese EC Two-Instance zugreifen kann. Wählen wir die Rolle aus, die wir in unserem ersten Lab erstellt haben. Falls Sie eine neue Rolle erstellen möchten, können Sie zu IAM navigieren, indem Sie auf den Link Neue IAM-Rolle erstellen und dann eine Rolle erstellen Klicken Sie auf Weiter, um zur nächsten Seite, Speicher hinzufügen, zu gelangen. Wie Sie sehen, haben wir bereits ein EBS-Volume für uns ausgewählt Dies ist das Root-Volume, das das Betriebssystem und andere Software enthält das Betriebssystem und andere Software Für diesen Fall fügen wir unserer Instanz einen neuen Speicher hinzu. Klicken Sie auf Neues Volume hinzufügen und geben Sie die Parameter unseres Volumes an. Unter der Gerätespalte sehen wir den SDB-Pfad Dies ist der Pfad, an den unser Volume angehängt wird. Lassen wir es vorerst als Standard belassen und weitermachen. In der Snapshot-Option können wir wählen, ob wir aus einem Snapshot, den wir zuvor erstellt haben, ein neues EBS erstellen aus einem Snapshot, den wir zuvor erstellt haben, ein Da wir keine derartigen Anforderungen haben, lassen wir das Feld vorerst leer Als nächstes kommt die Lautstärkeseite. Lassen Sie uns unsere Lautstärke auf zehn GBS ändern. Die nächste Spalte ist das Volumen. Wir haben alle SSDs, HDDs und Magnetspeicher zur Auswahl Wenn wir uns den Volumetyp für das Root-Volume ansehen, werden Sie feststellen, dass wir hier weniger Optionen haben Das liegt daran, dass nur SSDs ein Root-Volume sein können. Für eine EC-Two-Instance haben wir nicht die HDD-Option für das Root-Volume Kommen wir zurück zu unserem neuen Volume und belassen wir es bei GP Two, bei dem es sich um die Allzweck-SSD handelt. Die nächste Option ist IOPS. Wie Sie sehen, haben wir keine Möglichkeit, dies zu ändern. Gehen wir zurück und ändern unseren Volumetyp. Wenn wir IO 102 oder GP Three wählen, haben wir die Möglichkeit, IOPS bereitzustellen Dies liegt daran, dass die IOPs für GP zwei festgelegt sind Volumen bei drei IOPS pro GB liegt. Lasst uns das verstehen Wenn wir erneut GP Two auswählen, können Sie die IOPS 100 sehen, was mehr als drei IOPS pro Da unsere Volume-Größe zehn GB beträgt, bedeutet dreimal zehn, dass wir nur 30 IOPs haben sollten Das liegt daran, dass wir für GP zwei mindestens 100 IOPs haben. Wenn wir die Volumenseite auf beispielsweise 100 GBS ändern, können Sie sehen, dass wir 300 IOPS haben Jetzt ändern wir die Seite wieder auf zehn und wählen den Volumetyp GP Two Die nächste Option ist der Durchsatz , der uns den Durchsatz unseres Volumes anzeigt. Ich werde den Durchsatz auf dem EBS-Bildschirm behandeln. Wir können dies nur für einen Volumentyp ändern, den GP-Typ mit drei Volumes Die nächste Option ist das Kontrollkästchen „ Bei Kündigung löschen“. Mit dieser Option legen wir fest, was mit dem EBS-Volume geschehen soll, nachdem die EC Two-Instance beendet wurde Wenn wir „Bei Kündigung löschen“ aktiviert haben, wird das Volume ebenfalls gelöscht wenn unsere Instance beendet wird Bitte denken Sie daran, wenn Sie möchten , dass Ihre Daten auch nach der Kündigung der Instanz erhalten bleiben, vergessen Sie nicht, dieses Häkchen für diese Demo zu Belassen wir es als Standard, was bedeutet, dass, wenn EC Two beendet wird, auch das Root-Volume gelöscht wird Die nächste Seite ist Tags hinzufügen. Lassen Sie uns das vorerst überspringen und zur nächsten Seite übergehen. Sicherheitsgruppe konfigurieren. Die erste Option besteht darin, entweder eine neue Sicherheitsgruppe zu erstellen oder eine bestehende zu verwenden. Da wir in unserem Konto keine Sicherheitsgruppe erstellt haben , lassen Sie uns hier eine erstellen. Sie können den Namen und die Beschreibung der Sicherheitsgruppe nach Belieben ändern . Die nächste und wichtigste Option ist die Konfiguration von Sicherheitsgruppenregeln. Wie Sie sehen können, hat AWS bereits ein Standard-S hinzugefügt , bei dem es sich um eine Secure Shell-Sicherheitsgruppe handelt. Diese Gruppe ermöglicht es uns, per SSH auf unsere EC Two-Instance zuzugreifen. Aber warum haben wir immer noch eine Warnung? Das liegt daran, dass, wenn Sie die Quellspalte sehen, diese SH-Regel für alle IP-Adressen geöffnet ist . Das ist ein Problem. Lassen Sie uns diesen Wert auf etwa 123.123 0.123 0.123 ändern und Da wir hier keine unternehmenskritischen Systeme haben, ändern wir ihn durch Null wieder auf 0,0 0,0 0,0 Es ist nicht die beste Methode, SSH von jeder IP der Welt aus zuzulassen SSH von jeder IP der Welt aus Wenn Sie über zwei EC-Instances in der Produktion verfügen, stellen Sie sicher, dass Sie diesen Wert auf Ihren eigenen IP-Adressbereich ändern diesen Wert auf Ihren eigenen IP-Adressbereich Lassen Sie uns eine neue Regel hinzufügen, um HTTP-Verbindungen zu unserer Instanz zuzulassen . Wie Sie sehen können, wurden unsere Protokolle durch die Auswahl von HTTP auf TCP und Port 28 festgelegt, was das Standard-HTTP-Protokoll und der Standard-HTTP-Port ist. Wir möchten, dass jeder HTTP-Verbindungen zu dieser Instanz herstellen kann . Wir werden die Quelle hier als Standard belassen. In der letzten Spalte wird der Regel eine Beschreibung hinzugefügt. Lassen Sie uns hier keine Regel hinzufügen. wir nun die Sicherheitsgruppe der C-2-Instance konfiguriert haben , wir mit der Überprüfung und dem Start fortfahren. Sie können alle Parameter für unsere C-Two-Instance sehen. Klicken Sie hier auf Launch. Jetzt müssen wir ein Schlüsselpaar angeben, da wir noch kein Schlüsselpaar für unser Konto haben. Lassen Sie uns eines erstellen, ein neues Schlüsselpaar erstellen und einen Schlüsselpaarnamen für unser Beispiel hinzufügen Wir werden das Schlüsselpaar verpackt benennen. Klicken Sie auf den Download-Keeper. Sie werden sehen, dass eine Pm-Datei Es ist wichtig, diese Datei sicher aufzubewahren da sie für den Zugriff auf unsere EC-Two-Instanz benötigt wird. Denken Sie auch daran, dass sie nicht erneut heruntergeladen werden kann. Klicken Sie auf Launch Instance, um zur letzten Seite zu gelangen. Wenn Sie auf View Instance klicken, werden Sie sehen, dass AWS eine EC Two-Instance für Sie erstellt. Der ganze Vorteil der Cloud besteht darin, dass ich mit nur wenigen Klicks 100 Instanzen wie diese starten kann . Cloud Computing ist sehr flexibel und bietet Ihnen schnellen Zugriff auf Rechenleistung, wann immer Sie sie benötigen. Wie Sie sehen können, läuft die Instanz. Wenn Sie nun auf das Kontrollkästchen klicken, finden Sie alle Instanzdetails, die öffentlichen IP-Sicherheitsgruppen, Integritätsprüfungen usw. Wann immer Sie Informationen zu EC Two-Instances benötigen, suchen Sie hier nach ihnen. Wenn Sie im linken Dashboard auf die Volume-Optionen klicken , können Sie auch die beiden EBS-Volumes sehen, die wir erstellt haben ein Root-Volume mit acht GB und ein zusätzliches Volume mit zehn GB, die wir separat erstellt haben, nachdem wir das Ende dieses Labs Im nächsten Lab werden wir HTTPD auf unserer EC Two-Instance installieren und eine kleine HTTPD-Website sehen Schüler, auf diese Weise starten wir zwei EC-Instanzen. In der nächsten Lektion werden wir diese Diskussion fortsetzen und sehen, wie wir H in unserer Instanz einschätzen können und so weiter. Danke. 39. SSH EC2-Instanz, Installiere Httpd: Im vorherigen Video haben wir unsere erste EC Two-Instance erstellt und uns bei der Erstellung der Instance mehrere Parameter und Optionen angesehen bei der Erstellung der Instance mehrere Parameter und Optionen In diesem Video stellen wir mit einem Linux - oder Mac-Betriebssystem eine SSH-Verbindung zur C-2-Instanz her, installieren den STTPD-Dienst und starten eine Testanwendung auf C two installieren den STTPD-Dienst und starten eine Testanwendung auf Wir werden auch sehen, wie die Instanz beendet werden kann, um unerwartete Kosten zu vermeiden Wenn Sie sich fragen, was SSH ist, dann ist SSH eine Möglichkeit, einen Remote-Computer über die Befehlszeile zu steuern Mithilfe von SSH können wir uns bei der EC Two-Instance anmelden und alle Arten von Vorgängen ausführen , wie wir es auf unseren Laptops tun Gehen wir zunächst zur AWS-Konsole. Geben wir nun EC two in die Suchleiste ein und klicken Sie auf EC two, um direkt zum EC Two-Dashboard zu gelangen. Wie Sie sehen können, befindet sich unsere Instanz im laufenden Zustand. Wenn Sie sich an das vorherige Lab erinnern, habe ich Ihnen gesagt, dass Sie die Pm-Datei, die beim Erstellen der Instanz heruntergeladen wurde, beibehalten dass Sie die Pm-Datei, die beim Erstellen der Instanz heruntergeladen wurde, sollen. Nicht, dass wir ohne die Pm-Datei nicht per SSH auf die Instanz zugreifen Falls Sie die Datei verloren oder gelöscht haben, müssen Sie die Instanz mit einem neuen Schlüsselzahler neu erstellen Instanz mit einem neuen Schlüsselzahler Als Nächstes sollten Sie sicherstellen, dass Ihre Sicherheitsgruppe über Regeln verfügt , die SSH auf Port 22 und STTP auf Port 80 zulassen Lassen Sie uns die öffentliche IP dieser Instanz finden. Klicken Sie hier auf das Kontrollkästchen Jetzt können Sie alle Details zur ausgewählten EC Two-Instance sehen . Hier ist meine öffentliche IP. Lassen Sie uns diesen Wert kopieren. Lassen Sie uns nun weitermachen und eine SSH-Verbindung zu unserer Instanz herstellen. Dazu müssen Sie ein Terminal öffnen und den Befehl S C two als Benutzer an der angegebenen IP-Adresse eingeben S C two als Benutzer an der angegebenen IP-Adresse C two user ist der Standardbenutzername für alle Amazon Linux-AMIs. Lassen Sie uns diesen Befehl ausführen. Wie Sie sehen können, ist der Befehl fehlgeschlagen, da die Erlaubnis verweigert wurde. Dies wird erwartet, da wir nicht möchten, dass jemand nur von einer öffentlichen IP aus auf unsere EC Two-Instance zugreifen kann. Hier werden wir die heruntergeladene Pm-Datei verwenden. Wir werden zu dem Ordner gehen, in dem ich die Datei gespeichert habe. Wie Sie sehen können, habe ich meine PM-Datei in diesem Ordner. Jetzt werden wir denselben Befehl ausführen, aber wir werden auch die Schlüsseldatei hinzufügen. Jetzt lautet der Befehl C zwei Benutzer an der IP-Adresse. Jetzt machen wir dasselbe wie zuvor, aber hier teilen wir AWS auch mit, dass wir eine Schlüsseldatei für die Instanz haben. Klicken Sie auf Enter. Jetzt erhalten wir einen weiteren Fehler, dass die Erlaubnis verweigert wurde. Dies ist eine wichtige Phase und eine beliebte Frage bei AWS-Prüfungen. Warum wird uns dieser Zugriff verweigert? Es heißt Warnung Ungeschützte private Schlüsseldatei. Wenn wir die Datei zum ersten Mal von AWS auf eine Linux-Instance herunterladen , hat sie die Berechtigungen 0644 Wie Sie hier sehen können, sind diese Berechtigungen für eine Schlüsseldatei zu offen , da Berechtigungen unangemessen sind Mit AWS können Sie keine SSH-Verbindung zum Computer herstellen. Der Fix, den Sie ausführen können, ist Mod 0400 gepackt. Zahlen Sie Dadurch werden die Berechtigungen der Datei 0644-0400 geändert, was die entsprechende Berechtigung ist Lassen Sie uns den gleichen Befehl ausführen. Wie Sie sehen können, wurde der Befehl jetzt wieder erfolgreich ausgeführt und wir befinden uns in der zweiten EC-Instanz. Wenn wir uns bei der EC Two-Instance anmelden, müssen wir zunächst EC Two-Instance anmelden den Befehl pseudo, um, update ausführen Dieser Befehl aktualisiert alle veralteten Pakete in der Instanz. Falls es welche gibt, um STTPD zu installieren, führen Sie den Befehl pseudo install sttpDASy führen Sie den Befehl pseudo Jetzt haben wir STTPD auf unserem EC-to-Maschine installiert, aber wir müssen auch den aber wir Um den STTPD-Dienst zu starten, müssen wir einen anderen Befehl ausführen, das Pseudosystem CTL. Starten Sie STTPD. Dieser Befehl hat keine Ausgaben. Lassen Sie uns den Status von STT PD überprüfen, indem das Pseudosystem CTL status STTPD ausführen Wie Sie sehen können, läuft bei uns ein Prozess. Gehen wir nun zum EC Two-Dashboard und wählen die EC Two-Instanz aus. Wir müssen die öffentliche IP-Adresse kopieren und in unseren Browser einfügen. Sie können jetzt die Standard-STTPD-Anwendung sehen, die auf Ihrer EC Two-Instance bereitgestellt wird Lassen Sie uns nun die EC Two-Instance beenden. Sie können dies tun, indem Sie auf die Instanz klicken. Gehen Sie zu Accents, klicken Sie auf Manage Instance State und beenden Sie die Instance. Dadurch wird Ihre EC Two-Instance beendet. Wenn Sie sich erinnern, haben wir im vorherigen Lab ein EBS-Volume an unsere Instance angehängt , bei dem das Kennzeichen „Löschen bei Terminierung“ keine Form hatte Kennzeichen „Löschen bei Terminierung Das bedeutet, dass, obwohl unsere Instance beendet wird, eine der EBS-Instances Schauen wir uns das Volumes-Dashboard an. Sie können sowohl das Root-Volume als auch das zusätzliche Volume sehen. Wenn Sie in einiger Zeit eine Aktualisierung durchführen, verschwindet das Root-Volume, das acht GB betrug, aus der Liste, aber wir haben immer noch das 10-GB-Volume im Dashboard. Lassen Sie uns weitermachen und auch das EBS-Volume löschen. Lassen Sie uns nun die Sicherheitsgruppe überprüfen. Wie Sie sehen, wurde auch die von uns erstellte Sicherheitsgruppe nicht gelöscht. Lass es uns nicht löschen. Sicherheitsgruppen sind kostenlos. Es schadet nicht, eine Sicherheitsgruppe für unsere kommenden Labore griffbereit zu haben . Ebenso wurde das gepackte Schlüsselpaar nicht gelöscht und Sie können es ohne Gebühren in Ihrem Konto behalten ohne Gebühren in Ihrem Konto In dieser Sitzung konnten wir erfolgreich H in zwei EC-Instanzen testen, STTPD installieren und über einen Browser darauf zugreifen Das ist alles für diese Sitzung. 40. Eine Windows EC2-Instanz erstellen: In den letzten beiden Videos haben wir Linux C gestartet, zwei Instanzen installiert, STTPD installiert und über unseren Webbrowser darauf zugegriffen In diesem Video werden wir Sie durch die Schritte zum Starten einer Windows C Two-Instance und den Zugriff darauf Dies wird der Linux C Two-Instance sehr ähnlich sein , praktische Demo, nur ein paar Konfigurationen werden unterschiedlich sein. Lass uns anfangen. Gehen wir zur AWS-Managementkonsole, geben Sie C zwei in die Suchleiste ein und klicken Sie auf das EC-Two-Suchergebnis , um direkt zum EC Two-Dashboard zu gelangen. Wie immer ist es wichtig, sicherzustellen, dass Sie eine Region in der Nähe von Ihnen oder Ihrem Kunden auswählen. Ich werde die Region Mumbai auswählen. Klicken wir auf Launch Instances. Zunächst müssen wir ein AMI namens Amazon Machine Image auswählen . Dieses Mal werden wir Windows AMI auswählen. Geben wir Windows in die Suchoption ein und drücken Sie die Eingabetaste. Wir können Windows AMI hier sehen, und dieses AMI ist für das kostenlose Abonnement qualifiziert, was bedeutet, dass wir es starten können , ohne dafür Geld auszugeben. Wählen wir dies aus und es wird Schritt zwei benötigt. Wählen Sie einen Instanztyp. Das AMI ist nur der Unterschied zwischen dem Start von Linux- und Windows-basierten EC Two-Instances. Der Rest der Konfiguration ist dieselbe , oder Sie können andere Dinge ändern, wenn Sie möchten. Wie Sie sehen, sind jetzt viele Instanztypen verfügbar. Auch hier werden wir Two Point Micro verwenden, da wir keine besonderen Anforderungen haben und wir auch weiterhin im freien Reifen bleiben wollen. Klicken wir auf „ Instanzdetails konfigurieren“. Wie Sie hier wissen, stellen wir Ihnen alle instanzbezogenen Konfigurationen zur Verfügung. Lassen Sie uns mit der Standardkonfiguration fortfahren und überprüfen, ob die automatisch zugewiesene öffentliche IP aktiviert ist. Da wir für den Zugriff auf die EC Two-Instance eine öffentliche IP benötigen, klicken Sie auf Weiter, um zur nächsten Seite, Speicher hinzufügen, zu gelangen. Wie Sie sehen können, haben wir bereits ein EBS-Volume für uns ausgewählt Dies ist das Root-Volume, das das Betriebssystem für diese Instance enthält Die nächste Seite ist Tags hinzufügen. Lassen Sie uns das vorerst überspringen und zur nächsten Seite übergehen. Sicherheitsgruppe konfigurieren. Lassen Sie uns den Namen und die Beschreibung der Sicherheitsgruppe nach Ihren Wünschen ändern . Sie sehen, wir haben den RDS-Typ anstelle von SSH. Der Portbereich ist 3398 anstelle von 22. Dies liegt daran, dass Linux und Windows unterschiedliche Technologien verwenden , um eine Remoteverbindung herzustellen Wir müssen hier nichts weiter tun Lassen Sie uns mit der Überprüfung und dem Start fortfahren. Sie können alle Parameter für unsere EC Two-Instance sehen. Klicken Sie hier auf Launch. Jetzt müssen wir ein Schlüsselpaar angeben. Ich werde denselben Schlüssel verwenden, den ich beim letzten Mal erstellt habe. Ich werde das akzeptieren, ich habe den Schlüssel. Klicken Sie auf Launch Instance und das bringt uns zur letzten Seite. Wenn Sie auf die Instance klicken, werden Sie sehen, dass AWS eine EC-to-Instance für Sie erstellt. Der Instanzstatus ist ausstehend, was bedeutet, dass die Instance gerade erstellt wird. Es dauert einige Minuten, bis der Status auf „Wird ausgeführt“ geändert wird. Wie Sie sehen können, wird die Instanz jetzt ausgeführt. Wenn Sie auf das Kontrollkästchen klicken, finden Sie alle Instanzdetails, die öffentlichen IP-Sicherheitsgruppen, Integritätsprüfungen usw. Wann immer Sie Informationen zu EC Two-Instances benötigen, suchen Sie hier nach ihnen. Wählen wir die EC-2-Instanz aus. Hier oben klicken Sie auf Connect. Hier haben wir nun drei Möglichkeiten , eine Verbindung zu dieser EC Two-Instance herzustellen. Ich wähle den zweiten Tab, den RDP-Client. Hier können Sie den RDS-Client , den wir für RDS verwenden werden, auf die Instanz herunterladen , den wir für RDS verwenden werden, auf die Instanz Klicken Sie nun auf Get Password. Sie kopieren entweder die wichtigsten Inhalte und fügen sie hier ein oder laden sie hoch, indem Sie auf den Browser klicken. Ich werde das Descript-Passwort hochladen und darauf klicken. Jetzt ist dies das Passwort, mit dem ich eine Verbindung zur C-2-Instanz herstellen werde Kopiere das Passwort von hier. Lassen Sie uns nun den Client öffnen, den Sie basierend auf Ihrem Laptop- oder Computerbetriebssystem heruntergeladen haben. Es wird eine andere Oberfläche haben. Ich benutze einen Mac. Ich werde das Passwort hier posten. Es hat bereits einen Benutzer für mich ausgewählt und wird fortfahren. Ich werde erneut auf Weiter klicken. Jetzt bin ich hier auf meinem EC Two Windows-Computer. Das ist so ziemlich das, was Sie tun, um eine Windows-Instanz zu starten. Damit sind wir am Ende dieses Labors angelangt. Das ist alles für diese Sitzung. 41. ECS Elastic Container-Service: Hallo, Studierende. Willkommen zurück. In diesem Video erfahren wir mehr über einen der Rechendienste von AWS, nämlich Elastic Container Service, auch bekannt als ECS. Wir werden verstehen, was ECS ist, Typen es hat und vor allem, Anwendungsfälle es hat. Lass uns anfangen. Bevor wir den Elastic Container Service verstehen, sollten wir kurz verstehen, was ein Container ist. Weil ECS auf der Grundlage der Container-Technologie entwickelt wurde. Wenn wir Anwendungen entwickeln, funktionieren sie auf unserem Computer. Sie brechen jedoch ab, sobald wir diese Anwendungen auf einen anderen Computer verschieben. Dies kann mehrere Gründe haben. Es kann sich um ein anderes Betriebssystem, eine andere Version der Abhängigkeit usw. handeln. Wie lösen wir dieses Problem? Nun, Container sind die Lösung für dieses Problem. Anwendungscontainer sind eigenständige Einheiten, die Anwendungscode und Abhängigkeiten, Konfiguration, Netzwerke und manchmal sogar einen Teil des Betriebssystems enthalten , Konfiguration, Netzwerke . Im Wesentlichen befindet sich die gesamte Software, die zum Ausführen Ihrer Anwendung erforderlich ist, in einem Container. Container ermöglichen es Ihnen , Ihre Anwendungen auf jedem Computer auszuführen. Sie können sicher sein, dass wenn es in einem System funktioniert, es in allen Systemen funktioniert. Docker ist die am weitesten verbreitete Softwareplattform, mit der Benutzer Anwendungen und Container erstellen Sie können Docker auf Ihrem Computer installieren und einen Container für jede Anwendung erstellen Wir müssen Docker an dieser Stelle nicht im Detail besprechen. Lassen Sie uns weitermachen und verstehen, was ECS ist. Amazon ECS ist ein vollständig verwalteter Container-Orchestrierungsservice , der es Ihnen leicht macht, containerisierte Anwendungen bereitzustellen, zu verwalten und zu skalieren Das bedeutet, dass ECS die Verwendung und Verwaltung von Docker-Containern erleichtert Wenn Sie ECS verwenden, müssen Sie Ihre Container nicht installieren, betreiben oder skalieren Ecs erledigt all diese Aufgaben für Sie. Integriert sich tief in den Rest der AW-Plattform und bietet so eine sichere, benutzerfreundliche Lösung für Ausführung von Container-Workloads in der Cloud Um ECS zu verstehen, sollten Sie einige Begriffe kennen , die häufig in der ECS-Aufgabendefinition verwendet werden Die Aufgabendefinition ist ein Jason-Skript, das mehrere Parameter zum Ausführen Ihrer Anwendung enthält. In einfachen Worten teilt die Aufgabendefinition ECS mit, wie ein Container ausgeführt werden soll. Sie können beispielsweise genau definieren, wie viel RAM und CPU ein Container benötigt oder auf welchem EC-Port Ihre Anwendung gestartet werden soll. Ecs stellt dann sicher, dass alle Ihre Anforderungen erfüllt werden , wenn ECS einen Container ausführt. Basierend auf Ihrer Aufgabendefinition wird sie als Aufgabenrolle bezeichnet. Ihre Container können mehrere Operationen auf AWS ausführen . Beispielsweise muss ein Container möglicherweise Nachrichten von einer SQSQ lesen oder mit S Three oder einem anderen AWS-Service interagieren mit S Three oder einem anderen AWS-Service Daher müssen Sie die Erlaubnis erteilen, Ihre Aufgaben auszuführen. Dies erfolgt mithilfe der Aufgabenrolle. Eine Aufgabenrolle ist eine AWS IAM-Rolle , die in der Aufgabendefinition definiert ist Diese Rolle wird verwendet, um AWS-Zugriff auf ECS-Aufgaben zu gewähren. Schauen wir uns nun an, wie das alles in ECS aussieht. Sie benötigen einen ECS-Cluster , um Ihre Container-Anwendung auszuführen. Dieser ECS-Cluster besteht aus zwei oder mehr EC-Instances, die als Container-Instances bezeichnet werden. Dann haben wir Dienste, die sich über diese beiden verfügbaren Instanzen erstrecken. Hier erstellt ECS Aufgaben oder Docker-Container. Eines der ersten Dinge , die Sie bei der Verwendung von ECS tun müssen, ist die Bereitstellung und Wartung der Infrastruktur Ecs kümmert sich dann für Sie um das Starten und Stoppen von Containern. Sie können dies auf zwei Arten tun, indem Sie ECS-Starttypen verwenden , bei denen es sich um den Starttyp Far Get und den Starttyp EC Two handelt. Beim Starttyp C two konfigurieren und implementieren wir EC-Instances in Ihrem Cluster, um Ihre Container auszuführen. Ecs verwaltet die Container auf diesen beiden EC-Instances. Um den Starttyp EC two in ECS zu verwenden, müssen Sie EC Two-Instances manuell erstellen oder Autoscaling-Gruppen verwenden Target-Starttyp, dies ist eine serverlose Pay-as-you-go-Option Sie können Container ausführen ohne Ihre Infrastruktur verwalten zu müssen Wir können den Starttyp Farget verwenden und alles über die Erstellung von EC Two vergessen Wir teilen ECS mit, wie viele Container ausgeführt werden sollen und wie viel RAM und CPU ein Container haben sollte Ecs Farget stellt sicher, dass wir immer über genügend Ressourcen verfügen, um Container auf den Markt zu bringen Das ist alles für diese Sitzung. 42. AWS Elastic Beanstalk: Hallo, Studierende. Willkommen zurück. In diesem Video erfahren wir mehr über einen der Rechendienste von AWS, den Elastic Beanstock Ich werde erläutern, was Elastic Beanstock ist, Funktionen es bietet und vor allem, welche Funktionen es bietet und vor allem, welche Anwendungen es bietet. Lass uns anfangen Aws ist ein führendes Cloud-Computing-Unternehmen mit fast 200 Diensten. Aus diesem Grund sollte man über die meisten Dienste Bescheid wissen. Um Anwendungen auf AWS bereitzustellen und effizient zu verwalten. Sie müssen zunächst über mehrere AWS-Services Bescheid wissen und wissen, wie Sie sie kostengünstig nutzen können. Das ist in Ordnung, wenn Sie mehrere Anwendungen oder eine große Anwendung haben . Aber was ist, wenn Sie nur eine Webanwendung haben? Tage damit zu verbringen, AWS nur zu erlernen eine Webanwendung bereitzustellen ist kein sehr effizienter Ansatz. Selbst wenn Sie sich mit AWS vertraut gemacht haben, müssen Sie sich die Mühe machen Ihre Infrastruktur auf AWS zu warten. Als Entwickler möchten Sie sich keine Gedanken über die Skalierbarkeit der Infrastruktur, Konfiguration von Verbindungen, Datenbanken und mehr machen. Sie möchten Anwendungen schnell bereitstellen und instand setzen. Dies ist das Problem, mit dem Elastic Beanstock AWS löst. Elastic Beanstock ist ein benutzerfreundlicher Service für die Bereitstellung und Skalierung Er ist auch als B bekannt. Dabei handelt es sich um eine Platform-as-a-Service, die von AWS angeboten wird Um Elastic Beanstock zu verwenden, erstellen Sie eine Anwendung, laden eine Anwendungsversion in Form eines Anwendungsquellpakets hoch, z. B. eine Java-Datei, auf Elastic Beanstock, und geben dann einige Informationen über die Elastic Beanstock startet automatisch ein Inventar und erstellt und konfiguriert die AWS-Ressourcen , die für die Ausführung Ihres Codes erforderlich sind. Sobald Ihr Engagement gestartet ist, können Sie Ihre Umgebung verwalten und neue Anwendungsversionen bereitstellen Nachdem Sie Ihre Anwendung erstellt und bereitgestellt haben, Informationen über die Anwendung, einschließlich Metriken, Ereignisse und Umgebungsstatus, einschließlich der einheitlichen AWS-CLI, verfügbar APIs der Elastic Beanstock-Konsole oder über die Befehlszeilenschnittstellen, einschließlich der einheitlichen AWS-CLI Wenn Sie als Entwickler EB verwenden, können Sie Anwendungen bereitstellen, können Sie Anwendungen bereitstellen ohne die zugrunde liegende Infrastruktur bereitstellen zu Aws stellt sicher, dass Ihre Infrastruktur bereit und hochverfügbar ist Intern verwendet EB Re alle Komponenten, die wir zuvor gesehen haben , wie RDS, Load Balancer, EC Two, um Anwendungen auszuführen Sie können EB jedoch verwenden ohne weitere Kenntnisse über diese internen Komponenten Es handelt sich um einen eigenständigen Dienst, aber Sie zahlen für die zugrunde liegende Infrastruktur, die mithilfe von Beanstock bereitgestellt Schauen wir uns nun an, wie Elastic Beanstock in AWS funktioniert Wir haben ein AWS-Konto und eine darin enthaltene VPC. Hier werden wir eine elastische Beanstock-Umgebung schaffen. Wie wir wissen, wird Beanstock die gesamte zugrunde liegende Infrastruktur wie EC, zwei Instanzen, Loadbalances, Datenbanken, Sicherheitsgruppen usw. erstellen zwei Instanzen, Loadbalances, . Als Entwickler interessieren Sie sich nur für Ihren Code. Sie möchten sicherstellen, dass sie ihre Zeit damit verbringen, großartigen Code zu schreiben, ihn zu testen und die gesamte zugrunde liegende Infrastruktur für sie verwalten zu lassen. In diesem Fall haben wir einen Entwickler, der eine WAR-Datei mit seinem Code hat. Es muss wirklich keine Kriegsdatei sein. Es könnte auch ein PLZ- oder Github-Code sein. Er kann diese WAR-Datei über die EB-Managementkonsole oder EVCLI bereitstellen die EB-Managementkonsole oder EVCLI Beanstock stellt dann die Anwendung bereit und führt den Rest der Konfiguration durch, z. B. den Elastic Load Balancing, die Auto Scaling-Gruppe, die Instanzen und sogar eine Datenbank, das ist alles z. B. den Elastic Load Balancing, die Auto Scaling-Gruppe, die Instanzen und sogar eine Datenbank, das ist Jetzt kümmert sich Elastic Beanstock um die Anwendungsskalierung, das Betriebssystem-Upgrade, das Patchen , die Protokollierung von Metriken und alles , die Protokollierung von Als Entwickler können Sie sich auf Ihre Anwendung und Ihre Geschäftsfunktionen konzentrieren auf Ihre Anwendung und Ihre Geschäftsfunktionen Schauen wir uns nun die Funktionen von Elastic Beanstock an. Es unterstützt verschiedene Programmiersprachen wie Java.net PHP, Node JS, Python, Ruby, Go und Es lässt sich in Amazon VPC integrieren und startet AWS-Ressourcen wie EC Two-Instances Es lässt sich in das AWS-Identitäts- und Zugriffsmanagement und hilft Ihnen, den Zugriff auf Ihre AWS-Ressourcen sicher zu kontrollieren Sie können auch Cloudfront integrieren. Cloudfront kann verwendet werden, um den Inhalt in S Three zu verteilen , nachdem ein elastischer Beanstock erstellt und bereitgestellt wurde Es unterstützt die Ausführung von RDS-Instances in der Elastic Beanstock-Umgebung, was sich ideal für Entwicklung Elastic Beanstock ist eine hervorragende Wahl für Sie, um Ihre Anwendung innerhalb weniger Minuten in der AWS-Cloud bereitzustellen Sie benötigen keine Erfahrung und kein Wissen Cloud Computing, um mit Elastic Beanstock zu beginnen Sie erstellen EV-Anwendungsumgebungen und geben einige Parameter an, und schon sind Sie fertig Das ist alles für dieses Video. 43. Serverloses Rechnen: Hallo Studierende. Willkommen zurück. In diesem Video werden wir das Konzept ohne Server verstehen und verstehen, warum es im Cloud-Computing beliebter ist. Lass uns anfangen. Bei den meisten Diensten, die wir bisher gesehen haben, war der Entwicklungs- und Bereitstellungsprozess derselbe. Entwickeln Sie Ihre Anwendung, weisen Sie die Infrastruktur und stellen Sie dann die Anwendung auf dieser zugewiesenen Infrastruktur bereit und führen Sie die Anwendung auf dieser zugewiesenen Infrastruktur So sollte es sein. Sie benötigen immer einen zugrunde liegenden Server , um Ihren Anwendungscode auszuführen. Es bestand schon immer die Notwendigkeit, unsere Infrastruktur bereitzustellen und zu warten. An dieser Stelle kommt Serverless ins Spiel. Serverless war das Schlagwort. In der Cloud-Computing-Welt folgen viele Anwendungen einer serverlosen Der Begriff leitet sich von der Idee ab , dass die Infrastruktur , auf der Ihre Anwendungen ausgeführt werden, nicht mehr von Ihnen oder Ihrem Team bereitgestellt oder gewartet werden muss von Ihnen oder Ihrem Team bereitgestellt oder gewartet Serverlos kann auch verwirrend sein, weil in serverlosen Architekturen Das bedeutet nicht, dass Ihrer Anwendung kein Server zugrunde liegt Es ist nur so, dass Sie sich keine Gedanken über die Verwaltung des Servers machen müssen . Wenn Sie ein Endbenutzer sind, könnte es genauso gut sein, dass er nicht existiert, weil Sie sich nie um Server kümmern müssen, daher der Begriff serverlos Aber es gibt einen Server, dessen Bereitstellung und Wartung vollständig vom Anbieter übernommen werden Wenn wir es in die AWS-Terminologie aufnehmen, müssen Sie kein einfach zu instanzierendes und zu konfigurierendes Betriebssystem für Ihre Anwendung mehr erstellen und verwalten konfigurierendes Betriebssystem für Ihre Anwendung Das bedeutet, dass wir die gesamte Verantwortung für die Verwaltung des zugrunde liegenden Servers delegieren für die Verwaltung des zugrunde liegenden Servers und alles erledigt ist Der Server kann automatisch skalieren und Ihnen entsprechend Ihrer Nutzung Gebühren berechnen Serverlose Dienste sind bei vielen modernen Cloud-Anwendungen sehr beliebt geworden bei vielen modernen Cloud-Anwendungen sehr beliebt Schauen wir uns nun die Vorteile von Serverless an. Bei Serverless müssen keine Instanzen verwaltet werden. Sie müssen keine Hardware bereitstellen. Es gibt keine Verwaltung von Betriebssystemen oder Software. Die Kapazitätsbereitstellung und das Patchen werden automatisch für Sie erledigt Es kann auch sehr kostengünstig sein , serverlose Dienste auszuführen Ihnen wird nur das in Rechnung gestellt, was Sie tatsächlich nutzen. Code wird nur ausgeführt, wenn Back-End-Funktionen vom Server benötigt werden , ohne dass der Anwendungsserver weniger automatisch und elastisch skaliert automatisch und elastisch Es verfügt auch über eine integrierte Hochverfügbarkeit. Sie stellen den Code einfach als Entwickler und er wird bei Bedarf automatisch skaliert. Angenommen, eine Funktion muss in mehreren Instanzen ausgeführt werden. In diesem Fall starten und beenden die Server nach Bedarf, wobei häufig Container verwendet werden. Infolgedessen verarbeitet eine serverlose Anwendung eine ungewöhnlich hohe Anzahl von Anfragen In einer herkömmlichen strukturierten Anwendung mit begrenztem Serverplatz wird sie jedoch überfordert, wenn die Nutzung plötzlich zunimmt Das ist alles für dieses Video. 44. AWS Lambda: Hallo, Schüler. Willkommen zurück. In diesem Video werden wir AWS Lambda verstehen. Lass uns anfangen Lambda ist ein serverloser Dienst, mit dem Sie Code ausführen können, ohne Server bereitzustellen oder zu verwalten Im Gegensatz zu zwei Instanzen, in denen unsere Anwendung kontinuierlich ausgeführt werden muss, ermöglicht uns AWS Lambda das Schreiben Funktionen, die bei Bedarf ausgeführt werden können Aws Lambda-Funktionen können durch Ereignisse innerhalb oder außerhalb des AWS-Kontos ausgelöst werden Ereignisse innerhalb oder außerhalb des AWS-Kontos und müssen nicht ständig Sie können beispielsweise eine Funktion schreiben , um eine Dateiverarbeitungsaufgabe auszuführen Und es wird ausgelöst, wenn Daten in den S Three-Dienst hochgeladen werden. Jedes Mal, wenn eine Datei auf S Three hochgeladen wird, haben Sie jetzt eine Funktion, die diese Datei automatisch ausführt und verarbeitet. Oder Sie können eine Lambda-Funktion verwenden, die Werte aus einer Datenbank für Ihre Frontend-Anwendung abruft Werte aus einer Datenbank für Ihre Frontend-Anwendung Es gibt mehrere Möglichkeiten, Lambda-Funktionen zu verwenden. Es kann für alles verwendet werden, von der Ausführung kleiner Einzelaufgaben bis hin zum Ersetzen ganzer Back-End-Anwendungen Sie sollten auch beachten, dass AWS-Lambda-Funktionen nur für kurze Ausführungen gedacht sind Sie können Code in Lambda nur für maximal 15 Minuten ausführen , was für die meisten Anwendungsfälle eine angemessene Zeitspanne ist Bitte beachten Sie hier, dass sich dies ständig ändert. Ich würde empfehlen AWS-Dokumentation nach aktuellen Updates zu suchen. Wenn Sie jedoch einen einzelnen Prozess haben , dessen Ausführung länger als 15 Minuten dauert, müssen Sie ihn auf einem Server wie EC Two Instances oder einem Container bereitstellen . Lassen Sie uns einen Blick auf einige andere Funktionen von AWS Lambda werfen. Die erste Funktion kommt hier, die automatische Skalierung. Wenn wir zwei EC-Instances verwenden, müssen wir Skalierungsrichtlinien immer noch manuell erstellen, obwohl wir über eine Autoscaling-Gruppe verfügen, um unsere Infrastruktur zu skalieren Wir müssen AWS anweisen, Instanzen auf der Grundlage von Cloud-Watch-Alarmen hinzuzufügen oder zu entfernen Im Vergleich dazu kann AWS Lambda automatisch skalieren. Nehmen wir das gleiche Beispiel für die Dateiverarbeitung Lambda , das jedes Mal ausgeführt wird, wenn eine Datei auf S drei hochgeladen wird Was passiert, wenn Sie, sagen wir, 500 Dateien hochladen sagen wir, 500 Dateien Sie werden 500 Lambda-Funktionen haben Ihre Dateiverarbeitungsaufgaben ausführen Das ist die Stärke von Serverless. Sie müssen sich keine Gedanken über die Skalierung Ihrer Infrastruktur machen. Aws stellt sicher, dass Sie immer über genügend Ressourcen verfügen , um Ihren Code auszuführen. Beachten Sie hier, dass AWS ein Servicekontingent von 1.000 gleichzeitig ausgeführten Lambdas In unserem Beispiel treten möglicherweise einige Lambda-Fehler auf, wenn Sie mehr als 1.000 Dateien auf den S Three hochladen Dieses Limit wurde eingeführt, um einen Missbrauch Ihres Kontos und unerwünschte Gebühren zu verhindern Wenn in Ihren Anwendungsfällen mehr als 1.000 Lambda-Funktionen gleichzeitig ausgeführt werden müssen , können Sie dieses Limit beim AWS-Support erhöhen lassen Die nächste Funktion ist die Bezahlung pro Benutzer. nächste und lukrativste Funktion von Lambda ist die Bezahlung Das bedeutet, dass Sie für die Zeit zahlen, in der Ihr Code ausgeführt wird. Es fallen keine Gebühren an, wenn Ihr Code nicht ausgeführt wird. Angenommen, Ihr Lambda für die Dateiverarbeitung läuft 1 Minute lang. Sie zahlen nur die Rechenkosten von 1 Minute. Wenn Sie zehn Lambdas 1 Minute lang laufen lassen, zahlen Sie für 10 Minuten Rechenzeit usw. Das nächste Feature ist Ram. Lambda-Funktionen können Ressourcen auf bis zu GB RAM erhöhen. Es ist auch wichtig zu beachten, dass, wenn Sie den Arbeitsspeicher Ihrer Lambda-Funktion erhöhen, Ihre CPU- und Netzwerkfähigkeit von Lambda Dies ist ein trendiges Prüfungsthema. Wie werden Sie die CPU und das Netzwerk von Lambda erhöhen? Die Antwort ist, dass der Arbeitsspeicher erhöht werden muss . Das nächste Feature ist die Integration. Wie ich bereits sagte, hat AWS Lambda viele Anwendungsfälle und wurde in viele AWS-Services integriert Schauen wir uns einige der wichtigsten Integrationen und ihre Anwendungsfälle Im ersten Anwendungsfall in S drei, wie in dem Beispiel, das wir bisher genommen haben, können Sie in S drei einen Lambda für verschiedene Ereignistypen ausführen lassen in S drei einen Lambda für verschiedene Ereignistypen Der nächste ist Dynamodb. Sie können einen Trigger erstellen, sodass Lambda immer dann ausgelöst wird , wenn ein Ereignis in unserer Dynamodb, einem Datenbankdienst , eintritt , Das nächste ist das API-Gateway. Integration von Lambda und API-Gateways ist einer der am häufigsten verwendeten Anwendungsfälle von Lambda Api Gateway ist ein AWS-Service , der zur Erstellung von Rest-APIs verwendet wird In AWS können Sie Lambda hinter ein API-Gateway stellen und einen Rest-API-Endpunkt erstellen , um Ihre Lambda-Funktion aufzurufen Das nächste ist SNS. Sie können eine Lambda-Funktion haben, die auf Benachrichtigungen in einem SNS-Thema reagiert Benachrichtigungen in einem SNS-Thema reagiert Sns ist außerdem in möglicherweise alle Arten von Ereignissen in der AWS-Konsole integriert möglicherweise alle Arten von Ereignissen in der AWS-Konsole Mit dieser Integration können all diese Ereignisse verwendet werden, um Lambda-Funktionen auszulösen Der nächste ist SQS. Lambda kann verwendet werden, um Nachrichten in SQS Qs zu verarbeiten. Das letzte sind Cloud Watch-Ereignisse. Sie können Lambda-Funktionen auch mit Cloud Watch-Ereignissen ausführen Lambda-Funktionen auch mit Cloud Watch-Ereignissen Schauen wir uns abschließend einige kleine Beispiele für Lambda-Funktionen an Wie Sie sehen können, läuft unsere Frontend-Anwendung auf zwei EC-Instanzen Dann haben wir ein API-Gateway , das unsere Lambda-Funktionen für das Backend aufruft Diese Lambda-Funktion wurde ebenfalls in RDS integriert und ruft Daten ab und speichert sie in der Auf der anderen Seite haben wir die Frontend-Anwendung, die Aufgaben an die SQS-Cues weiterleitet, die in ein anderes Lambda integriert wurde Für die Nachrichtenverarbeitung können Sie ein Cloudwatch-Ereignis erstellen, ein Cloudwatch-Ereignis erstellen das in regelmäßigen Abständen ausgelöst wird Da Sie Lambda von einem Cloudwatch-Ereignis aus auslösen können, können Sie eine Lambda-Funktion verwenden Dies ist ein beliebter Anwendungsfall und Prüfungsfrage, wie ein Lambda ausgeführt wird, um einen befehlsbasierten Job auszuführen Die Antwort lautet Cloudwatch-Ereignisauslöser. Das ist alles für diese Sitzung. 45. Datentypen: Hallo, Schüler. Willkommen zurück. Wie Sie wissen, dreht sich in diesem Modul alles um Datenbanken. Bevor wir uns jedoch mit Datenbanken befassen, werden wir Daten und ihre Typen schnell verstehen. Wir entscheiden uns aufgrund der Art unserer Daten für eine geeignete Datenbank . Daher ist es sehr wichtig Daten und deren Art zu verstehen. Beginnen wir mit den Datenquellentypen. Es gibt drei Arten von Datenquellen: strukturierte, unstrukturierte und halbstrukturierte Lassen Sie uns zunächst strukturierte Daten verstehen. Es handelt sich um Daten mit vordefinierten Datentypen, die in einem bestimmten Format gespeichert werden. Lassen Sie uns den vordefinierten Datentyp und das spezifische Format anhand eines Telefonbuchbeispiels verstehen . In dieser Tabelle können Sie sehen, dass die oberste Zeile unterschiedliche Namen hat , die definieren, welche Art von Daten in den verschiedenen Spalten vorhanden sind. Die Seriennummer steht beispielsweise für die Anzahl der Datensätze, die wir haben. Die Spalte mit dem Vornamen enthält den Vornamen jedes Eintrags in unseren Daten. Dies ist ein Format, wenn wir diesen Daten weitere persönliche Details hinzufügen möchten , müssen wir dafür eine neue Spalte erstellen. Nehmen wir an, Sie möchten auch eine Adresse hinzufügen. In diesem Fall müssen Sie einen zusätzlichen Header, eine benannte Adresse, hinzufügen . Dann können nur Sie diesen Daten Adressen hinzufügen. Im Grunde ist dies ein bestimmtes Format. Lassen Sie uns nun die Datentypen verstehen. Wie Sie sehen können, haben wir Zahlen in den Spalten Seriennummer und Telefonnummer, und die Spalten Vorname und Nachname haben Korrektoren Gemäß den definierten Spalten wird von Ihnen erwartet, dass Sie Zahlen in die Spalten Seriennummer und Telefonnummer sowie Zeichen in die Spalte Vorname und Nachname eingeben die Spalten Seriennummer und Telefonnummer sowie Zeichen in die Spalte Vorname und Nachname Das heißt, es ist definiert, welche Art von Daten wir in verschiedene Spalten eingeben können. Strukturdaten werden als eine Reihe von Datenwerten in definierten Tabellen gespeichert , die von einer Datenbank-Engine wie My Esque verwaltet einer Datenbank-Engine wie My Esque Diese Daten sind stark strukturiert. Aus diesem Grund sind sie sehr einfach zu analysieren und können in hochkomplexen Abfragen verwendet werden. Der nächste Datentyp sind unstrukturierte Daten. Unstrukturierte Daten haben eine interne Struktur, enthalten jedoch kein vordefiniertes Datenmodell Stellen Sie sich zum Beispiel ein Video vor. Es sind auch Daten, aber die Art und Weise, wie sie gespeichert werden, unterscheidet sich von strukturierten Daten. Diese Art von Daten liegt normalerweise in Form von Dateien vor, die in einem Speicher wie Dropbox gespeichert sind. Dropbox ist wie eine Speichereinheit in der Sie Textdateien, Fotos, Videos usw. speichern können . Die unstrukturierten Daten als Ganzes sind irrelevante Beispiele für unstrukturierte Daten sind Textnachrichten, Dokumente, Videos, Fotos und andere Diese Dateien sind nicht organisiert, sie können nur in einem Dateisystem oder Objektspeicher abgelegt werden einem Dateisystem oder Objektspeicher Wenn Sie aus diesen Daten aussagekräftige Informationen herausholen möchten , müssen Sie sie verarbeiten. Sie benötigen spezielle Tools, um die unstrukturierten Daten abzufragen und zu verarbeiten Der letzte Datentyp sind semistrukturierte Daten. Semistrukturierte Daten sind eine Form strukturierter Daten. Der einzige Unterschied besteht darin, dass semistrukturierte Daten flexibel sind und aktualisiert werden können , ohne das Schema für jeden einzelnen Datensatz in einer Tabelle zu ändern das Schema für jeden einzelnen Datensatz in einer Dies ist ein Beispiel für semistrukturierte Daten. Wie Sie hier sehen können, gibt es zwei Datensätze und sie sehen gleich aus, oder? Wenn Sie feststellen, dass die zweiten Daten eine zusätzliche Informationsadresse haben. Semistrukturierte Daten ermöglichen es einem Benutzer, Daten in beliebiger Struktur zu erfassen , wenn sich Daten im Laufe der Zeit weiterentwickeln und ändern Semis, Strukturdaten, werden in Jason-Dateien gespeichert, die in eine Datenbank-Engine wie Mongo Devi geladen werden Diese Daten sind sehr flexibel , da die Struktur nicht streng ist und nach Bedarf innerhalb der Tabelle geändert werden kann Sie können auch halbstrukturierte Daten analysieren. Das ist alles, was ich in dieser Sitzung behandeln wollte. 46. Relationale Datenbanken: Hallo Studierende. Willkommen zurück. Im letzten Video haben Sie drei Arten von Datentypen verstanden: strukturierte, unstrukturierte und halbstrukturierte Da die Art dieser Daten unterschiedlich ist, werden sie unterschiedlich gespeichert. In diesem Video werden wir verstehen, wo und wie diese Daten gespeichert werden. Am Ende dieses Videos werden Sie wissen, warum wir strukturierte Daten in einer relationalen Datenbank speichern strukturierte Daten in einer relationalen Datenbank Fangen wir mit einem Beispiel an. Wir verwenden oft ein Excel-Blatt, um Daten zu speichern, oder? Das liegt daran, dass es einfacher ist, die Daten in Excel zu organisieren und zu verwalten als in jedem anderen Tool. Diese Art von Daten wird als Strukturdaten bezeichnet. Wir haben das in der letzten Sitzung besprochen. Excel-Tabellen eignen sich gut für persönliche Daten, aber wenn Sie an große Unternehmen denken, ist das eine ganz andere Welt. Sie verarbeiten riesige Datenmengen, deren Speicherung und Verwaltung sehr schwierig sind. Wenn die Datenmenge wächst, führt dies häufig auch zu Dateninkonsistenz und Redundanz Angenommen, wir haben eine Tabelle Kurse von Studenten gespeichert Schauen Sie sich nun an, ob der Student Sham Singh mit Studentenausweisnummer 101 mehr als einmal gespeichert ist Dies wird als Datenredundanz bezeichnet. Ein anderes Problem könnte sein, sagen wir, Samsung ändert seinen Nachnamen In diesem Fall muss sein Nachname überall in unseren Daten geändert werden. Andernfalls könnte es zu Dateninkonsistenzen kommen. Bei kleinen Datensystemen könnte es einfacher sein, das Problem zu lösen Wenn das Datensystem jedoch riesig ist, ist es schwierig, die Daten zu verwalten. Um diese Probleme zu vermeiden, verwenden wir datenbasierte Technologie. Es handelt sich um eine organisierte Sammlung von Daten , sodass sie leicht abgerufen und verwaltet werden können. Nehmen wir nun an, Sie möchten eine E-Mail an Kishor senden. Daher gibt es ein weiteres Blatt , das Angaben zu den Schülern wie E-Mail, Personalausweis, Telefonnummer usw. enthält Personalausweis, Telefonnummer usw. Aus dem ersten Blatt wissen wir, dass sich Kiss in der Personalabteilung befindet, aber wir können Kiss nicht auf dem Blatt mit den Studentendetails finden Das bedeutet, dass unsere Daten inkonsistent sind. Wir können dieses Problem mit einigen Regeln lösen, Beispiel kann sich ein Student ohne Registrierung nicht für den Kurs Auf diese Weise werden alle Blätter für jeden Schüler ausgefüllt. Der Punkt hier ist, dass die beiden Excel-Tabellen eine Beziehung haben und einer bestimmten Regel für organisierte Daten folgen. Dies wird als Relationsdaten bezeichnet, was das Konzept der relationalen Datenbank mit sich bringt Eine Datenbank ist eine organisierte Sammlung verwandter Daten. Es handelt sich um eine organisierte Sammlung, da in einer Datenbank alle Datensätze beschrieben und miteinander in Beziehung gesetzt werden Daten sind wie in einer relationalen Datenbank in Relationen organisiert wie in einer relationalen Datenbank in Relationen Jede Tabelle hat einen Satz, der die Datenstruktur definiert, und ein Datenschema, das in der Tabelle gespeichert Ein Datensatz ist eine Gruppe von Feldern in einer Tabelle. Sie können sich Datensätze als Zeilen oder Tupel der Tabelle und Felder als Spalten vorstellen Tupel der Tabelle und Felder als Spalten In diesem Beispiel haben Sie eine Tabelle mit Schülerdaten, wobei jede Spalte einen Schülerdatensatz und jede Spalte ein Feld des Studentendatensatzes darstellt ein Feld des Studentendatensatzes Ein spezielles Feld oder eine Kombination von Feldern, die den eindeutigen Datensatz bestimmt, wird als Primärschlüssel bezeichnet. Zum Beispiel Studentenausweis. Es ist für jeden Schüler einzigartig. Dieser Schlüssel ist normalerweise die eindeutige Identifikationsnummer der Datensätze. Es verwendet eine Struktur, die es ermöglicht, Daten in Bezug auf andere Daten in der Datenbank zu identifizieren und darauf zuzugreifen . Wie Sie sehen, hat jeder Student eine eindeutige ID, anhand derer der Datensatz desselben Schülers in der Studentenregistrierung gefunden werden kann anhand derer der Datensatz desselben Schülers in der Studentenregistrierung gefunden werden . Wie Sie sehen, haben diese Daten eine bestimmte Struktur, die als Schema bezeichnet wird. relationalen Datenbanken werden Strukturdaten gespeichert. Sie ermöglichen es Ihnen, mithilfe eines strukturierten Datenmodells schnell Daten und abgefragte Daten zu sammeln mithilfe eines strukturierten Datenmodells schnell Daten und abgefragte Daten Die Verwendung von Tabellen zum Speichern von Daten in Spalten und Zeilen erleichtert den Zugriff auf und die Verwaltung Aws bietet eine Datenbanklösung für relationale Datenbanken, auf die wir in der Einführung in das RDS-Modul eingehen Das ist alles für diese Sitzung. 47. NoSQL-Datenbanken: Hallo, Studenten. Willkommen zurück. In diesem Video werden wir die Nosql-Datenbank verstehen. Beginnen wir mit einem kurzen Überblick über das vorherige Video. Wir haben verstanden, dass die Daten in einer relationalen Datenbank so organisiert , dass die Werte in einer Tabelle die Werte in einer anderen Tabelle definieren oder ändern können die Werte in einer anderen Tabelle definieren oder ändern Mit anderen Worten, es besteht eine Beziehung zwischen den verschiedenen Datentabellen Nehmen wir das gleiche Beispiel einer relationalen Datenbank, in der die Anmeldedaten für Studierende gespeichert Anmeldedaten für Studierende Eine Tabelle enthält Angaben Studierenden und eine andere definiert den Kurs, für den sich die Studierenden in einer relationalen Datenbank angemeldet für den sich die Studierenden in einer relationalen Sie können eine einzelne SQL-Abfrage ausführen, die ein Ergebnis zurückgibt, in dem alle Studenten angezeigt werden, die sich aus der Buchhaltung angemeldet haben, obwohl sich die Daten in zwei Tabellen befinden Das ist die Superkraft relationaler Datenbanken. Lassen Sie uns nun über nicht relationale Datenbanken sprechen. Diese Art von Datenbank speichert Daten unterschiedlich. Aufgrund der Art der Daten speichern wir halbstrukturierte Daten in einer nicht relationalen Datenbank Nehmen wir nun dasselbe Beispiel für eine Datenbank mit der Registrierung von Studentenkursen Beispiel für eine Datenbank mit der Registrierung von Studentenkursen Wenn Sie die Anmeldedaten für Kurse von Studenten in einer nicht relationalen Datenbank speichern müssten Anmeldedaten für Kurse von Studenten , alle Informationen eines Studenten, einschließlich des zugehörigen Kurses, würden alle Informationen eines Studenten, einschließlich des zugehörigen Kurses, in einem einzigen Element in der Datenbanktabelle gespeichert einem einzigen Element in der Datenbanktabelle Lassen Sie uns nun genauer untersuchen , wie Daten in einer nichtrelationalen Datenbank gespeichert werden Nehmen wir an, das College hat nach einem Jahr beschlossen, die Standardnote 12 zur Studierendenregistrierungstabelle in der Datenbank hinzuzufügen die Standardnote 12 zur Studierendenregistrierungstabelle in der Datenbank Wie müssten sich die einzelnen Datenbanktypen ändern? Nun, im Fall von relationalen Datenbanken müssen Sie das Schema aktualisieren, müssen Sie das Schema aktualisieren um die Noten der Schüler hinzuzufügen Das bedeutet, dass eine neue Spalte für die Note hinzugefügt wird. Sobald Sie die neue Spalte hinzugefügt haben, ist sie für die vorhandenen Daten leer, oder? Was zu Problemen führen kann. Denn in relationalen Datenbanken müssen Sie in der Regel Werte in jede Spalte eingeben , wenn sie so eingestellt ist, dass sie für die Datenbank Sie müssen einen Prozess erstellen, um die Note für jeden Datensatz in der Tabelle hinzuzufügen Sobald dieser Vorgang abgeschlossen ist, beginnen Sie mit dem Hinzufügen neuer Noteneinträge. In Ordnung. Irgendwelche Vermutungen darüber, was Sie in einer nicht relationalen Datenbank tun müssen in einer nicht relationalen Datenbank tun Nun, Sie müssen nicht raten. Alles was Sie tun müssen, ist neue Artikel zu erstellen. Mit den neuen Attributen können Sie zurückgehen und sich die vorhandenen Datensätze ansehen. Sie sind nicht verpflichtet, etwas mit ihnen zu tun. Dies ist einer der Vorteile, die nicht-relationale Datenbanken gegenüber relationalen Datenbanken haben nichtrelationalen Schemas müssen Sie keine neuen Datenattribute definieren, bevor In einer relationalen Datenbank müssen Sie das Schema aktualisieren, müssen Sie das Schema aktualisieren bevor Sie neue Datenfelder hinzufügen können Wenn es um die Speicherung und den Umgang mit halbstrukturierten oder unstrukturierten Daten geht , die Wahl oft auf eine nicht relationale Datenbank Das ist alles für diese Lektion über nicht relationale Datenbanken. 48. On Premise im Vergleich zu Cloud-Datenbank-Hosting: Hallo, Schüler. Willkommen zurück. In diesem Video erfahren Sie, wie wir Datenbanken im On-Premises-Szenario verwalten und welche Datenbankoptionen in der AWS-Cloud verfügbar sind . Lassen Sie uns mit lokalen Datenbanken beginnen. Sie werden auf Hardware betrieben, die Ihr Unternehmen besitzt und verwaltet. Diese Systeme werden von einem Team von Datenbankadministratoren ( DBAs) verwaltet einem Team von Datenbankadministratoren , die für die gesamte Einrichtung und die Arbeit mit der Datenbank verantwortlich sind gesamte Einrichtung und die Arbeit mit der Datenbank Im Fall von On-Premise-Systemen setzt das Unternehmen mehrere Server und Netzwerkgeräte ein, um die Spitzenlast des Systems zu bewältigen Sobald sie den Server vom Infrastrukturteam erhalten haben, installieren sie das Betriebssystem und erstellen einen Zeitplan für das Patchen des Betriebssystems Als Nächstes folgt die Installation der Datenbanksoftware. Auch hier müssen sie Datenbank-Patches planen und durchführen. Sobald die Datenbank bereit ist, kann sie von der Anwendung verwendet werden. Jetzt müssen diese Datenbanken im Laufe der Zeit verwaltet, aktualisiert, aktualisiert und optimiert werden. Der nächste erhebliche Aufwand betrifft die Datenbanksicherung und Einrichtung der Hochverfügbarkeit für die geschäftskritischen Anwendungen im Falle einer Hochverfügbarkeitskonfiguration. Auch hier müssen die Datenbankserver Ihres Teams dieselben Schritte für einen anderen DB-Server ausführen, der als Standby-Server für Failover-Szenarien fungiert als Standby-Server für Failover-Szenarien Darüber hinaus sind Sie jetzt auch für die Skalierung Ihres Datenbankservers verantwortlich Und das ist dann eine Menge Arbeit. Wenn es jetzt um die Cloud geht, haben wir zwei Möglichkeiten. Die erste ist wie eine lokale Datenbank, in der Sie eine virtuelle Maschine mieten , die über ein Netzwerk und einen Server verfügt , der von AW verwaltet und betreut wird. Der Rest wird jedoch von Ihnen selbst verwaltet. Auch hier sind Anstrengungen und ein DBS-Team erforderlich, um sich um Betriebssystem-Patches, Installation und Patchen von DB-Software, DB-Backup, Hochverfügbarkeitsskalierung usw. zu kümmern Installation und Patchen von DB-Software, DB-Backup, . Der zweite ist Amazon RDS. Amazon RDS ist eine von AWS verwaltete Datenbank, bei der Sie die Datenbank mit wenigen Klicks sofort einsatzbereit haben. Darauf werden wir in der nächsten Lektion eingehen. Das ist alles für diese Sitzung. 49. Amazon Relationaler Datenbankservice: Hallo Studierende. Willkommen zurück. In diesem Video erfahren Sie mehr über den Amazon Relational Database Service, allgemein bekannt als Amazon Ardis. Lass uns anfangen. Schauen wir uns die Übersicht über Amazon Ardis an Es handelt sich um einen relationalen Datenbankdienst, Cloud leitet, einrichtet, betreibt und skaliert eine relationale Datenbank in Wie Sie wissen, ist die Verwaltung einer Datenbank vor Ort oder in einer einfach zu installierenden Datenbank keine leichte Aufgabe Amazon Ardis wurde entwickelt, um den Aufwand für die Verwaltung relationaler Datenbankaufgaben wie Hardwarebereitstellung, Datenbankeinrichtung, Patchen von Backups usw. zu minimieren Verwaltung relationaler Datenbankaufgaben wie Hardwarebereitstellung, Datenbankeinrichtung, Patchen von Backups usw. zu Sie müssen nur die Datenbank auswählen, die Sie starten möchten , und wir haben mit nur wenigen Klicks eine Datenbank bereit Lassen Sie uns das anhand eines Beispiels verstehen. Angenommen, Sie haben ein Team von vier Personen und möchten eine Anwendung starten, die von einer My SQL-Datenbank unterstützt wird. Sie haben mein SQL auf der EC Two-Instance installiert. Da wir wissen, dass die Einrichtung von Betriebssystemdatenbank-Backups und Patches viel Arbeit erfordert , ist es wahrscheinlich, dass die Entwicklungsarbeit Hintertreffen gerät, was den Start der Anwendung weiter verzögern könnte , Start der Anwendung weiter verzögern da sich nur zwei Personen auf die Entwicklung konzentrieren können Stellen Sie sich dasselbe Beispiel noch einmal vor, aber dieses Mal mit Amazon RDS Da es sich bei RDS um einen verwalteten Service handelt, kümmert sich AWS für Sie um alle datenbankbezogenen Arbeiten. Ihre Entwickler können sich auf die Anwendungsentwicklung konzentrieren. Rds wurde entwickelt, um Ihnen zu helfen , die Kosten für die Datenbankverwaltung zu senken. Es ist ein verwalteter Dienst, der die Bereitstellung von Datenbanken automatisiert Aws wird das Patchen des Betriebssystems durchführen. Sie erhalten kontinuierliche Backups und Wiederherstellungsoptionen mit einer Point-in-Time-Wiederherstellung Sie werden auch Monitoring-Dashboards haben , um zu sehen, ob es unserer Datenbank gut geht Sie können die Lesevorgänge skalieren, indem Sie ein RID-Replikat erstellen und die RID-Leistung verbessern Sie haben die Möglichkeit, mehrere Verfügbarkeitszonen einzurichten , um sicherzustellen, dass Ihre Anwendung über einen Plan für die Notfallwiederherstellung verfügt , falls eine gesamte Availability Zone ausfällt Schließlich können Sie auch Wartungsfenster für Upgrades einrichten und vertikal oder horizontal skalieren. Das Einzige, was wir mit einer RDS-Datenbank nicht tun können , ist, dass wir keine SSH-Verbindung zu Ihrer RDS-Datenbank-Instance herstellen Schauen wir uns nun einige Funktionen und Elemente von Amazon RDS Werfen wir einen Blick auf die erste Verfügbarkeit von RDS. Amazon Adis bietet durch die Verwendung von Jones-Bereitstellungen mit mehreren Verfügbarkeiten eine höhere Verfügbarkeit und Haltbarkeit Jones-Bereitstellungen mit mehreren Verfügbarkeiten eine höhere Verfügbarkeit Das bedeutet, dass Amazon Dias mehrere Instanzen der Datenbank in verschiedenen Fähigkeitszonen erstellt mehrere Instanzen der Datenbank in verschiedenen Fähigkeitszonen Im Falle eines Infrastrukturausfalls wechselt Amazon Adis automatisch Standby-Modus in einer anderen Availability Zone Datenbankbetrieb wird wieder aufgenommen sobald der Failover abgeschlossen ist Da Amazon Dias einen DNS-Dienst verwendet , um die neue Master-Instance zu identifizieren, müssen Sie Ihren Datenbankverbindungsendpunkt nicht aktualisieren Ihren Datenbankverbindungsendpunkt Das ist eine sehr gute Funktion. Der zweite ist der Instanztyp von Dias. Wenn Sie Ihre erste Amazon Dias-Datenbank erstellen, müssen Sie einige wichtige Entscheidungen treffen Zunächst müssen Sie Ihren Datenbank-Instance-Typ festlegen , der Ihre Datenbankressourcen wie CPU und Arbeitsspeicher bestimmt wie CPU und Arbeitsspeicher Er ist dem Typ AW, EC mit zwei Instanzen etwas ähnlich . Der nächste ist Dias Database Engine. Als Nächstes kommt die Art von Datenbank-Engine, die Sie ausführen möchten. Sie können zwischen Postgresql, SQL, Maria DB, Oracle Database, Quel Server und Amazon Aurora wählen Maria DB, Oracle Database, Quel Server und Amazon Aurora Amazon Aurora ist eine mit MyEsqul und Post GrayQul kompatible eine mit MyEsqul und Post GrayQul kompatible relationale Datenbank, die für die Cloud entwickelt wurde. Die Datenbank wurde von AWS entworfen und entwickelt, um Datenbankleistung der Unternehmensklasse zu bieten Jede Datenbank-Engine hat ihre eigenen einzigartigen Eigenschaften und Funktionen, die Sie je nach Ihren Anwendungs - und Geschäftsanforderungen auswählen können . Schauen Sie sich jetzt die Preise an. Einer der größten Vorteile von Amazon Ardis besteht nun darin, dass Sie nach Bedarf zahlen Der Abrechnungsprozess von Amazon Ardis besteht aus zwei Teilen: den Instanzkosten Als Erstes zahlen Sie für die Instance, die die Datenbanken hostet Es gibt zwei Preismodelle: On Demand und Reserved on Demand. Bei der Instance-Preisgestaltung können Sie die Rechenkapazität auf Stundenbasis bezahlen . Dies ist der Fall, wenn Ihre Datenbank zeitweise ausgeführt wird oder ein wenig unvorhersehbar ist Die Preisgestaltung für Reserved Instances eignet sich hervorragend, wenn Sie kennen den Ressourcenverbrauch Ihrer Datenbank genau Mit dieser Art von Instance können Sie sich eine Laufzeit von ein oder drei Jahren sichern und einen erheblichen Rabatt gegenüber On-Demand-Preisen erhalten. Schauen wir uns nun die Speicherkosten an. Zweitens zahlen Sie für den Speicherplatz und den von Ihrer Datenbank verbrauchten Speicherplatz , der pro Gigabyte und Monat abgerechnet wird By wird pro Million Anfragen abgerechnet. Ich hoffe, Sie haben ein gutes Verständnis von Amazon Dis. Sehen Sie sich das Video noch einmal an. Wenn Sie irgendwelche Zweifel haben , das ist alles für dieses Video. 50. Amazon DynamoDB: Hallo, Schüler. Willkommen zurück. In dieser Sitzung werden wir uns der AWS-NOSQL-Datenbank befassen, die Dynamo DV anbietet Lassen Sie uns anfangen. Schauen wir uns die Übersicht über Dynamo DV an Es handelt sich um einen vollständig verwalteten NoSQL-Datenbankdienst, eine schnelle und vorhersehbare Leistung mit nahtloser Skalierbarkeit bietet mit Dynamo DB ist eine der besten Optionen zum Speichern von NOSQL-Halbstrukturdaten Da es sich um eine vollständig verwaltete Datenbank handelt, müssen Sie sich nicht mit der Hardwarebereitstellung, der Einrichtung der Konfigurationsreplikation, Softwarepatches oder Clusterskalierung befassen , wenn Sie Dynamo DB verwenden. Ein weiterer Vorteil von Dynamo DB ist, dass Dynamo DB standardmäßig Verschlüsselung im Ruhezustand bietet Dadurch entfallen der betriebliche Aufwand und die Komplexität, die mit der Verwaltung von Verschlüsselungen verbunden sind Crees, sensible Daten zu schützen. Wenn es keinen Sinn ergibt, machen Sie sich keine Sorgen, Sie daran, dass es standardmäßig Verschlüsselung unterstützt Ich werde die Verschlüsselung im AWS-Managementmodul ausführlich behandeln . Wir erstellen eine Datenbanktabelle in Dynamo DB, um unsere Daten zu speichern und abzurufen Es ist wichtig, das zu verstehen. Lassen Sie mich das vereinfachen Wenn Sie eine Amazon RDS-Instance erstellen, erstellen Sie darin eine Datenbank und dann innerhalb der Datenbank eine Tabelle. Im Fall von Dynamodb erstellen Sie die Tabelle jedoch direkt in Wenn Sie zum Dynamodb-Dashboard wechseln, erstellen Sie eine Tabelle. Eine Dynamodb-Tabelle kann horizontal skaliert werden. Sie verteilt die Daten auf verschiedene Backend-Server, um sicherzustellen, dass Sie jederzeit skalieren und eine hervorragende Leistung erzielen können und Lassen Sie uns nun verstehen, wie wir Daten in Dynamodb speichern. Eine Dynamo-DB-Tabelle besteht aus drei Tabellen, Elemente und Attribute. Zunächst haben Sie die Tabelle selbst, und dort werden alle Ihre Daten in der Tabelle gespeichert. Eine Tabelle ist eine Sammlung von Elementen. Jedes Element ist eine Sammlung von Attributen. Elemente sind wie Zeilen in einer relationalen Datenbank. Zum Beispiel ist der Student mit der Studenten-ID 101 ein Objekt. Jedem Element ist eine Reihe von Attributen zugeordnet. Es sind die Daten, die wir hier in diesen Feldern sehen, z. B. den Nachnamen, den Vornamen und die E-Mail-Adresse. Dynamo DB verwendet Primärschlüssel, um Elemente in einer Tabelle eindeutig zu identifizieren, und Sekundärindizes, um mehr Flexibilität bei Abfragen zu bieten Sie können Dynamo-DB-Streams verwenden, um Datenänderungsereignisse in Dynamodb-Tabellen zu erfassen Datenänderungsereignisse in Leistung von Dynamodb-Tabellen basiert auf der Durchsatzkapazität Die Leistung von Dynamodb-Tabellen basiert auf der Durchsatzkapazität . Sie können die Durchsatzkapazität Ihrer Tabellen ohne Ausfallzeiten oder Leistungseinbußen nach oben oder unten skalieren Ihrer Tabellen ohne Ausfallzeiten oder Leistungseinbußen nach oben oder Sie können die AWS-Managementkonsole verwenden, um die Ressourcennutzung und Leistungskennzahlen zu überwachen. Dynamo DB bietet die On-Demand-Backup-Funktion , mit der Sie vollständige Backups Ihrer Tabellen für die langfristige Aufbewahrung und Archivierung erstellen können, um der Sie vollständige Backups Ihrer Tabellen für langfristige Aufbewahrung und die Einhaltung gesetzlicher Vorschriften Sie können auch On-Demand-Backups erstellen und die Point-in-Time-Wiederherstellung für Ihre Amazon Dynamodb-Tabelle aktivieren Point-in-Time-Wiederherstellung für Ihre Amazon Dynamodb-Tabelle Point in Time Recovery schützt Ihre Tabellen vor versehentlichen Rechten oder Löschvorgängen Mit Point In Time Recovery können Sie eine Tabelle zu einem beliebigen Zeitpunkt der letzten 35 Tage wiederherstellen . Außerdem können Sie damit automatisch abgelaufene Elemente aus Tabellen löschen, um den Speicherverbrauch und die Kosten für das Speichern von Daten zu reduzieren , die nicht mehr relevant sind. Schauen wir uns nun einige Anwendungsfälle für Dynamodb an. Aufgrund seines flexiblen Datenmodells und seiner zuverlässigen Leistung eignet es sich hervorragend für mobile Anwendungen, webbasierte Anwendungen, Spieleanwendungen, Technologie- und IOT-Anwendungen Technologie- und IOT-Anwendungen Sie könnten Dynamodb auch für andere Anwendungen verwenden. Liebe Schüler, ich hoffe, Sie verstehen jetzt Amazon Dynamodb 51. RDS-Instanz erstellen: Hallo, Schüler. Willkommen zurück. In dieser Sitzung werden wir eine RDS-Instanz erstellen. Wir werden sehen, welche anderen Ressourcen und Konfigurationen benötigt werden , um eine RDS-SQL-Instanz hochzufahren. Gehen wir jetzt zur AWS-Konsole. Geben Sie RDS in die Suchleiste ein. Klicken Sie auf die RDS-Option und Sie gelangen zum RDS-Dashboard. Das erste, was Sie beim Erstellen von RDS-Instanzen tun müssen , ist die Erstellung einer Submit-Gruppe. Eine Subnetzgruppe ist einfach eine logische Gruppierung von Subnetzen, in der Sie die Dias-Instanz bereitstellen Lassen Sie uns zur Seite mit den Subnetzgruppen wechseln, indem Sie hier klicken. Wie Sie sehen können, habe ich keine Subnetzgruppe in meinem Konto. Klicken Sie auf DB-Subnetzgruppe erstellen und weisen Sie der Subnetzgruppe einen Namen zu Sie müssen hier eine Beschreibung hinzufügen, da es sich um ein Pflichtfeld handelt Ich werde Submit Group für meine SQL-DB hinzufügen. Wählen Sie als Nächstes BPC aus. Ich habe nur einen und ich werde diesen wählen. Hier müssen Sie die Verfügbarkeitszone auswählen. Wählen Sie die Verfügbarkeitszonen aus, in denen die Ardis-Instanzen bereitgestellt werden sollen Für mich habe ich nur Submits in P One und P South One B. Wenn Sie Submits in der anderen Availability Zone haben, können Sie auch AP South One auswählen Als Nächstes wählen wir die Subnetze in diesen Availability Zones aus. Wie Sie sehen können, habe ich in jeder Availability Zone ein öffentliches und ein privates Submit Normalerweise möchten Sie RDS-Instances in privaten Submits erstellen RDS-Instances in privaten Submits Wählen Sie dazu die privaten Subnetze Hier werden RDS-Instances normalerweise in privaten Subnetzen erstellt und von VPCs aus aufgerufen In Produktionsanwendungen möchten Sie nicht, Ihre Datenbanken über das Internet zugegriffen werden kann . Klicken Sie nun auf Erstellen. Wie Sie sehen, haben wir jetzt erfolgreich eine Subnetzgruppe für unsere Datenbank erstellt Lassen Sie uns nun die RDS-Datenbank erstellen. Klicken Sie auf Datenbanken. habe ich keine RDS-Datenbanken in meinem Konto Bevor wir hier zur Schaltfläche „Datenbank erstellen“ übergehen, sehen Sie neben dieser Schaltfläche die Schaltfläche „ Aus S wiederherstellen“ Wenn wir Backups unserer RDS-Datenbanken erstellen, werden sie in AWS S Three wiederhergestellt hier auf diese Schaltfläche klicken, können wir aus einem unserer Backups in S drei eine neue Instanz erstellen aus einem unserer Backups in S drei eine Wenn Sie zur Erstellung der Datenbank zurückkehren, klicken Sie auf Datenbank erstellen. Die erste Option, die Sie sehen können ist Standard Create oder As Create. Wenn Sie die Option As Create wählen, verwendet AWS einige Standardwerte für die Erstellung Ihrer Datenbank. Lassen Sie uns einen Blick darauf werfen. Ich habe As Create ausgewählt. Jetzt sind die einzigen Optionen, die ich habe die Datenbanktypen und einige andere Optionen. Wenn wir hier nach unten scrollen und die Drop-down-Ansicht mit den Standardeinstellungen für As Create öffnen , können wir sehen, dass AWS einige Werte für uns fest codiert hat. Ich möchte unser B nicht so erstellen. Gehen wir zurück zur Standarderstellung und wählen die Parameter selbst aus. Klicken Sie auf Standard Create. Wählen Sie oben den Typ My SQL Engine aus. Als Nächstes haben wir die Möglichkeit, die My SQL-Version auszuwählen. Ich werde die neueste Version wählen mir gerade zur Verfügung steht, nämlich meine 8.0 0.28. Die nächste Option wir haben, besteht darin, die Vorlage gemäß unserem Anwendungsfall auszuwählen Wenn Sie sich hier für Produktion entscheiden, wählt AWS einige Standardoptionen für uns Der Einfachheit halber, wenn ich beispielsweise eine Produktionsvorlage ausgewählt habe und nach unten zu Verfügbarkeit und Haltbarkeit scrolle, können Sie sehen, dass die für mich ausgewählte Standardoption darin besteht, eine Standby-Instance zu erstellen. Wenn ich jetzt die Vorlage in Dave ändere und wieder nach unten scrolle, werden Sie feststellen, dass der für mich gewählte Standardwert nicht darin besteht, eine Standby-DB zu erstellen. Wenn Sie eine Vorlage auswählen, werden einfach einige Standardwerte für uns festgelegt. Lassen Sie uns beim kostenlosen Reifen bleiben und die Vorlage für den kostenlosen Reifen auswählen. Die nächste Option, die wir haben, ist die DB-ID. Dies ist der Name unserer DB-Instance. Sie sollten hier beachten, dass dies nicht der Name der Datenbank ist , sondern der Name der RDS-Instance. Lassen Sie mich das auf den Cloud-Advisory, meine SQL-DB, ändern. Als Nächstes müssen wir den Master-Benutzernamen und das Passwort für die RDS-Instanz erstellen . den Benutzernamen in RDS-Master ändere , gebe ich hier mein Passwort ein. Wir können AWS hier das Passwort für diesen Benutzernamen automatisch generieren Lassen Sie mich vorerst mein eigenes Passwort hinzufügen. Die nächste Option besteht darin, die Instance-Klasse für unsere Datenbank auszuwählen. Da wir die kostenlose Reifenvorlage ausgewählt haben, können wir die Instance-Typen hier nicht ändern. Wie Sie sehen können, haben wir nur eine Option, nämlich Mikropunkte mit zwei Punkten. Wenn wir Dave - oder Prod-Vorlagen auswählen, erhalten wir hier alle Instanzoptionen. Als Nächstes müssen wir den Speichertyp für unsere RDS-Instanz auswählen den Speichertyp für unsere RDS-Instanz Die aktuelle Option, die wir haben, ist die Allzweck-SSD GP two. Wir können diesen Wert für komplexere Arbeitslasten auf I 01 ändern . Bleiben wir nun beim SSD-Typ GP Two. Wir können auch die automatische Skalierung für unseren RDS-Speicher aktivieren. Wenn dieses Kontrollkästchen aktiviert ist, können wir den maximalen Speicherplatz hinzufügen. Wir möchten, dass unsere RDS-Instance auf den Standardwert für dieses Feld hochskaliert wird, der 1.000 ZB ist Wenn mein Datenbankspeicher voll ist, skaliert AWS den Speicher automatisch auf bis zu 1.000 GB Die nächste Option ist Verfügbarkeit und Haltbarkeit. Wir haben bereits gesehen, dass wir diese Option hatten, als wir die Dave - und Produktionsvorlagen ausgewählt hatten. Diese Option wird in Free Tire jedoch nicht unterstützt. Als Nächstes haben wir die Möglichkeit, die Konnektivität für unsere RDS-Instance auszuwählen . Wir können die VPC auswählen , in der wir unsere Subnetzgruppe erstellt haben, und dann die Submit-Gruppe auswählen In der nächsten Option haben wir die nächste Option. Wenn wir möchten, dass auf unsere RDS-Instanz außerhalb der VPC zugegriffen werden kann Aws bietet uns hier eine weitere Option , um den öffentlichen Zugriff auf unsere Datenbank zu Als Nächstes müssen wir die Sicherheitsgruppe für unseren RDS angeben. Lassen Sie uns entscheiden, eine neue SG zu erstellen. Geben Sie ihr den Namen RDS, my SQL SG. Wir können den Standardport für meine SQL-Datenbank hier sehen. Lassen wir das so wie es ist. Die nächste Option ist die Datenbankauthentifizierung. Wir haben hier drei Optionen für uns. Wir werden uns für die Passwortauthentifizierung entscheiden. Wenn Sie mehr Sicherheit und Kontrolle über den RDS-Zugriff wünschen, können Sie hier die anderen Optionen auswählen. Lassen Sie uns auch die zusätzlichen Optionen für RDS sehen , indem Sie hier auf dieses Drop-down-Menü klicken. Die erste Option ist der Datenbankname. Wenn Sie sich erinnern, hatten wir die Möglichkeit, die Datenbank-ID hinzuzufügen , die der Name der RDS-Datenbank-Instance war. Hier können wir AWS bitten, eine Datenbank wie Benutzer, Mitarbeiter usw. innerhalb der Cloud zu erstellen , meine SQL-Datenbank Wenn wir diesen Wert leer lassen, erstellt AWS keine Datenbank für uns Und das müssen wir mit meinen SQL-Befehlen tun, wenn wir eine Verbindung zu dieser Instance herstellen. Lassen Sie uns eine Benutzerdatenbank erstellen. unserem Beispiel belasse ich die anderen Werte als Standard. Als nächstes haben wir die automatische Backup-Option. Wir können hier wählen, wie oft wir Backups unserer Datenbank erstellen möchten , und sogar das Zeitfenster für das Backup angeben. Die nächste Option ist die erweiterte Überwachung. Dies ist eine beliebte Frage bei AW-Prüfungen. Der Unterschied zwischen normaler Cloudwatch-Überwachung und erweiterter Überwachung besteht darin, dass RDS bei normaler Überwachung die Metriken vom Hypervisor erfasst Bei einer DB-Instance bezieht erweiterte Überwachung ihre Metriken von einem Agenten Wenn Sie Metriken auf Betriebssystemebene wünschen, müssen Sie die erweiterte Überwachung für unseren Anwendungsfall aktivieren erweiterte Überwachung für unseren Anwendungsfall Wir wählen die Option „Erweiterte Überwachung“ nicht aus Jetzt können wir die Protokollexporte auswählen. Sie können AWS veranlassen, Protokolle an Cloud Watch-Protokolle zu senden , indem Sie die Optionen auswählen. Hier haben wir die nächste Option, mit der WS kleinere Versions-Upgrades in unserer Datenbank durchführen kleinere Versions-Upgrades in unserer Datenbank und die Zeitfenster für diese Upgrades auswählen kann. Lassen Sie uns diese Werte als Standard belassen. Die letzte Option, die wir haben , besteht darin, den Löschschutz zu aktivieren. der einfachen Option können wir unsere RDS-Instanz nicht löschen. Klicken Sie auf Datenbank erstellen. Jetzt können wir auf der Datenbankseite sehen, wie unsere My SQL-Datenbank erstellt wird. Lassen Sie mich das Video überspringen bis diese Instanz erstellt wurde. Wie Sie jetzt sehen können, wurde meine RDS-Instanz erstellt. Lassen Sie uns nun auf die Instanz klicken und die Verbindungsdetails sehen. Auf der Registerkarte Konnektivität und Sicherheit können Sie den Endpunkt und den Port dieser RDS-Instanz sehen . Diese Werte werden für den Zugriff auf die RDS-Instanz benötigt. Damit sind wir am Ende der Sitzung angelangt. Wir haben uns alle Parameter angesehen, die wir bei der Erstellung der RDS-Subnetzgruppen und Datenbanken haben der Erstellung der RDS-Subnetzgruppen und Datenbanken Wir haben unsere eigene RDS-Datenbank erstellt. Das ist alles für diese Sitzung. Wir sehen uns in der nächsten Lektion. 52. Amazon Elasticache: Hallo Studierende. Willkommen zurück. In diesem Video erfahren wir mehr über einen der wichtigsten AWS-Services, Amazon Elastic Cache. Lassen Sie uns mit den grundlegenden Ms beginnen, die im Elastic Cache zum Einsatz kommen. Service-Caching ist die Technik zum Speichern von Daten in einem Cache Es ermöglicht Ihnen, Daten wiederzuverwenden , die zuvor abgerufen wurden Die zukünftige Anforderung von Datendaten wird schneller bearbeitet, anstatt sie vom primären Standort aus abzurufen Jetzt fragst du dich bestimmt , was ein Cache ist. Ein Cache ist ein reservierter Speicherort , der temporäre Daten sammelt. Es kann sich um Computerspeicher oder Ihre Anwendung selbst handeln. Ein einfaches Beispiel ist das Speichern von Dokumenten auf einem Computerdesktop. Häufig speichern wir eine Kopie des häufig aufgerufenen Dokuments auf dem Desktop. Wir müssen nicht jedes Mal zum Speicherort des Dokuments gehen. Ein anderes gutes Beispiel wäre ein Lesezeichen. Setzen Sie ein Lesezeichen für Links, die wir häufiger verwenden. Sie müssen nicht jedes Mal suchen. Lassen Sie uns nun verstehen, was Elastic Cache ist. Elastic Cache ist eine vollständig verwaltete In-Memory-Datenbank-Caching-Lösung von AWS Sie unterstützt eine Vielzahl von anpassbaren Anwendungsfällen in Echtzeit Elastic Cache eignet sich für das Caching, wodurch die Leistung von Anwendungen und Datenbanken verbessert von Anwendungen und Datenbanken Wir stellen dies vor andere Datenbanken, vielleicht vor RDS oder vor Dynamo DB Es kann auch als Hauptdatenspeicher für Anwendungsfälle wie CSN-Stores, Spiele, Bestenlisten, Streaming und Analysen verwendet Hauptdatenspeicher für Anwendungsfälle wie CSN-Stores, Spiele, werden, für die keine Beständigkeit erforderlich Elastic Cache ist die Implementierung der Open-Source-Datenbank-Engines Dies und Memcached Schauen wir uns nun einige Anwendungsfälle von Elastic Cache an. Es beschleunigt die Anwendungsleistung. Wie bereits erwähnt, fungiert Elastic Cache als Datenspeicher und Cache im Arbeitsspeicher, um die anspruchsvollsten Anwendungen zu unterstützen, die Reaktionszeiten Millisekunde erfordern Der nächste Anwendungsfall ist das Laden der Backend-Datenbank unabhängig von Es hilft auch, die Belastung der Datenbank zu reduzieren. Sobald Sie Daten mit häufigem Zugriff im Elastic Cache zwischenspeichern, werden Datenbankaufrufe drastisch reduziert und der Druck auf Ihre Back-End-Datenbank verringert. Als Nächstes werden Datenspeicher mit niedriger Latenz erstellt. Dies ist eine hervorragende Lösung für eine Datenbank mit niedriger Latenz, wenn Sie nicht langlebige Datensätze im Speicher speichern und Echtzeitanwendungen mit Latenz im Mikrosekundenbereich unterstützen möchten nicht langlebige Datensätze im Speicher speichern und Echtzeitanwendungen mit Latenz im Mikrosekundenbereich unterstützen Schauen wir uns nun an, wie Elastic Cache funktioniert. Sie haben eine Anwendung auf EC konfiguriert und installiert, um sie in Ihrem AWS-Konto zu instanzieren. Diese Anwendung verwendet die RDS-Datenbank zum Speichern von Backend-Daten. Jetzt wird die Anwendung einige Daten in RDS schreiben. Die Anwendung kann auch Datenbanken in der RDS-Datenbank lesen . Was können Sie jetzt tun? Platzieren Sie den Elastic Cache zwischen Anwendung und RDS und speichern Sie die Sitzung oder greifen Sie häufig auf Daten im Elastic Cache zu. Diese Daten werden dann in den Elastic Cache geladen. Das heißt, wenn die Anwendung das nächste Mal die Daten aus der Datenbank lesen muss, erhält sie hier einen sogenannten Cache. Das bedeutet, dass es in der Datenbank gefunden wird und viel schneller abgerufen werden kann, als wenn es von RDS kommt. Das ist alles für diese Sitzung. 53. Amazon Redshift: Hallo, Studenten. Willkommen zurück. In diesem Video werden wir verstehen, was Data Warehouse ist und warum wir es brauchen. AWS-Datawarehouse-Service, Red Shift. Lass uns anfangen. Sie haben wahrscheinlich von Data Warehouses gehört , sind sich aber nicht sicher, was es genau ist. Lassen Sie mich es Ihnen erklären. Wie der Name schon sagt, handelt es sich um ein Datenlager. Es ermöglicht Ihnen, große Datenmengen aus mehreren Quellen zu speichern . Dies kann aus Anwendungsprotokolldateien, Transaktionssystemen, relationalen Datenbanken, Marketing, Vertrieb, Finanzen, kundenorientierten Anwendungen, externen Partnersystemen und Im Grunde ist ein Data Warehouse eine große Sammlung von Geschäftsdaten, die Organisationen bei der Entscheidungsfindung unterstützen Jetzt müssen Sie sich fragen, wie diese Daten dazu beitragen können, eine Geschäftsentscheidung zu treffen? Das Ziel jedes Unternehmens ist es, bessere Geschäftsentscheidungen zu treffen als die Konkurrenz, oder? Wie trifft man eine bessere Entscheidung? Entweder kommt es aus Erfahrung oder Sie können etwas Mathematik machen. Stimmen Sie zu, Mathematik zu machen, Sie benötigen Daten. Wenn es um große Unternehmen und Organisationen geht, verwenden sie Business-Intelligence-Tools. B I Tools analysiert Daten und generiert den Bericht. Heutzutage sind die meisten Geschäftsanwender auf Berichte, Dashboards und Analysetools angewiesen , um Erkenntnisse aus ihren Daten zu gewinnen Data Warehouses unterstützen diese Reportboards und Analysetools, indem sie Daten effizient speichern Data Warehouse ist kein neues Konzept und es gibt es schon seit den 90er 80er Jahren, aber es wurde aufgrund der enormen Kosten für die Speicherung der Daten vor Ort nicht verwendet Cloud Computing revolutioniert dies da das Speichern von Daten in der Cloud einfach und billig ist Hier bietet AWS einen Service namens Amazon Redshift an. Was ist Amazon Redshift? Amazon Redshift ist ein schnelles, vollständig verwaltetes Data-Warehouse-Angebot von AWS im Petabyte-Bereich Data-Warehouse-Angebot Petabyte bedeuten, dass es die Skalierbarkeitsanforderungen der meisten Unternehmen erfüllen kann Skalierbarkeitsanforderungen der meisten Unternehmen Es ist nicht nur auf Terabyte beschränkt, sondern auf ein Tausendfaches Dieses Maß an Skalierbarkeit ist mit einer Implementierung vor Ort schwer zu erreichen Es ist ein einfacher und kostengünstiger Service zur Analyse von Daten effizienten Analyse von Daten mithilfe von Business Intelligence-Tools. Es handelt sich um ein SQL-basiertes Data Warehouse dessen primärer Anwendungsfall Analytics-Workloads sind Redshift verwendet zwei C-Instanzen. Sie müssen einen Instanztyp und eine Instanzfamilie auswählen. Die Bezahlung erfolgt nach Bedarf auf der Grundlage der von Ihnen bereitgestellten Instances Redshift bewahrt stets kostenlose Kopien Ihrer Daten bietet kontinuierliche und inkrementelle Immer wenn Sie sehen, dass die Datenbank ein Warehouse sein muss und Sie Analysen darauf durchführen müssen, dann ist Redshift die Lösung Das ist alles für diese Lektion. 54. Autoscaling: Hallo, Schüler. Willkommen zurück. In diesem Video erfahren Sie, was Auto Scaling ist. Was ist Auto Scaling in AWS? Und was sind die Vorteile der Nutzung der Skalierungsdienste. Aber bevor wir beginnen, wollen wir uns ansehen, wie die Skalierung in einem herkömmlichen Rechenzentrum funktioniert. Nun, die Skalierung ist reaktiv und manuell. In herkömmlichen Rechenzentren bedeutet reaktive Skalierung, dass Server manuell hoch- und je nach Änderung der Arbeitslast manuell hoch- und heruntergefahren werden. Das heißt, wenn die Arbeitslast zunimmt, fügen wir weitere Server hinzu, und wenn die Arbeitslast abnimmt, entfernen wir die Server. Lassen Sie uns das anhand eines Beispiels verstehen. Angenommen, es gibt Anwendungsserver , auf die die Benutzer der Anwendung zugreifen. Da die Anzahl der Benutzer dieser Anwendung im Laufe der Zeit zunehmen wird, wird auch die Auslastung des Servers zunehmen, wenn die Anzahl der Benutzer weiter steigt. Es wird eine Zeit geben, in der Ihr Server seine volle Kapazität erreicht hat und nicht genügend Arbeitsspeicher und CPU zur Verfügung stehen, um die neuen Benutzer zu bedienen. Der Administrator der Anwendung muss die Serverkapazität überwachen. Er kann es manuell oder mit Hilfe eines beliebigen Tools überwachen. Wenn er feststellt, dass der Anwendungsserver seine volle Kapazität erreicht hat, fügt er einen neuen Server hinzu und konfiguriert die Anwendung auf dem neuen Server. Auch dieser Vorgang kann je nach Verfügbarkeit von Servern oder Serververfügbarkeit einige Zeit in Anspruch nehmen je nach Verfügbarkeit von Servern oder Serververfügbarkeit . Techniker fügen den Server hinzu. Manchmal bedeutet Skalierung den Kauf neuer Server. Dazu müssen Sie die Genehmigung des Managements einholen. Es kann mehrere Monate dauern, bis die Server eintreffen. Wie Sie sehen, ist dies ein zeitaufwändiger Prozess und nicht nachhaltig. Ein weiteres Problem bei diesem Prozess besteht darin , dass Sie, sobald die Auslastung des Servers nachlässt, den zusätzlichen Server entfernen müssen, da er sonst im Leerlauf läuft. Cloud Computing löst all diese Probleme da es je nach Auslastung der Anwendung viel einfacher ist, Rechenressourcen hinzuzufügen und zu entfernen je nach Auslastung der Anwendung Die Hauptfrage ist nun, wie wird das automatisch passieren? Nun, das wird durch automatische Skalierung erreicht. Es ist eine Funktion des Cloud-Computing , die Rechenressourcen je nach Nutzung und Nachfrage automatisch hinzufügt und entfernt . Diese Funktion ist nur in einer Cloud-Umgebung verfügbar. Autoscaling bietet Flexibilität und Flexibilität für Ihre Rechenanforderungen Daher wird es manchmal auch als Elastizität bezeichnet . Elastizität bedeutet, Rechenressourcen je nach Nutzung und Nachfrage hinzuzufügen oder zu entfernen . Wenn die Nachfrage steigt, erhöht sich die Anzahl der Ressourcen, und wenn sie sinkt, werden Ressourcen entfernt. Autoscaling gewährleistet eine nahtlose Erhöhung der Ressourcen bei Bedarfsspitzen und eine nahtlose Verringerung bei sinkender Nachfrage Somit wird eine gleichbleibende Anwendungsleistung zu geringeren Kosten gewährleistet eine gleichbleibende Anwendungsleistung zu geringeren Autoscaling ist so effizient, dass die Ressourcen nur hinzugefügt werden, wenn der Bedarf steigt, und sie sofort entfernt, wenn der Bedarf sinkt Auch auf diese Weise müssen Sie die zusätzlichen Ressourcen nicht ständig nutzen, um den Bedarf zu Spitzenzeiten Autoscaling ist ein allgemeiner Begriff im Cloud-Computing. Lassen Sie uns nun verstehen, was Autoscaling in AWS ist. Aws. Autoscaling ist ein Service, der Ihre Anwendung überwacht und die Kapazität automatisch anpasst, um eine konstante, vorhersehbare Anwendungsleistung zu den niedrigsten Kosten aufrechtzuerhalten vorhersehbare Anwendungsleistung zu den niedrigsten Die wichtigsten Punkte sind , dass er Ihre Anwendung überwacht und je nach Bedarf zusätzliche Kapazität hinzufügt oder entfernt, um aufrechtzuerhalten die Anwendungsleistung zu möglichst niedrigen Kosten Wie genau überwacht es Ihre Anwendung? Aws Auto Scaling verwendet einen AWS-Service namens Cloudwatch, um die Anwendungsnachfrage zu überwachen Und es löst Alarme aus , um die Ressourcen je nach Ihren Anwendungsanforderungen nach oben oder unten zu skalieren die Ressourcen je nach Ihren Anwendungsanforderungen nach oben oder unten Wir werden Cloudwatch im kommenden Modul ausführlich behandeln im kommenden Modul ausführlich Derzeit ist Cloudwatch ein Überwachungsdienst. Und es überwacht Anwendungsmetriken wie CPU-Auslastung, Speichernetzwerk und vieles mehr Sie können einen Schwellenwert festlegen und der Dienst löst einen Alarm aus, wenn er diesen Schwellenwert erreicht. Wenn die CPU-Auslastung beispielsweise über 80% liegt, wird ein Server hinzugefügt und dieser entfernt. Sinkt sie unter 30%, verwendet Auto Scaling Cloud Watch, um die Anwendung zu überwachen . Je nach Anforderung werden Server entweder entfernt oder entfernt, um den Bedarf zu decken. Schauen wir uns nun einige Vorteile von AWS Auto Scaling an. Mithilfe der AWS Auto Scaling-Gruppe können wir das Hinzufügen und Entfernen von EC-Instances automatisieren , um den tatsächlichen Bedarf zu decken. Dies ist eine der wichtigsten Errungenschaften der Cloud. Wie ich bereits erwähnt habe, bietet sie Flexibilität beim Hinzufügen und Entfernen von Ressourcen , um der Kundennachfrage gerecht zu werden. Somit entfällt die gesamte reaktive Arbeit herkömmlicher Rechenzentren. Ein weiterer wesentlicher Vorteil ist die Kostenoptimierung. Dies ist erneut ein großer Gewinn in der Cloud. Sie müssen keine zusätzlichen Ressourcen einsetzen, um die Spitzennachfrage zu decken. Dadurch wird sichergestellt, dass Sie nur für das bezahlen , was für die Bedienung Ihrer Kunden erforderlich ist. Sie müssen nicht mehr für ungenutzte Ressourcen bezahlen. Der letzte und wichtigste Punkt ist die Anwendungsleistung. Da es Ihnen hilft, Ressourcen hinzuzufügen und zu entfernen, um dem Bedarf gerecht zu werden, die Leistung der Anwendung immer besser. Ihr Kunde wird nicht mit Latenz und Langsamkeit in der Anwendung konfrontiert Latenz und Langsamkeit in der Anwendung Das ist alles für diese Sitzung. 55. EC2 Auto Scaling Group: Hallo Studierende. Willkommen zurück. In diesem Video werden wir mit Auto Scaling fortfahren und die Elemente der EC Two Autoscaling-Gruppe verstehen Lass uns anfangen. Bisher haben Sie verstanden, dass Autoscaling zwei EC-Instanzen hinzufügt und entfernt Lassen Sie uns nun verstehen, wie das funktioniert. Sie müssen eine Auto Scaling-Gruppe erstellen , die Amazon C auf zwei Instances skaliert. Hier fügt Autoscaling zwei EC-Instances hinzu und entfernt Das bedeutet, dass die Gruppe EC Two Autoscaling sicherstellt, dass Ihnen genügend Amazon C Two-Instances zur Verfügung stehen, um die Belastung Ihrer Anwendung zu bewältigen Dies erfolgt mit der Konfiguration von C zwei Autoscaling-Gruppen. Es gibt drei Konfigurationen : Mindestgröße, gewünschte Kapazität und Maximalgröße Basierend auf diesen Konfigurationen passt Autoscaling die Anzahl der Instanzen innerhalb der minimalen und der maximalen Anzahl von EC Two-Instances Die gewünschte Kapazitätskonfiguration bestimmt die Größe einer Auto Scaling-Gruppe Per Definition ist eine Auto Scaling-Gruppe eine Sammlung von zwei Amazon C-Instances, die zur automatischen Skalierung und Verwaltung logisch gruppiert zur automatischen Skalierung und Verwaltung logisch Das ist ziemlich klar, darüber haben wir bisher gesprochen Eine Auto-Scaling-Gruppe ermöglicht es Ihnen auch, zwei Auto-Scaling-Funktionen von Amazon EC zu nutzen , wie z. B. Ersatzfunktionen für Integritätsprüfungen und Skalierungsrichtlinien Sie hält die Anzahl der Instances aufrecht, indem regelmäßige Integritätsprüfungen der Instances durchführt Wenn eine Instance fehlerhaft wird, beendet die Autoscaling-Gruppe die fehlerhafte Instance und startet eine andere Instance , um sie zu ersetzen Eine weitere Richtlinie zur Funktionsskalierung , die ich in der nächsten Sitzung behandeln werde Lassen Sie uns nun die Konfiguration der Autoscaling-Gruppengröße verstehen Konfiguration der Autoscaling-Gruppengröße Es ist wichtig, dies aus Sicht der Zertifizierung und des Vorstellungsgesprächs für Cloud-Experten zu verstehen Zertifizierung und des Vorstellungsgesprächs für Cloud-Experten und des Vorstellungsgesprächs Mindestgröße definiert die Mindestanzahl von Instanzen, die in einer Auto Scaling-Gruppe ausgeführt werden sollten in einer Auto Scaling-Gruppe ausgeführt In diesem Fall haben wir einen. Die Mindestgröße stellt sicher, dass Sie immer eine feste Anzahl von Instances haben, die ausgeführt werden. Die Autoscale-Gruppe beendet niemals Instances unter dieser Anzahl. Die gewünschte Kapazität bestimmt wie viele EC Two-Instances Sie ausführen möchten Idealerweise haben wir in diesem Fall zwei. Autoscaling wird versuchen, die ganze Zeit zwei C-2-Instanzen aufrechtzuerhalten ganze Zeit zwei C-2-Instanzen Die gewünschte Kapazität kann zwischen der Mindest- und Höchstgrößenbeschränkung skaliert zwischen der Mindest- und Höchstgrößenbeschränkung Sie muss größer oder gleich der Mindestgröße der Gruppe und kleiner oder gleich der maximalen Gruppengröße maximale Größe ist die Anzahl der EC2-Instances, die ausgeführt werden dürfen. Dies ist die maximale Anzahl von Instances, die in der Autoscaling-Gruppe ausgeführt Autoscale-Gruppen werden niemals mehr als die angegebene maximale Anzahl von Instanzen erstellen die angegebene maximale Anzahl von Instanzen Zusammenfassend lässt sich sagen, dass Amazon C Two Auto Scaling Group die Anzahl der Instances beibehält und automatisch skaliert Das ist alles, was ich in diesem Video behandeln wollte. 56. EC2-Autoscaling-Richtlinien: Studierende, willkommen zurück. Bisher haben wir verstanden , dass Autoscaling eine Autoscaling-Gruppe benötigt , um C-2-Instanzen zu verwalten und zu skalieren, oder? Das hängt ziemlich stark von der Autoscaling-Gruppenkonfiguration Wie Mindestgröße, Maximalgröße und gewünschte Kapazität. Im letzten Video haben wir auch verstanden, dass die gewünschte Kapazität je nach Auslastung und Verkehr Ihrer Anwendung ändern sollte . Nun stellt sich die Frage, wie sich diese Zahl ändern wird. Wie wird die Anzahl der Instanzen nach oben und nach unten skaliert? Nun, die Skalierung beginnt mit einem Ereignis oder einer Skalierungsaktion weist die Autoscaling-Gruppe an, Amazon EC entweder zu starten oder zu beenden In zwei Fällen entstehen Autoscaling-Richtlinien Es gibt verschiedene Arten von Autoscaling-Richtlinien, die für verschiedene Zwecke konzipiert sind für verschiedene Zwecke konzipiert Lassen Sie uns diese verstehen. Als Hinweis: Dies ist zum Beispiel ein sehr wichtiges Thema und aus Sicht des Interviews. Ich werde empfehlen, besonders aufmerksam zu sein und sich Notizen zu machen. Ich werde auch einen zusätzlichen Lernlink im Abschnitt Ressourcen hinzufügen . Die erste Autoscaling-Richtlinie ist die manuelle Skalierung Dies ist die einfachste Methode zur Skalierung Ihrer Ressourcen Hier ändern Sie Ihre Autoscaling-Gruppen, maximale, minimale oder gewünschte Kapazität, Amazon C zwei Auto Scaling verwaltet den Prozess der Erstellung oder Beendigung von Instances gemäß diesen Updates Wenn Sie wissen, wann wahrscheinlich mehr Traffic zu Ihrer Anwendung fließen wird, können Sie die Größe einer vorhandenen Autoscaling-Gruppe manuell ändern einer vorhandenen Autoscaling-Gruppe Sie können entweder die gewünschte Kapazität der Autoscaling-Gruppe oder die Instances aktualisieren , die an die Autoscaling-Gruppe angehängt sind Die manuelle Skalierung kann nützlich sein, wenn Sie eine feste Anzahl von Instanzen verwalten müssen Die nächste ist die dynamische Skalierung. Bei der dynamischen Skalierung definieren wir, wie die Kapazität der Auto Scaling-Gruppe als Reaktion auf die sich ändernde Nachfrage skaliert werden kann. Das bedeutet, dass Sie die Anzahl der Instances während des Spitzenbedarfs, auch bekannt als Scale-Out, erhöhen Instances während des Spitzenbedarfs, auch bekannt als Scale-Out, und die Anzahl der Instances während des Lastbedarfs verringern können, auch als Skalierung bezeichnet wird. Lassen Sie uns das anhand eines Beispiels verstehen. Nehmen wir an, Sie haben eine Webanwendung, die derzeit auf zwei C-2-Instanzen läuft. Ihr Ziel ist es, die CPU-Auslastung dieser Instanzen unabhängig von der Anwendungslast bei etwa 50% zu halten dieser Instanzen unabhängig von der Anwendungslast bei etwa 50% . Das bedeutet, dass Sie eine zusätzliche EC Two-Instance hinzufügen müssen , wenn die CPU-Auslastung 50% überschreitet, Sie aber nicht wissen, wann sie 50% erreichen wird. Machen Sie sich keine Sorgen. Sie können Ihre Autoscaling-Gruppe so konfigurieren , dass sie dynamisch skaliert, um diesen Anforderungen gerecht zu werden, indem Sie einen Zielverfolgungsschritt oder eine einfache Skalierungsrichtlinie Lassen Sie uns nun diese dynamischen Skalierungsrichtlinien verstehen. schrittweisen und einfachen Skalierung können Sie die Skalierungsmetriken und Schwellenwerte für den Cloudwatch-Alarm auswählen die Skalierungsmetriken und Schwellenwerte für , der die Skalierung einleitet Wir werden Cloud Watch im AWS-Managementmodul lernen. Sie definieren, wie Ihre Auto Scaling-Gruppe skaliert werden soll , wenn ein Schwellenwert eine bestimmte Anzahl von Malen erreicht Nehmen wir dasselbe Beispiel. Immer wenn die durchschnittliche CPU-Auslastung aller C-2-Instances für 5 Minuten über 50% steigt, fügen Sie der Auto Scaling-Gruppe 12 Instanzen hinzu. Wenn die CPU-Auslastung 10 Minuten lang unter 30% liegt, können Sie alternativ 10 Minuten lang unter 30% liegt, eine C Two-Instance aus der Autoscaling-Gruppe entfernen Dies ist eine einfache oder schrittweise Skalierung, da wir den Triggerpunkt definieren , an dem Maßnahmen ergriffen sollen und wie viele Instanzen hinzugefügt oder entfernt werden sollen Sie wählen eine Skalierungsmetrik und legen im Ziel einen Zielwert fest. Skalierungsrichtlinien verfolgen, das ist alles. Es ist eine sehr einfache Methode eine dynamische Skalierungsrichtlinie zu definieren. Jetzt erstellt und verwaltet Amazon C Two Auto Scaling die Cloudwatch-Alarme , die die Skalierungsrichtlinie auslösen Und berechnen Sie die Skalierungsanpassung auf der Grundlage der Metrik und des Zielwerts Die Skalierungsrichtlinie fügt zwei Instanzen hinzu oder entfernt sie, um die Metrik auf oder nahe dem angegebenen Zielwert zu halten . Sie können beispielsweise eine Skalierungsrichtlinie für die Zielverfolgung so konfigurieren, eine Skalierungsrichtlinie für die Zielverfolgung Ihrer Out-Scaling-Gruppe durchschnittliche Gesamt-CPU-Auslastung bei 50% liegt. Anschließend skaliert die ASG automatisch, um sicherzustellen, dass das Ziel von 50% eingehalten wird skaliert die ASG automatisch, um sicherzustellen, dass das . Die nächste ist die geplante Skalierung geplante Skalierung hilft Ihnen dabei, Ihren Skalierungsplan entsprechend vorhersehbaren Laständerungen einzurichten Ihren Skalierungsplan entsprechend vorhersehbaren Laständerungen Nehmen wir zum Beispiel an, dass der Traffic zu Ihrer Wave-Anwendung jede Woche der Traffic zu Ihrer Wave-Anwendung am Mittwoch zunimmt, am Donnerstag hoch bleibt und am Freitag abnimmt. Sie können einen Zeitplan für Amazon EC Two konfigurieren: automatische Skalierung, um die Kapazität am Mittwoch zu erhöhen und Kapazität am Freitag zu verringern. Dies ist sehr nützlich, wenn wir wissen , dass Änderungen im Voraus vorgenommen werden. Wir gehen davon aus, dass die Skalierung auf dem Muster bekannter Benutzer basiert. Die nächste ist die prädiktive Skalierung. Sie hilft, schneller zu skalieren, indem sie Kapazität vor der prognostizierten Auslastung aktiviert Der Unterschied besteht darin, dass die dynamische Skalierung reaktiv ist und bei Bedarf skaliert Andererseits skaliert die prädiktive Skalierung die Kapazität sowohl auf der Grundlage von Echtzeitmetriken als auch auf historischen Daten Stellen Sie sich zum Beispiel eine Anwendung vor, die während der Geschäftszeiten stark und wenig genutzt Durch vorausschauende Skalierung über Nacht kann die Kapazität vor dem ersten Zufluss von Datenverkehr zu Beginn jedes Geschäftstages erhöht werden Sie hilft Ihrer Anwendung ihre hohe Verfügbarkeit und Leistung aufrechtzuerhalten , wenn sie von einem Zeitraum mit niedrigerer zu einem höheren Nutzungszeitraum zu einem höheren Nutzungszeitraum Sie müssen nicht auf die dynamische Skalierung warten , um auf den sich ändernden Datenverkehr zu reagieren. Sie müssen auch keine Zeit damit verbringen, die Lademuster Ihrer Anwendungen zu überprüfen und mithilfe der geplanten Skalierung die richtige Kapazität einzuplanen . Predictive Scaling nutzt also maschinelles Lernen, um den zukünftigen Verkehr im Voraus vorherzusagen. Es wird die Verkehrsmuster der Vergangenheit untersuchen und prognostizieren, was in Zukunft mit dem Verkehr passieren wird Es wird automatisch zwei Mal im Voraus die richtige Anzahl von EC-Instanzen angeben zwei Mal im Voraus die richtige Anzahl von EC-Instanzen , die dem prognostizierten Zeitraum entspricht. Dies ist von Vorteil, wenn Sie wiederkehrende Muster beim Ein- und Ausschalten von Workloads oder Anwendungen haben Muster beim Ein- und Ausschalten von Workloads oder , deren Initialisierung lange dauert und die zu spürbarer Latenz führen Gehen wir nun zurück und , wie die Auto Scaling-Richtlinie abgeschlossen wird Der Auto-Scaling-Prozess. Wie wir wissen, hängt die automatische Skalierung von verschiedenen Faktoren wie Ereignissen, Metriken und Schwellenwerten Und basierend auf unseren Anforderungen haben wir eine automatische Skalierungsrichtlinie konfiguriert Diese Richtlinie weist Auto Scaling an, zwei C-Instanzen hinzuzufügen und zu entfernen Das war's für diese Sitzung. 57. Startkonfiguration und Startvorlage: Hallo, Schüler. Willkommen zurück. Bisher haben wir verstanden , dass Autoscaling die Anzahl der EC Two-Instances erhöht und verringert, um der Nachfrage gerecht zu Wie Sie wissen, müssen wir beim Start der EC Two-Instance einige Konfigurationen bereitstellen Wir müssen diese Konfiguration auch für die automatische Skalierung vordefinieren diese Konfiguration auch für die automatische Skalierung vordefinieren Das machen wir mit Startkonfiguration und der Startvorlage Lassen Sie uns weitermachen und das genauer verstehen. Sowohl die Startkonfiguration als auch die Startvorlage definieren die Eigenschaften des EC. Zwei Instances, die wir starten möchten, wenn die Nachfrage besteht. Aws hat 2014 die Startkonfiguration eingeführt und seitdem verwenden wir Startkonfiguration mit zwei Auto-Scaling-Gruppen von EC. Andererseits wurde kürzlich die Startvorlage eingeführt, kürzlich eine ähnliche Aufgabe wie die Startkonfiguration erfüllt. Da es sich bei der Startvorlage um den neuesten Service handelt, verfügt sie über einige zusätzliche Funktionen und Fähigkeiten, die uns die Arbeit ein wenig erleichtern. Lassen Sie uns mit einer Startkonfiguration beginnen und dann mit der Startvorlage fortfahren . Eine Startkonfiguration ist eine E-2-Instance-Konfigurationsvorlage, in der wir Konfigurationen unserer EC-Two-Instance definieren , die Auto Scaling starten soll, wenn die Nachfrage kommt. Konfiguration ist die Konfigurationsvorlage für EC Two-Instances , die Autoscaling verwendet, um neue EC Two-Instances zu starten Wenn wir eine EC Two-Instance erstellen, entweder über die AWS-Managementkonsole oder mithilfe der AWS-CLI, stellen wir verschiedene EC-Two-Instance-Konfigurationen bereit, z. B. die AM-ID, die Größe des Instance-Typs die Konfiguration des Speichers Welche Instance verwendet das Keypair , das für die Verbindung zu dieser Instance verwendet wird Wir definieren auch die Netzwerkkonfiguration und die Sicherheitsgruppen Dadurch werden die IP-Adresse und der Port festgelegt , von denen aus auf die Instanz zugegriffen werden kann. Wir können Benutzerdaten definieren, bei denen es sich um eine Reihe von Befehlen oder Skripten handelt , die ausgeführt werden, während eine Instanz gestartet wird. Wir können auch die IAM-Rollen definieren, die an die Instanz angehängt werden und die Erlaubnis zum Zugriff auf Dienste gewähren Im Wesentlichen beinhaltet dies alles , was wir normalerweise beim Starten einer Instance definieren Wir können alle Einstellungen in der Startkonfiguration definieren und speichern , die als Vorlage für die automatische Skalierung beim Starten neuer Instances dient. Die Startkonfiguration kann nicht bearbeitet werden. Sie definieren sie einmal und diese Konfiguration wird protokolliert. Wenn wir die Konfiguration einer Startkonfiguration anpassen möchten , müssen Sie eine neue erstellen und diese neue Startkonfiguration verwenden. Bei der Startkonfiguration gibt es einige Probleme , die in der Startvorlage verbessert wurden. Wie wir bereits gesehen haben, ähnelt die Startvorlage der Startkonfiguration. Sie bietet die EC-Two-Konfiguration, die von der EC Two Auto Scaling-Gruppe beim Starten von C Two-Instances verwendet der EC Two Auto Scaling-Gruppe wird. Darüber hinaus kann die Startvorlage auch verwendet werden, um EC Two Instances oder eine Flotte von EC Two Instances direkt von der AWS-Managementkonsole oder der AWS-CLI aus zu starten Flotte von EC Two Instances direkt von der AWS-Managementkonsole oder der AWS-CLI aus . Da es sich bei der Startvorlage um den neuesten Service handelt, enthält sie mehrere zusätzliche Funktionen. zusätzlich zu den Konfigurationsfunktionen Schauen wir uns diese zusätzlich zu den Konfigurationsfunktionen nacheinander an. Damit können wir mithilfe verschiedener Konfigurationen mehrere Versionen der Startvorlage erstellen. Wir können mehrere Instance-Typen angeben, sogar Instance-Typen, die auf Instance-Typattributen wie Arbeitsspeicher, CPU-Speicher usw. basieren Instance-Typattributen wie Arbeitsspeicher, . Es ist in der Lage, sowohl On-Demand- als auch Spot-Instances zu verwenden , was zu weiteren enormen Einsparungen führt Es deckt auch zwei bis drei unbegrenzte Funktionen ab. Platzierungsgruppen, Kapazität, Reservierungen, elastische Grafiken und Funktionen für dedizierte Hosts sind in der Startvorlage verfügbar, aber diese Funktionen fehlten in der Startkonfiguration. Es ermöglicht außerdem EBS, Volume-Tagging und eine elastische Schnittstelle Aws empfiehlt, anstelle der Startkonfiguration eine Startvorlage zu verwenden , da diese mehr architektonische Vorteile bietet Lassen Sie uns nun verstehen, wo die Startkonfiguration, eine Startvorlage, in den Auto-Scaling-Prozess passt. Wenn Sie sich aus der vorherigen Sitzung erinnern, hängt die automatische Skalierung von verschiedenen Faktoren wie Ereignissen, Metriken und Schwellenwerten Basierend auf unseren Anforderungen haben wir eine Autoscaling-Richtlinie konfiguriert Diese Richtlinie weist Auto Scaling an, zwei EC-Instances hinzuzufügen und zu entfernen Jetzt benötigt Autoscaling die Instance-Startkonfiguration , um die EC Two-Instance zu starten Stimmt das? Um C Two-Instances zu starten, verwenden wir die Startkonfiguration und die Startvorlage , um der Autoscaling-Gruppe zwei EC-Konfigurationen zur Verfügung Autoscaling-Gruppe zwei EC-Konfigurationen zur Jedes Mal, wenn Autoscaling eine EC Two-Instance startet, bezieht sich dies auf die Startkonfiguration die wir mit Autoscaling konfigurieren Das ist alles für diese Lektion über Startkonfiguration und Startvorlage 58. Load balancer: Hallo, Studenten. Willkommen zurück. Im letzten Video haben wir verstanden, wie EC Two Auto Scaling Ihre automatisch hoch- und herunterskaliert EC Two-Instances je nach Bedarf automatisch hoch- und herunterskaliert. In dieser Lektion lernen wir das allgemeine Konzept des Lastenausgleichs kennen, da dies die Grundlage für unser nächstes Video, Elastic Load Balancer, bilden wird unser nächstes Video, Elastic Load Balancer, Lass uns anfangen. Gehen wir davon aus, dass Sie zum Einchecken in ein Fünf-Sterne-Hotel gehen. Es gibt zehn Rezeptionisten, die Buchungen überprüfen, ein- und auschecken Die meisten Kunden stehen in wenigen Warteschlangen, was zu einer ungleichmäßigen Verteilung der Kunden pro Leitung führt , während andere Rezeptionisten herumstehen und nichts anderes tun Die Kunden kommen rein und haben keine Ahnung, wohin sie gehen sollen Aber wenn Sie über die Situation nachdenken, wäre es hilfreich, wenn wir einen Gastgeber am Eingang hätten. Jeder Kunde, der reinkommt, muss wissen, wer weniger Leute hat und wer effizient ist. Im Moment werden die Kunden von einem Gastgeber an der Tür begrüßt Er wird sie an die entsprechende Leitung im Hotel weiterleiten die entsprechende Leitung im , wo sie ein- und auschecken Der Gastgeber behält die Rezeptionisten im Auge und zählt die Anzahl der Personen in der Schlange, die jede Rezeptionistin bedient Jetzt wird jeder neue Kunde an die Rezeptionistin mit der kürzesten Warteschlange weitergeleitet , was der geringsten Warteschlange entspricht was Folglich wird es sogar Wartezeiten zwischen den Rezeptionisten geben, sodass die Kunden so effizient wie möglich bedient werden effizient wie möglich bedient Denken Sie jetzt an AWS, Auto Scaling Group. Sie haben mehrere EC-Instances dieselbe Anwendung ausgeführt wird. Anfrage, welche EC-2-Instanz sie bearbeiten wird, wenn Woher weiß die Anfrage, welche EC-2-Instanz sie bearbeiten wird, wenn eine Anfrage eingeht? Wie können Sie eine gleichmäßige Verteilung der Arbeitslast auf zwei C-Instanzen sicherstellen? Sie benötigen eine Möglichkeit, Anfragen gleichmäßig an verschiedene Instanzen weiterzuleiten , um diese Anfragen zu bearbeiten. An dieser Stelle kommt der Load Balancer ins Spiel. Es handelt sich um eine Netzwerklösung , die den Datenverkehr auf mehrere Server verteilt , um die Anwendungsleistung zu verbessern Auch hier handelt es sich um eine Software, die Sie installieren, verwalten, aktualisieren und skalieren können verwalten, aktualisieren und skalieren Ein Load Balancer kann für zwei oder mehr C Two-Instances installiert werden , aber das Problem ist die Skalierbarkeit Lasst uns das verstehen. Sie haben einen Load Balancer vor zwei C Two-Instances und Ihre Anzahl von EC Two-Instances wird je nach Auslastung steigen Vor allem, wenn Sie überskalieren gibt es keine Beschränkung für C-2-Instances Es kann von nichts auf 100 oder sogar mehr C-2-Instanzen skaliert werden, oder? Nun, wie wird ein Load Balancer alle Anfragen bearbeiten? Es muss auch skaliert werden, oder? Hier bietet AWS einen weiteren Service namens Elastic Load Balancer 59. Was ist ein Elastic Load Balancer (ELB)?: Hallo, Studierende. Willkommen zurück. In diesem Video werden wir einen anderen AWS-Service verstehen , nämlich Elastic Load Balancer Dieser Service arbeitet sehr eng mit Auto Scaling zusammen, um den Traffic gleichmäßig auf zwei Instanzen zu verteilen . Lass uns anfangen. Was ist Elastic Load Balancer? Dies ist ein AWS-Service , der zur Verteilung der Last verwendet wird Er wurde entwickelt, um die undifferenzierte Schwerlast des Lastenausgleichs zu bewältigen In der vorherigen Lektion haben Sie etwas über einen Load Balancer gelernt, der für die Verteilung des eingehenden Datenverkehrs zwischen verfügbaren EC-Instances verantwortlich ist der für die Verteilung des eingehenden Datenverkehrs . Elb skaliert automatisch , wenn sich der Verkehr zu Ihren Servern ändert , wenn der Verkehr zunimmt Elb ermöglicht es dem Load Balancer , die zusätzliche Last zu bewältigen, indem er sie verteilt , wann immer Ihre EC Two Autoscaling-Gruppe skaliert und eine neue EC Two-Instance hinzugefügt Der Autoscaling-Service sendet eine Benachrichtigung an den Elastic Load Balancer, dass eine neue Instance bereit ist, den Datenverkehr zu In ähnlicher Weise sendet die EC Two Autoscaling-Gruppe , also wenn sie den Prozess zum Beenden einer Instance initiiert , eine Benachrichtigung an den , also wenn sie den Prozess zum Beenden einer Instance initiiert, eine Benachrichtigung an den Elastic Load Jetzt ist es die Aufgabe von ELB, das Senden des Datenverkehrs an die ausgewählte Instance zu beenden Danach wartet es, bis die vorhandenen Anfragen abgeschlossen Sobald alle vorhandenen Anfragen erfüllt wurden, beendet Auto Scaling die Instanzen, ohne die bestehenden Kunden zu stören Der Elastic Load Balancer leitet den eingehenden Anwendungsdatenverkehr automatisch über verschiedene Instanzen hinweg weiter Er fungiert als Kontaktstelle für den eingehenden Datenverkehr. Jeglicher Datenverkehr, der zu Ihrer Anwendung kommt, trifft zuerst auf den Load Balancer und wird dann an eine verfügbare Instance gesendet Es überwacht auch den Zustand der beiden laufenden EC-Instances , da es die Datenverkehrsanfragen nur an die fehlerfreien Instances sendet die Datenverkehrsanfragen nur an die fehlerfreien Instances Ordnung, jetzt wissen Sie, wie der Sie, wie Elastic Load Balancer externen Traffic an Ihre EC-2-Instances weiterleitet externen Traffic an Ihre EC-2-Instances Nicht nur das, es wird auch für das Routing des internen Datenverkehrs verwendet Lassen Sie uns das anhand eines Beispiels für ML verstehen. Angenommen, viele Nutzer verwenden ihr Gmail. Sie öffnen den Invox, dann fungiert die Seite als Webserver Ein Benutzer kompiliert die Nachricht und klickt auf die Schaltfläche Senden Wenn wir darüber sprechen, was auf dem Mailserver passiert, verarbeitet ein App-Server Ihre E-Mails, einschließlich der Speicherung in einer Datenbank, Sendens an die jeweiligen Benutzer usw. Wenn immer mehr Nutzer Gmail verwenden, wird auch die Anzahl der Webserver steigen Daher muss C to Auto Scale auch die Anzahl der App-Server erhöhen. Es sollte jedem Ab-Server bestätigt werden , dass ein neuer App-Server verfügbar ist , der den Datenverkehr akzeptiert. Stellen Sie sich nun vor, Sie haben potenziell Hunderte von Serverinstanzen auf beiden Ebenen. Wir können das Appserver-Verkehrschaos auch mit einem internen ELB lösen auch mit einem internen ELB Elb leitet den Verkehr an den App-Server weiter, der die wenigsten ausstehenden Anfragen hat Der Wave-Server weiß nicht und es ist ihm egal, wie viele Appserver-Instanzen laufen Nur ELB kümmert sich um die Weiterleitung des Datenverkehrs zu verfügbaren Apservern. Dies wird als entkoppelte Architektur bezeichnet. In dieser Architektur bleiben alle Rechenkomponenten völlig autonom und wissen nicht, dass sie die jeweils andere Aufgabe unabhängig voneinander ausführen. Elastic Load Balancer ist der Dienst, den wir vor einem Waveserver verwenden können , um den eingehenden Verkehr zu verteilen Er wird auch als öffentlicher Load Balancer bezeichnet. Wir können auch den Elastic Load Balancer hinter dem Waveserver verwenden den Verkehr gleichmäßig auf den Waveserver zu verteilen Da dies intern funktioniert, wird es als interner privater Load Balancer bezeichnet Studenten, das ist alles für dieses Video. 60. AWS Elastic Load Balancer (ELB): Hallo, Studierende. Willkommen zurück. In diesem Video werden wir verschiedene Arten von ELB verstehen. Lass uns anfangen. Aws, Elastic Load Balancing, unterstützt vier Load Balancer, Application Load Balancer, Network Load Balancer, Classic Load Balancer und Gateway Load Balancer Lassen Sie uns sie eins nach dem anderen verstehen . Diese Load Balancer arbeiten mit verschiedenen OSI-Modellen. OSI-Referenzmodell steht für Open System Interconnection Reference Es beschreibt, wie Informationen mithilfe eines Netzwerks von einer Software auf einem Computer in einen anderen umgewandelt einer Software auf einem Computer in werden Dies wird erreicht, indem die Datenkommunikation in mehrere Schichten aufgeteilt wird, wodurch die Kontrolle über das Senden von Daten von einer Schicht zur anderen gegeben wird. Wie der Name schon sagt, arbeiten Application Load Balancer auf der siebten Schicht des OSI-Modells, der Anwendungsschicht Der Network Load Balancer arbeitet auf Schicht vier , der Netzwerkschicht Der Classic Load Balancer ist der älteste und erste Elastic Load Balancer-Service Er ist so konzipiert, dass er sowohl auf Anwendungs - als auch auf Netzwerkebene funktioniert sowohl auf Anwendungs - als auch auf Netzwerkebene Der Gateway Load Balancer ist der neueste Dienst in der Elastic Load Balancer-Familie , der auf Layer 3.4 arbeitet. Als nächstes folgt der Protokoll-Lister, also die verschiedenen Protokolle , die diese Load Balancer Application Load Balancer unterstützt nur das nur Der Network Load Balancer verarbeitet die TCP- und UDP-Protokolle. Der Gateway Load Balancer überwacht nur IP. Wie bereits erwähnt, kann ein klassischer Load Balancer sowohl bei Anwendungs- als auch bei Netzwerk-Playern eingesetzt Daher unterstützt er sowohl Anwendungs- als auch Netzwerk-Player-Protokolle wie TCP, SSL by TLS, TTP, TTPs Schauen wir uns nun verschiedene Anwendungsfälle für diese Load Der häufigste Anwendungsfall für Application Load Balancer sind Web-Apps Eine Web-App, die auf dem Micro Services Framework basiert, kann ALB als Load Balancer verwenden ALB als Load Balancer bevor eingehender Datenverkehr Ihr EC, zwei Instances oder die für ein Servicenetzwerk gehosteten Container erreicht zwei Instances oder die für ein Servicenetzwerk gehosteten Container für ein Servicenetzwerk gehosteten Load Balancer deckt die verbleibenden Szenarien ab, in denen ALB , zum Beispiel die Apps , zum Beispiel die Apps, die von einem anderen Protokoll als STTP abhängig sind, die zeitkritischen Apps, der Echtzeit-Datenfluss und die Apps, die vom Streaming von Audio, Video, Währungscodes usw. abhängig sind, Verwendung von LB profitieren werden. Der Gateway Load Balancer arbeitet auf Ebene drei. Er macht es einfach und kostengünstig, virtuelle Appliances von Drittanbietern bereitzustellen, zu skalieren und deren Verfügbarkeit zu verwalten skalieren und deren Der klassische Lode-Balancer kann für fast alle Anwendungsfälle von Lode-Balancer für Anwendungen und Netzwerke verwendet werden fast alle Anwendungsfälle von Lode-Balancer für Anwendungen und Netzwerke Da die Anwendung und der Netzwerk-Lode-Balancer jedoch die neuesten sind und für einen bestimmten Zweck konzipiert wurden, verwenden Sie sie, um das Beste daraus zu machen Aws stellt den klassischen Load Balancer am 15. August 2022 in den Ruhestand am 15. August Die Verwendung wird nicht empfohlen. Der nächste ist der Zieltyp, d. h. wohin der Load Balancer den Datenverkehr leiten kann Es könnten unter anderem C, zwei Instanzen, feste IP-Adressen, AWS, Lambda-Funktionen Sie können dies einfach mit den oben genannten Anwendungsfällen in Verbindung bringen. Der Application Load Balancer unterstützt IP C zwei Instanzen und der Lambda Network Load Balancer unterstützt IP C Und auch der Application Load Balancer kann Datenverkehr an ALB senden Der Gateways Load Balancer unterstützt zwei IP- und Der klassische Load Balancer unterstützt auch zwei IP- und EC-Instances Wir können auf jeden Load Balancer detailliert eingehen, aber das ist für diesen Kurs nicht erforderlich Sie müssen sich nur an diese vier Arten von Loadbalances, Typen, Protokollen und Anwendungsfällen erinnern diese vier Arten von Loadbalances, Typen, Protokollen und Anwendungsfällen Das ist alles für diese Lektion. 61. ELB und Auto Scaling gemeinsam verwenden: Hallo, Studierende. Willkommen zurück. Im vorherigen Lab, im Modul EC Two, haben wir den STTDP-Service für die EC Two-Instance bereitgestellt , die wir über die AWS-Konsole erstellt haben In diesem Lab werden wir zwei EC-Instances mithilfe der AWS Autoscaling-Gruppe erstellen zwei EC-Instances mithilfe der AWS Autoscaling-Gruppe Wir werden sehen, wie die AWS-Autoscaling-Gruppen konfiguriert werden. der Autoscaling-Gruppe bereitgestellt Der STTDP-Service wird automatisch für alle Instances in und der daraus resultierende STTDP-Anwendungszugriff über den Application Load Balancer angezeigt daraus resultierende STTDP-Anwendungszugriff über den Application . Gehen wir zur AWS-Konsole und geben Sie C two in die und geben Sie C Klicken Sie auf C zwei, um direkt zum EC Two-Dashboard zu gelangen. im linken Dashboard Klicken Sie im linken Dashboard auf Vorlagen starten. Sie spezifizieren die Konfiguration von zwei EC-Instanzen. Lass uns einen Blick darauf werfen. Klicken Sie auf Erstellen. Vorlage starten. Fügen Sie einen zusammengepackten Namen für die Startvorlage hinzu, Elting. Lassen Sie uns Launch Template für Auto Scaling hinzufügen. Demo als Beschreibung, wir können Steuern hinzufügen, indem wir hier auf diese Drop-down-Schaltfläche klicken. Wenn Sie aus einer vorhandenen Startvorlage eine neue Vorlage kopieren, ändern oder eine neue erstellen möchten aus einer vorhandenen Startvorlage eine neue Vorlage kopieren, ändern oder eine neue erstellen , können Sie dies tun, indem Sie hier auf das nächste Drop-down-Menü klicken. Die nächste Option, die wir haben, ist die Auswahl des AMI. Geben wir Amazon, Linux, zwei in die Suchleiste ein und wählen Sie das erste AMI aus. Wie Sie sehen können, ist dieses AMI für Gratis-Reifen qualifiziert, was bedeutet, dass wir dafür nichts bezahlen müssen. Die nächste Option besteht darin, den Instance-Typ auszuwählen. Wir können mehrere Instance-Typen sehen wenn du hier nach unten scrollst Da wir keine speziellen Instanzanforderungen haben keine speziellen Instanzanforderungen und wir auch in der kostenlosen Version bleiben wollen, wählen wir die Zwei-Punkte-Micro-Instance Als Nächstes müssen wir das Schlüsselpaar auswählen. Wir werden es benötigen, wenn wir H der Instanz zuordnen. Außerdem müssen Sie ein Schlüsselpaar angeben, da wir H in diesem Labor nicht anhand der Instanz bewerten werden Lassen Sie uns dies als Standard belassen. Wenn Sie SSH ausprobieren und Befehle selbst ausführen möchten, können Sie ein vorhandenes Schlüsselpaar wie dieses auswählen oder ein neues Schlüsselpaar erstellen, indem Sie auf diesen Link klicken Wir müssen die Netzwerkeinstellungen für unsere EC Two Instances angeben Netzwerkeinstellungen für unsere EC Wir müssen hier keine Subnetze auswählen. Lassen Sie uns diese Standardeinstellung vorerst belassen. Als Nächstes müssen wir die Sicherheitsgruppe konfigurieren. Bitte beachten Sie, dass diese Sicherheitsgruppe letztendlich an die beiden von uns erstellten EC-Instanzen angehängt wird. Anhand dieser Startvorlage können wir eine neue Sicherheitsgruppe erstellen oder eine bestehende Sicherheitsgruppe auswählen. Ich habe die Sicherheitsgruppe aus dem vorherigen Lab. Ich kann mir das aussuchen. Lassen Sie mich jedoch den Prozess der Erstellung einer Sicherheitsgruppe demonstrieren. Klicken Sie erneut auf Sicherheitsgruppe erstellen und fügen Sie den Namen und die Beschreibung der Sicherheitsgruppe hinzu. Wählen Sie die richtige VPC aus. Als Nächstes werden wir Regeln hinzufügen. Klicken Sie auf Sicherheitsgruppenregel hinzufügen und dann auf Sicherheitsgruppenregeln hinzufügen. Wählen Sie in dieser Quelle in der Spalte Typ die Option STTP aus. Wählen Sie Irgendwo aus. Ich habe die SSH-Regel nicht hinzugefügt, da wir das in diesem Lab nicht tun werden Wenn Sie SSH ausprobieren möchten, müssen Sie einen Hauptzahler auswählen und die SSH-Regel hinzufügen Wir haben jetzt die Sicherheitsgruppe für unsere Startvorlage konfiguriert die Sicherheitsgruppe für unsere Als Nächstes können wir hier die EBS-Volume-Konfiguration hinzufügen. Lassen Sie uns das überspringen. Für dieses Lab können wir die Startvorlage aufrufen, indem wir hier klicken, aber wir haben keine derartigen Anforderungen. Lassen Sie uns auch das überspringen. Klicken Sie auf Erweiterte Optionen. Wir müssen hier keine Optionen ändern. Gehen Sie weiter und kritzeln Sie zum Ende der Seite. Sie werden hier die Option für Benutzerdaten sehen. Hier können wir die Befehle eingeben, die wir ausführen möchten, wenn unsere Instanz gestartet wird. Im vorherigen Lab haben wir STTPD manuell installiert. In diesem Lab werden wir unsere Befehle hier in dieses Textfeld einfügen unsere Befehle hier in dieses Textfeld Aws führt sie automatisch aus , wenn unsere Instanz gestartet wird Bei den folgenden Befehlen aktualisieren. Dies dient dazu, die Standardpakete in unserer Instanz zu aktualisieren . Installieren Sie sttpDoy Dieser Befehl installiert STTPD auf unserem Starten Sie STTPD. Dieser Befehl startet den stTPD-Dienst auf den Dieser Befehl auf dem Bildschirm zeigt uns eine benutzerdefinierte STML-Seite Klicken Sie auf Startvorlage erstellen. Wir haben erfolgreich eine Startvorlage erstellt. Klicken Sie hier, um die Startvorlagen anzuzeigen. Sie können Ihre Startvorlage jetzt in der Liste sehen. Lassen Sie uns nun zum Autoscaling Group-Dashboard übergehen. Klicken Sie im linken Dashboard auf Autoscaling-Gruppen und dann auf Autoscaling-Gruppe erstellen Geben Sie den Namen Packed Up ASG und wählen Sie die Startvorlage aus, die wir Beachten Sie, dass Sie über diesen Link auch hier zur Seite „ Startvorlage erstellen“ gelangen können erstellen diesen Link auch hier zur Seite „ Startvorlage Klicken Sie auf Weiter, wählen Sie die komprimierte VPC aus und wählen Sie Public Submt One und Public Submate Wählen Sie zwei beliebige Standardsubnetze aus der Liste aus. Wenn Sie keine eigene VPC in Ihrem Konto haben , klicken Sie auf Weiter Wir können unserer Autoscaling-Gruppe direkt von dieser Seite aus einen Load Balancer hinzufügen, direkt von dieser Seite aus einen Load Balancer hinzufügen, aber das werden wir später über das Load Balancer-Dashboard tun später über das Load Balancer-Dashboard Lassen wir das vorerst aus. Klicken Sie auf Weiter, wir sehen drei wichtige und nützliche Optionen. Gewünschte Kapazität. Dieser Wert gibt die gewünschte Anzahl von Instanzen an, die Sie haben möchten. Lassen Sie uns diesen Wert auf drei ändern. Als Nächstes haben wir die Mindestkapazität. Dieser Wert gibt die Mindestanzahl von Instances an, über die die Auto Scaling-Gruppe verfügen soll. Wenn Sie über eine Mindestkapazität von zwei verfügen, stellt AWS sicher, dass Sie immer über mindestens zwei Instances verfügen. Lassen Sie uns diesen Wert auf zwei ändern. Als nächstes haben wir die maximale Kapazität. Dieser Wert gibt die maximale Anzahl von Instanzen die die Autoscaling-Gruppe verfügen soll, wenn sie hochskaliert wird Wenn Sie eine maximale Kapazität von vier haben, lassen Sie uns diesen Wert auf vier Instanzen ändern Wir können die Ziel-Tracking-Skalierungsrichtlinie hinzufügen, indem wir die Option hier für unser Beispiel hinzufügen Später werden wir unserer Autoscaling-Gruppe einfache Skalierungsrichtlinien Klicken Sie auf Weiter, wir können auf dieser Seite eine Benachrichtigung hinzufügen. Wir können beispielsweise ein SNS-Thema erstellen, das uns jedes Mal, wenn die Autoscaling-Gruppe skaliert oder heruntergefahren wird, eine E-Mail an uns sendet jedes Mal, wenn die Autoscaling-Gruppe skaliert oder heruntergefahren wird, eine E-Mail an uns Autoscaling-Gruppe skaliert oder heruntergefahren wird, Wir haben keine derartigen Anforderungen Klicken Sie auf Weiter, wir können hier ein Tag hinzufügen. Lassen Sie uns das überspringen. Klicken Sie auf Weiter, überprüfen Sie Ihre Autoscaling-Gruppe und klicken Sie dann auf Autoscaling-Gruppe erstellen Unsere Autoscaling-Gruppe mit der gewünschten Kapazität von drei, einer Mindestkapazität von zwei und einer maximalen Kapazität von vier aufgeführt Mindestkapazität von zwei und einer maximalen Kapazität Der Status, also die Aktualisierung der Kapazität, da wir die gewünschte Kapazität von drei haben und diese Autoscaling-Gruppe derzeit keine Instanzen hat, wird sie versuchen, drei C-2-Instanzen für uns zu erstellen Sie können sich das ansehen, indem Sie Ihre Autoscaling-Gruppe auswählen und auf die Aktivität klicken Sie werden drei erfolgreiche Instance-Starts sehen. In der Spalte „Ursache“ können Sie sehen, dass der Autoscaling-Gruppendienst versucht, die Kapazität zu erhöhen (0-3). Bevor wir zum EC Two-Dashboard gehen und uns unsere Instances ansehen, fügen wir der Autoscaling-Gruppe Skalierungsrichtlinien hinzu Klicken Sie auf den Tab Automatische Skalierung . Neben dem Tab Aktivität sehen Sie, dass wir unserer Autoscaling-Gruppe keine Richtlinien hinzugefügt haben unserer Autoscaling-Gruppe keine Richtlinien hinzugefügt Lassen Sie uns eine dynamische Skalierungsrichtlinie erstellen. Wählen Sie „Einfache Skalierung“ aus dem Richtlinientyp und fügen Sie den Namen hinzu. Fügen Sie eine Instanz hinzu. Wenn die CPU-Auslastung geringer ist als automatische Skalierung, benötigt die Gruppe einen Cloudwatch-Alarm , um die CPU-Auslastung zu verfolgen Lassen Sie uns den Alarm erstellen, indem Sie hier auf die CW-Alarmseite Klicken Sie auf Metrik auswählen und dann auf zwei. Für C2-Metriken benötigen wir die gesamte Autoscaling-Gruppenmetrik und nicht die Metrik pro Instanz für diesen Alarm Wählen Sie nach Autoscaling-Gruppe aus und suchen Sie unter dem Metriknamen nach der CPU-Auslastung Wählen Sie die Zeile CPU-Auslastung aus und klicken Sie auf Metrik auswählen. Sie können das Diagramm zur CPU-Auslastung auf der linken Seite sehen. Wir möchten, dass unsere Autoscaling-Gruppe skaliert. Die CPU-Auslastung liegt über 80%. Scrollen Sie nach unten, wählen Sie im Bedingungsfeld die Option Höher aus und geben Sie den Wert 80 Das bedeutet, dass unser Alarm ausgelöst wird , wenn der CPU-Auslastungswert über 80 liegt. Wir müssen die anderen Parameter für den Alarm nicht ändern . Klicken Sie auf Weiter, wir können Benachrichtigungen und Aktionen auf dieser Seite hinzufügen , aber lassen Sie uns das vorerst überspringen. Wir werden auf der Autoscaling-Gruppenseite eine Alarmaktion hinzufügen auf der Autoscaling-Gruppenseite Klicken Sie auf Weiter, geben Sie den Namen und die Beschreibung ein und erstellen Sie den Alarm wieder auf der Autoscaling-Gruppenseite Aktualisieren Sie die Alarm-Option. Suchen Sie Ihren Scale-Up-Alarm in der Liste. Wählen Sie den Alarm in der Aktion aus. Wählen Sie, ob Sie eine Kapazitätseinheit hinzufügen möchten. Dadurch wird jedes Mal, wenn dieser Alarm ausgelöst wird, eine Instanz zu unserer ASG hinzugefügt jedes Mal, wenn dieser Alarm ausgelöst wird, eine Instanz zu unserer ASG Wir haben unsere einfache Skalierungsrichtlinie entwickelt , um den Raum für automatische Skalierung zu Lassen Sie uns eine weitere Richtlinie zur Reduzierung der Skalierung erstellen. Klicken Sie auf Dynamische Skalierungsrichtlinie erstellen. Wählen Sie Einfache Skalierung aus. Fügen Sie den Namen hinzu. Entfernen Sie eine Instanz, wenn die CPU-Auslastung unter 30 liegt. Wir müssen auch einen neuen Alarm erstellen. Klicken Sie auf den Link Alarm erstellen. Klicken Sie auf Metrik auswählen. Sie die Metrik der Autoscaling-Gruppe nach Metrik aus und wählen Sie die Metrik zur CPU-Auslastung Dieses Mal möchten wir, dass unser Alarm ausgelöst wird, wenn die CPU-Auslastung im Alarmzustandsfeld unter 30% Wählen Sie niedriger aus und fügen Sie den Wert 30 hinzu. Klicken Sie auf Weiter, überspringen Sie die Benachrichtigungen, fügen Sie einen Namen und eine Beschreibung und erstellen Sie den Alarm auf der Autoscaling-Gruppenseite Aktualisieren Sie, wählen Sie den Alarm aus. Wählen Sie, ob Sie eine Kapazitätseinheit entfernen und die Richtlinie erstellen möchten. Lassen Sie uns diese Richtlinien in Aktion sehen. Wir haben gerade eine Richtlinie hinzugefügt, das Herunterfahren bei einer CPU-Auslastung unter 30% vorsieht. Da wir auf unserem EC Two keine Workloads haben, wird die durchschnittliche CPU-Auslastung unter 30% liegen, was diesen Alarm auslöst Wenn Sie den Aktivitäts-Tab Ihrer Auto Scaling-Gruppe sehen, werden Sie bald feststellen, dass AWS die gewünschte Kapazität um 3-2 reduziert die gewünschte Kapazität um 3-2 und die Instance nun beendet Im Fallabschnitt werden Sie sehen, dass dies daran liegt, dass wir die Richtlinie gerade erst erstellt haben, obwohl unsere ASG herunterskaliert wurde Wenn Sie es auf der Registerkarte Cloudwatch sehen, befindet sich der Scale-Down-Alarm immer noch im ausgelösten Das liegt daran, dass auf unseren EC Two-Instances immer noch keine Prozesse laufen und die CPU-Auslastung gering ist Im Idealfall reduziert AWS eine weitere Instanz aus unserer ASG. Da wir die Mindestkapazität jedoch auf zwei festgelegt haben , wird AWS Ihre Instance nicht herunterskalieren AWS ändert Ihre gewünschte Kapazität wie bei den Skalierungsrichtlinien, aber es ändert nie die Mindest- und Höchstkapazitätswerte Wenn Sie die Auto Scaling-Gruppe bearbeiten und den Mindestkapazitätswert auf eins ändern, wird sehr bald eine weitere Instance beendet. Lassen Sie uns das nicht tun und unsere beiden Instances am Laufen halten. Gehen Sie vom linken Dashboard aus zur Instanzseite. Wir können sehen, dass sich zwei Instances im Status Running und eine Instance im Status Beendet haben. Wählen Sie eine der laufenden Instances aus und kopieren Sie deren öffentliche IP-Adressen die IP-Adressen des Instance-Browsers. Sie werden feststellen, dass, obwohl wir in der Instanz keine Befehle manuell ausgeführt haben , HTTPD installiert ist und läuft Lassen Sie uns nun einen Application Load Balancer erstellen und diese Webseite über die Load Balancer-URL aufrufen Klicken Sie auf Load Balancers. Im linken Dashboard können Sie sehen, dass wir derzeit keine Load Balancer in unserem Konto Klicken Sie auf Create Load Balancer, wählen Sie Application Load Balancer geben Sie den Namen Cloud Die nächste Option besteht darin, auszuwählen, ob wir Internet verbundenen oder einen internen Load Balancer wünschen Auf interne Load Balances kann nur lokal innerhalb der VPC zugegriffen werden kann nur lokal innerhalb der VPC zugegriffen Da wir unsere Website über das ALV von überall auf der Welt aus sehen möchten , müssen wir in der Netzwerkbox die Option Internetzugriff auswählen Netzwerkbox die Option Internetzugriff Wählen Sie im Bereich Sicherheitsgruppe die VPC und die öffentlichen Subnetze aus Lassen Sie uns eine neue Sicherheitsgruppe erstellen. Fügen Sie den Namen und die Beschreibung hinzu. Wählen Sie dieselbe VPC wie die beiden EC-Instances aus. Und fügen Sie eine STTP-Regel , um STTP-Verbindungen von überall aus zuzulassen Erstellen Sie die Sicherheitsgruppe wieder auf der Load Balancer-Seite. Aktualisieren Sie die Sicherheitsgruppenoption. Wählen Sie die, die Sie gerade erstellt haben. Alb's benötigen etwas, das als Zielgruppe bezeichnet wird. Eine Zielgruppe ist eine Gruppe von C-2-Instanzen oder anderen Ressourcen, an die ALB ihre Anfragen weiterleitet Lassen Sie uns eine neue Zielgruppe erstellen indem Sie hier auf diesen Link klicken Geben Sie den Namen der Zielgruppe und belassen Sie die anderen Werte als Standard. Klicken Sie auf Weiter, wählen Sie Ihre Instances und fügen Sie sie unten als ausstehend hinzu. Klicken Sie wieder auf der ALB-Erstellungsseite auf Zielgruppe. Formulieren Sie die Option Zielgruppe neu und wählen Sie die Option aus, die Sie gerade erstellt haben Klicken Sie auf Load Balancer erstellen. Wir haben unser ALB erfolgreich erstellt. Klicken Sie auf View Load Balancers. Wir können jetzt unseren Load Balancer in der Konsole sehen. Klicken Sie auf den Load Balancer, Poppy, den DNS-Wert und fügen Sie ihn in Sie können die Waypage und die IP-Adresse der Instanz sehen die IP-Adresse der , die unsere Anfrage bedient Da der Load Balancer unsere Anfragen nach dem Zufallsprinzip an die beiden EC-Instances weiterleitet, werden Sie feststellen, dass die IP-Adresse jedes Mal ändert, wenn wir die Seite neu laden So stellen Sie Webanwendungen in der Wir haben mithilfe von Autoscaling Group und ALB erfolgreich eine hochverfügbare und skalierbare Architektur implementiert skalierbare Architektur mithilfe von Autoscaling Group und ALB erfolgreich eine hochverfügbare und Lassen Sie uns jetzt weitermachen und unsere Infrastruktur löschen. Gehen Sie dazu zur Autoscaling-Gruppenkonsole und löschen Sie die Autoscaling-Gruppe, indem Sie auf Aktionen klicken Löschen Sie den Load Balancer auf der Load Balancer-Seite. Löschen Sie die Zielgruppe auf der Zielgruppenseite auf der Sicherheitsgruppenseite Löschen Sie alle Sicherheitsgruppen mit Ausnahme der Standardsicherheitsgruppe für Ihre VPCs Das ist alles für diese Sitzung. Wir sehen uns in der nächsten. Hör zu.