AWS – Für Anfänger bis Profi | Venkatraman Venkatasubramanian | Skillshare
Suchen

Playback-Geschwindigkeit


1.0x


  • 0.5x
  • 0.75x
  • 1x (normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      Einführung in den Kurs

      2:30

    • 2.

      Thema 1 – Einführung in AWS Teil 1

      28:09

    • 3.

      Thema 1 Einführung in AWS Teil 2

      37:58

    • 4.

      Einführung in Labs AWS

      9:21

    • 5.

      Kostenloses Konto Labs vor der Erstellung

      6:08

    • 6.

      Labs AWS kostenlose Kontoerstellung

      6:00

    • 7.

      Labs AWS MFA und Budget

      13:53

    • 8.

      Labs über alle Überprüfungen der in der Domain 1 abgedeckten Services

      13:37

    • 9.

      Laborautomatisierung (AWS CloudFormation)

      5:10

    • 10.

      Im Labor verwaltete AWS-Services (Amazon RDS, ECS, EKS, Dynamo DB)

      15:35

    • 11.

      Labs – Rechtsizierung des Instanztyps

      12:35

    • 12.

      Labs BYOL und andere Lizenzierungsstrategien

      14:17

    • 13.

      Festkosten vs. variable Kosten AWS-Preisrechner von Labors

      16:46

    • 14.

      AWS-Compliance von Labs

      9:32

    • 15.

      Labs AWS Detective

      7:35

    • 16.

      Labs AWS GuardDuty

      8:49

    • 17.

      Labs AWS Inspector

      7:08

    • 18.

      Labs AWS Sicherheits-Hub

      9:07

    • 19.

      Labs AWS Shield

      13:28

    • 20.

      Übersicht über Lab-Zertifikate

      9:42

    • 21.

      Labs Rest Datenverschlüsselung

      6:59

    • 22.

      Labs Transist Data Encryption (ACM)

      15:16

    • 23.

      Labs AWS Audit Manager

      3:48

    • 24.

      Labs AWS Cloud Watch

      10:35

    • 25.

      Labs AWS CloudTrail

      9:45

    • 26.

      Labs AWS Konfiguration

      7:49

    • 27.

      Labs AWS XRAY

      4:55

    • 28.

      Labs First EC2-Instanz erstellen

      7:58

    • 29.

      Einführung in Labs VPC

      7:52

    • 30.

      Labs Zugriffsschlüssel

      12:49

    • 31.

      Speicherung von Arbeitsnachweisen

      11:04

    • 32.

      Labs Identifizieren von Authentifizierungsmethoden in AWS

      7:08

    • 33.

      Lab-Passwortrichtlinien

      3:25

    • 34.

      Arten von Identitätsmanagement

      8:27

    • 35.

      Labs Benutzergruppen und Richtlinien

      17:52

    • 36.

      Labs AWS Knowledge Center

      5:41

    • 37.

      Labs AWS Sicherheitszentrum

      5:00

    • 38.

      Labs AWS WAF

      20:47

    • 39.

      Lab-Netzwerk ACL

      9:57

    • 40.

      Laborsicherheitsgruppe Teil 1

      11:10

    • 41.

      Laborsicherheitsgruppe Teil 2

      4:49

    • 42.

      Labs Sicherheitsprodukte von Drittanbietern

      12:05

    • 43.

      Vertrauenswürdiger Berater von Labs

      7:49

    • 44.

      Labs AWS CLI-Betrieb mit mehreren Befehlen

      15:16

    • 45.

      Labs AWS Cloud Formation IAC

      6:52

    • 46.

      Labs AWS Cloud Shell

      3:22

    • 47.

      Labs AWS Direct Connect

      8:02

    • 48.

      Labs AWS SDK mit Python

      5:50

    • 49.

      Einführung in Labs CLI

      2:35

    • 50.

      Labs Linux CLI-Installation AWS Linux Upgrade

      5:43

    • 51.

      Labs Linux CLI Installation Ec2 Instanzen erstellen

      9:44

    • 52.

      Labs Linux CLI-Installation Offline-Methode

      6:52

    • 53.

      Labs Linux CLI-Installation mit Snap

      5:27

    • 54.

      Labs Windows CLI-Installation

      3:39

    • 55.

      Laborverfügbarkeitszonen

      7:35

    • 56.

      Labs Cloud Front – Website einrichten

      20:48

    • 57.

      Labors Beschreiben, wann mehrere Regionen verwendet werden sollen

      6:54

    • 58.

      Einführung in den Standort der Labs Edge

      7:37

    • 59.

      Labs Peering Verbindungskonfiguration

      29:18

    • 60.

      Einführung in Labs Regionen

      10:32

    • 61.

      Wellenlänge des Labors, lokale Zonen, Latenz in der Praxis

      22:12

    • 62.

      Labs Auto Scaling Group mit dynamischer Richtlinie – Praxisbeispiel

      26:21

    • 63.

      Labs AutoScaling Load Balancer – Praxisanleitung

      11:17

    • 64.

      Labs EC2 Load Balancer – Praxisanleitung

      27:41

    • 65.

      Labs ECS Entfernung – praktische Schritte

      4:17

    • 66.

      Labs ECS Setup Teil 1 Praxisorientierte Anleitungen

      28:50

    • 67.

      Labs ECS Setup Teil 2 Praxisorientierte Anleitungen

      12:33

    • 68.

      Labs EKS Pods und praktische Anleitungen zur Bereitstellung

      7:45

    • 69.

      Praxisorientierte Übungen zum EKS-Setup von Labs

      24:05

    • 70.

      Labs Fargate – praktische Anleitung

      6:52

    • 71.

      Labs Lambda praktisch

      10:53

    • 72.

      Labs Andere Skalierungsrichtlinien in ASG – Praxisorientierte Anleitungen

      7:57

    • 73.

      Praxisorientierte Arten von EC2-Instanzen

      7:15

    • 74.

      Praxisorientierte Techniken von LB in AWS

      7:29

  • --
  • Anfänger-Niveau
  • Fortgeschrittenes Niveau
  • Fortgeschrittenes Niveau
  • Jedes Niveau

Von der Community generiert

Das Niveau wird anhand der mehrheitlichen Meinung der Teilnehmer:innen bestimmt, die diesen Kurs bewertet haben. Bis das Feedback von mindestens 5 Teilnehmer:innen eingegangen ist, wird die Empfehlung der Kursleiter:innen angezeigt.

--

Teilnehmer:innen

--

Projekte

Über diesen Kurs

AWS-Schulungen bieten umfassende Kenntnisse über die Cloud-Infrastruktur, Services und Best Practices für die Entwicklung, Bereitstellung und Verwaltung cloudbasierter Anwendungen von Amazon Web Services (AWS). Dieser Kurs behandelt Computing-, Netzwerk-, Speicher-, Sicherheits-, Automatisierungs- und Migrationsstrategien, sodass Fachleute AWS-Umgebungen entwerfen, optimieren und Fehlerbehebung können. Praktische Labore und reale Szenarien helfen den Teilnehmenden, praktische Erfahrungen mit AWS-Cloud-Lösungen, DevOps-Automatisierung und Cloud-Sicherheit zu sammeln.

Wichtige Lernziele:

  • Verstehe die AWS-Architektur, -Regionen und -Verfügbarkeitszonen.
  • Lerne, wie du EC2-Instanzen, S3-Speicher, RDS-Datenbanken und Networking (VPC, Route 53, CloudFront) bereitstellen und verwalten kannst.
  • Infrastruktur als Code (IaC) mit Terraform, CloudFormation und Ansible implementieren.
  • Konfiguriere Best Practices für Sicherheit mit IAM, Sicherheitsgruppen, AWS WAF und Verschlüsselung.

Wer sollte teilnehmen?

  • Cloud-Ingenieure und Architekten entwerfen skalierbare AWS-Lösungen.
  • DevOps-Ingenieure, die Bereitstellungen und das Infrastrukturmanagement automatisieren.
  • Sicherheitsfachleute, die Best Practices für Cloud-Sicherheit anwenden.
  • IT-Administratoren und Entwickler, die Anwendungen auf AWS migrieren oder bereitstellen möchten.

Voraussetzungen:

  • Grundlegendes Verständnis von Networking, Linux/Windows-Administration und Cloud-Grundlagen.
  • Vertrautheit mit Scripting (Bash, Python, PowerShell).

Triff deine:n Kursleiter:in

Teacher Profile Image

Venkatraman Venkatasubramanian

Welcome to Devops & Middleware Traniing

Kursleiter:in
Level: All Levels

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. Einführung in den Kurs: Hallo Leute. Willkommen zurück zum nächsten Video. In diesem Video werde ich mich vorstellen, und dann werde ich damit beginnen, Sie mit den Konzepten der Themen, die Sie ausgewählt haben, und der Schulung, die Sie gewählt haben, vertraut zu machen den Konzepten der Themen, die Sie ausgewählt haben, und der , und dann werden wir uns die Struktur der Schulung ansehen, wir werden sehen, wer die tatsächlichen Personen sind, die an diesem Kurs teilnehmen werden, und wir werden einige sehen Auch die Höhepunkte oder Werte dieses Kurses. So ziemlich beginnen wir mit meiner Einführung. Das ist Vancatrama hier. Ich habe 20 Jahre Erfahrung in Middleware und auch in der Middleware und In den letzten 14 Jahren arbeite ich an Cloud-Technologie, und diese Cloud-Technologie über die ich in diesem Video spreche, ist AWS Nun, AWS, in dieser Schulung geht es vor allem darum, mit AWS zu arbeiten die Konzepte von AWS zu verstehen. Und wissen Sie, mit Echtzeitwissen über AWS zu arbeiten, anstatt nur mit einer Architektur oder einfach nur eine Vorstellung davon zu haben. Hier habe ich Ihnen also eine umfassende praktische Schulung zu AWS gegeben , und hier können Sie praktisch das Wissen über die Grundlagen von AWS bis hin zu den fortgeschrittenen Konzepten von AWS erwerben. Hier werde ich über einen Service sprechen und dann den Service durchgehen und Ihnen eine richtige Demo über einen Service zeigen , über den ich in diesen AWS-Kursen spreche. Dies wird die Struktur der Schulung sein , und hier richtet sich diese Schulung an alle, die neu bei AWS sind oder AWS lernen möchten, weil wir mit den Grundlagen beginnen werden Wenn Sie bereits über Grundkenntnisse verfügen und fortgeschrittenem Wissen suchen, können Sie einige Kurse am Anfang auch direkt überspringen , sodass Sie kennen die Konzepte von AWS bereits , sodass Sie zum Abschnitt für Fortgeschrittene übergehen können. Nun, die Werte dieses Kurses sind im Grunde, wissen Sie, wie ich Ihnen gesagt habe, Sie vom Anfang bis zum Expertenlevel sehr gute Erfahrungen mit AWS sammeln werden und die Projekte werden zu einem vom Anfang bis zum Expertenlevel sehr gute Erfahrungen mit AWS sammeln werden und die Projekte späteren Zeitpunkt erstellt, damit Sie an den Projekten arbeiten und dann Werte und Informationen zu den AWS-Elementen in Echtzeit abrufen können. Im nächsten Video es darum, wie Sie mit AWS loslegen können. Ich freue mich sehr, mit der Schulung auf AWS zu beginnen. Wir sehen uns im nächsten Video. Pass auf dich auf. 2. Thema 1 – Einführung in AWS Teil 1: Hallo Leute, willkommen zurück zum nächsten Video. In diesem Video werde ich über Cloud Computing sprechen. Aber bevor wir mit diesem Thema beginnen, denken wir einfach an, ich meine, uns selbst, wenn wir über Computer sprechen Was ist das Erste , das Ihnen einfällt, wenn Sie über Computer sprechen, Ihre Laptops, richtig habt Mobiltelefone, euer iPad und, ihr wisst schon, Tablets und so? Also das sind quasi Computer. Wenn Sie also entscheiden, dass Sie einen Computer wollen, wie Ihren Laptop oder so, gehen Sie in ein Geschäft und sagen ihnen, was für einen Laptop Sie brauchen, richtig? Also sagst du ihnen, ich möchte einen Laptop für Spielzwecke kaufen oder ich möchte einen Laptop kaufen, weil ich viel reise und ich ihn auf Reisen benutzen möchte, also sollte es so sein, als hätte ich eine lange Akkulaufzeit. Es sollte eine gute Netzwerkkonnektivität haben, wie WLAN und so. Es wird etwa einen Fernseher mit Speicherplatz haben. Uh, es muss einen iFive-Prozessor haben , weil ich nicht auf einen I 7 oder I 9 Prozessor in meinem Laptop setzen will I 9 Prozessor in meinem Laptop setzen , weil das zu teuer sein wird Also entscheide ich mich für einen Fünf-Prozessor und dann brauche ich ein Windows-Betriebssystem Ebenso geben Sie Spezifikationen an und kaufen einen Laptop , der Ihrem Budget entspricht, nicht wahr? Und es entspricht auch Ihren Anforderungen. Also das ist im Grunde das, was wir als physische, äh, du weißt schon, physische Anlage bezeichnen . Dieser Laptop ist also ein physischer , der einen Platz in Ihrem Zimmer einnimmt, und Sie können darauf zugreifen, indem Sie physisch dorthin gehen und den Laptop in die Laptoptastatur eingeben oder wenn Sie eine externe Tastatur verwenden Das ist also im Grunde ein sogenannter physischer Vermögenswert, und der existiert in Ihrem wirklichen Leben, nicht wahr? Nun, wenn Sie über Unternehmen sprechen, wenn Sie über Unternehmen sprechen, haben Sie Mitarbeiter. Und diese Mitarbeiter werden das darin enthaltene System verwenden. Es gibt also zwei Arten von Systemen. Lass uns darüber reden. Ich spreche nicht von physischen Laptops oder so. Ich spreche von zwei Arten von Schnittstellen. eine Schnittstelle wird von Ihrem Mitarbeiter zugegriffen, und diese Schnittstelle wird zu einem Tool weitergeleitet, über das der Mitarbeiter auf seinen Providence-Fonds Sie werden auf sein Gehalt, seine Gehaltsabrechnung und so weiter zugreifen. Er wird Urlaub, HRMS und all diese anderen Dinge beantragen, und all diese anderen Dinge beantragen, wie das Gehaltsabrechnungssystem Also diese Art von Schnittstelle, über die Mitarbeiter mit dem Mitarbeiter kommunizieren kann, oder? Also, ähm, und es gibt noch eine andere Art von Schnittstelle mit der Kundenschnittstelle, richtig? Der Kunde greift also auf Ihr Produkt zu. Nun, wie Sie sich dem Kunden präsentieren möchten. Sie werden eine Website haben, oder? Und diese Website wird Informationen über Ihr Produkt enthalten, der ein Kunde das Produkt auf Ihrer Website kauft . Es gibt also zwei verschiedene Arten von Schnittstellen. Nun, wenn Sie ein solches Unternehmen haben und diese Art von zwei verschiedenen Schnittstellen betreiben, eine für Ihre Mitarbeiter, eine für, Sie wissen schon, Ihre Kunden, wo werden Sie diese hosten? Sie werden das als Teil eines Systems hosten , richtig? Ein Computer. Also das Gleiche, was das Unternehmen macht, ist, anstatt dass Sie zu einem Laptop-Händler wie Apple oder HB oder was auch immer Sie gehen, wenn Sie ein Gamer sind oder einen Laptop kaufen wollen, geht das Unternehmen zu Dell, HP oder einer Art von Apple selbst Also stellen sie Server her. IBM, sie stellen einen Service her, richtig? Also gehen sie zu diesen Herstellern und fragen sie, ich möchte diese Mitarbeiterbasis aufnehmen, und ich habe Tausende von Mitarbeitern. Ich möchte quasi eine Infrastruktur aufbauen lassen, ein Rechenzentrum bauen, und ich möchte sozusagen Service in ihnen haben. Und das wird tatsächlich meine mitarbeiterbezogenen Daten hosten. Und ich möchte es schützen, weil ich nicht möchte, dass jemand anderes auf meine Mitarbeiterdaten zugreift. Ich möchte nur darauf zugreifen. Also, was machst du, wenn du das auf einer Prem-Datenbank aufbaust, tut mir leid, auf einem Prem Data Center Nun, in diesem On-Prem-Rechenzentrum müssen wir von unten anfangen Sie werden Netzwerkschnittstellen haben. Sie werden einen Speicher haben, der zum Speichern von Daten gebaut ist. Server, die die Verarbeitung übernehmen, die eine Verbindung zu einem Speichergerät herstellen , wenn es sich um ein externes Speichergerät handelt, werden sie sich einfach wieder mit Ihrem Netzwerk verbinden. Es wird ein Betriebssystem haben, oder? Es wird einige Middleware-Komponenten haben, eine Datenbankkomponente, Ihre Kundendaten oder Ihre Mitarbeiterdaten, also werden Sie diese beiden verschiedenen Datentypen unterscheiden diese beiden verschiedenen Datentypen Und dann werden Sie diese Kundenanwendung oder Ihre Mitarbeiteranwendung haben , richtig Das sind also Dinge, die Sie als Unternehmen verwalten. Weil Sie diese Daten verwalten werden. Also werden entweder Ihre Kundendaten oder Ihre Mitarbeiterdaten von Ihnen verwaltet. Aber um das zu verwalten, benötigen Sie eine Datenbank, Middleware, oder? Und um diese Datenbank und Middleware zu hosten, benötigen Sie ein Betriebssystem versteht, was Middleware und Datenbank sind , Und das Betriebssystem muss auf einem Server laufen, über CPU, Arbeitsspeicher, Festplatte für das ursprüngliche Betriebssystem und dann Komponenten für die Verbindung mit dem Netzwerkkabel, Komponenten für den Anschluss an Ihren Speicher und externe Speichergeräte verfügt, richtig? Es braucht also solche Gegenstände, damit es funktioniert, nicht wahr? Also da braucht das Unternehmen eine Datenbank vor Ort , tut mir leid, Rechenzentrum Wenn Sie jetzt das Rechenzentrum haben, gibt es eine Menge Gemeinkosten Wenn Sie zum Beispiel einen Laptop kaufen, was in diesem Fall passiert, wenn Sie einen Laptop kaufen, müssen Sie einen Platz haben, an dem Sie einen Laptop aufbewahren Sie müssen also einen Schreibtisch dafür kaufen, nicht wahr? Sie können Ihren Laptop nicht immer auf Ihrem Schoß haben. Ihr Labor wird heiß werden, nicht wahr? Denn wenn Sie viele Daten verarbeiten, wird es richtig heiß. Sie müssen also einen Schreibtisch kaufen und Ihren Laptop auf den Schreibtisch stellen und dann den Kabelanschluss für Ihr Stromkabel bereitstellen und dann WLAN für das Internet bereitstellen. Und wenn Sie einen externen Monitor wünschen, müssen Sie dieses zusätzliche Kabel an Ihr HDMI anschließen. Und wenn Sie dann Maus und Tastatur griffbereit haben möchten und Sie eine externe Maus und Tastatur benötigen, müssen Sie eine Verbindung zu Bluetooth herstellen. Das ist also etwas , das für Sie benötigt wird. Dies sind einige Dinge , die Sie, Sie wissen schon, berücksichtigen oder zuweisen müssen Sie wissen schon, berücksichtigen oder zuweisen Einfach einen Laptop zu kaufen macht keinen Sinn, es sei denn, Sie haben diese Geräte dabei, oder Das Gleiche gilt für ein Rechenzentrum, Sie müssen Platz für das Rechenzentrum haben Zum Beispiel kann ein Rechenzentrum groß sein, kann aber auch klein sein. Es kann sich also auch innerhalb des Firmengeländes befinden, bis es vor dem direkten Zugriff anderer Personen geschützt ist. Sie müssen also einen Raum erstellen. Sie müssen Platz für das Rechenzentrum schaffen. Sie müssen die Caches kaufen, wie das Chassis, tut mir leid, wo Sie den Service dort einsetzen, müssen Sie die Netzwerkkabel kaufen Sie müssen Switches für Ihr Netzwerk kaufen, oder? Sie müssen also ebenfalls Vorkehrungen treffen und einige Serveradministratoren behalten. Sie müssen zum Beispiel einige Leute einstellen, um den Service zu verwalten. Wenn es einen Stromausfall gibt, brauchen Sie eine Notstromversorgung, oder? Ebenso müssen Sie also nicht nur Service kaufen, sondern auch Infrastruktur kaufen. Und hier kommt AWS ins Spiel. AW wird einen Teil der Arbeitslast, die Sie da drüben haben, abnehmen. Also, welche Art von Arbeitslast wirst du davon befreit bekommen? AW hat also verschiedene Dienste, die es anbieten kann. Es hat also diese zwei AWS EC-Instanzen. Das ist das Erste, was reingekommen ist. Es heißt Infrastructure as a Service , bei dem AWS sich um die Rechenzentrumsfläche, deren Vermietung, Verkabelung, Verwaltung und andere Dinge kümmert deren Vermietung, Verkabelung, Verwaltung und andere Dinge Verwaltung und andere Sie werden Ihnen also quasi ein Netzwerk geben. Sie werden dir Speicherplatz geben. Sie geben dir einen Server zum Hosten. Nun, was musst du mitbringen? Sie müssen entweder, wenn Sie bereits eine Betriebssystemlizenz bei sich haben, diese mitbringen. Wenn Sie ein Open-Source-Betriebssystem verwenden, müssen Sie das nicht wirklich tun. Okay? Also, wenn du ein Ubundu benutzt, das Open Source ist, kannst du einfach damit weitermachen, ohne etwas zu bezahlen Oder Sie gehen zu AWS und sagen ihnen, dass ich keine bestehende Lizenz für eines der Betriebssysteme habe , aber ich möchte Windows für mich oder Red Enterprise als Nächstes verwenden Wenn Sie das Wort Enterprise sagen, bedeutet das, dass dafür eine Gebühr anfällt. Was AWS Ihnen also geben würde, ist dass sie das Betriebssystem installieren, Ihnen aber das Unternehmen in Rechnung stellen. Was auch immer sie verlangen, sie werden von Red Hat in Rechnung gestellt. Sie werden Ihnen also indirekt Gebühren berechnen, und das wird Teil Ihres Abrechnungsprozesses sein. Und dann müssen Sie Ihre eigene Lizenz für Ihre Middleware-Datenbank, Kundendaten und Kundenanwendung mitbringen Ihre eigene Lizenz für Ihre Middleware-Datenbank, Kundendaten und Kundenanwendung Sie müssen also weniger verwalten, ja, wenn Sie das mit dem vergleichen, was Sie früher verwalten mussten Aber es hat einen Nachteil. Lassen Sie mich Ihnen kurz den Nachteil erklären. Ihnen gehört der Service nicht. Das ist eine gute Möglichkeit, bei der Sie den Service nicht kaufen müssen, indem Sie eine Menge Geld geben , oder Sie müssen keine Miete für das Rechenzentrum zahlen. Das ist eine gute Sache, aber das Problem ist, dass die AAWSoP, jederzeit auf diesen Service zugreifen kann die sich darin befindet, Aber normalerweise sind sie an die Vereinbarung gebunden. Sie werden dort nichts Illegales tun. Aber es steht immer noch nicht unter Ihrer Aufsicht, also kann alles passieren. Das ist also etwas, dessen Sie sich bewusst sein sollten. Also eine Menge Bankkram, sie speichern ihre tatsächlichen privaten Daten nicht in einem Rechenzentrum, tut mir leid, in einer öffentlichen Hosting-Cloud wie AWS oder Azore Also entweder nehmen sie ein privates damit sie den dedizierten Host dafür haben Es gibt eine Option dafür, denn der ganze Service, den Sie nutzen werden, oder? Alle diese Dienste, die Sie verwenden werden, werden standardmäßig gemeinsam genutzt, es sei denn, Sie fragen sie nach einem dedizierten Host, was bedeutet, dass ein bestimmter Host für Ihren Betrieb reserviert ist. Also werden wir später darüber sprechen. Es ist, als ob es sich nicht um ein einfaches Konzept handelt , sondern um ein wirklich fortgeschrittenes Konzept. Aber es gibt eine Möglichkeit, das zu tun. AWS bietet Ihnen also viele solche Optionen. Trotzdem befindet sich der Server auf einer Website eines Drittanbieters, nämlich AWS, was Amazon ist, oder? Es gibt also Nachteile, aber auch diese Vorteile. Sie müssen nicht für einen Platz bezahlen. Sie müssen keine Ausrüstung kaufen. Sie müssen nicht die Gemeinkosten tragen, die entstehen, wenn ein Mitarbeiter diesen Service verwaltet. Sie haben also auch nicht diese Gemeinkosten. Also ist das Geld tatsächlich gespart. Und wenn Sie das für einen Versuch und Irrtum verwenden, können Sie es eine Stunde lang verwenden und dann den Server ausschalten, und es wird Ihnen nichts berechnet. All diese Operationen werden also abgeschaltet und es fallen keine Gebühren an. Das hat also auch einen guten Vorteil. Und es gibt noch einen weiteren Vorteil. Was ist, wenn ich den Service in Anspruch nehmen und im Voraus bezahlen möchte . AWS macht Ihnen also ein nettes Angebot , wenn Sie im Voraus bezahlen. Ich möchte den Service zum Beispiel drei Jahre lang in Anspruch nehmen. Okay, du zahlst mir drei Jahre im Voraus und ich gebe dir einen sehr guten Preis Es wird also viel billiger sein als der Preis auf Anfrage. Also das ist sehr gut, oder? Sie erhalten also Angebote, die auf den Regionen basieren, die Sie auswählen, basierend auf dem Standort, Sie erhalten auch Angebote. Infrastructure-as-a-Service bietet also viele Vorteile . Interessant, das zu erfahren, oder? Im nächsten Video werden wir dies fortsetzen und über Platform-as-a-Service, Software-as-a-Service und Storage-as-a-Service sprechen . Aber ich hoffe, Sie haben verstanden, wie sich ein lokales Rechenzentrum von einem Cloud-Computing unterscheidet. Stimmt das? Nun, warum sie Cloud sagen, liegt es daran, dass es in der Cloud ist. Sie verwalten eigentlich keine davon. Es ist also tatsächlich in der Cloud. Also brauchst du ständig Internet. Aber wenn Sie vor Ort arbeiten, benötigen Sie kein Internet Sie können direkt zum Standort des Rechenzentrums gehen, das Kabel anschließen und schon können Sie über einen Monitor auf das Objekt zugreifen Leider ist das mit einer Cloud nicht möglich, da sie sich in der Cloud befindet. Sie benötigen also Internet, um eine Verbindung zur Cloud herzustellen und auf die Daten aus dem Internet zuzugreifen. Das ist also das einzige Problem. Aber mach dir darüber keine Sorgen. AWS ist im Grunde HTTPS. Die gesamte Transaktion zwischen Ihnen und dem Cloud-Anbieter ist also dem Cloud-Anbieter ist durch das Zertifikat gesichert, das TLS-Zertifikate verwendet. Viel mehr Details zum nächsten Video, Leute. Wir sehen uns im nächsten. Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir über die Fortsetzung dessen sprechen , wo wir bei den Servicemodellen des Cloud-Computing aufgehört haben . Jetzt haben wir genug über On-Prem gesprochen. Wir haben auch über Infrastruktur als Service gesprochen , bei Infrastruktur von einem Dienstleister wie Amazon, Google oder, sagen wir von einem Dienstleister wie Amazon, Google oder, , Microsoft Aaball Es gibt auch andere Anbieter. Ich erwähne nicht, dass das nicht bedeutet, dass sie nicht existieren. Derzeit gibt es so viele Anbieter, die ihre Infrastruktur als Service anbieten, und alles, was Sie für sie bezahlen müssen , sind die Infrastrukturkosten, und zwar auf Stundenbasis oder es könnte ein vereinbarter Zeitrahmen sein, etwa ein bis drei Jahre. Nun, AWS bietet Ihnen eine solche Infrastruktur als Service an, aber AWS bietet Ihnen noch mehr als das, ähm, was Platform-as-a-Service ist. Nun, was Platform-as-a-Service angeht, wie Sie hier sehen können, bietet Ihnen AWS bis zur Middleware auf Datenbankebene, okay? Sie müssen also nur Ihre Kundendaten oder Ihre Mitarbeiterdaten Und dann fügen Sie es in eine bestehende Anwendung , die auf einer bestimmten, Sie wissen schon, Codezeile laufen kann , okay. Und im Grunde können Sie Ihre Daten verwenden, und das, was mit Amazon EKS ausgeführt werden kann , ist eines der Beispiele. Es gibt so viele andere Plattformangebote von AWS. EK ist eines der guten Beispiele dafür, dass EKS, Sie wissen schon, Elastic Kubernetes-Service ist und Ihnen den Kubernetes-Service für Ihre Anwendung bietet Sie müssen also nur Ihren Anwendungscode eingeben , und dann kann er Ein ECS ist ein vollständig verwalteter Dienst, was bedeutet, dass Sie nicht wirklich den Overhead eines Administrators konfigurieren müssen, der das EK, also Overhead eines Administrators konfigurieren müssen die KubInt-Seite der Dinge, konfigurieren muss, da dieser von einer Konsole verwaltet wird Diese Art von Platform-as-a-Service wird Ihnen also auch angeboten, und es gibt noch so viele andere Dinge die wir später noch eingehen werden In Bezug auf Software als Service ist Software as a Service ein sehr gutes Beispiel dafür, ist Software as a Service ein sehr gutes Beispiel dafür Ihr Google Sheet ein sehr gutes Beispiel für Software als Service ist ein sehr gutes Beispiel für Software als Service bei dem Sie eigentlich keine der Logiken besitzen, die hinter der Ausführung dieses Google-Sheets Aber wenn Sie dann zu sheet.google.com gehen, erhalten Sie das Google Sheet, die Google-Tabelle Und alles, was Sie tun müssen, ist die Daten einzugeben, die Daten auf Google zu speichern, und dann ist das so ziemlich, Sie wissen schon, das ist Ihre Software als Service, was bedeutet, dass Sie sich nicht wirklich mit irgendwelchen Codierungen oder irgendwelchen Entwickleranforderungen herumschlagen müssen Codierungen oder irgendwelchen Entwickleranforderungen Sie als Organisation müssen also kein Abonnement kaufen, das auch auf einem System installiert werden muss Zum Beispiel, wenn Sie Google Sheet mit Microsoft Excel vergleichen , oder? Microsoft Excel hat derzeit eine Webversion davon, wie eine Softwaredienstversion davon. Aber vorher mussten Sie es herunterladen und auf einem System installieren, was bedeutet, dass Sie einen Computer besitzen müssen und dieser physisch auf Ihrem System installiert sein muss. Aber im Moment müssen Sie das nicht wirklich mit Google Sheet tun. Warum? Weil Sie zum Internet Center oder zum Browsercenter gehen und tatsächlich settoggle.com öffnen, sich mit Ihrer ID anmelden und Ihre Excel bearbeiten können sich mit Ihrer ID anmelden und Ihre Excel bearbeiten Und dann speichern und beenden, und Sie müssen nicht einmal etwas auf diesem System installieren und Sie müssen nicht einmal etwas auf diesem System installieren. Sie können es also temporär verwenden und dann Ihre Arbeit erledigen, es dann zusammenpacken und stehen lassen. Das Gleiche gilt auch für Ihren Lagerservice, oder? In dieser Situation gibt es zum Beispiel eine vordefinierte Software, gibt es zum Beispiel eine vordefinierte Software die auf Abonnementbasis vermietet wird Sie können diese Software abonnieren , indem Sie etwas Geld bezahlen, und dann können Sie von überall auf der Welt darauf zugreifen , wenn Sie nur einen Browser haben. Und das Gleiche gilt auch für den Speicher. Sie entscheiden sich also für ein Abonnement und greifen dann lediglich auf den Speicher auf Google Drive oder Dropbox oder auf jede Art von Speicher als Service zu. Es gibt auch einen dieser Dienste von Amazon, der es geben wird, was zu diesem Zeitpunkt als Beispiel angeführt werden kann. Und du kannst Dinge hochladen, von überall auf der Welt herunterladen, jedem Zugriff gewähren, jedem Zugriff gewähren betrachtet, oder so, und dann kannst du einfach den Link teilen, und jeder auf der ganzen Welt kann ihn herunterladen. Sie müssen jedoch immer noch Abonnementgebühren für diesen bestimmten Dienst zahlen , und dieser spezielle Dienst stammt aus der Cloud. Das beste Beispiel ist also Google Drive. Also verwende ich immer Google Drive, um meine Dokumente und ähnliches zu teilen . Du kannst dir auch vorstellen, dass Git Hub dieselbe Methode hat, wir unsere Codes und Archive tatsächlich auf GitHub speichern können. Und das kann auch geteilt werden. GitHub kann also auch für uns betrachtet werden, es ist eine Art Hybrid zwischen Software als Service und Speicherdienst da es als Stand genutzt werden kann. Ebenso haben Sie derzeit über das Internet so viele Live-Beispiele auf der ganzen Welt, und Sie können zumindest eines davon finden , das Sie tatsächlich täglich verwenden. Es handelt sich also um Cloud-fähige Servicemodelle, und diese Modelle geben Ihnen tatsächlich eine vollständige Vorstellung davon, welche Fähigkeiten Cloud-basierte Systeme bieten. Ich hoffe du hast das verstanden. Das wird für Sie also sehr nützlich sein, wenn Sie anfangen, mit Cloud Base zu arbeiten , damit Sie tatsächlich unterscheiden können , was sich in der Cloud befindet und was nicht. Okay? Ich denke also , dass Sie zu diesem Zeitpunkt verstehen sollten, was sich in der Cloud befindet und was nicht. Und versuchen Sie einfach, die Dinge zu verstehen, die Dinge, die Sie derzeit in Ihrem täglichen Leben verwenden, herauszufinden, welche in der Cloud enthalten sind und welche nicht, damit Sie den Unterschied zwischen all dem verstehen können . Der beste Weg ist also, das selbst auszuprobieren und zu verstehen. In Ordnung. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben, ein anderes Video. Wir werden noch ein paar Beispiele mit dieser Art von Live-Beispielen sehen , ja. Hey, Leute, bucht im nächsten Video zurück. In diesem Video werden wir uns die Vorteile der Nutzung von Cloud Computing ansehen . Wie Sie auf dem Bild sehen können, steht Cloud Computing im Mittelpunkt, und in der Umgebung sehen Sie eine Menge Dinge, die sich darum drehen. Eines der Dinge ist Flexibilität und Agilität, daher ist es sehr wichtig, dass Sie wissen, ein Cloud-Anbieter flexibel und agil ist. Nun, was meinst du mit flexibel? Also wann immer ich will, kann ich die Instanz beenden, und wann immer ich will, möchte ich die Instanz starten, entweder über Scripting, Befehlszeile oder über die Konsole Flexibilität gibt mir also , wann ich sie brauche, und wenn ich sie brauche, habe ich diese zusätzliche Leistung Nun, was ist Agilität? Agilität hilft mir, meine Implementierungen, wissen Sie, schnell durchzugehen Wenn ich zum Beispiel Bereitstellung sage, was bedeutet das? Bereitstellung bedeutet, dass ich einen Server bereitstelle, wenn eine Anforderung besteht. Und das muss schnell erstellt werden. Flexibilität ermöglicht es mir also, die Kapazität zu erhöhen oder zu verringern oder zu skalieren. Aber Agilität hilft mir, es schneller zu machen. Also werde ich Ihnen zeigen, wie viel Zeit es dauert, eine Instanz zu erstellen und auszuführen, okay? Das Erstellen einer Instanz kann manuell erfolgen und viel Zeit in Anspruch nehmen , aber es ist eine automatisierte Methode, eine Instanz zu erstellen, wie wenn ich Ubunts in Bus verwende Ich möchte sofort eine Instanz erstellen , sobald ich eine hohe Auslastung des Systems feststelle So funktioniert Auto-Skifahren, oder? Wenn ich sehe, dass ein System stark ausgelastet ist, möchte ich sofort weitere Instanzen einrichten , um die Anfrage zu bearbeiten. Agilität hilft mir hier also, sofort mehr Instanzen zu erstellen , wann immer es erforderlich ist. Was die Innovation angeht, so kann ich damit neue Dienste hinzufügen. AWS fügt ständig weitere Dienste hinzu und innoviert sich selbst. Sie können also sehen, dass wir über das Interaktionstraining gesprochen haben über das Interaktionstraining gesprochen Wir haben ein neues Zertifikat für KI und Mission Learning gesehen. Ich spreche also von dieser Art von Innovation . Ein Cloud-Partner sollte also in Bezug auf Innovation niemals Kompromisse eingehen Er sollte auch immer innovativ sein die neuesten Trends auf dem Markt hinzufügen Der aktuelle Trend ist derzeit KI. Der nächste ist kostengünstig. Es gibt also so viele Kunden, die mich fragen, wie wir dieses Projekt kostengünstig gestalten können. Als Cloud-Ingenieur oder Infrastrukturingenieur müssen Sie sich also eine kosteneffiziente Lösung überlegen. AWS hilft Ihnen dabei, die Kosten zu senken. Wenn Sie die Kosten und den Energieverbrauch Ihres lokalen Rechenzentrums vergleichen Ihres lokalen Rechenzentrums und das mit der Cloud vergleichen, wird es viel einfacher , da Sie nur für das bezahlen, was Sie tatsächlich nutzen. Stimmt das? Wenn Sie es nicht nutzen müssen, zahlen Sie auch nicht dafür. Als Infrastrukturingenieur oder Cloud-Ingenieur müssen Sie also festlegen, müssen Sie also festlegen wie viele Replikate oder wie viele Dienste zu einem Zeitpunkt ausgeführt werden sollen , an dem die Auslastung geringer ist Auf diese Weise können Sie die Kosten für das Unternehmen senken , wodurch Sie Ihrem Unternehmen tatsächlich mehr Gewinn bringen können Wir werden also zu einem späteren Zeitpunkt viel über die kostengünstigen Methoden und Strategien im Hinblick auf Skalierbarkeit sprechen einem späteren Zeitpunkt viel über die kostengünstigen Methoden und Strategien im Hinblick auf Skalierbarkeit . Wir haben bereits über den Flexibilitätsaspekt gesprochen. Skalierbare Anwendungen sind eine der wichtigsten Anforderungen aller Cloud-Computing-Dienste Skalierbarkeit wird jetzt von einem AWS bereitgestellt, und AWS unterstützt auch die Skalierbarkeit von Drittanbietern Wenn ich Cobert also getrennt von, wissen Sie, getrennt von der eingebauten oder standardmäßigen Uberts-Engine, die von AWS bereitgestellt wird, implementiere , kann ich diese Anwendung trotzdem mithilfe von, Sie wissen schon, AWS-Services skalieren Sie wissen schon Auch wenn ich die integrierten Cobert Services EKS nicht verwende , kann ich meine Anwendung trotzdem skalieren, indem ich die Cubs, sorry, AW-Standards verwende Sicherheit angeht, Ähm, AWS bietet Ihnen viele verschiedene Möglichkeiten, Ihre Konsole, Ihren Zugriff auf die CLI, Ihren Zugriff auf Ihre Cloud-APIs und Ihren Zugriff auf den Service zu sichern CLI, Ihren Zugriff , und Ihren Zugriff auf den Service zu Und auch Server-zu-Server-Zugriff. Es ist sehr sicher. Die Dienste innerhalb von AWS verwenden auch ein sicheres Protokoll , um miteinander zu kommunizieren , sodass es keine Hacks und Angriffe auf AWS-Services Die nächste ist Zuverlässigkeit. Zuverlässigkeit, wenn ich über Zuverlässigkeit spreche, kommen mir die Themen Regionen und*** in den Sinn. Jetzt hat jede Region standardmäßig mindestens zwei As, was bedeutet, dass es zwei Mindestverfügbarkeitszonen gibt. Das bedeutet, dass Ihre Daten über diese beiden Zonen hinweg repliziert werden, aber die wichtigsten, Sie wissen schon, häufigsten genutzten Regionen mindestens drei oder mehr Availability Zones, was Ihrer Zuverlässigkeit hier eine Menge Bandbreite bietet Entwicklerfreundlichkeit angeht, so ist die Konsole, die Sie sehen werden , so entwicklerfreundlich, dass Sie der Konsole viel Spaß haben werden Zu einem späteren Zeitpunkt werden wir uns also mit der Zuverlässigkeit befassen. Worüber wir auch immer gesprochen haben, wir werden es uns tatsächlich eins nach dem anderen ansehen. Also mach dir darüber keine Sorgen. Ich werde diese nicht im Detail behandeln, aber das ist nur ein Überblick. In Bezug auf die Hybrid-Cloud-Funktionen , in Bezug auf AWS viele Innovationen unternommen um Ihnen diese Hybrid-Cloud-Problemumgehung Wie funktioniert die Hybrid Cloud sowohl mit Ihrem Rechenzentrum als auch mit AWS Das ist also möglich. Sie können also zwei Daten haben, einen sicheren in Ihrem Onpromiss-Rechenzentrum und die andere Hälfte sind öffentliche Daten, auf die jeder zugreifen kann und die auf AWS gehostet werden können Hybrid Cloud wird also in Bezug auf die Arbeit mit AWS vollständig unterstützt Und dann sind das Ökosystem und die Community wichtig , die Anzahl der AMIs, die Amazon Machine Image genannt wird, und der Marktplatz, den Sie haben , und der Community-Support für den Marktplatz und die Dokumentation. Und Leute, wissen Sie, auf der ganzen Welt , die AWS verwenden , bieten eine Menge YouTube-Videos und -Dokumente und alles andere, wo Leute das verwenden. Und Sie können, Sie wissen schon, ihre Erfolgsformel Ihr Unternehmen übernehmen und Ihr Unternehmen erfolgreich machen. Diese Art von Community ist es also, wissen Sie, die Grundlage für eine stärkere Software. Und diese AWS wird Ihnen das bieten. Richtig. Das sind also die Vorteile der Nutzung von Cloud Company Sorry Cloud Computing, insbesondere AWS. Danke, dass Sie sich dieses Video angesehen haben. Ich hoffe, dass dieses Video für Sie leicht zu verstehen war. Wenn Sie Fragen oder Anregungen haben, hinterlassen Sie diese bitte im Pin-Bereich. Ihre Bewertung bedeutet alles. Stellen Sie also sicher, dass Sie eine Bewertung hinterlassen Wenn Sie mit dem Training nicht zufrieden sind, können Sie dies in der Bewertung angeben. Anstatt es einfach zu bewerten, sag das einfach. Was müssen Sie verbessern? Weil ich hier bin, um innovativ zu sein. Ich bin hier, um das Training auf das nächste Level zu bringen. Nochmals vielen Dank. 3. Thema 1 Einführung in AWS Teil 2: Hallo Leute. Willkommen zurück vom nächsten Video. In diesem Video werden wir über die anderen Cloud-Anbieter da draußen sprechen . Jetzt wissen Sie also, dass AW einer der Cloud-Anbieter ist. Es gibt auch andere Anbieter . Sie haben also Microsoft Azore, Sie haben e Cloud von Appo Sie haben Citrix, Sie haben SAP. Sie haben A&E Cloud. Sie haben IBM Cloud. Sie haben Red Monk, Amazon Web Services. Dell hat seinen eigenen Cloud-Service, HP hat seine eigenen Cloud-Dienste Ebenso entwickelt jedes Unternehmen auf der ganzen Welt seine eigenen Cloud-Dienste und bietet seinen Kunden eine breite Palette von Angeboten und attraktive, Sie wissen schon, kostenlose Dienste, die für Schulungen und Schulungen sowie zur Gewöhnung an ihre Dienste genutzt werden können für Schulungen und Schulungen sowie . Ähm, ich habe gesehen, dass Google Cloud viele Rabatte für Unternehmen gewährt, zum Beispiel, wenn Sie sich mit Ihrer, Sie wissen schon, Firmen-E-Mail-Adresse registrieren Sie wissen schon, Firmen-E-Mail-Adresse Also, wenn sie wollen, dass du ihre Cloud erlebst. Das ist der Grund, der Hauptgrund, warum sie Sie bitten , Erfahrungen in ihrer Cloud zu machen. Und Azore macht auch dasselbe, und AWS, wie Sie wissen , haben wir bereits ein kostenloses Konto, das zu einem späteren Zeitpunkt erstellt wird Ebenso haben Sie so viele Cloud-Anbieter. Aber wenn Sie sich die großen Cloud-Anbieter ansehen, die da draußen AWS sind, haben sie natürlich 34 Prozent Marktanteil, laut diesem Bericht von 2020, aber dann ist das schon jetzt fast ein ähnlicher Fall wie WOW. AWS ist also immer noch Marktführer. Aber Azore von Microsoft versucht, ihre, Sie wissen schon, Stärke zu nutzen, weil sie nachgeben, sie viele Angebote, um viele Kunden und sie haben so viele Lösungen, genau wie AWS Dienstleistungen anbietet, oder Sie haben also auch ähnliche Dienste und sie haben Dokumentation Sie erstellen zum Beispiel eine Menge YouTube-Dokumentation, damit die Leute mit ihrer Cloud-Cloud vertraut sind , wissen Sie, auch mit den Verbesserungen. Und dann haben Sie hier Google Cloud. Google Cloud wird auch berühmt und sie gewinnen auch, wissen Sie , mehr Kunden. Hauptsächlich, wer auch immer gegen Microsoft Office ist, oder? Sie entscheiden sich für das Google EnSut-System wie Google Sheets und Google Word und alles andere Mit ihrem Produkt versuchen sie also auch, diesen Kunden, die Google Cloud, zu verkaufen die Google Cloud, zu Also mein letztes Projekt, wir hatten Googles Google Sheet und alles andere. Wir sind gegen Microsoft Office. Ähm, also Google hat das gemacht , als wir unsere Umgebung modernisieren wollten, also entschieden wir uns für Google also entschieden wir uns für Google und nicht für Microsoft Azore oder Amazon AWS, weil wir bereits einen guten Vertrag mit Google hatten , weil wir deren eigenes System nutzten. Und sie haben tatsächlich eine Menge Rabatt gewährt, weil wir, wissen Sie, nicht zu Azore oder AWS wechseln . Wir wechseln zu ihnen. Das war also ein wirklich gutes Geschäft , das wir für den Kunden abgeschlossen haben. Und Google ist jetzt der gesamte ID-Anbieter der vorherigen Projekte für die Google Cloud. Wenn Sie also bereits Beziehungen zu bestehenden Anbietern haben, besteht eine gute Chance, dass diese Ihnen einen guten Rabatt oder ein gutes Schnäppchen ihre eigene Cloud anstatt zu einem neuen Cloud-Anbieter zu wechseln Denken Sie jetzt daran, dass dies 20221 ist. Es war 203000000000 Markt hier. Jetzt, 2024, wird es viel größer sein. Ich werde versuchen, Ihnen einen späteren Zeitpunkt zu geben, wissen Sie, einige Statistiken über 2024, wie es zu einem späteren Zeitpunkt aussieht. Aber wissen Sie, das ist etwas, das sich in Bezug auf den Beruf nicht so sehr ändert , sodass AWS immer noch führend ist , was die Bereitstellung von Cloud-Services angeht. Das mit den Hintergrundgeräuschen tut mir leid, falls Sie etwas hören können, das ich nicht kontrollieren kann. Auch das wollte ich Ihnen in diesem Video sagen, um Ihnen zu zeigen , dass es verschiedene Cloud-Anbieter gibt , aber wir haben uns für AWS entschieden, weil AWS auch jetzt noch im Jahr 2024 einer der führenden Anbieter ist . Nochmals vielen Dank für diese Zeit und Geduld. Wenn Sie Fragen haben, hinterlassen Sie diese im Fragenbereich. Wir sehen uns im nächsten Video. Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir über Regionen und AZ sprechen. Wir werden uns also zuerst auf Regionen konzentrieren und dann auf verfügbare T-Zonen umsteigen. Okay, weil diese miteinander verwandt sind. Nun, bevor wir weitermachen und etwas über Regionen erfahren, können Sie hier einfach über ein Echtzeit-Szenario sprechen, was für Sie sehr, sehr hilfreich ist , um dieses Konzept zu verstehen. Lassen Sie uns nun mit unserer eigenen Firma beginnen. Sagen wir einfach, dass wir eine eigene Firma haben. Und was wir tun, ist, dass wir E-Commerce-Geschäfte machen. Und ich habe meine Kunden in ganz Großbritannien. Mein Produkt wird also in ganz Großbritannien verkauft, hauptsächlich in London und Manchester Sagen wir zum Beispiel, das sind zwei Standorte, von denen ich die meisten meiner Kunden Jetzt habe ich zum Beispiel ein Büro in London und mein Rechenzentrum in London selbst. Nun, da war ein schwerer Sturm in London, und ich habe diesen Stromausfall, und es ist so, weißt du, seit ein paar Stunden, mehr als vier oder fünf Stunden, mein Backup sogar ausgegangen Also wurde meine Firmenwebsite komplett abgeschaltet und es gab keine Nutzer aus Manchester oder, Sie wissen schon, aus Schottland oder Irland Sie können nicht auf meine Website selbst zugreifen. der ganzen Welt ist meine Website also komplett ausgefallen, ist meine Website also komplett weil der Dienst , der eigentlich meinem Rechenzentrum gehostet wurde, ausgefallen ist. Also verstehst du es, oder? Also, nachdem der Strom wieder da ist, verbinde ich mich mit meinen Admins und versuche zu verstehen, und versuche zu verstehen warum meine Website nicht verfügbar war Und der Grund war ziemlich klar wie bei Tageslicht, oder? Weil der Strom nicht da war und die Notstromversorgung sogar ausging. Ich hatte dieses Problem. Es gibt zwei Lösungen, ja, um ganz konkret zu sein, oder? Also die eine ist, ich kann mehr Reservekräfte hinzufügen, und das wird mich eine Menge kosten. Aber das ist nur Redundanz, oder? Wenn es kein Stromproblem gibt, irgendein Hack passiert oder irgendein Eindringling in meine Firma kommt und dann meinen Server herunterfährt, dann ist das Die zusätzliche Stromversorgung bietet mir also keine wirkliche Lösung Also beschließe ich, dass ich eine weitere Zone in Manchester einrichten werde , das ist, wissen Sie, mein zweiter Ort dort drüben, weil dort mein riesiger Kundenstamm ist. Also erstelle ich dort eine weitere Zone , sodass beide Server miteinander kommunizieren und an einem Lastenausgleichsmechanismus arbeiten können miteinander kommunizieren und an einem Lastenausgleichsmechanismus arbeiten . Wissen Sie, bei einem Notfall in London werden Dienste in Manchester gehostet, die sich sogar um meine Website kümmern können, damit sie nicht dauerhaft ausgefallen ist. Also verstehst du das, oder? Das ist also das Beispiel, auf das ich mich hier auf das AWS-Konzept konzentrieren möchte . Nun, Regionen, nichts die tatsächlichen physischen Standorte auf der ganzen Welt, und AZs oder Availability Zones sind die Rechenzentren an diesem, Sie wissen schon, an diesem Standort am physischen Standort. Nehmen wir zum Beispiel US East als Beispiel. Es gibt also eine Region namens US East. Ich habe das gerade für euch rübergebracht. Das sind also Regionen, ja. Also USA Ost ist im Grunde North Virginia, Vereinigte Staaten. Uest ist im Grunde Irland. AP Southeast, einer davon ist Singapur. Also, genauso hat jede Region einen Namen, einen Namen von AWS bestimmt wird, indem man quasi, Sie wissen schon, den Namen des Kontinents hat und dann, welcher Seite er sich befindet, auf der West- oder Ostseite oder auf der Central Side oder auf der Central Side oder der Südostseite, wie Pie. Also entscheiden sie das, und dann geben sie eins, zwei an, wie bei Regionen. Sie können es also, wenn eine bestimmte Region mehrere Regionen enthält, dann ist es wie eins, zwei, so. Aber bis jetzt war es eines, was ich bisher gesehen habe. Also, aber innerhalb der Region werdet ihr AZs haben. Nun, das sind die Rechenzentren. Ist Region also ein Rechenzentrum oder AZ ein Rechenzentrum? AZs sind die Rechenzentren. AZs werden grundsätzlich als Availabt-Zone bezeichnet, was bedeutet, dass es sich um ein Rechenzentrum handelt Nun, die größte Gruppe von Rechenzentren ist in der Region EU Ost verfügbar, weil viele Leute ihre Anwendungen in der Region EU Ost hosten, weil sich viele Leute tatsächlich in dieser Zone in diesem New York befinden, wissen Sie, das ist Chicago, all diese Dinge kommen in diese spezielle Aus diesem Grund haben sie sechs AZs, was sechs Rechenzentren bedeutet. Jetzt können Sie zur Amazon-Website gehen und sich das tatsächlich ansehen. Sie sagen also AWS und können sagen, wie Regionen. Und Sie werden die Liste der AWS-Regionen, die Sie haben werden, hier bekommen AWS-Regionen, die Sie haben werden , Sie können die globale Infrastruktur dort sehen, und Sie können die Liste der Regionen in AZs sehen , die Teil der Welt sind. Sie können zum Beispiel sehen, dass sie selbst dies in Nordamerika, Südamerika, Europa und Osten aufgeteilt haben dies in Nordamerika, Südamerika, Europa und Osten aufgeteilt . Sie können sich auch die gesamte Welt ansehen. Ich bin mir nicht sicher wo, aber es sollte irgendwo hier sein, ja. Also, wenn du einfach darauf klickst, kannst du tatsächlich die ganzen Regionen hier sehen . Sie haben also 34 Regionen mehreren Verfügbarkeitszonen, was Ihr Rechenzentrum ist. Und dann CloudFront, darüber werden wir in einer anderen Sitzung komplett sprechen darüber werden wir in einer anderen Sitzung komplett Also haben sie das in mehrere Regionen aufgeteilt, wie Sie hier sehen können, und jede ist so, das ist Nordamerika, das ist Südamerika und das ist Europa Und dann ist das Asien. Also haben sie diese Region ebenfalls aufgeteilt. Und wissen Sie, jeder Ort hat hier eine oder mehrere Regionen. Sie können also das Datum sehen, an dem es gestartet wurde. Es wurde zum Beispiel 2009 auf den Markt gebracht. Sie können also sehen, dass es einen über Irland gibt. Welches ist 2007 auf den Markt gekommen, und Sie haben eins für die Region London. Und es hat drei Verfügbarkeitszonen. Das bedeutet, dass es drei Rechenzentren gibt. Nun, es gibt nicht viele Details darüber, zum Beispiel, wo genau sich der Standort dieser Availability Zones befindet, der bei ABS selbst gespeichert wird, aber dann sagen sie Ihnen, wie viele Availability Zones es gibt, sodass Ihre Daten repliziert werden oder mehrere Verfügbarkeitszonen sodass Ihre Daten repliziert werden durchqueren Wenn es also eine Katastrophe oder eine AZ gibt, das keine Auswirkungen auf eine andere AZ, weil sie durch eine gewisse Entfernung voneinander getrennt ist , okay? Die Katastrophe würde also nicht überall passieren. Also das ist der Grund dafür. Also, da sind diese roten Farben, die sagen , du weißt schon, bald in diesen Regionen. Ich kann mir also vorstellen, dass die großen Städte eine Region haben, und jede Region wird mindestens zwei Verfügbarkeitszonen haben Ich habe in den meisten Regionen zwei Verfügbarkeitszonen gesehen. Das ist also so ziemlich das, was ich dir in diesem Video sagen wollte. Und das ist so ziemlich das, was Region und Verfügbarkeitszone sind. Ich hoffe, dass Sie auch das Beispiel aus der realen Welt verstanden haben. Wir werden im Moment nicht so detailliert darauf eingehen , weil wir gerade erst anfangen. Im Moment möchte ich nur, dass Sie einen sehr umfassenden Überblick darüber haben , was Regionen sind, was Klimazonen sind. Das ist alles, was momentan benötigt wird. Nochmals vielen Dank für Ihre Geduld und Zeit. Wir sehen uns im nächsten. Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir uns schnell den Diensten vertraut machen. Dies sind nun einige der wichtigen Dinge in AWS, die Sie lernen werden. Und jeder dieser Dienste hat, Sie wissen schon, eine andere Bedeutung und auch unterschiedliche Gründe, warum er existiert. Lassen Sie uns nun einfach anhand eines realen Beispiels über Dienste als Ganzes sprechen , und dann werden wir dies mit tatsächlichen Diensten vergleichen. Nun, wenn Sie zum Beispiel über Dienste sprechen, wie zum Beispiel in Ihrem Handy, dann hat Ihr Handy eine Kamera. Ihr Handy hat Bluetooth. Ihr Handy hat das Telefon für den Anrufzweck, richtig, GSM oder CDMA Das ist also der ganze Grund für Mobiltelefone, oder? Es hat, es kann Videos abspielen. Ich kann Audios abspielen. Aber wie können Sie überhaupt auf diese Funktionen zugreifen? Wenn du eine Kamera auf meinem Handy haben möchtest, z. B. nach hinten gerichtete oder nach einem Freund gerichtete Kamera, wie gehst du damit um? Wie denkst du darüber nach und dann öffnet es sich? Nein, tut es nicht? Sie haben also Anwendungen für jeden von denen, nicht wahr? Sie haben also eine Bewerbung für eine Kamera. Sie haben eine Anwendung für das Telefon, die tatsächlich geht und wählt und dann die CDMA- oder die GSM-Technologie verwendet , die sie Sie haben eine App, um Bluetooth zu aktivieren, oder? Dann stellt es eine Verbindung zu etwas her, oder? Das sind also Apps für bestimmte Zwecke, nicht wahr? Das Gleiche bei AWS sind diese Dienste. Wenn Sie nun die Entwicklung eines Mobiltelefons sehen, die Kamera, das Telefon , die Videos, es kam nicht alles auf einmal, oder? Wenn Sie zehn Jahre zurückgehen, würden Sie ein Klapphandy benutzen, das hauptsächlich dafür verwendet wird, Sie wissen schon, sich mit einer anderen Person über einen Telefonanruf zu verbinden , oder? Aber sonst kann man mit einem Handy nichts machen. Aber dann die Addons, oder? Das sind so etwas wie Addons, die immer wieder kommen. Du bekommst eine neue Version der Kamera, du bekommst mehr Megapixel-Sachen Wenn es also einen neuen technologischen Fortschritt gibt, wird dieser im Laufe der Zeit irgendwie hinzugefügt, das Gleiche gilt für die Dienste. Sie werden also sehen, dass im Laufe der Zeit mehr Services zu AWS hinzugefügt werden. AWS hat sich zuvor etwa 100 Dienste ausgedacht . Jetzt verfügt es über mehr als 400 bis 500 Dienste, die aus mehreren Gründen genutzt werden. Und das sind Dienste, die im Laufe der Zeit hinzugefügt werden. Und dann sieht man irgendwie, wie diese vielen Dienste auftauchen. Und diese Dienste haben unterschiedliche Gründe für ihre Existenz Auch wenn wir vielleicht nicht den gesamten Service abdecken, wissen Sie, den Nachlass von AW. Dann werden wir auf einige der Dienste sie in einem sehr umfassenden Überblick über SOT betrachten. Wir werden die meisten Dienste anhand ihres Namens verstehen und verstehen , was ihr Zweck ist. Und wir werden versuchen, Ihnen einige Beispiele aus der Praxis zu geben, damit Sie den Namen der Dienste und ihre tatsächliche Leistung in einem Echtzeit-Szenario wirklich zuordnen können den Namen der Dienste und ihre tatsächliche Leistung in einem Echtzeit-Szenario wirklich zuordnen der Dienste und ihre tatsächliche Leistung , sodass Sie diese Fragen beantworten können , wann immer diese Frage Ihrer Prüfung auftaucht Denken Sie jetzt daran, dass es bei unserer Prüfung nur darum geht, dass es in diesem Dokument selbst steht, wie Sie in Anhang A sehen können, wie Sie in Anhang A sehen können, also Technologie und Konzepte stehen Das sind Technologien und Konzepte, die in Ihrer Prüfung enthalten sind. Das sind also einige von ihnen, die Dienstleistungen sind. Die meisten von ihnen sind eigentlich Dienstleistungen. Sie können also sehen, dass die Regionen und AZs, die wir, Sie wissen schon, vor einiger Zeit zusammengefasst haben Und da ist diese Cloud-Migration, und Sie haben Netzwerkdienste Sie haben hier einfach so viele Dienste, die Teil Ihrer Prüfung sein werden . Sie müssen also die Unterschiede zwischen diesen Diensten kennen und wissen, was sie tatsächlich tun. Das ist alles, was sie zu diesem Zeitpunkt benötigen , da es sich um eine grundlegende Zertifizierung handelt Sie wollen nicht, dass du die Einzelheiten weißt oder wie man sie bedient oder, du weißt schon, einige fortgeschrittene Dinge Sie wollen nicht, dass du es weißt, sie wollen, dass du einige grundlegende Dinge darüber weißt, einige grundlegende Dinge darüber weißt, sodass sie sagen, okay, diese Person kennt sich mit diesen Diensten aus, also werde ich sagen, er hat die richtige Antwort gewählt. Es wird also nicht kompliziert sein. Ich habe Fragen zu Kursen für Berufskurse, Kurse auf Associate-Level und Kurse für Spezialisten gesehen , Kurse auf Associate-Level , wissen Sie? Diese Fragen sind so kompliziert, aber hier geht es nicht so sehr darum. Sie müssen sich also nicht wirklich darüber Gedanken machen. Ich werde all diese Dinge für dich erledigen. Ich werde Ihnen Beispiele aus der Praxis geben , damit Sie das viel besser verstehen können. Ordnung? Das sind also einige Dienste, die für unterschiedliche Zwecke verwendet Nehmen wir zum Beispiel 23 Dienste und versuchen, die Relevanz dieses Dienstes zu verstehen. Es gibt zwei Instanzen, es heißt Elastic Cloud Compute. EC zwei. Warum es hier zwei heißt Weil es zwei Cs gibt , Elastic Cloud Compute. Deshalb nennen sie es EC Two. Was ist also Elastic Cloud Compute? Es verleiht der Elastizität Rechenleistung mit zwei Induktion, wann immer Sie sie benötigen Das ist also der Ort, an dem Ihre Server erstellt werden, okay? Das ist also dein Grund, warum du bei AWS bist, okay? Das ist der erste Service, und das ist quasi der einzige Grund, warum Sie bei AWS sein sollten , weil er Ihnen Infrastruktur als Service bietet. Hier können Sie Server auffüllen. Dann haben Sie den Kostenmanager. Der Kostenmanager informiert Sie, wie der Name schon sagt, über die Kosten. Außerdem erfahren Sie, was bisher in Rechnung gestellt wurde und wie Ihre Prognose für die Abrechnung aussieht Also, ob du das nutzen oder diesen Speicherplatz verbrauchen willst, richtig Das ist Zeit, das wird es sein. Das ist eine Vorhersage, oder? Also fängt alles an. Abrechnung. Was macht Fakturierung? Der Name sagt schon, dass Sie dort die monatliche Rechnung bezahlen, was auch immer Ihnen, Sie wissen schon, als Kosten bei AWS angefallen sind. Was ist Elastic Load Balancer? Elastic Load Balancer bietet Ihnen Load-Balancing-Funktionen für Ihre Anwendung, die auf AWS gehostet wird. So einfach ist das Stimmt? Viele Dienste hier haben die Begründung also schon im Namen. Also nochmal, dieses Video ist nur ein Augenöffner. Wir werden über keinen der Dienste sprechen, also müssen Sie nicht wirklich den Aufwand oder den Aufwand haben , den Oh, wir werden jetzt über diesen Service sprechen. Wir werden uns diese Dinge einfach beiläufig ansehen und schauen, wissen Sie, welche anderen Dienste verfügbar sind Also werde ich dir das einfach zeigen. ist auch so einfach, wenn du auf die Homepage gehst, richtig, du wirst hier eine Menge Artikel sehen , die quasi modular aufgebaut sind, okay? Es kommt also dieser Kostenservice hierher, mir sagt, was meine Prognose oder Prognose für diese monatliche Rechnung ist, was am Monatsende sein wird. Und es sagt mir auch, wie hoch die aktuellen Kosten sind, die ich im Moment zahlen muss. Wenn ich also alle meine Dienste lösche, wäre das der Betrag, den ich zahlen müsste. Okay. Also, es erzählt mir auch von einigen vertrauenswürdigen Beratern, einigen Dingen hier drüben. Das alles kommt von einem Dienst zum anderen. Okay. Also wir wollen im Moment hier nicht einige Details wissen. Sie können auch weitere Widgets hinzufügen. Sie können auch Daten von verschiedenen Diensten abrufen . Diese Dinge sind also auch verfügbar. Das ist dein Armaturenbrett, okay? Das ist, was Sie sehen werden, wenn Sie, ähm, ein kostenloses Konto erstellen und sich bei AWS anmelden. Sie sich also keine Sorgen um das kostenlose Konto, also werde ich Ihnen erklären, wie Sie Ihr kostenloses Konto erstellen und sich anmelden können. Und ich werde dafür sorgen, dass Ihnen all diese Dinge nicht in Rechnung gestellt werden, es sei denn , Sie tun etwas selbst Aber ich werde Ihnen all diese Vorbereitungen für Sie treffen, damit Ihnen nichts in Rechnung gestellt wird und Sie das Limit kostenlos nutzen können Aber denken Sie daran , dass es einige Dinge gibt, die wir erledigen werden, die möglicherweise eine Rechnung anfällt, aber Sie können sie sich ansehen, anstatt sie selbst zu erledigen Also das ist etwas, was ich dir sagen werde. Also, was sind Dienstleistungen? Nun, das sind die Dienste. Sie können sehen, dass es dort so viele Dienste gibt. Das ist nur der Anfang. Jeder dieser Dienste wird mehrere Dienste anbieten. Wenn Sie hier einfach auf alle Dienste klicken , können Sie die Anzahl der Dienste sehen , die Sie hier haben. Das siehst du. Es gibt so viele Dienste , die AWS direkt nutzt. Und es gibt auch indirekte Dienste, okay? Also was ist so, was wird nicht angezeigt, weil es indirekt ist und innerhalb des Dienstes verwendet wird. Es gibt also auch indirekte Dienste, die sehr weit fortgeschritten sind, also mach dir darüber keine Gedanken. Was Sie hier also tun können, ist, sich um einige Hilfen handelt, die von AWS bereitgestellt werden, um die Dinge schnell für Sie zu regeln. Wenn Sie also wegen Rechenleistung hier sind, dann geht es hier um ECT. Aber wenn du einfach darauf klickst, sind das einige der Optionen oder Dienste, die unter Compute fallen, okay? Also, das Gleiche gilt für Frontend-Webentwicklung, falls Sie danach suchen, das sind die Dienste, die sich dahinter befinden. Das sind also Kataloge, man kann sagen, welche Dienste darin enthalten sind Okay? Es kann also mehrere Dienste geben, die sich auf diesen Katalog beziehen. Sie können also tatsächlich den Katalog auswählen und sehen, was tatsächlich als Dienste darin enthalten ist, die sich möglicherweise auf diesen bestimmten Katalog beziehen. Ordnung. Also, das ist der Service Explorer, der Ihnen den Katalog und die Dienste zeigt, und das ist der einfachste Weg , einen Service zu bekommen Sie möchten beispielsweise ein Serviceticket bei AWS erstellen. Sagen Sie einfach Service oder Ticket oder etwas Ähnliches und schon geht es an den Service, Sie wissen schon, den Incident-Manager-Support. Sie können sehen, dass es sich dabei quasi um Dienste handelt , die bei der Eingabe von Tickets abgerufen werden. Sie möchten also auch etwas Speicherplatz behalten. Sie geben hier also einfach Speicher ein, und Sie können nicht alle Dienste abrufen , die sich auf Speicher beziehen , der häufig verwendet wird. Also, wenn du mich fragst, oh, okay, was ist mit anderen Speicherdiensten? Sie können einfach auf Mehr anzeigen klicken und Sie können tatsächlich alle Speicherdienste hier sehen alle Speicherdienste , weil Ihnen nur die am häufigsten verwendeten angezeigt werden, wenn Sie Speicher eingeben. Wenn Sie hier nach Datenbank suchen, geben Sie einfach Datenbank und Sie erhalten zuerst die Dienste , die sich auf Datenbank beziehen. Und dann die Funktionen, die, Sie wissen schon, Teil der Dienste sind. Die Funktionen stellen sicher , dass es sich um einen Katalog von Diensten handelt. Das sind also die Dinge, die Sie mit einem Service tun können. Okay. Das ist also der eine und dann haben Sie Ressourcen, in denen Sie Ressourcen öffnen und über sie lesen und etwas über sie erfahren können. Sie haben eine Dokumentation, mit der Sie dasselbe tun können. Und Sie haben Wissensartikel , in denen Leute Fragen zu einem bestimmten, Sie wissen schon, Dienst stellen und wie das geht. Und dann werden Leute darauf antworten, und Sie werden sehen, dass auch der Vertreter von Amazon darauf reagiert. Und dann haben Sie hier einen Marktplatz , auf dem Sie tatsächlich die Leute von Drittanbietern sehen können , von denen Sie das sehen können. Das ist aus Daten, Daten von Sunrise, wissen Sie, Technologie. Das ist also ein Unternehmen, das eine solche Lösung verkauft. Sie können also auch den Marktplatz sehen. Sie werden auch Oracle-orientierte Lösungen sehen. Wenn ihr also einfach nach dem Marktplatz sucht, verkaufen viele Leute Sachen für euch, okay, damit ihr damit arbeiten könnt. Sie haben natürlich Blogbeiträge, in denen die Leute Blogs über ihre Erfahrungen bei der Arbeit mit diesem bestimmten Dienst oder einer bestimmten Datenbankmigration oder so etwas schreiben Arbeit mit diesem bestimmten Dienst oder . Und dann gibt es Ereignisse. Ereignisse sind sehr wichtig , da der Dienst manchmal gewartet wird , weil einige Leute daran arbeiten, ihn zu umgehen. Diese werden also auftauchen, für Veranstaltungen hier auftauchen und dann gibt es Tutorials. Tutorials sind das Beste. Es ist also wie eine Dokumentation, aber es ist Schritt für Schritt, um ein bestimmtes Ziel zu erreichen. Also zum Beispiel das Erstellen und Verwalten einer nicht relationalen Datenbank hier drüben. Wie man das macht, es wird Schritt für Schritt erklärt, wie man damit arbeitet Ebenso ist die Suche mit vielen nützlichen Informationen gefüllt. Es ist nur so, dass Sie über all diese verfügbaren Optionen nachdenken müssen, wenn Sie auf der Konsole sind. Die Optionen sind da. Du musst nur darüber nachdenken. Für welche Option sollte ich mich entscheiden? Ordnung? Nun, Sie haben diesen Console Home-Service hier drüben, Sie können also auch Elemente hinzufügen, z. B. sie hier mit einem Lesezeichen versehen , damit Sie diesen EC Two-Service hinzufügen können Ich habe das getan, weil ich dafür viele Schulungen veranstalte Ich habe hier also bestimmte Dienste laufen lassen, was nicht unbedingt für Sie ist. Es wäre da. Es wäre sauber für euch. Aber dann mache ich etwas zu Trainingszwecken, damit ich all diese Dinge verstehe. Also hauptsächlich, ich bin in der Region hier drüben, also das ist die Region Also USA, Ost-Nord-Virginia. Nun, ich bin derzeit in Großbritannien ansässig, aber warum sollte ich etwas wie North Virginia wählen, das ein bisschen weit von mir entfernt ist, nicht wahr? Weil es die günstigste Region , in der ich Dienste zu einem wirklich günstigeren Preis hosten kann als, wissen Sie , in London, weil London, wie Sie wissen, Großbritannien wie eine Insel ist, und der Platz im Rechenzentrum ist sehr klein. Also sind die Kosten für mich höher. Deshalb habe ich mich für North Virginia entschieden. Es gibt also strategische Dinge, die Sie hier tatsächlich nutzen können Darüber werden wir im weiteren Verlauf dieses Programms und auch in den zukünftigen Programmen sprechen im weiteren Verlauf dieses Programms und auch in den zukünftigen Programmen Deshalb werde ich mit Ihnen teilen wie wir Kosten senken werden und wie wir auch Geld sparen werden, wie wir auch Geld sparen werden wenn wir anfangen, Maschinen wie diese zu hosten. Das sind quasi größere Instanzen von m5x Large. Also, wie wir bei diesen Dingen Geld sparen können, werde ich auch Also das ist nicht nur eine Ausbildung, und dann lasse ich dir nichts dergleichen übrig. diese Schulungen werden meine zusätzlichen Schulungen folgen , weil ich die Erfahrung habe , mit mehreren Kunden zu arbeiten, und ich weiß auch, wie sie mit den Kundenbetreuern von AW Azore umgehen auch, wie sie mit den Kundenbetreuern von AW Azore Also werde ich Ihnen all diese interessanten Dinge erzählen und mit Ihnen teilen und es für Sie in Zukunft sehr interessant machen Nochmals vielen Dank für Ihre Zeit und Geduld. Wir sehen uns im nächsten Video. Ich meine, wir gehen zurück zum nächsten Video. In diesem Video werden wir die AWS-Supportoptionen für AWS-Kunden identifizieren . Also werden wir hier über mehrere Optionen oder mehrere Services sprechen . Das tut mir leid. Sie werden hier also über mehrere Services sprechen, was sich auf die AWS-Kundensupport-Option bezieht. Lassen Sie uns nun zu unserer Präsentation hier weitermachen. AWS-Supportoption umfasst also Kundenservice und Communitys. Nun, hier im Kundenservice und in den Communitys, also wir sprechen über die Bereitstellung von Basissupport für all Ihre AWS-Kunden. Es spielt keine Rolle, ob Sie ein zahlender Kunde sind oder nicht. Es bietet Ihnen Konten und Unterstützung bei der Abrechnung. Es bietet Ihnen Zugriff auf AWS-Community-Foren und Ressourcen wie AWS Repost für Community-basierten Support Jetzt eignet es sich für kontobezogene Fragen und für die Kontaktaufnahme mit anderen AWS-Benutzern, Sie wissen schon, allgemeine Hinweise Im nächsten geht es um den Entwickler-Support. Beim Entwickler-Support hier drüben, bei der Support-Option geht es, Sie wissen schon, um technischen Support für Entwickler, die auf AWS aufbauen. Daher bietet es auch Anleitungen zu bewährten Methoden, zur Fehlerbehebung und zur Nutzung von AWS-Services. Es beinhaltet Support beim Hauptkontakt. Leider ist nur ein Hauptansprechpartner enthalten, was bedeutet, dass dieser Hauptansprechpartner Support-Fragen stellen kann. Hier greifen wir als Best-Practice-Empfehlung auf Trusted Advisor zurück ist begrenzt und steht Entwicklern nicht in vollem Umfang zur Verfügung. nun den nächsten betrifft, der hier drüben ist , tut mir leid, ich wurde durch einen Anruf abgelenkt Bei der nächsten geht es also um die Unterstützung von Unternehmen. Was die Unternehmensunterstützung angeht, ist sie kostenpflichtig. Auch hier ist es genau wie Developer kostenpflichtig. Aber das Übliche ist hier das Grundlegende, nämlich der Kundenservice und die Community, die für alle offen sind. Du musst nichts bezahlen. Derzeit nehme ich also an diesem Supportplan teil, dem Basis-Supportplan. Wenn Sie also ein Entwickler sind, können Sie an diesem teilnehmen, und wenn Sie ein Geschäftsanwender sind, können Sie den Business-Support in Anspruch nehmen. Jetzt hilft Ihnen der Business Support beim technischen Support für Unternehmen einer Produktionsumgebung laufen. Wenn Sie beispielsweise Produktionsworkloads haben, können Sie Support für Unternehmen in Anspruch Jetzt haben Sie rund um die Uhr Zugriff auf Cloud-Supporttechniker für technische Probleme Dies ist direkt von AWS. Sie erhalten vollen Zugriff auf AWS Trust Advisor und das Personal Health-Dashboard. Es unterstützt auch mehrere Kontakte und Sie können es auch anwendungsfallspezifische Anleitungen verwenden. Der Unternehmenssupport wird also für Unternehmen verwendet oder ist für Unternehmen geeignet, die rund um die Uhr Support für Produktionsanwendungen benötigen . Aber wenn Sie das planen, können Sie tatsächlich mit dem AW-Support arbeiten. Das ist nicht möglich, weil der Support hier begrenzt ist, obwohl er 24 Takte 7 hat, aber die Bearbeitungszeit ist enorm Deshalb werden wir im nächsten Video über die Architektur sprechen. Dann werden Sie auch die Bearbeitungszeit verstehen. Also hier, der nächste ist der AWS Enterprise on RAMP-Support Dies bietet Ihnen also proaktive Beratung, technischen Support und betriebliche Überprüfungen. Es bietet rund um die Uhr Zugriff auf Cloud-Supporttechniker für schnelle Reaktionszeiten. Es hilft Unternehmen auch den Cloud-Betrieb zu optimieren und auch kritische Geschäftslasten zu verwalten. Der letzte ist also der Unternehmenssupport, der komplette Support. Das bedeutet also, dass es einen umfassenden Support für große Unternehmen mit geschäftskritischen Workloads Daher verfügt das Unternehmen auch über engagiertes DAM-Personal oder TAM als technischen oder Co-Manager für personalisierten Support Darüber hinaus bietet es proaktive Überwachung, Architekturberatung und Optimierungsempfehlungen Außerdem bietet es rund um die Uhr Zugang zu erfahrenen Cloud-Technikern. Es verfügt also über erfahrene Cloud-Ingenieure und eine schnellere Reaktionszeit. Auch hier werden wir im nächsten Video über die Reaktionszeit sprechen . Also Anwendungsfälle für Unternehmen , die tief in AWS und technisches Engagement und hohe Verfügbarkeit für geschäftskritische Anwendungen benötigen . Das ist also die Support-Option, die sich an verschiedene Geschäftskunden richtet , Sie wissen schon, grundlegenden Kundenservice und dem Community-Support bis hin zu umfassender Unterstützung auf Unternehmensebene für geschäftskritische Arbeitslasten Das ist also so ziemlich das , was wir in diesem Video behandeln wollen Nochmals vielen Dank. Wir sehen uns im nächsten Video. Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir über den Unterstützungsplan sprechen. Nun, Sie sind sich des Unterstützungsplans im Moment wohl nicht bewusst , weil Sie hier noch nie einen Weg gekreuzt haben. Standardmäßig kommt jeder zur Basisversion. Dann müssen Sie also ein Upgrade durchführen, um, ähm, ein Unternehmen aufzubauen. Nun, das sind drei verschiedene Gebühren, wie 29 pro Monat, 100 pro Monat und 15.000 pro Monat. Was ist ein Supportplan? Im Support-Plan erhalten Sie Support von AWS. Jetzt hat AWS quasi verschiedene Pläne, was bedeutet, dass sich Ihr Support gerade auch in einer anderen Situation befinden wird . Wenn Sie sich also für einen Entwicklerplan mit 29$ pro Monat entscheiden möchten , erhalten Sie innerhalb von 12 Stunden, 24 Stunden einen Support mit eingeschränktem Support , der Ihnen innerhalb von 12 Stunden, 24 Stunden zur eingeschränktem Support Verfügung steht Das ist also die Standardversion . Und wenn Sie sich dann für einen Geschäftsplan entscheiden, werden Sie ein Produktionssystem herunterfahren lassen, das heißt, innerhalb von 4 Stunden erhalten Sie eine Antwort und das Produktionssystem wird ausgefallen, was ungefähr einer Stunde Reaktionszeit entspricht. Innerhalb einer Stunde erhalten Sie 100 Antworten pro Monat. Wenn Sie sich für einen unternehmensbezogenen, Sie wissen schon, Supportplan entscheiden und nur 15.000€ pro Monat zahlen, was sehr teuer ist. Und Sie erhalten innerhalb von 15 Minuten Support bei kritischen Ausfallzeiten . Und es beinhaltet auch andere Dinge. Das ist also der Sinn dieser Erklärung auf diese Weise. Also, welche anderen Dinge wirst du bekommen? Nicht viel für Entwickler. Entwickler werden im Wasser allein gelassen , weil der allgemeine Support selbst mehr als ausreichend ist . Und wenn Sie sich für ein Unternehmen entscheiden, erhalten Sie kontextbezogene Anleitungen, die auf dem Anwendungsfall basieren und zeigen, wie Sie sich auf AWS verbessern können Und dann ein TAM-Team. TAM ist so, als ob ein technischer Kundenbetreuer da wäre. Wer kann Ihnen also helfen Ihre Dienste in Anspruch zu nehmen und Ihnen zu helfen? Also, da ist ein Team für euch da. Okay, das Managementteam wird da sein. Okay. Also hier, was den Support für Unternehmen angeht , die Seite für eigenständiges Online-Lernen. eine Schulung Rahmen dieses Supports für Unternehmen gibt es also auch Das Paket mit 15.000€ Laborsitzungen und Schulungen zum Selbststudium Und dann wirst du ein spezialisiertes, du weißt schon, Support-Team für dich haben , okay? Das Support-Team hilft Ihnen also bei all Ihren Fragen und so weiter. Anschließend erhalten Sie eine beratende Überprüfung und Anleitung auf der Grundlage Ihrer Anwendung und Lösung Also hier, kontextuell. Also hier ist eine konsultative Überprüfung. Also werden sie Ihre Infrastruktur überprüfen. Sie werden Ihnen zeigen, was das Beste ist, welche Dienstleistungen Sie anbieten können und wie viel Sie sparen können, all diese Dinge können sie Ihnen zeigen. Sie erhalten einen engagierten TAM-Manager. Sie erhalten also einen technischen Kundenbetreuer nur für Ihr Konto, und diese Person wird für Ihr Konto zuständig sein Das ist also etwas. Also bezahlst du sie tatsächlich für eine viel nettere, du weißt schon, Herangehensweise an deine Unterstützung Also werden sie dich tatsächlich ausbilden. Sie werden Ihnen tatsächlich ein Support-Team zur Verfügung stellen, und sie werden auch einen technischen Kundenbetreuer haben, der Ihnen bei Problemen seine Handynummer zur Verfügung stellt. Wenn Sie also Mitglied werden möchten, können Sie sich ebenfalls an Support wenden. AW-Unterstützung. Ich glaube nicht, dass das der Richtige ist. Ähm, ja, also unterstütze den Plan hier drüben. Derzeit ist es in Basic. Wenn Sie also Pläne unterstützen, können Sie sich das hier ansehen. Der Basis-Supportplan nicht viele Funktionen oder viele Funktionen Die anderen Pläne finden Sie hier. Das Basic kommt da nicht mal rein, okay? Das Grundlegende siehst du also nicht mehr. Sie haben Entwicklergeschäft, Geschäft vor der Tür und Unternehmen. Also all diese Dinge, was ich dir gesagt habe, ist hier drüben. Also, der Entwickler hat hier so ziemlich zwei, drei Dinge, und bis auf das, ist alles andere hauptsächlich wie die Unternehmenslösung. Also hier haben Sie die Support-Seite. 4. Einführung in Labs AWS: Hallo Leute, willkommen zurück zum nächsten Video. In diesem Abschnitt werden wir über einen neuen, Sie wissen schon, brandneuen Artikel namens AWS sprechen . Jetzt gebe ich Ihnen hier zwei Optionen für Sie. Sie können Cloud-basiert verwenden, was Sie gerade sehen. In diesem Beispiel nehmen wir AWS und erstellen Ihre Instanzen in AWS und lassen diese Instanzen in der Cloud laufen. Denken Sie jetzt daran, dass dies Sie ein wenig mehr kosten wird , Sie für die Cloud-Dienste von AWS bezahlen müssen . Das ist also eine Sache Die zweite Sache ist, dass ich Ihnen einen Laptop geben werde , auf dem Sie, Sie wissen schon, Ihre eigene Boson-Mission aufbauen und dabei kostenlose Waren verwenden Das ist also auch eine weitere Option. Denken Sie jedoch daran, dass Ihr Laptop zunächst über mindestens 12 GB Speicher verfügen muss . Acht GB, ja, du kannst damit umgehen, aber es hat immer noch ein bisschen Probleme. 12 GB werden also immer empfohlen. Aber Sie haben diese Konfiguration nicht, und Sie haben etwas Geld übrig. Sie können zum Beispiel etwa 50 bis hundert Dollar sparen , basierend auf, Sie wissen schon, Ihrer Nutzung, oder? Dann können Sie sich tatsächlich für E W entscheiden. Also werde ich Ihnen sagen, wie teuer es zu einem späteren Zeitpunkt werden wird, aber es ist so, wissen Sie, wir werden versuchen, es so gering wie möglich zu halten Wir werden versuchen, es als Aufwand für Sie unter 50$ zu halten. Wir werden die Preisberechnung also später durchführen, und das hängt von den Anforderungen ab, die Sie haben werden Äh, denken Sie daran, dass es drei verschiedene Möglichkeiten gibt AWS-Uberni-Service zu nutzen Sie können sich entweder für einen verwalteten oder einen nicht verwalteten Service entscheiden, aber diese Schulung möchte, dass Sie sich auf den verwalteten Bereich konzentrieren Ähm, ich meine, nicht auf Managed. Ich möchte, dass es so ist, du weißt schon, du musst das ganze Ding konfigurieren. Sie sollten sich also für so etwas wie einen selbstverwalteten Artikel entscheiden. Das bedeutet, dass Sie die Instanzen selbst verwalten müssen . Also werden wir zwei EC-Instanzen erstellen. Anstatt der verwalteten Instanzen, die sozusagen in dem Sinne verwaltet werden, dass AWS die Instanz selbst verwaltet, was bedeutet, dass Sie sich in diesem Szenario für ECS oder EKS entscheiden können . Für dieses Training werden Sie sich jedoch für eine selbstverwaltete Infrastruktur entscheiden, werden Sie bei der zwei EC-Instanzen verwendet werden, sodass Sie tatsächlich mehr über die Abläufe von Uberniti erfahren können mehr über die Abläufe von Uberniti erfahren Es geht also nicht nur um Kubernetes, wir werden Ich meine also, dass wir mit Docker beginnen werden, also werden wir von hier aus mit Docker beginnen und uns dann langsam Denken Sie also daran , dass dieses Training beginnen wird Und so können Sie ganz einfach den Server für Docker einrichten und dann all Ihre Hände darauf legen und dann einen weiteren Server hinzufügen und diesen dann zu einem Teil von Kubernetes machen Sie können diese Sitzung also in zwei Sessions aufteilen, zuerst ein paar Videos zum Einrichten Ihres Basis-Masters , den Sie mit Ihrer Docker-Installation und so weiter verwenden können Und dann, zu einem späteren Zeitpunkt, können Sie eine weitere EC Two-Instance hinzufügen, und dann können Sie die Worker Note für Ihre Uberts oder die Worker Note für Ihren Doc-Sumpf integrieren die Worker Note für Ihre Uberts oder die Worker Note für Ihren Beide Integrationen sind also möglich, zu einem bestimmten Zeitpunkt. Also werde ich Sie wissen lassen, Sie wissen schon, auf den Videos selbst, dass Sie das Programm Docu sofort starten können und dann können Sie das Programm von Ubert starten, sodass Sie zurückkommen und es erneut aufrufen und es dann für Uber Itis übernehmen können es dann für Uber Itis übernehmen Aber wenn ich das aufteilen will, muss ich zwei verschiedene Sessions erstellen, also möchte ich das nicht tun, weil das nur noch mehr Verwirrung stiftet nur noch mehr Verwirrung stiftet Denken Sie also daran, dass es sich um ein Add-On handelt, also es wurde ursprünglich nicht entworfen, aber später füge ich das zu einem bestehenden Programm hinzu , das bereits auf , Sie wissen schon, Ihrem Laptop oder Ihrem kostenlosen Server läuft Sie wissen schon, Ihrem Laptop oder Ihrem kostenlosen Server weil viele Leute Dienste auf AWS anfragen. Also versuche ich nur, das zusätzlich zu dem bestehenden Programm hinzuzufügen . Denken Sie daran, dass AWS mit einem kostenlosen Reifen geliefert wird, aber das ist irgendwie nutzlos für, Sie wissen schon, für unsere Sitzung. Lassen Sie mich Ihnen nun erklären, warum der kostenlose Reifen einige kostenlos nutzbare Dinge enthält , die 12 Monate lang kostenlos erhältlich sind . Sie müssen sich also darauf freuen, das zu tun. Aber das klingt nach 50 Stunden , das sind eigentlich 12 Monate. Wird nur für zwei der EC zwei, ähm, Sie wissen schon, Maschinen oder Computer angegeben , was Ihr T zwei Mikro und T drei Mikro ist. Denken Sie also daran, dass der Gubernats standardmäßig empfohlen wird , dass Sie zwei CPUs und zwei GB RAM pro Knoten mit 20 GB freiem Festplattenspeicher benötigen Sie zwei CPUs und zwei GB RAM pro Knoten mit 20 GB Also Diskspace ist momentan keine große Sache, aber die zwei CP und zwei GB sind ein Problem für uns, denn wenn Sie sich die kostenlosen Sound-Stunden ansehen, werden Sie sehen, wenn Sie innerhalb der AWS-Preise und -Tags und des Instant-Typs reingehen , werden Sie sehen, dass T drei Micro mit zwei virtuellen CPUs und einem GB RAM geliefert wird. Und wenn Sie sich für zwei Mikroserien entscheiden, gehört auch eine dazu. Wir zeigen CPU und ein GB RAM. Also, was ist eine Art Gurke, nicht wahr? Also, du kannst das alles nicht akzeptieren. Ich würde also ein Two-Medium empfehlen, das über vier GB RAM und zwei CPUs verfügt Das passt perfekt zu unseren Anforderungen. Aber denken Sie daran, dass das CPU-Guthaben, Sie wissen schon, 34 pro Stunde beträgt. Es ist sehr niedrig, also nicht wirklich hoch, weil es perfekt zu unserer Rechnung passt. T zwei Mittel. Ich suche auch nach anderen Optionen wie Three T Three Medium, also schauen wir mal, ob das für wie Three T Three Medium, uns passt, aber vom Preis her ist es fast das Gleiche , weil es dieselbe ähnliche Konfiguration hat, mit Ausnahme der unterschiedlichen CPU-Architektur. Also bleibe ich einfach bei T zwei weil es in vielen Situationen mehr oder weniger verwendet wird , weil es eine viel breitere CPUsation hat und es, was die anfängliche Rechenebene angeht, sehr kostengünstig ist , was die anfängliche Rechenebene angeht, sehr kostengünstig . Es wird also viel kostengünstiger sein wenn Sie es über einen längeren Zeitraum betreiben Also das ist es, was ich hier empfehle, was wir im Rahmen der Schulung tun werden Zunächst werden wir zwei Micro-Docker-Maschinen als Master-Host für Docker erstellen , und später werden wir sie in einen Kubernetes-Master umwandeln Anschließend erstellen wir ein AOT-Zweimedium . Anschließend erstellen wir ein AOT-Zweimedium für den Worker-Node. In Ordnung. Das ist also alles wir werden mit dem Docker beginnen und danach zu Kubernetes gehen Es ist also so ziemlich das, was ich in diesem Video behandeln möchte. Und das nächste Video ist dran. Ich werde mich zum Beispiel mit der Erstellung Ihrer kostenlosen Konten befassen. Also werde ich Ihnen sagen, was Sie eigentlich tun müssen , um ein kostenloses Konto zu erstellen, und Sie benötigen auf jeden Fall eine Kreditkarte, also halten Sie diese bereit bevor Sie ein kostenloses Konto erstellen. Sie fragen mich vielleicht: Oh, es ist ein kostenloses Konto. Warum brauche ich eine Kreditkarte? Ja, so funktioniert es. Selbst wenn dort „Kostenloses Konto“ steht, heißt das nicht, dass Sie zum Zeitpunkt der Erstellung dieses Kontos oder der Nutzung dieses Kontos nichts bezahlen werden Zeitpunkt der Erstellung dieses Kontos oder der Nutzung dieses Kontos nichts bezahlen , sondern sie wollen nur eine Bonitätsprüfung durchführen , keine Bonitätsprüfung, aber dann wollen sie, Sie wissen schon, überprüfen, ob Sie eine gültige Kreditkarte haben indem sie eine Testtransaktion durchführen. Und sobald sie die Transaktion durchgeführt und Ihre Kreditkarte und Ihre Bestätigung getestet haben, müssen Sie auch Ihren Ausweis, Ihren öffentlichen Ausweis, wie eine Lizenz oder einen anderen von der Regierung ausgestellten Ausweis, verifizieren wie eine Lizenz oder einen anderen von der Regierung ausgestellten Ausweis . Das musst du verifizieren. Sobald Sie also alle Überprüfungen durchgeführt haben, können Sie Zugriff gewähren und dann all diese anderen Dienste ausführen all diese anderen Dienste z. B. alle Instanzen erstellen und ähnliches. Ja, zum Beispiel kostenlos, Sie müssen immer noch dieselbe Überprüfung durchführen , bevor Sie all diese Dinge tun können. Im nächsten Video werden wir sehen, ein kostenloses Konto erstellt wird. Danach werden wir uns mit den Standardeinstellungen befassen. Die ersten Dinge, die Sie tun müssen, wie die Rechnungskonfiguration , da wir keine Abrechnungsbenachrichtigungen verpassen möchten, richtig. Wir wollen nichts in Rechnung stellen. Also wollen wir die Konfiguration der Abrechnungswarnung vornehmen. Und dann werden wir weitermachen und eine Authentifizierung durch Dritte vornehmen , damit Sie den Zugriff auf Ihr Konto nicht verlieren. Also werden wir, Sie wissen schon, auch die Google Authenticator-Autorisierung durchführen auch die Google Authenticator-Autorisierung Also nur um Ihr Konto zu sichern, viel mehr mit Authentifizierung durch Dritte, Sie wissen schon Und dann werden wir mit der ECT-Instanz arbeiten, Instanz erstellen und dann Software installieren , die wir benötigen Und dann werden wir ein paar Dinge lernen , die wir für Kubaits tun müssen Nochmals vielen Dank für Ihre Geduld und Zeit. Wir sehen uns im nächsten Video. 5. Kostenloses Konto Labs vor der Erstellung: Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir uns nun AWS kostenlos ansehen. Im nächsten Video werden wir also kostenloses Konto erstellen, aber dann werden wir uns mit der kostenlosen Instanz und dem kostenlosen Konto und den Vorgängen vertraut der kostenlosen Instanz und dem kostenlosen Konto und den machen, die Sie ausführen können , nachdem Sie dieses Konto kostenlos erhalten Das werden wir in diesem Video sehen. Jetzt google ich einfach kostenlos nach AWS. Das bringt mir also einige Links zu AWS, wodurch Sie den kostenlosen Reifen erhalten Nun, was ist ein Gratis-Reifen? Free Tire ist ein Testprodukt, es gibt also ein Zeitlimit dafür, was Sie tun können und wie viele Produkte Sie innerhalb dieser Zeitpläne tatsächlich kostenlos verwenden können dieser Zeitpläne tatsächlich kostenlos Wenn Sie also wissen wollen, was die Details sind, können Sie tatsächlich darauf klicken und Sie können das tatsächlich öffnen, und Sie können verstehen, was tatsächlich kostenlos ist , wenn Sie ein Konto eröffnen oder ein Konto bei AWS erstellen Jetzt können Sie sehen, dass dies Ihr kostenloser AWS-Tarif ist. Wir nennen dieses Konzept Gratis-Reifen. Hier sammeln Sie praktische Erfahrungen mit AWS-Produkten und -Services. Es ist wie eine Demo, die sie Ihnen geben , damit Sie AWS verstehen und damit arbeiten können , bevor Sie tatsächlich eines der Produkte kaufen oder eines ihrer Produkte verwenden. Das ist der Hauptgrund. Erfahren Sie mehr über AWS Free Tire. Sie können sich das jetzt tatsächlich ansehen. Nicht alles, alle Dienste, die in AWS verfügbar sind, sind kostenlos. Denken Sie daran, dass es die kostenlosen Testversionen gibt, dass es 12 Monate kostenlos gibt und dass es immer unendlich kostenlose Artikel Dies sind drei verschiedene Dinge, die Sie wissen müssen, bevor Sie tatsächlich fortfahren Wir werden uns diese drei Dinge nicht im Detail ansehen. Es wird nicht etwas sein , das in Ihrer Prüfung gefragt wird. Aber es ist gut, wenn du über sie Bescheid weißt. Aber wenn Sie den Überblick kennen , wird das für Sie sehr hilfreich sein. Sie können auf jeden dieser Artikel klicken, Sie können tatsächlich sehen, was die kostenlosen Testversionen sind, was 12 Monate kostenlos ist und so. Aber wenn du ein bisschen runterkommst, bekommst du einen Überblick über alles. Sie können also die Artikel sehen, bei denen es sich, Sie wissen schon, um Reifen handelt , die hier getippt wurden Also der vorgestellte Artikel, 12 Monate kostenlos, immer kostenlose Testversion Sie können das also tatsächlich auswählen und das können Sie leicht sehen. Was sind die Dinge, die eigentlich versuchsweise sind. Auf Testbasis haben Sie ausreichend Zeit, um das Produkt auszuprobieren. Und hier ist Sagemaker für zwei Monate kostenlos. Aber hier gibt es Einschränkungen, was hier in kleiner Schrift geschrieben steht, dass Sie sich in einem solchen Instanztyp befinden müssen, Sie wissen schon Also Instanztyp, wir werden später darüber sprechen. Aber es ist eine Art Einschränkung für etwas, das sie als Testversion oder kostenlos anbieten. Sie sehen also 12 Monate kostenlos, Sie haben EC Two Instance, Sie haben Speicher, Sie haben eine relationale RDS-Datenbank, wie die traditionelle Datenbank wie McQLPostGrace SQL, Sie haben die Maria DB und Suche öffnen, APA-Gateway. Ebenso haben Sie Produkte hier, was ein Zeitlimit von 12 Monaten oder etwa 50 Stunden hat . Sie haben hier zwei Einschränkungen, entweder 50 Stunden pro Monat oder es werden 12 Monate sein. Ebenso haben Sie hier diese beiden Optionen , die Sie tatsächlich auswählen können. Nun, da Sie wissen, welche Produkte tatsächlich innerhalb von 3 Monaten getestet werden. Es gibt also immer etwas, das kostenlos ist. Also immer kostenlos ist, wo Sie hier 25 GB DynamoDB und Speicherplatz nutzen können, und hier haben Sie 1 Million Transaktionen für Ihr Das ist also immer kostenlos und es gibt kein Zeitlimit Okay. Wenn sie also sagen, immer kostenlos, heißt das nicht, dass es kostenlos sein wird, kostenlos für welche Nutzung auch immer, aber es gibt kein Zeitlimit. Also auch nach einem Jahr kann ich diese 25 GB einer kostenlosen Dynamo-DV nutzen, ähm, du weißt schon, Speicher, sowie etwa 1 Million Wann immer ich es nutzen möchte, etwa ein Jahr, zwei Jahre, spielt keine Rolle Aber wenn ich mit einer Million anfange, wird es für mich quasi kostenlos sein. Okay? Also genauso, aber dieser 12-monatige Stopp sagt Ihnen im Grunde, dass Sie eingeschränkt werden, dass es für den ersten Monat, seit Sie sich für Ihr AWS-Konto registriert haben, kostenlos sein wird den ersten Monat, seit Sie sich für Ihr AWS-Konto registriert haben Ihr AWS-Konto registriert haben Der Zeitplan beginnt also hier. Also nochmal, auf derselben Grundlage, es wird so sein. Also, wenn dieses Angebot da ist, musst du es nutzen. kostenlose Testversion ist im Grunde genommen eine zweimonatige kostenlose Testversion, aber dann gelten Einschränkungen. Das Gleiche gilt auch für EC Two Instance. Das bedeutet also nicht, dass Sie jede Art von Instanz erstellen können , wenn Sie EC Two erstellen. Es ist an diese Instanzen gebunden, wie Sie hier sehen können. Ebenso haben Sie den Sound 50 Stunden pro Monat unter Linux Es gibt also auch Einschränkungen für Ihr Betriebssystem und dann T zwei Micro oder T zwei Micro. Dies sind die beiden Instance-Typen, die Sie verwenden können. einige Agenturen, die im unbegrenzten Modus starten, können daher zusätzliche Gebühren anfallen Ebenso können Sie hier den unbegrenzten Modus nicht verwenden , wenn Sie versuchen, ihn zu starten Es gibt also einige Einschränkungen , denen Sie folgen müssen. Und ich werde Sie bei diesem ganzen Prozess unter die Lupe nehmen und sicherstellen, dass Ihnen nichts davon in Rechnung gestellt wird Rechnung gestellt Okay? Also das wird etwas sein, was ich tun werde. Selbst wenn Sie angeklagt werden, werde ich Ihnen sagen, wie Sie sich einschränken können, und wenn Sie angeklagt werden , können Sie buchstäblich vorsichtig sein, wenn Sie damit umgehen. Deshalb werde ich Ihnen einige Anweisungen dazu geben. Aber wie dem auch sei, danke nochmal für deine Zeit und Geduld. Gehen wir also zum nächsten Video und erstellen den kostenlosen Account. 6. Labs AWS kostenlose Kontoerstellung: Hallo Leute, wir werden hier ein kostenloses Konto einrichten. Die meisten Artikel sollten also von Ihnen ausgefüllt werden , da ich meine tatsächlichen Informationen hier nicht angeben möchte. Daher würde ich Ihnen empfehlen , die meisten Artikel hier auszufüllen. Dieses Video ist sehr kurz. Wenn Sie also zunächst auf Kostenloses Konto erstellen klicken, wird hier dieses Pop-up angezeigt, in dem Sie aufgefordert werden, sich bei AWS anzumelden, sodass Sie Ihre E-Mail-Adresse eingeben können , die Sie für dieses Konto verwenden werden. Denken Sie daran, dass dies als Root-E-Mail-Adresse bezeichnet wird, die zur Wiederherstellung verwendet wird, falls Sie Ihr Passwort vergessen haben oder etwas Ähnliches Und das ist auch ein Administratorkonto, was bedeutet, dass Sie zu 100 Prozent Zugriff auf die AWS-Konsole erhalten 100 Prozent Zugriff auf die AWS-Konsole Das bedeutet also die Änderung Ihres Namens, Ihrer primären E-Mail-Adresse, Ihres Passworts, Ihrer Sicherheitsinformationen, Ihres Zugriffs auf IM. Das alles ist also nur für die Root-E-Mail-Adresse verfügbar. Und diese sind nur für diese E-Mail-Adresse verfügbar. Denken Sie daran, eine richtige E-Mail-Adresse anzugeben, über die Sie sozusagen die vollständige Kontrolle haben. Für mich gebe ich also Beyond Cloud AI an one@gmail.com, weil Cloud-KI bereits da ist. Also gmail.com, und dann werde ich hier einen Kontonamen angeben, der über den von Cloud AI hinausgeht Nun, das wird mir eine E-Mail schicken und es wird meine E-Mail-Adresse verifizieren, dann muss ich hier nur den, Sie wissen schon, Bestätigungscode eingeben, unabhängig vom Bestätigungscode, den ich aus meiner E-Mail erhalten habe, also verifiziere ich gerade meine E-Mail-Adresse für den Bestätigungscode, und ich habe Also werde ich diese Bestätigungsnummer auf die Seite kopieren, es ist eine einmalige Bestätigungsnummer Also wirst du hier ein Passwort eingeben, also wird das dein Passwort für dieses Konto sein. Also werde ich hier einfach ein zufälliges Passwort angeben, das ich dir natürlich nicht sagen werde. Also tippe ich nur das Passwort ein. Also ja, ich habe ein großes Passwort. Also stimmt es eigentlich nicht überein. Also lass mich einfach den Bildschirm pausieren. In Ordnung, habe das Passwort hier eingegeben, klicken Sie einfach auf Weiter. Nun, hier müssen Sie auswählen, welche Art von Nutzung Sie mit AWS planen, zum Beispiel ein persönliches Projekt, ja, denn das dient dem Lernen und Hier haben Sie also den vollständigen Namen , der nicht mit Cloud AI zu tun hat. Hier müssen Sie also eine beliebige Nummer Ihrer Telefonnummer oder eine Adresse angeben. Ich würde Ihnen daher empfehlen, anzugeben , wo Sie gerade leben. Wenn Sie sich also in Großbritannien befinden , sagen wir einfach, ich bin in Großbritannien und meine Nummer ist so, dass dies meine Nummer ist, sagen wir, sagen wir, zum Beispiel, wählen Sie erneut die Region aus, als Großbritannien, und geben Sie dann die Zeile hier drüben an, testtest test test Also gebe ich hier einfach eine Zufallszahl ein und klicke auf den nächsten Schritt Also, das wird es Ihnen ermöglichen, die Telefonnummer zu verwenden, sollte nicht wissen, dass es keine gültigen Buchstaben sind. Also bei einer anderen Null hier drüben. Ja. Also lass uns dir einfach den nächsten Schritt hier drüben geben. Und hier müssen Sie Ihre Kreditkartendaten eingeben. Jetzt sollten Sie diese Kreditkartendaten angeben und Sie müssen die Kreditkartendaten eingeben. Sobald Sie diesen Schritt ausgeführt haben, wird er auf Ihrer Bank-Website angezeigt. Wenn eine Authentifizierung von Ihrer Bank-Website aus erfolgen muss, müssen Sie die Authentifizierung auf der Bank-Website abschließen . Nach diesem Schritt werden Sie nach ähm gefragt, es wird Sie bitten , sich zu bestätigen, was bedeutet, dass Sie Ihren richtigen Namen angeben müssen , und Sie müssen eine ID angeben, ähm, ich meine, Ihres Führerscheins oder Wählerausweises, einige Länder, einige Länder haben diese, ähm, Sie wissen schon, ähm, Steuernummern oder Steuerkarten, so etwas. Sie müssen also diese Details angeben und sich dann selbst verifizieren Sobald dies erledigt ist, erhalten Sie eine E-Mail-Benachrichtigung , dass Ihr Konto erfolgreich verifiziert wurde. Sie erhalten es sofort, und dann können Sie mit dem Ausführen beginnen oder zum nächsten Bildschirm wechseln. Der nächste Bildschirm führt Sie zur Konsole. Es wird also zu console.aws.com gehen. So läuft die Kontoerstellung also ab. Ich versuche dir so viel wie möglich zu zeigen. Aber darüber hinaus liegt es an meinen Grenzen, weil ich bereits ein anderes Konto habe, also werde ich dieses verwenden. Ich gebe alle Informationen ein, aber im Moment nichts Wichtiges, nur Ihre Kreditbestätigung und um sich als Person oder Person zu verifizieren . Möglicherweise werden Sie gefragt, ob Sie eine Einzelperson oder ein Unternehmen sind. Stellen Sie sicher, dass Sie die richtige Option auswählen. Wenn Sie nur zu Lernzwecken hier sind, können Sie eine Einzelperson auswählen weil Sie nur zur Schulung und, Sie wissen schon, zu einem besseren Verständnis hier sind . Ihr könnt es also als Einzelperson auswählen, und es ist für den persönlichen Gebrauch bestimmt. Also, Sie können es auch auswählen und sich dann selbst verifizieren und dann mit dem nächsten Video fortfahren , das auf der Konsolenseite fortgesetzt wird. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns im nächsten. 7. Labs AWS MFA und Budget: Hallo Leute. Nun, da Sie Ihr Konto erstellt haben und sagen wir einfach, dass Sie sich gerade abgemeldet haben. Jetzt erhalten Sie also zwei verschiedene Zugriffsarten. Sie werden zum Beispiel sehen, dass, wenn Sie zu Google und Type gehen und zum Beispiel, dass ich sehen, dass, wenn Sie zu Google und Type gehen und zum Beispiel, Bing verwende, ich sage nur, dass ich Konsolenanmeldung bei AWS sage und dann im Grunde genommen auf diese Website komme AWS sage und dann im Grunde genommen auf , wo es heißt, erstellen Sie ein kostenloses Konto. Anstatt jetzt ein kostenloses Konto zu erstellen, klicken Sie einfach auf Anmelden. Es gibt zwei verschiedene Möglichkeiten, sich in Ihrem Konto anzumelden. Zum einen geht es im Grunde so, dass Sie aws.com mit Google Console aufrufen Oder Sie können tatsächlich Ihren eigenen Link zu aws.com haben , den ich Ihnen gleich erläutern werde Das ist also der zweite Weg mit Ihrer Konto-ID. Es handelt sich also um eine sogenannte Konto-ID, die standardmäßig erstellt wird Sie können also die Konto-ID zwei verwenden, anstatt sich mit Ihrer Root-E-Mail anzumelden. Sie können sich direkt mit der Konto-ID und dort Ihren Kontonamen angeben. Wenn Sie sich erinnern, wurde bei der Erstellung des kostenlosen Kontos nach dem Kontonamen gefragt, oder? Also habe ich Beyond Cloud eins gegeben , weil Beyond Cloud bereits existiert. Du kannst das also nutzen und du kannst dich auch einloggen. Das ist also eine andere Methode der Protokollierung. Nun, mit welcher Methode melden wir uns an? Wir melden uns mit dem Root-Benutzer an. Jetzt gibt es zwei Benutzer, mit denen Sie sich anmelden können, oder? Einer ist also ein Root-Benutzer, ein anderer ist ein IAM-Benutzer IM ist nichts anderes als Identitäts - und Zugriffsmanagement, das ein wesentlicher Bestandteil Ihres AWS-Service ist Mit IAM können Sie jetzt mehrere Benutzer zu Ihrem AWS-Konto hinzufügen , sodass Sie ihnen unterschiedliche Rechte gewähren können Nehmen wir zum Beispiel an, ich besitze ein Unternehmen und habe nur wenige Mitarbeiter, die tatsächlich an der Verwaltung der Websites oder Anwendungen arbeiten Verwaltung der Websites , die in WS gehostet So kann ich individuelle Logins für diese Leute erstellen und ihnen eingeschränkten Zugriff darauf gewähren , was sie in Bezug auf IAM-Rechte dort tun können in Bezug auf IAM-Rechte dort tun Wann immer sie also eine Aktivität ausführen, können sie bestimmte Aktivitäten ausführen , die ihnen das ermöglicht haben, denn IM ermöglicht es mir, die Berechtigungen für das zu kontrollieren , was sie mit AWS tatsächlich erreichen können Im Moment verwende ich den Root-Benutzer, da das der einzige Benutzer ist, der derzeit verfügbar ist, da wir das Konto gerade erstellt und uns dann bei unserer AWS-Konsole anmelden werden Sie geben Ihnen die Auswahl des Root-Benutzers und geben dann den Namen des Root-Benutzers ein, Ihr eigener sein wird : cloudai@gmail.com. Das ist also meine Website. Versuche nicht, dich auf dieser Seite einzuloggen. Verwenden Sie Ihre eigene E-Mail-Adresse und melden Sie sich mit Ihrer an Dann müssen Sie hier ein Passwort eingeben. Ich werde das Passwort hier kopieren und einfügen. Ich kopiere es einfach, füge es hier ein und drücke auf das Schild und die Schaltfläche Also, sag niemals für diese Seite. Perfekt. Ich glaube nicht daran , das Passwort im Browser oder in Chrome zu speichern, weil es immer angezeigt wird, nicht jetzt, dann später. Jetzt kannst du also sehen, dass das hier so ziemlich meine Konsole ist. Ich habe hier zwei Anwendungen besucht, die Teil Ihrer AWS-Services, Abrechnung und Kostenmanagement sind. Auf der rechten Seite sehen Sie hier die Kontoinformationen, sodass Sie Ihre eindeutige Konto-ID haben. So können Sie jetzt Ihre eigene Website erstellen. Also werde ich dir in Kürze davon erzählen. Aber denken Sie daran, dass es einige, Sie wissen schon, private Informationen gibt, die so sind , als würden Sie sie hier herausgeben , wenn Sie auf Konten gehen. Seien Sie also vorsichtig, wenn Sie Ihren Bildschirm teilen und Ihre Konten aufrufen. Ich werde auch nicht vorsichtig sein, wenn meinen Bildschirm teile, während ich in das Konto gehe. Sie können also davon ausgehen, dass dieses Video mehrmals angehalten wird, wenn meine privaten Daten offengelegt Als Erstes müssen Sie hier die Zwei-Faktor-Authentifizierung oder die Authentifizierung durch Dritte aktivieren. Also werde ich hier zu IAM gehen. Geben Sie einfach IM, Identity and Access Management ein. Unter Identitäts- und Zugriffsmanagement gibt es also ein Dashboard, das Ihnen mitteilt , was in Bezug auf die Sicherheit in Ihrem, Sie wissen schon, Konto noch fehlt . Das ist also eine Sicherheitsempfehlung. Nun wurde hier ein kritisches Problem festgestellt, sodass Sie die MFA-Multifaktor-Authentifizierung nicht aktiviert Sie können also einen Drittanbieter verwenden , um Ihre Authentifizierung zu integrieren Anstatt also nur M und Passwort zu verwenden, wird es auch Authentifizierungsinformationen enthalten. Nun, wie können Sie sonst auf Ihre Konsole zugreifen? Wie ich Ihnen bereits sagte, gibt es eine andere Möglichkeit , direkt auf Ihre Konsole zuzugreifen , und zwar mithilfe dieser eindeutigen Identifikation. Sie können auch einen RS erstellen , auf den ich später noch eingehen werde. Aber das ist die URL, über die ich gesprochen habe. also diese URL verwenden, müssen Sie den Root-Namen wirklich nicht angeben. Wenn Sie diese URN also in einem anderen Browser verwenden , wird sie angezeigt. Lass mich hier ein privates Fenster öffnen und dann diese URO durchsuchen, richtig? Und Sie können sehen, dass Sie quasi mit Ihrer Con-Nummer reingehen und dann müssen Sie nur noch Beyond Cloud hier drüben als den IAM-Namen und dann das Passwort angeben Wenn Sie nun auch andere Benutzer erstellt haben, was Teil Ihres IAM ist, können Sie diese Benutzernamen und das Passwort direkt eingeben und Sie müssen also wirklich nirgends eine Root-E-Mail-Adresse angeben, da Ihre Konto-ID als Root-E-Mail-Adresse fungiert, okay? Sie müssen Ihre Root-E-Mail-Adresse also niemandem mitteilen, sodass Sie Ihre Root-E-Mail-Adresse sehr sicher aufbewahren können. Okay? Das ist also der Hauptgrund warum eine Konto-ID und nicht eine Root-E-Mail-Adresse erstellt wird . Damit jeder auf Ihr Konto zugreifen kann ohne auf Ihre Root-E-Mail-Adresse zugreifen zu müssen. Okay, das ist ein Grund für Sie, diese URN zu haben, und Sie können diese URL an all Ihre Freunde weitergeben, tut mir leid, an Ihre Kollegen, die Zugriff auf AWS benötigen Nun, Schulung eines MFA, also für Root-Benutzer, also klicken Sie auf MFA hinzufügen Jetzt werden Sie auf die MFA-Seite weitergeleitet und es wird wie ein Root-Benutzer angezeigt MFA. Das heißt also im Grunde , dass dies Ihr Root-Benutzer-MFA ist Und hier haben Sie mehrere Möglichkeiten. Ich werde die Authentifizierungs-App auswählen, und ich habe sie noch nicht eingerichtet, also werde ich das jetzt tun. Also installiere das auf dem komprimierbaren Computer. Ich unterbreche die Anzeige eines QR-Codes und verifiziere dann nur noch mein Konto. Sobald der Vorgang abgeschlossen ist, mache ich die Pause wieder rückgängig Um das ganz einfach zu machen, öffnen Sie Ihre Google Authenticator-App auf Ihrem Telefon. Klicken Sie darauf Ich zeige Ihnen einen Code, scanne diesen Code und Sie müssen den Code aus Ihrer virtuellen Anwendung eingeben. Das ist das erste Mal Ihr Google Authenticator und dann nach 30 Sekunden noch einmal mit dem nächsten Code Und dann klicken Sie auf MFA hinzufügen. Sobald Sie das getan haben, haben Sie es eingerichtet. Lassen Sie mich den Bildschirm pausieren, es erledigen und Ihnen zeigen, wie es aussieht. Da hast du's. Sobald Sie darauf klicken, können Sie sehen, dass Ihre virtuelle ID hier hinzugefügt wurde und die Daten hinzugefügt wurden. Es ist also ziemlich einfach, auf Ihre, Sie wissen schon, MFA für den Benutzer zuzugreifen oder sie hinzuzufügen . Das ist also abgeschlossen Wenn ich einfach hier rübergehe und diese Seite aktualisiere, die Empfehlung jetzt grün geworden. Es wird jedoch immer empfohlen , einen Benutzer zu erstellen und über das Root-Konto auf Ihre AWS zuzugreifen einen Benutzer und nicht über das Root-Konto auf Ihre AWS zuzugreifen. Es wird also immer empfohlen, das zu tun. Darüber werden wir etwas später sprechen. Aber ab jetzt müssen wir zum Beispiel zur Kontoerstellung gehen und unsere Abrechnungsdienste einrichten. Jetzt, unter den Konten, bist du eines der wichtigsten Features, das sind im Grunde deine Daten, die du jetzt sehen kannst, was ich bei der Nachbearbeitung auf jeden Fall verwischen werde Also ja, so ziemlich deine Daten sind etwas , das berücksichtigt wird Auf der linken Seite haben Sie, Sie werden Abrechnung und das Kostenmanagement haben Lass mich zurück zum Startbildschirm gehen. Ähm, also gehen wir hier einfach zur Abrechnung und zum Kostenmanagement über. Also das ist so ziemlich das, was ich eigentlich behandeln wollte. Ich habe versehentlich darauf geklickt. Jetzt haben Sie also die Möglichkeit, Ihr eigenes Testament oder Ihr eigenes Budget zu erstellen Im Rahmen der Budgetoption können Sie sehen, wie es funktioniert. Im Grunde erstellen Sie also ein Budget, und genau das tun Sie hier. Und wenn es dann 85 Prozent Ihres Budgets erhöht, wird eine Warnung ausgelöst, was bedeutet, dass Sie E-Mails erhalten werden. Sie müssen also sicherstellen, dass Sie Ihre E-Mails überwachen und dann im Grunde genommen, wissen Sie, Sie können optimieren, was genau das Problem ist Sie können entweder, Sie wissen schon, diese Anfrage stornieren, was Wirklichkeit eher gegen Ihre Vorstellungen verstößt Also das ist so ziemlich das , was wir tun wollen. Also lass uns einfach weitermachen und hier ein Budget erstellen. Und dann würden wir mit der Vorlage weitermachen , einer vereinfachten Methode zur Erstellung eines Budgets. Und dann ist hier quasi ein neuer Haushaltsplan, in dem von einem Nullausgabenbudget die Rede ist. Sie möchten also nichts für AWS ausgeben, also möchten Sie die ganze kostenlose Reifenarbeit erledigen. Aber das Problem ist , dass unsere Anwendung keine kostenlosen Reifenprodukte erstellt. Sie gehen also von einem monatlichen Kostenbudget aus. Also hier werde ich maximal 20$ geben. Das bedeutet, dass Sie eine E-Mail erhalten, falls Sie mehr als 20$ ausgeben. Es tut mir leid, 85 Prozent von 20$ Also hier ist, was erwähnt wurde. Sie werden benachrichtigt , wenn Sie das Ausgabenlimit tatsächlich erreicht haben und 85% erreicht haben. Das ist das erste Szenario. zweite Szenario ist, dass Ihre Ausgaben tatsächlich 100 Prozent erreichen. Sie werden also zwei Benachrichtigungen erhalten, eine bei 85 und eine bei 100 Prozent. Sie erhalten auch eine Warnung, wenn Sie Ausgaben prognostizieren, so wie ArabS prognostiziert, dass Sie dieses Mal 100 Prozent erreichen könnten, wenn Sie in diesen Bereich gehen , es versteht, dass Sie auf dem Weg sind, 100 Prozent zu erreichen, und es wird Sie in Alarmbereitschaft versetzen Das sind also drei verschiedene Situationen, in denen Sie gewarnt werden, aber das Budget wird Ihre Ausgaben niemals aufhalten Wenn Sie also Ihre E-Mail verpassen, wenn Sie es versäumen, Ihre Ausgabenzuweisungen für Ihre Artikel neu zu konfigurieren Ihre Ausgabenzuweisungen für , wird das nicht aufhören Okay, es kann also über diesen zugewiesenen Prozentsatz hinausgehen , aber Budget wird Sie im Grunde, Sie wissen schon aber Budget wird Sie im Grunde, Sie wissen schon, benachrichtigen, wenn so etwas passiert, aber es wird niemals Ihre Ausgaben blockieren oder die Dienste oder ähnliches einstellen Es wird Sie nur benachrichtigen, wenn solche Dinge handelt Ordnung, weiter unten , klicken Sie auf E-Mail Also ich würde sagen: Jenseits von Cloud One bei mail.com. Und wenn ich dann zusätzliche E-Mail-Adressen habe, können Sie jederzeit Befehle geben, dann können Sie mehrere E-Mail-Adressen eingeben Klicken Sie dann auf Budget erstellen. Dadurch wird ein Budget für euch erstellt, und es wird eine E-Mail versendet, wenn es um einen Prozentsatz der Gesamtauslastung handelt. Für Anfänger können Sie es jetzt auch ab einem Budget von 10$ anbieten. Das wird Ihnen helfen , wissen Sie, sicherzustellen, dass Sie irgendwie kontrollieren, wohin Sie gehen und wie hoch Ihre Summen sind, wo Sie undichte Ausgaben tätigen, sodass ich diese Schwachstellen finden und sie dann beheben kann. So ziemlich das, was ich in diesem Video behandeln möchte, wir haben ein paar Punkte behandelt, die die Zwei-Faktor-Authentifizierung oder Multi-Faktor-Authentifizierung ermöglichen die die Zwei-Faktor-Authentifizierung . Wir haben unser AWS-Konto in Google, Google Authenticator, integriert Google, Google Authenticator, Nun, die zweite, die Sie gesehen haben ist, dass wir auch meine Kontoinformationen gesehen haben , von denen nicht erwartet wird, dass ich sie zeige, aber sie werden verschwommen sein Wie dem auch sei, danke. In der nächsten, die Sie gesehen haben, geht es auch um die Abrechnung und das Kostenmanagement Das ist also so etwas wie ein Budget, das wir gerade gesehen haben und bei dem wir eine E-Mail-Benachrichtigung erhalten, wenn das Budget, wissen Sie, unsere Erwartungen übertrifft Nochmals vielen Dank. In einem anderen interessanten Video werden wir im nächsten Video sehen, wie ein Benutzer eingerichtet wird , sodass wir mit unseren eingeschränkten Rechten und nicht mit allen Rechten , die wir derzeit haben, auf AWS zugreifen können mit unseren eingeschränkten Rechten und nicht mit allen Rechten , die wir derzeit haben, auf AWS . Und danach werden wir damit arbeiten, du weißt schon, AC zwei Instanzen zu erstellen und uns das Budget anzusehen, wie es sein wird, wenn es für die nächsten 4 Stunden oder 8 Stunden läuft , wie viel kostet es uns und sind wir bereit, diese Kosten zu und sind wir bereit, tragen oder diesen Schaden zu tragen? Das ist also etwas , was wir in den nächsten Videos sehen werden . Nochmals vielen Dank, dass Sie sich das angesehen haben. Wir sehen uns beim nächsten Segen. 8. Labs über alle Überprüfungen der in der Domain 1 abgedeckten Services: Hey, Leute. Willkommen zurück zum nächsten Video. Hier in diesem Video werde ich Ihnen einen kleinen Überblick über all die Dienste geben, die wir besprochen haben. Wir haben also über viele Dienste gesprochen. Nun, ich wollte Ihnen nur eine Laborsitzung über den Zugriff auf diese Dienste geben , nur einige der, Sie wissen schon, grundlegenden Dinge über diese Dienste und so durchgehen Sie wissen schon, grundlegenden Dinge . Also werden wir das durchgehen und wir werden herausfinden oder erraten Grundpfeiler ein gut entwickeltes Framework ist, denn das sind Dienste, an die Sie sich meiner Meinung nach viel besser erinnern würden , wenn ich Ihnen nur die Bilder davon zeige Das ist der Grund, warum ich das im letzten Video mache. Im vorherigen Video gibt es einen Spickzettel, auf dem mein ganzer Lauf über all die Theorien über all die Theorien was auch immer ich mit dir besprochen habe, überall steht Ich habe es auch anhand eines Beispiels erwähnt, also nutzen Sie es bitte und versuchen Sie, sich auf Ihre Prüfung vorzubereiten Denken Sie jetzt daran, Ihre Bewertungen und alles andere zu hinterlassen , denn das unterscheidet diesen Kurs von anderen, weil ich mein Bestes gebe, um sicherzustellen , dass jeder dieses Programm durchläuft, sowohl die theoretische als auch die praktische Sitzung kontinuierlich durchführt, und Sie können sehen, welche Anstrengungen ich in Zukunft noch mehr investieren werde. Fangen wir also mit diesem Video an. Jetzt kannst du das sehen. Das sind die Säulen und einige der Dienste. Ich habe es geöffnet weil mein Internet etwas langsam ist, also habe ich es einfach schon für euch geöffnet. Ich bin gerade im Dashboard, also das ist deine Konsole, Heimatregion, US-amerikanischer Bindestrich Ost , Informationen von der URL selbst Versuchen Sie, Informationen von der URL selbst zu lesen, da Ihre URL tatsächlich viele Dinge aussagt Ich bin hier in der Region Nord und Virginia , in der Region USA Ost. Also, das erste, was ich Ihnen zeigen möchte, ist EC Two. Das ist häufiger der Zeitpunkt, an dem wir einen späteren Zeitpunkt verwenden würden. Wir haben zwar Managed Services, aber EC zwei ist, je häufiger wir es zu einem späteren Zeitpunkt nutzen werden. Sie können den Load Balancer hier sehen, was wiederum eine Funktion ist, die wir gesehen haben Wenn Sie es also erraten müssten, steht EC Two für Leistungseffizienz Wir haben Auto Scaling, was hier wieder ein Feature ist , Auto Scaling-Gruppen hier. Siehe Load Balancer, der alle Teil von EC Two Instances ist. Jetzt kann ich eine Instanz erstellen. Ich kann mit der Ausführung beginnen, indem ich die Instanz starte. Ich werde das jetzt nicht tun, aber zu einem späteren Zeitpunkt wird es ein spezielles Training für Sie geben . Durch die automatische Skalierung von Gruppen können Sie mehr Dienste bereitstellen, indem Sie sie auf der Grundlage einer bestimmten Entwicklung nach oben und unten skalieren mehr Dienste bereitstellen, indem Sie sie auf der Grundlage einer bestimmten Entwicklung nach oben und unten skalieren . Also eine Art Monitoring-Wert wir geben und dann eine Gruppe bilden würden, und das Schöne an AWS ist, dass, Sie wissen schon, dass Sie bei jeder Funktion, jedem Service, den Sie nutzen, diese Art von Informationen sehen, die Ihnen diese Art von Informationen bieten, die Ihnen diese bildliche Darstellung dessen bieten, was Sie damit diese bildliche Darstellung erreichen können Und dieses eine Bild kann tatsächlich viel aussagen. Es erzählt eine Menge Geschichten hier drüben. Dieses Bild gibt Ihnen also einen Hinweis darauf, worum es bei diesem Service geht, nicht wahr Sie können also die Mindestgröße, die gewünschte Kapazität und die maximale Größe sehen , und das ist im Grunde genommen eine Skalierung nach Bedarf Das ist also wie gemalt. Sie haben hier die Load Balancer-Funktion, und das haben wir auch hier gesehen Schauen wir uns an, wo der Load Balancer ist. Sie haben Zuverlässigkeit, Sie haben einen Load Ebenso haben Sie solche Funktionen. Mint ist ein bisschen langsam, ich glaube, jemand lädt etwas herunter, das ist der Grund, warum es ein bisschen langsam ist. Bitte ignoriere das. Das ist jetzt RDAs Das ist ein datenbankverwalteter Dienst. Ich kann sagen, mit einem Klick können Sie eine Datenbank erstellen. Sie müssen nicht wirklich ein Betriebssystem installieren, Sie müssen die Software nicht installieren. Äh, Sie müssen keine Firewalls und, Sie wissen schon, die Einstellungen und alles andere konfigurieren Sie wissen schon, die Einstellungen und alles Klicken Sie einfach darauf und Sie erhalten eine Datenbank. Das ist also so gut, nicht wahr? Deshalb nennen wir es hier ein verwaltetes System für DS. Und dann haben Sie das DMS , Ihren Datenbankmigrationsdienst hier drüben, der Ihre Impromised-Datenbank effektiv in die Cloud-Cloud-Datenbank migriert die Das ist Route 53. Wie Sie hier sehen können, können Sie einen Domainnamen eingeben und eine bestehende Domain auf Route 53 übertragen, und Sie können eine Domain tatsächlich registrieren. Sie müssen also einen gewissen Betrag zahlen, und im Grunde können Sie Ihre Domain registrieren lassen. , gibt es hier zwei Hosting-Zonen Wie Sie sehen können, gibt es hier zwei Hosting-Zonen, weil ich früher Open Shift verwendet habe. Also ähm, hat aber tatsächlich zwei Zonen erstellt, in denen es nur Open-Sheet ist, wie Sie sehen können, verwendet es Route 53. Also ich zahle dafür bis ich diese Dinge entferne, denn wenn Sie irgendeinen Namen von Dina haben oder irgendwas, das von AWS verwaltet wird, werden Sie dafür bezahlen. Aber das ist kein großer Preis. Ich würde sagen, damit du das an meinem Körperbau sehen kannst, oder? Sie haben also die Klassifizierung hier. Und ähm, es ist nicht viel, wenn es darum geht, das zu tun. Ja. Ja, Sie können die Route 53 für 1$ sehen. Es ist also nicht viel, du weißt schon, Geld. Ich musste dafür bezahlen. Das ist der Lastenausgleich. Derzeit habe ich einen Lastenausgleich für die offene Schicht, also bist du da drin. Hier haben Sie das IM-Dashboard hier drüben. Dies ist Ihr Identitäts - und Zugriffsmanagement. Im nächsten Abschnitt werden wir uns mit Sicherheit und Kompilierung befassen Hier werden wir also zu Besuch sein und mit der AWS-Organisation, dem Identity Center und all den anderen Optionen hier in Bezug auf die Zugriffsverwaltung zusammenarbeiten Identity Center und all den anderen Optionen hier in Bezug auf die Zugriffsverwaltung Ich glaube, im Startvideo, als Sie das Konto erstellt haben, habe ich Ihnen erklärt, wie Sie MFA verwenden Sie können also sehen, dass ich MFA aktiviert habe. MFA ist sehr, sehr wichtig, weil heutzutage alles gehackt wird. Das einzige, was Sie vor Hackerangriffen bewahren kann, ist Ihnen tatsächlich etwas mehr Zeit zu geben Das ist also sehr nützlich. Und dann haben Sie KMS. Darüber haben wir auch gesprochen, ich glaube, im Bereich Sicherheit, ich glaube, über das KMS-Schlüsselverwaltungssystem hier. Ich kann mir hier vorstellen, dies eine Möglichkeit ist, Schlüssel zu erstellen und Verschlüsselung in AWS und darüber hinaus zu kontrollieren. Wenn Sie also Schlüssel in Ihrem Unternehmen mit den Stammzertifikaten und so verwenden , können Sie sie trotzdem hier speichern . Deshalb sage ich darüber hinaus. Ähm, was bedeutet, dass es sich um einen vollständig verwalteten Schlüsseldienst handelt. Also normalerweise habe ich, ähm , den Schlüsseldienst vor früheren Projekten genutzt . Also haben wir eine Firma benutzt, Tavat oder so. Also haben sie auch diesen Schlüsseldienst. Also haben wir ihren Service genutzt, und wir hatten tatsächlich ihr System wie das Schlüsselverwaltungssystem, es ist wie ein Server. Wir haben es in unserem Rechenzentrum installiert und daran gearbeitet. Ich habe auch Erfahrung mit dem KMS-Dienst. Aber, ähm, aber das ist viel einfacher und Sie müssen nicht wirklich den Aufwand haben, einen Server zu halten oder einen Server von einem beliebigen Anbieter zu kaufen. Ähm, ja, es ist Talus. Talus ist der, du weißt schon, Mittelsmann dafür , und eigentlich kontaktieren wir Talis, äh, für den Service Sie sind also diejenigen, die das getan haben. Ähm, das tut mir leid. Ich habe den Namen falsch verstanden. Ähm, hier haben Sie also die zentrale Schlüsselverwaltung. Das ist also im Grunde Ihr HSM Cloud HSM hier drüben, das im Grunde all Ihre Schlüssel und Register und alles andere, was mit Ihren Zertifikaten und dergleichen zu tun hat Register und alles andere, was mit Ihren Zertifikaten und dergleichen zu tun Sie können also einfach etwas erstellen und tatsächlich daran arbeiten. Der nächste ist also der Elastic Container Service und EKS , der Elastic Cubont-Service Container Service verwendet mehr oder weniger Container, und im Grunde können Sie, Sie wissen schon, Cluster auf Clustern erstellen Auch das ist Managed Service. Und hier haben Sie EKS, was wiederum ein Managed Service ist , der hier Cobonts verwendet. Jetzt können Sie hier Cluster erstellen. Wir werden in der fortgeschrittenen Sitzung darüber sprechen, aber es ist so interessant. Da ich Open-Shift habe, habe ich auch gute Kenntnisse über Open-Shift, also werde ich vielleicht eine Schulung ausschließlich zu diesem Thema entwickeln. Ich habe andere Schulungen, bei denen es um Open-Shift geht, aber dann hauptsächlich um Middleware. So ist es Ähm, hier drüben habe ich die Abrechnung und das Kostenmanagement, also informiert es mich nur über die Abrechnung. Ich habe schlechte Nachrichten für diesen Monat. Ich muss hier eine Menge Rechnungen bezahlen , weil es dank Open Shift einfach eine Menge Instanzen für mich geschaffen hat. Und ja, es hat mir eine gute Erfahrung gegeben, du weißt schon, damit zu arbeiten. Äh, weil ich mehr Schulungen in offener Schicht mit anderen, ähm, du weißt schon, mittleren Produkten abgeschlossen habe mehr Schulungen in offener Schicht mit anderen, ähm, . Ähm, hier drüben ist das Well-Architektur-Tool. Also das ist im Grunde das, was wir bis jetzt gelernt haben, die Säulen. Sie können sehen, dass das selbst ein Service ist. Jetzt können Sie sehen, wie es funktionieren wird. Jetzt geben Sie Ihren zu überprüfenden Workload ein oder identifizieren ihn. AWS-Well-Architektur-Tool berücksichtigt Ihre betriebliche Exzellenz, Ihre Sicherheit, Zuverlässigkeit, Leistungseffizienz Nachhaltigkeit bei der Kostenoptimierung und Nachhaltigkeit bei der Kostenoptimierung und erstellt Ihnen einen Bericht darüber. In diesem Bericht wird sich also alles um die Säulen von AWS drehen, und er wird Ihnen zeigen, mit welcher Art von Workload Sie zu tun haben werden. Also, wie hoch wären möglicherweise Ihre Ersparnisse? All die Dinge, auf die es achten wird. Dann haben Sie hier das Abrechnungs-Dashboard. Also das ist im Grunde genommen, weißt du, wie viel Prozent der Computer ich benutzt habe und all diese anderen Dinge, die hier drüben sind. Es informiert mich also über die komplette Abrechnung, und das ist ein weiterer Service da drüben, und Sie haben den Preisrechner. Das ist ein super Tool. Ich verwende dieses Tool immer, bevor ich etwas auf AWS mache , weil dieses Tool Calculator AWS heißt Sie können also direkt darauf zugreifen und hier zum AWS-Preisrechner gelangen. Klicken Sie einfach auf Schätzung. Es gibt im Grunde das, was Sie tun möchten. Es gibt hier so viele Überraschungen. Ich werde sie nicht verwöhnen. Aber wenn wir zu dieser Sitzung kommen, werden wir diesen Preisrechner überprüfen, bevor wir EC Two Instance konfigurieren. Aber hier gibt es viele Überraschungen. Hier wählen Sie die Region aus, hier wählen Sie den Namen der Region und hier finden Sie einen Service EC Two Instance, Lambda oder jede Art von Service , der von AWS angeboten wird Dann sagen Sie, dass ich eine Zusammenfassung sehen möchte, und dann werden Sie im Grunde nach weiteren Details gefragt , zum Beispiel, was Sie vorhaben? Wie viele Stunden planen Sie zu nutzen? Sie geben all diese Informationen und es sagt Ihnen, ähm, zwei Kosten hier drüben. Vorabkosten und monatliche Kosten. Die Vorabkosten sagen Ihnen also, wenn Sie im Voraus zahlen, wie viel Rabatt erhalten Sie? Und das werden monatliche Kosten sein , okay? Also hier waren es insgesamt 12 Monate, okay, wenn man bedenkt, dass, du weißt schon, für die nächsten zwei Monate wirst du so viel bezahlen. Es ist also ein sehr nützliches Tool. Und Sie müssen dieses Tool auf jeden Fall verwenden , wenn Sie irgendeine Aktivität auf AWS ausführen Sie können tatsächlich verstehen, was in Ihrem Abrechnungszeitraum passieren wird . Der nächste Punkt, den Sie sehen möchten, ist die Wolkenbildung. Wir haben genug geredet, und das gehört zu deinem Automatisierungskram. kommt also diese Cloud-Formation ins Spiel Hier kommt also diese Cloud-Formation ins Spiel, operative Exzellenz. Also dieses spezielle Tool hier , mit dem Sie tatsächlich eine Beispielvorlage erstellen und im Grunde loslegen können. Was dieser Tag also bewirkt, ist wie Automatisierung. Sie haben also auch ein YouTube-Video von AWS, und Sie können sich dieses Video ansehen und verstehen, wie man es erstellt. Aber tu es jetzt nicht. Im Moment haben Sie sich darauf konzentriert, Ihre Zertifizierung zu erhalten. Also lass uns das machen. Gehen wir eins nach dem anderen durch, denn ich selbst werde ein Training zur Wolkenbildung machen. Und wir werden dann und da darüber sprechen , weil es noch ein langer Weg sein könnte ein langer Weg sein und wir diese Komplikation im Moment nicht wollen Aber irgendwann werden wir es schaffen. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Ich hoffe, Sie haben ein bisschen von dem verstanden, was wir bisher über das Domain-Cloud-Konzept gesehen haben . Dies sind also einige der Dinge, auf die wir zu einem späteren Zeitpunkt ausführlich eingehen werden. Und einige davon werden für euch wie Game Changer Wenn Sie neu bei AWS sind, werden Sie sagen, oder ist etwas, das ich früher hätte wissen müssen So habe ich mich gefühlt, als ich zu AWS kam , und ich freue mich sehr, dass ich Ihnen das beibringen konnte. Nochmals vielen Dank für Ihre Geduld und die. Und wenn Sie Fragen haben, hinterlassen Sie diese bitte im Fragenbereich. Ich antworte meistens am Wochenende, also werde ich mein Bestes tun um Ihnen so früh wie möglich zu antworten. 9. Laborautomatisierung (AWS CloudFormation): Leute, willkommen zurück vom nächsten Video. In diesem Video werden wir über die Vorteile der Automatisierung sprechen . In diesem Video werden wir uns mit einigen Begriffen rund um Architektur, Bereitstellung und, Sie wissen schon, mit Automatisierung befassen. Wie live werden wir einige praktische Erfahrungen mit der Cloud-Formation Nun, wir werden keine Wolkenformation erzeugen, aber dann werde ich Ihnen nur etwas über das Format der Wolkenformation erzählen. Das Bild hier stellt die Automatisierungsfunktion dar. Denken Sie jetzt daran, dass es für die Wirtschaftlichkeit der Cloud sehr wichtig ist , dass Sie weniger manuelle Tätigkeiten, sondern mehr Automatisierung und Innovation in Ihr Projekt investieren. Um die Automatisierung im Hinblick auf die Cloud-Bildung umsetzen zu können, müssen Sie nun Automatisierung im Hinblick auf die Cloud-Bildung umsetzen zu können, über die richtigen Tools verfügen. Das erste Tool, das Sie als Service von AWS benötigen, ist also etwas namens CloudFront, tut mir leid, Cloud Formation Dieser spezielle Service würde Ihnen nun helfen, eine autonome Servererstellung mithilfe einer sogenannten Cloud-Formation zu erstellen eine autonome Servererstellung mithilfe einer sogenannten Cloud-Formation Jetzt wird eine Vorlage verwendet. Wenn Sie nun einfach die Dokumentation dazu in der AWS-Dokumentation unter Cloud Formation aufrufen, können Sie sehen, wie Cloud Formation funktioniert. Hier müssen Sie eine vorhandene Vorlage erstellen oder verwenden. sind Beispielvorlagen In dieser Dokumentation selbst sind Beispielvorlagen verfügbar, und Sie speichern sie grundsätzlich lokal oder in einem S-3-Bucket. Lokal bedeutet also, dass Sie eine Datei auf Ihrem Laptop erstellen und sie dann in die Cloud-Formation hochladen. Oder Sie können es auf S drei legen, was kostenverbindlich ist. Du musst also etwas für das bezahlen, was du auf S drei hochlädst. Äh, das ist also etwas , das du beachten solltest. Aber wenn Sie vor Ort sparen, fallen keine Kosten an. So können Sie beispielsweise diese JSON-Datei speichern, beispielsweise diese JSON-Datei speichern, Sie können sie tatsächlich auf Ihrem Desktop speichern und sie hochladen, wenn Sie eine Cloud-Formation erstellen Auf diese Weise müssen Sie zu diesem Zeitpunkt keine wirklichen Kosten Nun wird die Cloud-Formation den Stapel verwenden, die Cloud-Formation den Stapel verwenden den Sie erstellt haben, und sie wird mit dem Aufbau des Stacks beginnen Es wird also eine Vorlage verwendet, die im JSON-Dateiformat oder im Yama-Dateiformat vorliegt. Wie Sie sehen können, werden diese beiden Dateiformate bevorzugt. Äh, eins von beiden, du kannst es hochladen. Im Grunde sollten Sie erkennen, ob es sich ein JSO-Format oder ein Yamo-Format , und dann lädt es diesen Stapel auf Ihre Cloud-Formation und zeigt Ihnen dann den Fortschritt bei der Erstellung des Nun, ähm, nun, Sie können also auch auf „Erste Schritte anzeigen“ klicken Also das wird wieder zur Dokumentation gehen, auf derselben Seite , auf der ich war. Hier gibt es ein YouTube-Video zum Einstieg und dann wie man eine Cloud-Formation durchführt, sich bei AWS anmeldet und bewährte Methoden und wie man mit Vorlagen arbeitet und so. Das ist also im Grunde das, was ich dir zeigen möchte. Und eine Wolkenformation hilft Ihnen dabei, Stapel zu erstellen. Nun, was ist Stack? Stack besteht im Grunde aus einer Reihe von service- und serverbezogenen Elementen. Wenn ich zum Beispiel Open Shift verwende, um einen Service mit AWS zu erstellen, erstellt Open Shift nicht nur zwei EC-Instances, es erstellt VPCs, es erstellt Lade-Banner, ich erstelle eine elastische IP-Adresse und weise sie meinem Service zu und der Service ist damit verbunden , dass Netzwerkschnittstellen und ähnliches Der Stack beinhaltet den Aufbau eines gesamten Workload-Streams , der es mir ermöglicht, an einem Projekt zu arbeiten Okay. Das ist also, was ein Stack ist. Wenn Sie also einen solchen Stack in Cloud-Formation erstellen, reduziert das die manuelle Arbeit von Mitarbeitern, die zu jedem Service gehen und zu jedem Service gehen und diese VPCs und elastischen IPs manuell erstellen und all diese Load Balancer auf all diesen EC-Two-Instances erstellen all diesen EC-Two-Instances erstellen Innerhalb von 30 bis 40 Minuten wird es also die gesamte Infrastruktur erstellen und meine Anwendung hosten Und das ist die Macht der Wolkenbildung. Nun können Sie entweder die Wolkenbildung in diesem Sinne verwenden oder Sie können Terraforming verwenden Terraforming ist ein weiteres Tool von Drittanbietern. Jetzt wurde es von IBM gekauft. Und sogar Sie können das Tool zur Wolkenbildung oder zum Terraforming verwenden zur Wolkenbildung oder zum Terraforming Diese beiden Optionen gibt es. Sie können jede dieser Optionen verwenden, um eine solche Infrastruktur zu erstellen. Da wir die AW-Zertifizierung durchführen, folgt uns die AAA-Zertifizierung strikt darin , an Cloud-Formation und nicht an Terraforming zu arbeiten Das ist also so ziemlich das, was Automatisierung ist und was der Vorteil davon ist und wie man das überhaupt erreicht Ich habe Ihnen auch die Architektur gezeigt. Das fasst diese spezielle Sitzung also ziemlich gut zusammen. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Im nächsten Video erfahren Sie mehr über die Managed Services. 10. Im Labor verwaltete AWS-Services (Amazon RDS, ECS, EKS, Dynamo DB): Willkommen zurück zum nächsten Video. In diesem Video werden wir an diesem speziellen Konzept arbeiten . Also die Identifizierung von verwalteten Diensten, verwalteten Hardwarediensten, z. B. Amazon RDS, Elastic Container Service, Elastic Gubernat Service und Dynamo TV Wir werden uns also jeden dieser Dienste ansehen und herausfinden, wie er in der Praxis tatsächlich funktioniert Was die Architektur angeht, möchte ich Ihnen nur den Unterschied zwischen einem selbstverwalteten Dienst und einem verwalteten Dienst erklären. Sie können ihn auch als teilweise verwalteten Dienst oder, Sie wissen schon, gar nicht als verwalteten Dienst bezeichnen auch als teilweise verwalteten Dienst oder, Sie wissen schon, . Falls Sie eine Anwendung in Ihrem Rechenzentrum mit einem Worsham-Computer hosten eine Anwendung in Ihrem Rechenzentrum , würde Ihr Linux-Administrator tatsächlich zuerst eine Serverinstanz einrichten , und dann wird die Installation des Betriebssystems vom Linux-Administrator , und dann die Installation des Betriebssystems durchgeführt Sobald das Betriebssystem installiert ist, installieren die Oracle-Datenbankadministratoren die Oracle-Software auf der Umfrage sobald die Netzwerk-Firewall abgeschlossen ist, und dann fügen Sie die Anwendungsdaten oder Ihre Kundendaten in die Datenbank ein. Und dann können Sie als Administrator wie der Datenbankadministrator darauf zugreifen . Und dann würden die Anwendungen eine Verbindung zur Datenbank herstellen und diese Transaktion starten. So würde also ein typischer, ähm, Sie wissen schon, selbstverwalteter Service aussehen. Sie entscheiden sich für AWS EC zwei Instanzen, es gibt zwei Dinge, die Ihnen abgenommen werden. Eine davon ist die Erstellung der virtuellen Maschine sowie die Installation des Betriebssystems. Diese beiden Dinge werden von EC Two erledigt. EC Two gibt Ihnen den richtigen Instanztyp und das Betriebssystem, und dann gibt es Ihnen eine Schlüsseldatei , auf die Sie mit dieser Schlüsseldatei zugreifen können. Direkt kommt der Oracle-Administrator rein und installiert die Oracle-Software und überprüft dann die Lizenzierung und so. Und dann fügt er die Kundendaten und hat Zugriff auf diese Anwendung, und dann stellen die Drittanbieteranwendungen eine Verbindung zur Racal-Datenbank Sie können es also wie einen selbstverwalteten Service nennen einen selbstverwalteten Service weil er teilweise von ECT verwaltet wird, okay, wobei die Servererstellung, der Serverstandort und die Betriebssysteminstallation alles von Amazon selbst vorgenommen werden Okay? Jetzt sprechen wir über etwas, das Managed Services genannt wird. Es gibt also viele verwaltete Dienste, die in AWS verfügbar sind. Okay? Also, es wird hier angezeigt, aber es gibt eine Menge verwalteter Dienste. Im Gegenzug werden wir uns jetzt mit dem RDS befassen, mit relationalen Datenbankdiensten Also jetzt, da wir hier die fett gedruckte Oracle-Datenbank haben. Also müssen wir nur zu RDS gehen und sagen, dass ich eine Datenbank benötige, S, dass ich eine Oracle-Datenbank benötige. Okay? Die Oracle-Datenbank wird also mit einer selbstverwalteten Bring-Your-Own-Lizenz geliefert. Sie müssen also diesen Teil der Lizenzierung verwalten, sodass , Sie wissen schon, Zeitpunkt der Erstellung immer von AWS darüber informiert wird. Und alles, was Sie tun müssen, ist, sobald Sie auf die Schaltfläche Erstellen klicken, haben Sie eine Oracle-Datenbank, die bereit ist. Sie müssen lediglich einen Weg finden, darauf zuzugreifen, die Kundendaten einzufügen, den Administrator für die Arbeit damit zu beauftragen und die Anwendungen mit und die Anwendungen dieser Oracle-Datenbank zu verbinden. Wie einfach und simpel es ist, oder? Von der Serverzuweisung über die Servererstellung, Installation des Betriebssystems bis hin zur Softwareinstallation werden all diese Dinge erledigt. Okay, das musst du nicht wirklich tun oder dir darüber Gedanken machen. Sie müssen zum Zeitpunkt der Erstellung der Oracle-Datenbank möglicherweise wählen, auf welcher Art von Instanz Sie diese Datenbank ausführen möchten. Denn je nach Instanz wird Ihnen die Lizenzierung in Rechnung gestellt, und dann auch auf der Grundlage der Software, aber dafür wird die Lizenzierung in Rechnung gestellt. Und im Grunde wird es Ihnen die Rechenleistung zur Verfügung stellen und die Softwarekomponente ist vorinstalliert. Sie müssen lediglich mit dem Einfügen der Kundendaten beginnen, und die Anwendung sollte zu Oracof weitergeleitet werden , um damit zu arbeiten keine Firewall-Konfigurationen oder ähnliches erforderlich , da es bereits vorkonfiguriert weil Sie zum Zeitpunkt der Installation und schlau gesagt hätten, ob darauf von einer vorhandenen VPC aus zugegriffen werden muss oder ob eine neue VPC erstellt werden muss, oder ob es einen öffentlichen Zugriff haben wird, all diese Dinge, Sie Es sind keine Firewall-Konfigurationen oder ähnliches erforderlich, da es bereits vorkonfiguriert ist, weil Sie zum Zeitpunkt der Installation und schlau gesagt hätten, ob darauf von einer vorhandenen VPC aus zugegriffen werden muss oder ob eine neue VPC erstellt werden muss, oder ob es einen öffentlichen Zugriff haben wird, all diese Dinge, Sie werden es sofort sehen. Also lass uns das machen. Lassen Sie uns RDS erstellen. Okay. Ich werde diesen Prozess nicht vollständig fortsetzen. Geben Sie hier einfach RDS ein. Sie können diesen Beziehungsdatenbankdienst hier sehen. Klicken Sie einfach darauf. Ich mache immer einen Mittelsprung, sodass es auf einer neuen Registerkarte geöffnet wird, und wie Sie hier sehen können, ist Aurora IO Optimized eine neue Cluster-Speicherkonfiguration, ist Aurora IO Optimized die vorhersehbare Preise für alle Anwendungen und ein verbessertes Preis-Leistungs-Verhältnis von bis zu 40% Kosteneinsparungen bietet vorhersehbare Preise für alle Anwendungen und . Hier gibt es also eine neue Einführung in einen neuen Service, und das ist im Grunde genommen nur die Rede davon. Hier sind derzeit also keine Datenbankinstanzen verfügbar. Jetzt können Sie sehen, dass das so ziemlich Ihrer Datenbank zu tun hat, okay? Jetzt können Sie auch einen Snapshot der Datenbank erstellen. Sie können auch eine umgekehrte Instanz für Ihre Datenbank erstellen und dann Datenbankcluster mit bis zu 40 erstellen. Gehen Sie jetzt zur Datenbank und klicken Sie auf Neue Datenbank erstellen. Jetzt können Sie ein Standard-Create oder EC-Create erstellen. Es Create ist viel einfacher. Es wird dir weniger Fragen stellen. Standard Create ist sehr zu empfehlen da es Ihnen tatsächlich einige gute Fragen stellt, die für Sie wirklich erforderlich sind. Sie können sich also für MariaDB MSQO und dann auch für Oracle entscheiden Es gibt jedoch bestimmte Datenbanken , für die Sie Ihre eigene Lizenz mitbringen müssen Sie können also sehen, dass IBM DV Two sagt, dass Lizenzen von Ihnen oder über den AWS-Marktplatz mitgebracht Sie müssen also darauf klicken, wenn Sie wissen möchten, wie hoch die Gebühren für die Nutzung dieser DV-Two-Lizenzierung sind. Das können Sie sehen Wenn du hier hingehst, öffnet sich der DV Two-Marktplatz hier drüben und du kannst dir vorstellen, was das kostet Die Kosten betragen also 1,04 pro Einheit, schätze ich. tut mir leid. Das ist also eine harte Lizenz. Ja, es ist 1.04. Pro Stunde. Also das wird auf zwei virtuellen CPUs hier drüben auf einem BPC sein, was aus zwei Threads bestehen wird Wenn Sie also mehr virtuelle CPUs hinzufügen wollen, müssen Sie tatsächlich mehr bezahlen, weil es auch darauf basiert, dass die Lizenz auf Stundenbasis basiert, aber dann wird sie berechnet, aber dann wird sie berechnet unabhängig von der Anzahl der PCs, die Sie dort haben Wenn es also vier VPC sein werden, wird es 2,08 sein, so wird es Also hier ist das Preismodell hier drüben. Sie können auch eine Beschreibung darüber lesen , worum es hier geht, welche Version als Teil davon installiert wird und all diese Dinge, Sie können es sehen. Wenn Sie also über Marketplace angeben und die Abrechnung erfolgt und Sie die endgültige Abrechnung pro Monat der Nutzung sehen, belaufen sich die monatlichen Kosten standardmäßig über Marketplace angeben und die Abrechnung erfolgt und Sie die endgültige Abrechnung pro Monat der Nutzung sehen, belaufen sich die auf 884 USD Dazu gehören die DB-2-Instance, der Speicher und das bereitgestellte Iopsipposecon und das bereitgestellte Iopsipposecon Sie haben also auch die Möglichkeit , einige dieser Elemente auszuwählen und sie dann zu deaktivieren, aber Sie sollten Wenn ihr also wirklich nicht wollt, dass IOPs hier bereitgestellt werden, könnt ihr euch für den allgemeinen Zweck, SST, entscheiden , wodurch ihr auch hier eine Menge Geld sparen werdet . Gemäß der Empfehlung sollten Sie jedoch leistungsorientierte IOPs verwenden , um eine höhere Leistung zu erzielen Eine weitere Sache, die Sie hier sehen werden, ist die Größe, die Instanzkonfiguration und der Instanztyp Dies sind vorkonfigurierte vorinstallierte Instanzen. Es tut mir leid, ich habe gerade verloren, wo es ist. Okay, das sind also einige davon, Sie haben also nur einige Instanzen, was für diese Art von Datenbank-Setup kundenspezifisch konfiguriert ist . Der Name des Familiennamens ist SiXi, aber hier am Anfang steht DB , weil es sich um eine maßgeschneiderte Hosting-Datenbank für Ihren RDS Und der Familienname ist Six Y, und das ist ein großes. Okay. Sie haben also ADX Large Sie haben sechs IDN, und Sie können sehen, dass es über ein Netzwerk von 25.000 MVPs mit Sofortspeicher von 1,9 Terabyte NVM V SSD verfügt MVPs mit Sofortspeicher von 1,9 Terabyte Wenn Sie sich jetzt für so etwas entscheiden, Ihre Kosten in die Höhe und steigen buchstäblich auf 6.983$ steigen Ihre Kosten in die Höhe und steigen buchstäblich auf 6.983$. Sie haben also auch Oracle Espo und was werden Sie am Ende bekommen Das ist also die einzige Option für Oracle, Ihre alte Lizenz mitzubringen Und was ist das Endergebnis davon? Was passiert, wenn ich MSCR auswähle und dann auf die Schaltfläche „Erstellen Das sind also 11.386 USD. Pro Monat werden es aufgrund der provisorischen Operationen etwa 900 sein und DB-Instance ungefähr 10.000, weil ich die höchste Version davon gewählt habe Das ist nur der Grund. Also hier kann ich mich für etwas entscheiden, das eine geringere Größe hat, damit mir nicht so viel dafür berechnet wird. Das sind also 1.400, immer noch hoch. Das liegt an provisorischen Jobs. Das sind also etwas , das du herausfinden musst, und es sind ungefähr 496. Also ich glaube nicht, dass wir es weiter reduzieren können Wenn wir eine DB-Instance ohne Cluster erstellen , können wir das tatsächlich reduzieren. Ich werde den Devon-Test machen, DB-Single. Nun, das sollte uns auf 176 $ bringen. Das kannst du sehen Der Preis ist reduziert, weil wir uns nicht für Clustering entscheiden, und das hat die Kosten auf ein Minimum reduziert Das ist also die Version meines SQR. Was nun passiert, ist, dass bei diesen Fragen, richtig, eine weitere Frage auftauchen wird, ob Sie öffentlich auf Ihre Datenbank zugreifen Normalerweise sagen wir nein, aber wissen Sie, in Ihren Situationen könnte es genauso sein wie wir. Und Sie können auch sehen die bestehende VPC hier verwendet wird, sodass es sich bei den IP-Rage um bestehende VPCs handeln kann Sie können auch einen Bastian-Host erstellen und dann auf diesen bestimmten Server zugreifen über einen Bastian-Host Das ist also auch eine weitere Option, wenn Sie den öffentlichen Zugang mit Nein deaktiviert haben Dann können Sie hier in der Datenbankauthentifizierungsoption die Kennwortauthentifizierung und die Passwort-IAM-Datenbankauthentifizierung verwenden , Sie können dafür einen IAM-Benutzer und auch die CBOs-Authentifizierung erstellen dafür einen IAM-Benutzer und auch die CBOs-Authentifizierung Ebenso haben Sie mehrere Möglichkeiten, sich innerhalb der Datenbank zu authentifizieren. Und dann bietet Ihnen die darin enthaltene Leistung eine kostenlose Testversion für sieben Tage Sie können das einfach sagen, wenn Sie die Leistung nicht möchten, und dann können Sie auf die Schaltfläche „Erstellen“ klicken. Was passiert also, wenn ich auf die Schaltfläche Erstellen klicke? Sie werden eine Datenbank haben, die bereit ist, und alles, was Sie tun können, ist direkt auf diese Datenbank zuzugreifen und mit ihr zu arbeiten. Ich werde das jetzt nicht tun, weil wir noch nicht in der Phase sind. Wenn Sie all diese Dinge tun und Sie es auch nicht sofort tun müssen, weil es alles kostenpflichtige Artikel oder Teil der kostenlosen Testversion sind, seien Sie bitte vorsichtig, während Sie die Schaltfläche „Erstellen“ klicken, denn dafür fallen einige Grundgebühren an, zumindest für stündliche Gebühren, es wird aktiviert Das ist so ziemlich das, was ich Ihnen in Bezug auf RDS zeigen möchte , was die Arbeit mit RDS angeht Sie haben andere Dienste ECS, was kontinuierlicher Service bedeutet. Sie haben EKS, das ist Cubone T Service, und dann haben Sie wieder NynoDB Dynamo Dib, das ist keine SQL-Datenbank, das ist keine SQL-Datenbank, also Das sind also einige der Dinge, die wir eigentlich in unserem Kurs überprüfen sollen wir eigentlich in unserem Kurs überprüfen sollen. Also lass uns einfach mal nachschauen. Container-Service verwendet also den Docker-Container, um Container zu erstellen und unsere Anwendungen im Container zu hosten unsere Anwendungen im Container zu Okay, es wird also eine Container-Infrastruktur erstellt , wenn Sie den Cluster erstellen Hier geben Sie also an, welche Art von Container Sie als großen oder einfach zu verpackenden Container bereitstellen möchten . EC zwei bedeutet, dass Sie den Instanztyp tatsächlich auswählen können. Fargate ist ein Relex-Container, dem Sie eigentlich keinen Wartungsaufwand haben, und Sie müssen sich keine Sorgen machen, dass es keine Instances gibt , da er über Fargate-Spot-Kapazität verfügen wird Das wird das also tun. Wenn Sie die Kubernetes-Dienste vergleichen, haben Sie hier Kubernetes-Elemente , sodass Sie sich entweder registrieren oder einen Cluster erstellen können Ich meine, der bestehende Cluster kann in äh, dem EKS registriert werden in äh Und hier geben Sie die Version von Kubernts an und dann hier geben Sie die anderen Details zur Kubernetes-API an, und dann klicken Sie auf Weiter und dann gibt es diese Netzwerkspezifikation, mit der Sie die Beobachtbarkeit ermitteln können, und dann einige Add-Ons, dann können Sie Das sind also verschiedene Möglichkeiten, das zu tun. Aber wie dem auch sei, wir werden es später im Detail sehen. Und hier, was die Dynamo DB angeht, haben wir die Amazon Dynamo Dies ist eine schnelle und flexible NoSQL-Datenbank, die für die Skalierung sehr nützlich ist Um also eine sehr einfache Tabelle zu erstellen und im Grunde genommen den Namen der Tabelle anzugeben, was auch immer Sie als Tabellenstandardeinstellung einfügen möchten, also können Sie das tun, und dann können Sie eine Tabelle erstellen Das wird also eine Datenbank ohne SQL sein, Sie müssen also keine Art von um, MSC, ACAL-Datenbank darauf laufen lassen MSC, ACAL-Datenbank darauf laufen Sie können also auch Daten nach S 3 exportieren und auch Daten aus S 3 importieren und so Teil der Tabellen werden , die Sie als Teil von Dynamo TV erstellen Ordnung, so ziemlich genau das wollten wir in diesem Video behandeln Also haben wir auch all diese Dienste gesehen. Ähm, nochmals vielen Dank für Ihre Geduld und falls Sie Fragen, Fragen, Abschnitte haben. Sie sich keine Sorgen, dass ich nicht tief darauf eingehen werde , denn für die Cloud-Konzepte ist es nicht erforderlich, sich eingehend damit zu befassen. Wir werden also die Konzepte der Cloud verstehen, und genau das tun wir. Und das wären die Fragen, um die es geht. Sie werden Ihnen Fragen zu Ähm, DynamoDB ein verwalteter Dienst ist oder kein verwalteter Dienst, so etwas in der Art, das wird es sein Sie müssen also einige dieser Namen und einige der hier aufgeführten Konzepte kennen, hier aufgeführten Konzepte damit Sie diese Fragen angemessen beantworten können Nochmals vielen Dank für Ihre Geduld und Zeit. Wir sehen uns im nächsten. 11. Labs – Rechtsizierung des Instanztyps: Ist willkommen zurück zum nächsten Video. In diesem Video werden wir über die richtige Größe sprechen. Es ist eines der Themen hier, das für Ihre Zertifizierung erforderlich ist heißt, das Konzept der Schreibgröße zu verstehen. Wenn Sie sich dieses Video ansehen, habe ich das Bild für die richtige Größe erstellt. Dieses Bild impliziert , dass Sie die richtige Größe für die entsprechende Umgebung haben müssen. Wenn Sie beispielsweise auf einem falschen Instance-Typ für eine Anwendung laufen einem falschen Instance-Typ für eine , die mehr oder weniger benötigt, Sie entweder zu viel für die Infrastruktur aus oder Sie geben die Infrastruktur aus oder Sie wenig für die die richtige Größe Es wird entscheidend sein, die richtige Größe für Sie zu finden als AWS-Administrator Was sind für Sie als AWS-Administrator die wichtigsten Hinweise und was ist der Instance-Typ, und wie können Sie ihn bestimmen? All diese Dinge werden wir in diesem Video sehen. Was die Ermittlung betrifft, müssen Sie einen sogenannten Auslastungstest ausführen , und dieser Auslastungstest bestimmt ob diese Instanz für Sie geeignet ist. Aber welche Instance-Typen sind dann verfügbar? Und wie können Sie den Instanztyp verstehen? Denn wenn Sie hier rüber gehen, gehen Sie zu EC Two Instance. Das Erste, was Sie sehen werden, ist, dass der Name und das Tag, die zweite Sache das Betriebssystem ist. Nun, hier, die Anwendung des Betriebssystems, Sie entscheiden über das Betriebssystem, und das haben Sie im vorherigen Video gesehen. Im dritten Schritt geht es nun um Ihren Instanztyp. Jetzt ist der Instant-Typ so wichtig und wichtig, weil Sie auf dieser Ebene entweder zu wenig oder zu viel ausgeben können Hier müssen Sie tatsächlich eine wichtige Entscheidung darüber treffen groß Ihre oder Ihre Systeminfrastruktur ist und wo Ihre Anwendung ausgeführt werden soll Bevor Sie sich also dafür entscheiden, müssen Sie einen Input von Ihrem Anwendungsingenieur einholen , , Sie wissen schon, die Anwendung entworfen hat, der über die Anwendung Bescheid weiß, wer an der Anwendung gearbeitet hat , und er weiß , was die CPU-Anforderungen sind, was die RAM-Anforderungen sind, ob dafür eine GPU erforderlich ist . Sie müssen also auch ein wenig vom Standpunkt der Anwendung aus verstehen , um zu sehen, ob das passt. Um sich dafür zu entscheiden, müssen Sie nun aus einer Vielzahl von Instanztypen wählen Sie können sehen, dass es einige gibt, die hier immer wieder auftauchen. Das tut mir leid. Es gibt also etwas, das blockiert ist, was für Sie nicht aktiviert ist . Dafür gibt es einen Grund. Und es gibt einige Artikel , die so teuer , dass der Linux-Grundpreis selbst 407 USD pro Stunde beträgt. Es sind also nur 40 $7 pro Stunde. Ähm, es gibt die billigeren, wo du 40,52€ bekommst. 0,0 081 USD pro Stunde. Es gibt einige Dinge , die auch als kostenlose Testversion verfügbar auch als kostenlose Testversion Also, das sind einige der Klassifizierungen in Bezug auf, Sie wissen schon, was für Sie verfügbar ist, wenn es um der Klassifizierungen in Bezug auf, Sie wissen schon, was für Sie die Arbeit mit, äh, Ihrem Instance-Typ geht, was im Moment sehr wichtig ist Also, Sie haben die Generationen, Sie haben auch die aktuellen Generationen Das sind also alles die der aktuellen Generation. Sie können hier also eine Liste mit vielen verfügbaren Diensttypen sehen . Alle Generationen werden Ihnen mehr von diesen Instanztypen geben , was auch die alte Generation einschließt. Die aktuelle Generation fällt. Was sind das also? Wie werden diese verwendet? Warum sind einige von ihnen blockiert? Das werden wir in diesem Video verstehen, wir werden nicht näher darauf eingehen, aber, wisst ihr, so etwas wie eine Architektur, die ich für euch entworfen habe, wird euch helfen. Geben Sie nun den Instanznamen ein wie in, sagen wir einfach, ein Mikro, tut mir leid, T zwei Micro kombiniert hier zwei Elemente. Es umfasst also T Two, was Instance-Familie ist, und Micro, was diese Instance-Größe ist. Das ist also eine Kombination aus zwei Dingen. Okay. Lassen Sie uns die Größe verstehen , denn Größe ist der einfachste Pfad , der oben breit ist. Die Größe bestimmt die Größe der CPU und des Speichers. Okay. Ein Nano ist also die Startgröße , also die kleinste Größe einer Instanz. Und das reicht bis 48 X groß, was ich vor Kurzem gesehen habe, wo 48 X Large entweder mit einer überhöhten CPU-Größe oder mit einer überhöhten RAM-Größe einhergeht , RAM-Größe je nachdem, zu welcher Kategorie oder Familie es gehört Ich gebe Ihnen hier ein Verständnis, geben Sie einfach Nano hier drüben Wir können sehen, dass es hier 0,5 B Arbeitsspeicher und eine virtuelle CPU sind, und Sie haben hier auf T4G einen Nano , der hier mit zwei virtuellen CPUs und 0,5 GB Arbeitsspeicher ausgestattet ist Nun, das ist im Grunde der Nano-Typ. Schauen wir uns nun X 48 an. Das ist X 48 groß. Das ist komisch. Das tut mir leid, 48 X groß. Deshalb ist es nicht gekommen. In dieser Situation haben Sie also 348 GB Arbeitsspeicher und 192 virtuelle CPUs In einigen Situationen erhalten Sie satte tausend 556 GB Arbeitsspeicher und 192 virtuelle CPUs Ebenso ist das X-42-Zeitalter, wie Sie wissen, mit 192 CPUs sicher Sie werden es auf allen Instanzen bekommen, aber dann beträgt die Speichergröße etwa 384 GB bis etwa 1.356 GB Speichergröße Die Gebühren dafür werden also ebenfalls steigen, sodass Sie 12$ pro Stunde verdienen können, wenn Sie diese Art von Instance auf Ihrer AWS verwenden Nun, Preisrechner helfen Ihnen auch dabei, die Preisberechnung zu bestimmen , wie es aussehen wird, indem Sie hier EC Two auswählen. Und auch hier haben Sie hier den EC-Two-Instanztyp. Zunächst haben Sie also die Betriebssystemauswahl und das Mietverhältnis, wir werden später darüber sprechen Und EC zwei Instanzen hier drüben, und Sie haben alle EC Two Instances hier drüben und Sie können es nach Familie sortieren Sie haben also so viele Familien hier drüben. Also werden wir jetzt zu den Familien kommen. Gehen wir also zurück zum Architekturdiagramm, Sie haben die Instanzfamilie hier. Was sind diese Instanzfamilien? Free Tire General Purpose ist also im Grunde eine Test-Instanzfamilie. Das heißt, entweder du bekommst das im Rahmen einer kostenlosen Testversion, Gratis-Reifen, tut mir leid, und du hast den allgemeinen Zweck. Also dieser ganze Tet-Reifen ist als Allzweckreifen konzipiert , ähm, als Instanzenfamilie. Also was auch immer darauf ausgerichtet ist. Also maximal, meine Ansicht ist T zwei mittel, T zwei groß habe ich benutzt. Ich habe T zwei außer Large nicht verwendet. Weil wir hier zu einem anderen allgemeinen Zweck übergehen, nämlich A eins, vier, T drei, T zwei po, dann T drei A und dann M sechs, M fünf. Ich habe hier eine Menge MPIs verwendet, was alles mit dem Speicherrelator zu tun hat, und er hat eine Menge Speicher drauf Also habe ich das benutzt. Dann haben Sie rechneroptimiert. Ich konzentriere mich auf CPUs, wo Sie viele CPUs, aber weniger RAM haben, wie C six, C five, C four Und dann haben Sie den Speicher optimiert, was im Grunde bedeutet, mehr Speicher zu haben und sich weniger auf die CPU zu konzentrieren, wie Z eins, X, R vier, R fünf, R sechs Dann haben Sie das beschleunigte Rechnen, bei dem es mehr um Ihre grafische Verarbeitungseinheit geht , äh, F eins, g4g3, dann I N oder 1b2b3 Dann haben Sie den Speicher optimiert. Es konzentriert sich hier auf mehr Speicherelemente wie I D und H. Wenn Sie also die richtige Familie für Ihren Instance-Typ auswählen , wird das für Ihre Arbeit mit anderen Dingen sehr nützlich sein . Also habe ich dir eine Theorie gegeben, die du auf einem Bildschirm machen kannst . Ich füge sie einfach als Teil der Dokumentation hinzu. Also mach dir darüber keine Sorgen. Also, wie eine Instanz entsteht, indem Familie und Größe kombiniert werden. Eine Instanz kann also von einem niedrigeren Standpunkt aus beginnen. Nehmen wir zum Beispiel die grafisch fokussierten, also wenn Sie hier einfach ein G auswählen, wie zum Beispiel G two selbst hier drüben. Und dann ist es hier nicht in der Lage, eine Übereinstimmung zu finden. Schauen wir uns das an. Tut mir leid. G zwei. Entschuldigung, aus irgendeinem Grund wird G zwei nicht angezeigt. Lass mich zu G drei gehen. Ich kann sehen, dass G drei mit XLarge beginnt , und Sie können 30 GB Arbeitsspeicher und vier virtuelle CPUs sehen 30 GB Arbeitsspeicher und vier virtuelle CPUs Und für Linux werden etwa 0,75 berechnet. Und dann hast du noch ein bisschen mehr. Es ist vier X groß, acht groß und 16 X groß. Sie können also sehen, dass der Speicher und die CPU ständig zunehmen. Sie haben also X so groß wie vier und vier X größer, 16, Ax größer, 32 und 16 größer, 64. Also jedes bisschen davon, sodass Sie sehen können, dass es einen drastischen Anstieg von 8 bis 64 gibt , was die virtuelle CPU angeht Das wird uns daran erinnern, dass wir bis 48 X etwa 192 virtuelle CPUs gesehen haben, Im Grunde geht es hier also um die CPU-Nummern. Also das X Large, das Ax, das Four X Adex. Also, du kannst sehen, wie es zunimmt, dann kannst du jetzt natürlich den Unterschied tatsächlich verstehen Der Unterschied zwischen X Large und Four X Large, was dazwischen liegt, sind die beiden X Large, die ungefähr oder doppelt X oder X groß sein sollten , und das sind ungefähr acht virtuelle CPUs. Wenn Sie das berechnen können, können Sie die Unterschiede zwischen ihnen kennenlernen. Wenn Sie dann 48 X groß werden, erhalten Sie 192. Das ist im Grunde die Berechnung hier. Aber der RAM hier wird zunehmen oder abnehmen. Manchmal bieten sie Ihnen mehrere Optionen für die RAM-Größe. Weil es sich mehr auf die CPU und den Speicher konzentriert. Also das Gleiche hier drüben, der G zwei wird nicht kommen, sondern der G drei hier drüben, Sie werden die Unterschiede tatsächlich sehen. So können Sie sehen, wie effektiv die Kosten pro Stunde pro Stunde eingespart werden können. Sie hätten also so viel sparen können. Also gut, das ist so ziemlich das, was ich dir dazu zeigen möchte Ich möchte nicht ins Detail gehen. Es gibt so viele Dinge, über die wir sprechen wollen, aber lass uns das später machen, denn da dies der erste Abschnitt sein wird , möchte ich nicht viele Dinge in dieses Video einfließen Dinge in dieses Video Ich werde also zu der Folie zurückkehren, die ich präsentiert habe Ich werde es dort beenden. Das ist also das Verständnis der richtigen Größe. Die Größe von Schreibvorgängen ist so wichtig, dass Sie sich mit dem Instance-Typ vertraut machen müssen. Es gibt Instanztypen. Die zwei Arten von Instanztypen. Im Instanztyp ist eins die Familie, ein anderer Einheitsgröße. also die Familie und die Größe kombinieren, erhalten tatsächlich die richtige Größe für Ihre Anwendung. Um jedoch die richtige Größe Ihrer Anwendung zu ermitteln , können Sie sie mit der vorhandenen Umgebung vergleichen und herausfinden, welche CPU und welcher Arbeitsspeicher ihr zugewiesen sind. Oder Sie können sich mit dem Architekten über die Leistung der Anwendungen und darüber, wie viel RAM und CPU sie benötigen, erkundigen Leistung der Anwendungen und darüber, wie viel RAM , ob im Laufe der Zeit GPUs benötigt werden, und wir können diese im Grunde genommen, wissen Sie, auf AWS richtig konfigurieren Nochmals vielen Dank für Ihre Zeit und Geduld. Wir sehen uns im nächsten Video. 12. Labs BYOL und andere Lizenzierungsstrategien: Hey, Leute. Willkommen zurück zum nächsten Video. In diesem Video erfahren Sie mehr über die Lizenzierungsstrategien. In diesem Video wird es nun um Unterschiede zwischen den Lizenzmodellen gehen. Es gibt zwei Modelle, über die Sie sprechen werden: Bringen Ihre eigene Lizenz mit und schließen Sie auch Lizenz mit in Ihre AWS-Instanz ein. Das ist also das Diagramm , das ich Ihnen zeigen möchte. Es gibt also diese beiden Klassifizierungen hier. Bringen Sie Ihre eigene Lizenz mit, wenn Sie bereits eine Lizenz dabei haben und Sie etwa drei bis vier Jahre Lizenzierungszeit bei einer Firma oder einem Unternehmen gebraucht haben etwa drei bis vier Jahre Lizenzierungszeit bei einer Firma oder einem Unternehmen gebraucht , richtig, wie ein Red Hat oder Microsoft sagen, okay, ich habe noch drei Jahre Lizenz übrig Ist es also in Ordnung, in die Cloud zu wechseln? Sie können also sagen, es ist wirklich okay, weil Sie Ihre eigene Lizenz mitbringen können und Sie müssen nicht wirklich bezahlen, Sie wissen schon, die Lizenz, die in diesem AOB enthalten Oder wenn Ihre Lizenz bereits abgelaufen ist, Sie einen neuen Service anbieten, Sie planen, einen neuen Service mit einem neuen Lizenzmodell einzuführen , weil Ihre alte Lizenz im Laufe von sechs bis , weil Ihre alte Lizenz einem Jahr abläuft Dann können Sie AWS sogar direkt bezahlen, einschließlich der Lizenzgebühr. Sie müssen sich also nicht wirklich mit Wet Hat oder IBM oder, ähm, Sie wissen schon, mit irgendwelchen anderen Unternehmen, Microsoft oder so etwas anderem auseinandersetzen, Sie müssen sich nicht wirklich mit ihnen auseinandersetzen. Alles, was Sie tun müssen, ist eine Pauschalzahlung, Sie können es auf monatlicher oder jährlicher Basis zu AWS machen , und zwar je nach dem Plan, den Sie wählen. Jetzt werde ich Ihnen einige praktische Tipps dazu zeigen , damit Sie es verstehen und viel besser verstehen können. Ich werde diese beiden Dinge vergleichen. Wenn Sie sich also für Enterprise Linux entscheiden, können Sie hier sehen, dass es sich um ein abonnementbasiertes RedHat Enterprise Next handelt. Sie können sich also vorstellen, dass Sie sich ein Jahr lang selbst unterstützen können. Self-Support bedeutet also RedHat Kundensupport nicht beinhaltet, also Red Hat oder, ähm, Atomic Host oder physisches System. Das bedeutet also, dass Sie sich selbst versorgen müssen, falls Sie einen legalen Zugang oder eine legale Nutzung für diesen Red Hat Server haben, der für Rechenzentren genutzt werden kann. Und das sind ungefähr 383 US-Dollar pro Jahr. Und wenn du dann das Satellitenpaket hinzufügst, bekommst du etwa sieben, 68. Und das ist der Gesamtbetrag hier drüben. den Standard-Support angeht, wo es die Öffnungszeiten der Support-Kuh zwischen 9:00 Uhr und 18:00 Uhr sind. Und, ähm, Sie können sehen, dass es die normalen Geschäftszeiten Also Web- oder Telefon-Supportkanäle, unbegrenzte Anzahl von Supportfällen Wenn das also der Fall ist und Sie hier alle Arten von, Sie wissen schon, Bundles anbieten, einschließlich Hochverfügbarkeit, Stabilität, Speicher und Support für externe Updates, erhalten Sie einen Preis von unter 2008 55. Und wenn Sie sich für einen Premium-Support entscheiden , der rund um die Uhr verfügbar ist und Sie verschiedene Fälle ansprechen können, kostet das in diesem Fall 3.131$ pro Jahr Das sind also die Lizenzkosten in Bezug auf Red Hat. Wenn Sie jetzt zu Windows wechseln, richtig? Für einen Server im Rechenzentrum ist das also sehr einfach. Es sind 6.000 Hundert und 55$. Wenn Sie sich für eine physische oder zumindest virtualisierte Umgebung entscheiden , die auf Kernen basiert Auch hier handelt es sich um eine kernbasierte Lizenz, und das sind 1006 90.069, also quasi die jährliche Zahlung, die Sie dafür zahlen müssen Und dann haben Sie das kleine Unternehmen bis zu 25 Benutzern auf 50 Geräten, etwa 5:01 In diesen Situationen können Sie also sehen, dass die Data Center Edition über so viele Funktionen verfügt und die Standardisierung dann nicht so viele Das ist so ziemlich die Ergänzung zum Rechenzentrum hier drüben. Das ist der Grund, warum es so viel kostet. Wenn Sie nun dasselbe vergleichen, wenn Sie Ihr AWS verwenden, können Sie dies tatsächlich auf zwei Arten vergleichen. Sie können zu EC Two Instance wechseln und die Instance tatsächlich starten. Und dann können Sie von dort aus das Betriebssystem auswählen und es dann auschecken. Sie können hier zum vorherigen, Sie wissen schon, unseren Preisrechner gehen , auf Schätzung klicken, und Sie können tatsächlich nach EC Two Instance suchen und dann auf Konfigurieren klicken. Und hier haben Sie die, Sie wissen schon, EC Two-Spezifikation ganz oben, und dann haben Sie das Betriebssystem. Es gibt Ihnen hier ein sehr einfaches Betriebssystemelement. Sie haben also Redeye Enterprise x mit SQL. Wir wollen SQ nicht Wir wollen nur, dass HA verfügbar ist. Wenn Sie HA auswählen, werden Ihnen 27$ pro Monat in Rechnung gestellt, wie Sie hier sehen können Wenn Sie jetzt Windows mit nur einem normalen Windows-Server auswählen , kostet Und Sie können sehen , dass es auch eine Windows Server SQR Enterprise Edition , die 1.203,40 Ebenso haben Sie hier verschiedene Dinge, aus denen Sie auswählen Aber wenn Sie echte Betriebssysteme wollen, können Sie tatsächlich zu EC Two Instance gehen und Sie können sehen, äh, wie viel es Sie kosten wird. Die Kosten dafür werden erst berechnet , wenn Sie eines davon auswählen, also werden Sie es hier sehen. Ab sofort ist es also für AMI Free qualifiziert. Es gibt diese kostenlosen, teilnahmeberechtigten , bei denen Sie sie tatsächlich auswählen können, und es gibt den Support mit dem ISQO-Server geliefert wird Nehmen Sie jetzt etwas wie Enterprise oder lesen Sie es Enterprise Linux Es ist wie bei Red Hat Enterprises, Sie bekommen dieses AMI hier drüben. Und hier gibt es ein Reedit Enterprise Nine mit HVM, das kostenlos teilnahmeberechtigt ist, und dann gibt es noch zwei weitere, bei denen das nicht der Fall ist Eins mit SQL, ein anderes mit hoher Verfügbarkeit, und klicken Sie darauf Jetzt wird es sagen, dass die Konfiguration geändert werden muss, um das nur zu bestätigen. Und wenn es dann geladen ist, werden Sie einige Informationen darüber erhalten , welche Art von Elementen es enthalten wird. Ich werde einfach den Wind anhalten und ihn anhalten, sobald er fertig ist. Ich stecke nicht fest, aber ich aktualisiere einfach die Seite, es hat funktioniert. Das ist also Hochverfügbarkeit bei der Version Red Enterprise Linux Nine und Sie können sehen , dass sie mit SSD-Volume ausgestattet ist. Und so ziemlich das sind Informationen, die Sie bekommen werden. Also werde ich hier keine anderen Informationen ändern . Es wird wie D zwei Mikro sein. Und wenn ich mir die Gebühren hier ansehe , werden die Gebühren hier nicht erwähnt, aber das wird tatsächlich berechnet, okay? Das wird also in dieser Höhe berechnet. Es wird also sicher nicht umsonst sein . Weil dir das, was hier erwähnt wird, in Rechnung gestellt werden , wenn du Linux mit Haha identifiziert auswählst Sie werden 27$ nur für das Betriebssystem berechnen. Also, wissen Sie, bringen Sie Ihre Lizenz mit und die mitgelieferte Lizenz wird für Sie ein entscheidender Faktor sein für Sie ein entscheidender Faktor weil Sie sich mit niemandem wirklich auseinandersetzen müssen Sie können sich tatsächlich um die komplette Abrechnung kümmern. Es gibt noch eine Sache, die ich Ihnen zeigen möchte, sind AMIs. AMIs ist im Grunde genommen MI auf einem Computer-Image. Wenn Sie jetzt auf das AMI klicken, können Sie tatsächlich nur direkt zu dieser EC Two-Instance wechseln . Und dann klicken Sie von dort aus einfach auf Launch Instance. Wenn Sie das sehen, werden hier Betriebssystemnamen Direkt danach müssen Sie weitere AMIs durchsuchen. Wenn Sie darauf klicken, stehen Ihnen drei Optionen zum Durchsuchen zur Verfügung. Eines ist das R-AMI , das Sie mithilfe einer Vorlage selbst erstellt haben. Und dann haben Sie das Marketplace-AMI. Marketplace AMI ist also etwas, das von, Sie wissen schon, AWS genehmigt wurde. Und hier kommt Ihr Oracle Red Hat ins Spiel und dann fügen sie ihr offizielles Image hier ein. Und als AWS-Benutzer, der es verwendet, kann eine Bewertung zu diesem Bild hinterlassen. Und dann haben Sie Community-AMIs. Sie haben also Community-AMIs, was ein Community-Image ist, das öffentlich ist. Daher kann jeder dieses AMI veröffentlichen, indem er einfach, Sie wissen schon, den Katalog auswählt. Und wie Sie hier sehen können, sind dies die Eigentümerinformationen hier oder als Name. Amazon selbst macht dieses Bild. Jetzt ist alles eine Kostenbasis. Es gibt diese kostenlosen AMIs , für die Sie nichts bezahlen müssen. Es gibt auch diese kostenpflichtigen. Lass uns hier einfach nach etwas sehr Beliebtem suchen. Was das Lesen durch AWS-Kunden angeht, machen wir das einfach. Keine zwei WS-Backups auf Recovery AWS, kostenlose Testversion, bringen Sie Ihre eigene Lizenz mit. Sie werden aufgefordert, Ihre eigene Lizenz mitzubringen, was bedeutet, dass Sie Ihre Lizenz möglicherweise zu einem bestimmten Zeitpunkt eingeben müssen . Und dann haben Sie andere Dienste und dann haben Sie auch das SAP-Geschäft. Sie können sehen, dass es auch andere Dienste gibt. Und da ist dieses Microsoft 2019. Wenn ihr also einfach zu den Details geht, seht ihr hier die Übersicht und wie viel ihr für eine Stunde zahlen sollt. Das sagt dir also etwas über den Preisindex hier drüben. Sie können auf Preise klicken. Tatsächlich können Sie einige Informationen darüber sehen. Also, die Preise unterscheiden sich je nach Volumen, tut mir leid, der Art der EC Two Instance. diesem Preis von 3,3 84 geht es nun darum, ob Sie einen M Four Large verwenden. Aber wenn Sie einen T Two Micro verwenden, was eine kostenlose Instanz ist, oder T Two Micro mit diesem, kostet das 0,016 pro Stunde kostet das 0,016 pro Jetzt können Sie es speichern, ich werde Ihnen die Speichertipps zu einem späteren Zeitpunkt mitteilen, also sind wir noch nicht dazu gekommen, also werden wir zu einem späteren Zeitpunkt darüber sprechen Ähm, das ist so ziemlich alles Sie über ein bestimmtes Produkt erfahren können, und, wissen Sie, das ist eine Testversion. Also, das ist bezahlt. Also hier ist es ein C fünf groß, ein zwei X groß, tut mir leid. Und im Osten der USA. Also das ist hier der Preis pro Stunde, wenn Sie dieses spezielle AMI oder Maschinen-Image verwenden wollen . Sie werden also auch verschiedene Maschinen-Images haben , von denen einige kostenlos, andere kostenpflichtig sind. Sie können sehen, dass das noch billiger ist, aber hier wird das Medium T Three verwendet. T Drei ist wie eine Standardklasse vom Typ Easy to Instance. Es ist so mittelgroß, dass es die Größe der Instanz verwendet. Und Sie können sehen, dass es ziemlich teuer ist, würde ich sagen, meiner Meinung nach für Open Sous Aber genauso werden auch Leute aus Sicht des Unternehmens hinzukommen Das ist von Open Sous selbst. Aber genauso werden Sie Bilder sehen, die vom Anbieter genehmigt wurden, und das ist ein offenes Community-Bild Der Preis ist hier also neun unterschiedlich, Sie können also sehen, dass der Name dieser Person hier drüben steht . Du klickst darauf, es ist ein verifizierter Anbieter. Wenn Sie also dieses Bild auswählen, werden Ihnen tatsächlich einige Kosten entstehen, je nachdem, welcher Preis festgelegt ist Manchmal könnte es kostenlos sein. Sie müssen also für die Instanz bezahlen. Und das ist so ziemlich etwas, das Sie tun müssen. Und jetzt, wenn Sie sich für Organisation entscheiden, würden sie eigentlich keines der Community-Images empfehlen, weil sie sich entweder für das entscheiden würden, was im vorhandenen, um, Sie wissen schon, Computer-Image verfügbar ist , oder sie würden sich für ein, Sie wissen schon, zugelassenes Image von AWS und vom Markt entscheiden Sie wissen schon, zugelassenes Image von AWS und vom Markt Sie würden sich also nicht für Community-AMI entscheiden. Also erinnerst du dich daran. Also das ist etwas, das ziemlich solide ist und, du weißt schon, es ist empfehlenswert, es zu versuchen. Es beinhaltet zwar einige Lizenzgebühren, aber es wird sich trotzdem lohnen , da Sie vom Support-Team Support und Wartung erhalten , falls Sie Hilfe zu einigen der Probleme benötigen , mit denen Sie hier konfrontiert wurden. Nun gibt es hier eine weitere Kategorie namens Quick Start AMIs, in der es um einige der von AWS empfohlenen, Sie wissen schon, AMI geht. Das ist also im Grunde das, was Sie auf der EC-Startinstanz mit zwei Instances sehen können, wenn Sie die Standard-Images sehen, oder? Nun, woher das kommt woher diese Images kommen, sie kommen von Quick Start AMIs. Das ist also im Grunde das Basisbetriebssystem, einige sind kostenlos, andere kostenpflichtig. Aber dann sind die meisten gebrauchten Artikel hier drüben , sodass Sie sie schnell auswählen können, anstatt, ähm, Sie wissen schon, im AMI zu stöbern. Ähm, die Markt-AMIs. Das ist also der Unterschied zwischen den Schnellstart-AMIs und den Marketplace-AMIs. Das ist also so ziemlich das, was ich Ihnen in diesem Video zeigen möchte. Ich hoffe, Sie haben den Unterschied verstanden zwischen dem Mitbringen Ihrer alten Lizenz und der Lizenz, die in Ihrer, Sie wissen schon, monatlichen Zahlung enthalten ist Sie wissen schon, monatlichen Zahlung die Sie zahlen müssen. Also zum Beispiel, äh, mein Konzept hier in den letzten zwei Monaten beinhaltet auch das Abonnement der Dienste, die ich als Teil meiner EC-Instances genutzt habe. Das wird also in meiner monatlichen Rechnung enthalten sein. Also wird es so aussehen. Also gut. Nochmals vielen Dank für Ihre Zeit und Geduld. Ich hoffe, dass Sie dieses Thema ziemlich gut verstanden haben, und ich werde im nächsten Video mit Ihnen sprechen. 13. Festkosten vs. variable Kosten AWS-Preisrechner von Labors: Hallo Leute. Willkommen zurück zum nächsten Video. In diesem Video werden wir uns mit den Konzepten der Cloud-Ökonomie befassen. Nun, wie Sie in dem Dokument hier sehen können, haben wir die, ähm, Sie wissen schon, Aufgabe vier, die besagt, das Konzept der Cloud-Ökonomie zu verstehen Und darin haben Sie mehrere Themen. Zu diesem Thema werden Sie viele Fragen bekommen, insbesondere im Zusammenhang mit der Bring Your Own-Lizenz, Fixkosten und den variablen Kosten. Etwas über die Vorteile der Automatisierung und auch etwas über die Managed Services. Was sind die Okay. Obwohl wir hier über ein gewisses Verständnis von Managed Services gesprochen haben, werden wir hier sehr viel über Managed Services erfahren. Und das wird wieder ein Überblick sein. Wir werden nicht auf jeden dieser verwalteten Dienste eingehen , was im Moment für Ihre Zertifizierung auf dieser Ebene wirklich nicht erforderlich ist. Wie dem auch sei, wir werden verstehen, dass wir zu einem späteren Zeitpunkt ein tieferes Verständnis haben werden dass wir zu einem späteren Zeitpunkt ein tieferes Nun, womit ich beginnen möchte, sind diese beiden Dienste hier drüben Es tut mir leid, diese beiden Fähigkeiten hier drüben, die wir verstehen werden und wir werden ASPA in die Praxis Dieses Training wird also sowohl Architektur als auch Handarbeit beinhalten Also lass uns einfach weitermachen. Wirtschaftlichkeit der Cloud zu verstehen, müssen Sie im Grunde verstehen , welche Kosten Um die Wirtschaftlichkeit der Cloud zu verstehen, müssen Sie im Grunde verstehen, welche Kosten Ihrem Kunden entstehen werden. Nun, in der vorherigen Architektur, haben wir das Framework für die Einführung identifiziert und wir haben, ähm, daran gearbeitet, wie Sie Ihre, Sie wissen schon, Anwendung von der lokalen Infrastruktur in Ihr Cloud-Cloud-Rechenzentrum migrieren wie Sie Ihre, Sie wissen schon, Anwendung von der lokalen Infrastruktur in Ihr Cloud-Cloud-Rechenzentrum Jetzt haben Sie diese beiden Aspekte verstanden. Nun, hier ist der Kunde froh, dass er die Säulen kennt , er kennt das, Sie wissen schon, das Framework, und er weiß, wie man es migriert. Sie haben dem Kunden also gesagt was Sie dem Kunden als Nächstes sagen werden, ist zum Beispiel, worum es bei der Wirtschaft geht? Zum Beispiel, wie viel Geld Sie in Bezug auf Fixkosten und variable Kosten sparen können . Sie werden in Bezug auf Lizenzierung und Migration zu einem Managed Service sparen , wie viel Ihr Kunde dadurch tatsächlich sparen wird Es ist also sehr wichtig , dass Sie als AWS-Techniker davon ausgehen, dass Sie sie dem Kunden anbieten Und das ist der Grund, warum dies Teil Ihres Zertifizierungskurses auf der Grundlagenebene ist Ihres Zertifizierungskurses auf der Grundlagenebene Um dies also zu 100 Prozent ohne Probleme zu erledigen, wissen Sie, dem Kunden zu liefern , müssen Sie zunächst die Fixkosten und die variablen Kosten verstehen die Fixkosten und die variablen Kosten Ich habe auch ein kleines praktisches Beispiel für Sie . Jetzt sind diese beiden Themen also miteinander verwandt. Aus diesem Grund wird es zusammen als Abschnitt betrachtet. Nun, hier haben Sie das Verständnis dafür, welche Rolle feste Kosten im Vergleich zu variablen Kosten spielen, und Sie haben ein Verständnis der Kosten Zusammenhang mit der Umgebung von Versprechen. Wie Sie hier sehen können, sind Fixkosten nichts anderes als wir geben einfach für, ähm, Sie wissen schon, bestimmten Betrag für, ähm, Sie wissen schon, Gerät, einen bestimmten Betrag für, ähm, Sie wissen schon, Gerät, Beschaffung, wie Hardware, aus, und Sie müssen sie gewissermaßen im Voraus bezahlen. Und diese Anforderung haben Sie nicht. Zum Beispiel, ähm, wenn Sie auf Amazon.com suchen und eine Speichergröße von, Sie wissen schon, einen Server, eine Festplatte, ein Speicherlaufwerk oder eine Speichergröße von zwei TB oder drei TB oder vier Fernsehgeräten kaufen möchten wenn Sie auf Amazon.com suchen und eine Speichergröße von, Sie wissen schon, einen Server, eine Festplatte, ein Speicherlaufwerk oder eine Speichergröße von zwei TB oder drei TB oder vier Fernsehgeräten kaufen Speichergröße von, Sie wissen schon, einen Server, eine Festplatte, ein Speicherlaufwerk oder eine Speichergröße von zwei TB oder und Sie das Gefühl haben, dass das das Maximum an Inhalt ist, das Sie benötigen Sagen wir zum Beispiel ein TB an Daten oder drei TB an Daten Sie werden das nicht anpassen können. Sie werden ein bestimmtes Limit haben. Sie können sehen, dass Ihr Western Digital Red Plus etwa vier Fernseher umfasst. Wenn Sie eine solche Vier-TV-Festplatte kaufen, müssen Sie eine weitere Festplatte kaufen, bei der es sich ebenfalls um vier Fernseher handelt da Sie sie aus Redundanzgründen benötigen Sie benötigen es für Failover-Fehlertoleranz und ähnliches, denn so sind Schutzsysteme konzipiert Sie sollten also eine Sicherungskopie ähnlicher Daten haben. Sie müssen also zwei dieser vier Fernseher und beide vier TB kaufen , Sie werden tatsächlich nur einen Fernseher verwenden , nur weil es auf dem Markt nichts gibt , das für einen TB Sie müssen mindestens einen kaufen. Entweder Sie entscheiden sich für zwei Fernseher oder vier TB, aber derzeit sind nur vier Fernseher verfügbar. Sie müssen also etwa 99$ dafür ausgeben, und Sie müssen weitere 99$ ausgeben, um eine Replikation dafür zu haben Es sind also etwa 200$ dafür. Und wenn du keine Wahl hast , oder? Sie haben hier also etwa acht GB an Daten, was hier etwa 200$ entspricht . Also kannst du das sehen Das ist ziemlich gut, Festplatte, weil Sie eine Festplatte für Ihren Server kaufen möchten, was ziemlich teuer ist. Aber das ist völlig anders, wenn Sie sich für ein echtes Serverspeichergerät entscheiden, das wird völlig anders sein. Wir haben also verschiedene Websites des Anbieters, und sie werden später im Angebot dafür tatsächlich etwas angeben , das ganz anders ist. Also werden wir das als Beispiel vergleichen. Also, ähm, du kannst sehen, dass das mit einer Rate konfiguriert ist. Nehmen wir zum Beispiel an, dass Sie 200$ für acht TV-Daten ausgeben, aber Sie verwenden tatsächlich Daten von zwei Fernsehgeräten Okay. Jetzt haben wir in Ihrem AWS-Service ein hervorragendes Tool namens Abrechnung und Kostenmanagement. Wenn Sie Abrechnung und Kostenmanagement eingeben, erhalten Sie dieses Tool namens Preisrechner. Sie können auf diesen Preisrechner auch direkt über die Rechnerroute AWS zugreifen . Wenn Sie nun auf diese URL zugreifen, gelangen Sie tatsächlich zum Preisrechner hier. Dieser Preisrechner zeigt Ihnen nun die geschätzten Kosten Ihrer Architekturlösung. Zum Beispiel sprechen wir derzeit über Speicher . Jetzt werden Sie es also vor Ort kaufen, und wie ich Ihnen bereits gesagt habe, ist Speicherplatz nicht in einer benutzerdefinierten Größe erhältlich, okay? Es ist nur in zwei, vier, äh, acht, 16 erhältlich vier, äh, acht, 16 Ebenso haben Sie das, was verfügbar ist. Und die zweite Sache ist, dass der Anbieter, mit dem Sie sich möglicherweise befassen, ein höheres Produkt zu einem niedrigeren Preis verkaufen möchte. Sie werden also immer für einen größeren Speicher einspringen, auch wenn Sie nicht so viel Speicherplatz in Anspruch nehmen werden. Sie müssen also quasi, wissen Sie, für einen Versuch bezahlen und Sie werden tatsächlich, wissen Sie, ein Speichergerät bekommen, das über einen riesigen Speicherplatz verfügt . Aber was Sie tatsächlich verwenden werden, ist nicht viel. Sie werden also nicht 100 Prozent davon verwenden. Also musst du diesen Betrag irgendwie ausgeben, und du musst ihn auch früh ausgeben, bevor, du weißt schon , irgendwas anderes passiert. Also, genauso, ähm, da gibt es eine Menge Probleme. Da gibt es eine Menge Komplikationen. Aber wenn Sie mit AWS arbeiten , kommen hier beim Cloud-Computing die variablen Kosten ins Spiel . Mit diesem Preisrechner können Sie ihn nun tatsächlich nach Ihren Anforderungen berechnen . Lassen Sie uns zum Beispiel hier eine Schätzung bewerten und ich wähle North Virginia als meine Region aus. Es gibt einen Grund, warum ich das zu einem späteren Zeitpunkt mache. Ich werde dir sagen, warum ich die Region wähle. Und hier gebe ich S drei als Servicenamen. Also hier klicke ich einfach auf Kid Figure und du siehst, dass es unter ST so viele Klassifizierungen gibt unter ST so viele Klassifizierungen Also für Lambda haben Sie selten Zugriff, also wissen Sie, Sie haben Express auch Also genauso haben Sie so viele. Was jedoch standardmäßig ausgewählt ist, ist der Standard und die Datenübertragung. Das sind also die beiden Dinge, die verwendet werden. Nehmen wir zum Beispiel an, Sie werden pro Monat etwa 200 GB an Daten hochladen. Es ist also nicht so, dass Sie während des Cats eine Anwendung hochladen, sodass Sie neue Benutzer bekommen, die Daten der Benutzer werden in Ihre Datenbank oder Ihr Datenlaufwerk geladen, das hier S 3 verwenden wird, und es werden schrittweise zwei Fernseher hinzukommen der Benutzer werden in Ihre Datenbank oder Ihr Datenlaufwerk geladen , das hier S 3 verwenden wird, und es werden schrittweise zwei Es ist nicht so, dass du es in einem Monat bekommen wirst. Es kann ein Jahr dauern, bis es allmählich auf zwei TB anwächst. In diesen Situationen können Sie sagen, dass 200 GB pro Monat das sind, was Sie tun werden. Sie erwarten, dass die Daten verfügbar sein sollten. Welche Art von Daten werden auf dem ST-Standard übertragen? Sie geben die Datenmenge an , die verschoben werden soll, ja. Diese spezifische Datenmenge ist also bereits in ST-Standards gespeichert, das ist also so ziemlich dieser. Und füge eine Liste kopierter Beiträge hinzu, die einfach, du weißt schon, häufig laufen. Also würde ich das alles sagen. Also muss ich es nummerieren. Also ich würde sagen, du bekommst etwa 100 Mal so etwas und dann 50 Mal die Liste und all das oder so. Also hier die Datendaten, die von der S3-Auswahl zurückgegeben wurden, die Datenrückgabe und dann die Daten, die mit dem S-Drei-Selektor gescannt wurden. Es ist also nicht viel Ich schätze, im Bereich von zehn GB bis 20 GB werden Sie Daten von S Three Select gescannt und zurückgegeben haben . Also so ziemlich das und dann können Sie diese Berechnung hier sehen. Sie haben also den Preis von 200 GV und Sie haben tatsächlich monatliche Ausgaben von 4$. Das sehe ich Sie haben also tatsächlich, wissen Sie, 200$ für ein ATB-Laufwerk ausgegeben, was langfristig ist und Sie werden das nicht wirklich nutzen, das ist eine sehr große Sache Sie werden also nicht wirklich ATV verwenden Äh, am Anfang werden Sie es eigentlich nur mit 200 GB an Daten zu tun haben und dann werden es allmählich, oder? Jetzt können Sie hier sehen, wie viel Geld Sie sparen können. Also dieses Geld, die 200$, wenn du es gesetzt hättest, anstatt es im Voraus zu zahlen, und du zahlst jeden Monat etwa 4$, du verdienst die Zinsen Geld, weil du das Geld nicht wirklich ausgeben wirst, du wirst es tatsächlich bei dir haben, was bedeutet, dass die Zinsen für dieses Geld du wirst es tatsächlich bei dir haben, was bedeutet, dass bei dir sein werden Sie hätten in etwas anderes investieren können. Und tatsächlich belaufen sich die Gesamtkosten von S Three Standard auf 4$, einschließlich all dieser einschließlich all dieser Anfragen und dergleichen Put und G sind nicht viel, wie Sie hier sehen können. Und was die Datenübertragungsfunktion angeht, können Sie einige Datenübertragungsfunktionen wie kostenloses Internet hinzufügen , und Sie können tatsächlich eingeben, wie viel Datenübertragung Sie hier erwarten. Und Sie können sich die Berechnung hier ansehen, sagen wir einfach ein TB pro Monat und dann wieder eine Datenübertragung ins Internet im Fernsehen. Sie können tatsächlich sehen, dass es hier 92$ sind. Aber das ist ein TB Terabyte an Daten, die über das Internet übertragen werden Okay. Also jetzt hier, die Datenübertragung von der eingehenden Datenübertragung ist völlig kostenlos Wenn ich also nicht so viele Daten nach draußen ins Internet exportiere , wird mir eigentlich nichts berechnet Die eingehenden Daten sind also völlig kostenlos. Ich kann also Daten in S drei aufnehmen, aber ich kann Personen daran hindern , von S drei aus auf meine Daten zuzugreifen, und ich kann interne Dienste nutzen. Ich kann zum Beispiel eine andere, ähm, Sie wissen schon, eine andere Region verwenden . Um diese Daten zu erfassen. Wenn Sie sich also einfach dafür entscheiden und ich einfach auf diese 200 GB an Daten zugreife, und Sie können sehen, dass mir in allen Regionen 4$ entstehen, und selbst wenn ich sie über das Internet überweise, werden auf diese 200 GB an Daten zugreife, und Sie können sehen, dass mir in allen Regionen 4$ entstehen , und selbst wenn ich sie über das Internet überweise, es nicht viel 18 USD sein Nun, diese Kosten von 18 USD würden Ihnen auf jeden Fall entstehen, selbst wenn Sie dieses Festplattenlaufwerk verwenden, müssen Sie immer noch die Internetgebühren bezahlen Das Internet ist nicht kostenlos, egal ob es - oder ausgeht Diese Gebühr würde Ihnen irgendwann als Internetgebühr Aus diesem Grund sind die Datenfunktionen und die Datenübertragungsfunktion von ST getrennt, da dies die Internetgebühren für die Datenübertragung einschließt. Aber das Gute ist, dass das Internet kostenlos ist , wenn Ihre eingehenden Daten und ausgehende Daten berechnet werden, weil Sie sie tatsächlich an einen anderen Ort hochladen Jetzt können Sie es auf Cloudfrind hochladen, was Ein Crowdfrind ist, wie ich Ihnen gesagt habe, ein Cache-Server, und er speichert die Informationen im Grunde zwischen und sendet sie an den Kunden, der sie durchsucht, um schneller, Sie wissen schon, Sie wissen schon, Mit all diesen Gebühren können Sie jetzt monatliche Gesamtkosten von 22 oder 22 USD sehen, was wirklich billig ist, wenn Sie mit diesem Typen hier vergleichen Wenn Sie anfangen, mehr Daten zu verbrauchen , wenn Sie ein Niveau erreichen, bei dem Sie tatsächlich zwei TB pro Monat nutzen. Sagen wir einfach zwei Fernseher pro Monat. Sie können tatsächlich sehen, wie viel Sie pro Monat ausgeben werden. Sie werden tatsächlich 47$ ausgeben. Sie sind nicht einmal annähernd an das herangekommen, was Sie hier ausgeben, aber ich weiß, es ist eine monatliche Gebühr, aber sie wird sich jeden Monat wiederholen Aber es gibt immer eine Möglichkeit, die Daten, die Sie nicht verwenden, zu archivieren und sie zur Tiefarchivierung zu schicken. Es gibt andere Dienste, die Ihre Daten speichern, Sie wissen schon, sogar günstiger als S Drei, weil sie sich im D-Archivierungszustand Es gibt andere Dienste, die Ihre Daten speichern, Sie wissen schon, sogar günstiger als S Drei, weil sie sich im D-Archivierungszustand Wir werden zu einem späteren Zeitpunkt über diese Dienste sprechen, aber Sie können diese Dienste auch archivieren Ebenso ist dieses Tool so wichtig für jeden, wichtig für jeden, seine Karriere bei AWS beginnt Sie möchten mehr über die Services erfahren und wissen, wie sie sich auswirken werden. Wir werden dieses Tool häufig verwenden, um mehr darüber zu erfahren oder es zu hosten, weil ich als Ingenieur dieses Tool so oft verwendet habe , wenn ich mit einem Kunden und seinen Bedürfnissen gearbeitet habe möchte lediglich Geld und Kosten sparen und den größten Teil des Prozesses automatisieren. Um das zu tun, ist dieses Tool so gut und ich werde Ihnen zu einem späteren Zeitpunkt mehr darüber beibringen. Um auf diesen speziellen Aktionspunkt zurückzukommen, hoffe ich, dass Sie verstanden haben, was feste Kosten und was variable Kosten sind, und dass Sie die Kosten verstehen, die in der OnPMISee-Umgebung anfallen der OnPMISee-Umgebung anfallen Ausgaben gehören, ähm, der Kauf und die Wartung von physischer Hardware, Netzwerkausrüstung, Speichergeräten , Strom und Kühlung , und in Bezug auf Wartung und Personal müssen Sie ein IT-Team einstellen das tatsächlich engagiert sein muss, und es sollte sich tatsächlich um und es sollte sich tatsächlich Ihren Rechenzentrumsservice kümmern , den Sie eigentlich nicht benötigen Bedingungen für Cloud Computing weil wir uns zu späteren Zeitpunkt mit der gemeinsamen Verantwortung befassen werden, aber Sie werden erstaunt sein zu wissen, dass AWS sich um den Service kümmert , bei dem Sie Ihre Services hosten werden. Sie haben also nicht wirklich den Aufwand , ein IT-Team oder etwas Ähnliches für die Verwaltung Ihres Rechenzentrums einzustellen IT-Team oder etwas Ähnliches . Und dann haben Sie die Kosten für Datenwiederherstellung und Datensicherung, die Ihnen im Grunde sagen, dass Ihnen Sie im Notfall und Ihre Daten wiederherstellen können, und das kostenlos, denn wenn eine verfügbare T-Zone ausfällt, steht eine weitere T-Zone zur Verfügung, die Ihre Daten verschiebt , und diese Daten werden zwischen diesen beiden verfügbaren T-Zonen übertragen. Ob Sie sich dafür entscheiden oder nicht, spielt keine Rolle, aber die Daten werden standardmäßig in zwei verfügbaren T-Zonen von Amazon verfügbar sein, aber die Daten werden standardmäßig in zwei verfügbaren T-Zonen von Amazon verfügbar sein, sodass Sie sich darüber keine Gedanken machen müssen. Aber wenn Sie vor Ort arbeiten, müssen Sie, wie ich Ihnen gesagt habe, alles, was Sie kaufen, plus eins erledigen. Plus zwei. Wenn Sie die Redundanz beibehalten möchten, wenn Sie eine andere Klassenstufe wählen möchten, müssen Sie sich für plus zwei oder standardmäßig plus eins für Mirror Ring entscheiden standardmäßig plus eins für Mirror Ring Wenigstens sollte der Spiegel da sein. Das ist der Grund, warum wir uns für variable Kosten und Cloud-Computing entscheiden . Nochmals vielen Dank fürs Zuschauen. Wenn Sie Fragen haben, hinterlassen Sie diese bitte im Fragenbereich. Wir sehen uns im nächsten Video. 14. AWS-Compliance von Labs: Hallo Leute. Willkommen zurück zum nächsten Video. In diesem Video werden wir über Aufgabe zwei sprechen. Zunächst werden wir uns mit den Konzepten der AWS-Cloud-Sicherheits-Governance vertraut machen. Bei dieser speziellen Aufgabe wollten wir uns nun mit dem AWS-Compliance- und Governance-Konzept vertraut machen . Ich werde etwas über Cloud-Sicherheit wie Verschlüsselungen und einige andere Dienste erfahren wie Verschlüsselungen und einige andere Dienste Wir werden das Erfassen und Auffinden von Protokollen mithilfe von Cloud-Sicherheit, tut mir leid, im Zusammenhang mit Cloud-Sicherheit verstehen Auffinden von Protokollen mithilfe von Cloud-Sicherheit, tut mir leid, im Zusammenhang mit Cloud-Sicherheit Es wird also eine weitere Reihe von Diensten geben , die wir dort sehen werden. Wie Sie sehen können, werden wir uns hier zunächst diesen beiden Themen befassen, weil sie weniger miteinander verwandt sind. Wir werden es also als einen bestimmten, Sie wissen schon, Abschnitt betrachten . Und dann werde ich mich zu einem späteren Zeitpunkt mit anderen Themen befassen. Also hier, um herauszufinden, wo Sie AWS-Compliance-Informationen finden können. Zum Beispiel AWS-Artefakte. Jetzt ist Compliance für uns sehr wichtig, und wir wissen es, wenn das Unternehmen Auditsitzung durchläuft oder wenn Sie Ihre gesamte Konformität auf Ihrer Website angeben. Sie müssen also sicherstellen, dass Sie diese Konformitätszertifikate von AWS finden diese Konformitätszertifikate von , denn das ist jetzt Ihr Partner. Dort hosten Sie, und es gibt auch einige geografische Vorschriften die Sie nachweisen müssen, ebenso wie die Einhaltung von Industriestandards wie Gesundheitswesen, Finanzen und Branchen. Wir haben also auch bestimmte Anforderungen, also werden wir uns näher damit befassen. Gehen wir also hier zu meiner Zeichnung. Ich habe zwei Bilder für euch, und auf beiden Bildern geht es um die AWS-Compliance-Informationen, bei denen es sich um ein AWS-Artefakt handelt, und die geografischen, branchenspezifischen Compliance-Anforderungen Nun, das sind die beiden Dinge wir in diesem Video sehen Wir haben also tatsächlich eine Demo in Bezug auf diesen speziellen Service, die ich Ihnen gleich zeigen werde. Aber was können Sie von diesem Service erwarten? Nun, AWS Artifact ist ein Self-Service-Portal für den Zugriff auf Zertifikate und Vereinbarungen für AWS-Compliance-Berichte Zertifikate und Vereinbarungen für AWS-Compliance-Berichte Es ermöglicht Verbrauchern, Compliance-Dokumente wie SoC-Berichte sowie ISO-Zertifikate, PCI-Anforderungen und Zertifikate herunterzuladen SoC-Berichte sowie ISO-Zertifikate, PCI-Anforderungen und Sie können das also auch nutzen, Verbraucher das AWS-Artefakt verwenden können, um sich zu treffen. Das Hintergrundgeräusch tut mir wirklich leid , wenn Sie mich das Hintergrundgeräusch hören können Das tut mir wirklich so leid. Um interne Compliance - oder Audit-Anforderungen zu erfüllen. Dies sind also einige der Anforderungen für die wir diese Berichte benötigen. Lass uns einfach zur Demo gehen und das dann beenden. Geh einfach rüber und suche nach Artefakten. Klicken Sie jetzt einfach mit der mittleren Maustaste darauf und es sollte dann in Ihrem Fenster geöffnet Ich habe es schon geöffnet, weil mein Internet etwas langsam ist. Nun, hier ist der Home-Bereich. Also das sind zwei Dinge, die Sie hier tun können, was sehr wichtig ist. Sie können Vereinbarungen und Berichte einsehen. Jetzt, wo Sie eine Organisation geschaffen haben, was Sie derzeit so ziemlich nicht getan hätten. Ihre Vereinbarungen gelten also für beide Artikel, tut mir leid. Sowohl Ihr Konto als auch Ihre Organisation. Schauen wir uns also zunächst die Vereinbarung an. Derzeit haben wir noch keiner Vereinbarung zugestimmt. Sie können also eine Vereinbarung auswählen und diese dann akzeptieren. Es gibt jedoch bestimmte Vereinbarungen auf einem geografischen Standort basieren. Sie können beispielsweise Neuseeland und Australien sehen. Ich denke, das ist ziemlich allgemein, denke ich. Sie können also die Vereinbarung lesen , um mehr darüber zu erfahren. Aber sobald Sie eine Organisation erstellt haben, werden Sie hier einen weiteren Tag haben , der sich mit Ihrer Organisationsvereinbarung befasst. Sie haben sich also bei einem Verwaltungskonto einer Organisation angemeldet . Sie müssen also nur Serviceregeln erstellen und die Erlaubnis erteilen. Dann werden Sie die Organisationsvereinbarung sehen. Also machen wir das später. Aber wenn Sie jemand bittet , es herunterzuladen, oder wenn es eine Frage gibt wo Sie eigentlich die Vereinbarungen für Ihren, ähm, Sie wissen schon, Ihren SOC-Bericht oder ISO-Zertifikate oder PCI-Zertifikate finden für Ihren, ähm, Sie wissen schon, , dann können Sie sie tatsächlich im AWS-Artefakt unter Berichte oder Vereinbarungen angeben im AWS-Artefakt unter Berichte oder Sie werden Sie also eindeutig fragen, wo Sie die Zertifikate herbekommen Sie können die Zertifikate tatsächlich aus Berichten und allem anderen beziehen, wo Sie eine Vereinbarung unterschreiben, wenn sie Sie im Abschnitt „Vereinbarung“ von AWS Artifact danach fragen im Abschnitt „Vereinbarung“ von AWS Artifact Jetzt können Sie hier nach jeder Art von Bericht suchen. Wie zum Beispiel SOC-Bericht, Sie können hier einfach nach SOC suchen und erhalten Sie den Bericht. Da drüben. Also, das ist SOC Two, ein Bericht vom Typ zwei, der die AWS-Kontrolle bewertet und die Kriterien für Sicherheit, Verfügbarkeit, Vertraulichkeit und Datenschutz des American Institute of Certificate, Public Accountants, erfüllt Verfügbarkeit, Vertraulichkeit und Datenschutz des American Institute of Certificate, Public Accountants, Sie erhalten ihn also ebenfalls, wählen ihn aus und laden dann den Bericht herunter Also das ist Pi, die Standardeinstellung besagt, dass , ähm, der Berichtszeitraum März 2024 ist. Das ist ein Geschäftsjahr, letztes Geschäftsjahr. Sie können also eindeutig sagen, dass es sich bei diesem speziellen Bericht im Grunde um einen AOC-Typ-2-Bericht Im Grunde genommen können Sie ihn Ihren Prüfern zur Verfügung stellen und ihn auch auf Ihrer Website veröffentlichen, damit Sie sagen können, dass Sie unabhängig davon wo Sie Ihre Inhalte hosten, ziemlich kompatibel sind Das ist also im Grunde das, was AWS-Artefaktservice und der von ihm angebotene Service ist. Nun, wenn Sie hier über den zweiten Punkt sprechen, sich Ihren geografischen branchenspezifischen Compliance-Anforderungen befasst Nun gilt die geografische Einhaltung grundsätzlich verschiedene Regionen oder Länder, in denen spezifische Vorschriften gelten, wie etwa Datenschutz - und Sicherheitsgesetze Sie müssen sich also daran halten. Ihr Hosting-Partner sollte diese Dinge einhalten. Die Frage wäre also, woher wissen Sie, ob Sie, wissen Sie, eine DSGVO haben, das ist Ihre allgemeine Datenschutzbehörde für einen das ist Ihre allgemeine Datenschutzbehörde Kunden in der Europäischen Union oder in Kalifornien, tut mir leid, den Consumer Privacy Act , der in den Vereinigten Staaten CCPA ist Es handelt sich also um einige regulatorische Vorschriften, die laut AWS allen Kunden zu Prüfungszwecken zur Verfügung gestellt werden müssen , und das ist etwas, was geografische Konformität bedeutet Und es gibt bestimmte Dinge, zum Beispiel branchenspezifische. Zum Beispiel benötigen Sie HIPAA für das Gesundheitswesen oder das Finanzwesen, wir brauchen Diese müssen also erforderlich sein, wenn Sie Ihre Anwendung bei einem Cloud-Anbieter hosten möchten Wenn also eine Finanz- oder Bankanwendung in AWS verfügbar ist, prüfen sie als Erstes , ob dies damit kompatibel ist. Damit sie ihre Anwendung auf dieser Plattform hosten können. Wie stellen Sie das sicher? Es gibt hier ein anderes Tool, nach dem Sie tatsächlich googeln können , es heißt AWS Compliance. Jetzt können Sie hier sehen, ob Sie es für Ihre Anforderungen verwenden können. Hier nun PCI DSS, was für Finanzen ist, HIPAA, für Ihren Gesundheitssektor, und dann haben Sie ebenfalls die DSGVO, die für Ihre Europäische Union gilt Ebenso haben Sie all diese zufriedenstellenden Compliance-Anforderungen Welt all diese zufriedenstellenden Compliance-Anforderungen Also ähm, AWS hat sie. Deshalb haben sie es hier veröffentlicht. Sie können auch das Whitepaper lesen , um mehr darüber zu erfahren. Sie können auch auf die Compliance-Website gehen und dort die gesamte Konformität ansehen , zu der sie gehört. So können Sie sehen, zu wie vielen Vorschriften es gehört. Sie können also sehen, dass Sie sowohl in den Regionen als auch in bestimmten Regionen wie Amerika über all die Zertifikate verfügen, all die Zertifikate verfügen die Sie benötigen , um Ihre Artikel hier zu hosten . Das ist für den asiatisch-pazifischen Raum. Sie haben ISO 2000 für Indien. Sie haben, ähm, IRAP für Australien, und dann haben Sie eine Fintech-Zertifizierung für Japan, und dann haben Sie dieses Garmon-Programm für Zugriffssicherheit für den öffentlichen Dienst Also, sie erneuern es irgendwie und stellen sicher, dass sie all diese Dinge haben bevor Sie Sie müssen also in der Prüfung sagen , dass Sie all diese, Sie wissen schon, regional überprüfen werden , indem Sie zum AWS-Compliance-Portal gehen , und dort werden Sie es tatsächlich bekommen. Um ganz einfach hierher zu gelangen, googeln Sie einfach vier AWS, äh, AWS-Konformität, und Sie können tatsächlich zu dieser Seite gelangen, und von hier aus können Sie tatsächlich diese Webseite zum Compliance-Programm aufrufen. Das sind alles Jungs für dich in diesem Video. Ich hoffe, es war hilfreich für Sie, diese beiden Konzepte und die Navigation in diesem Portal zu verstehen . Nochmals vielen Dank für Ihre Geduld und Zeit. Wir sehen uns im nächsten Video. 15. Labs AWS Detective: Hallo Leute. Willkommen zurück zum nächsten Video. In diesem Video werden wir über Detective AWS Detective sprechen . Was ist nun AWS Detective? Detective hilft Ihnen bei der Untersuchung Sicherheitsproblemen, indem es Sicherheitsdaten aus AWS-Services wie Cloud-Testversionen und VPC-Flow-Logs analysiert und visualisiert Sicherheitsdaten aus AWS-Services wie Cloud-Testversionen und VPC-Flow-Logs Wir werden zu einem späteren Zeitpunkt über all diese Dinge sprechen. Cloud-Testversion geht es also im Grunde darum, zu testen, wie der Prozess oder welcher Prozess es gedauert hat, bis er erreicht wurde. Das ist eine Cloud-Testversion. VPC Flow Logs geht es darum, wie Sie wissen, es beim Verbindungsfluss in VPC geht Wie Sie wissen, ist VPC nichts anderes als Ihre virtuelle private Cloud Es ist also ein Netzwerk-Setup. Wie dem auch sei, wir werden zu einem späteren Zeitpunkt ausführlich darüber sprechen , was VPC ist und solche Dinge Ab sofort müssen Sie nur darüber nachdenken, dass Sie hier Daten sammeln Okay? Nun, welche Daten wir sammeln, die Servicedaten, zum Beispiel, wie der Service abgewickelt wird, wie die Verbindungen hergestellt werden, also darum geht es. Detective macht es einfach, die Grundursache eines Service- oder Sicherheitsproblems zu identifizieren . Lassen Sie uns hier über ein Beispiel sprechen. Nehmen wir an, Sie erhalten eine Warnung vom Wachdienst , dass die EC-2-Instanz einen verdächtigen APA-Anruf getätigt hat . Das haben wir beim Wachdienst besprochen, richtig, wo sie alle verdächtigen APA-Anrufe erkennt und sich Ihre Anwendung ansieht und wie, Sie wissen schon, Ihre Anwendung absichern. Anstatt manuell zwischen den Sperren zu wechseln , können Sie jetzt den AWS-Detective verwenden, um die relevanten Sperren wie Cloud-Rail-Ereignisse und VPC-Flow-Logs automatisch zu kompilieren und zu visualisieren . Anschließend hilft Ihnen Detective dabei, den Angriffspfad schnell zu verfolgen Und identifizieren Sie die gefährdete Ressource. Dies ist etwas , was der AWS-Detective tut und das im Grunde erkennt Nun, Sie erinnern sich an diese Sache wenn eine Frage an den AWS-Detective kommt, ist das der Zweck von deduktiv Der Zweck von Dective besteht nun darin, Ihnen visualisierte Daten zur Verfügung zu stellen. schauen uns Cloud-Tests PC-Logflows an, anstatt dies manuell zu tun Aus diesen Protokollen können wir . Aus diesen Protokollen können wir den Angriffspfad nachvollziehen, okay, und identifizieren, welche Ressourcen gefährdet sind Es gibt Ihnen also das visuelle, ähm, Sie wissen schon, Sicherheitsdiagramm oder die Daten, die Sie darüber informieren Okay. Lassen Sie uns das kurz in der praktischen Sitzung überprüfen und dann schauen wir uns die Funktionen und Vorteile an. So deduktiv In Ordnung, AB ist also hier mit dieser Lupe zu aktiv hier mit dieser Lupe Also das wird einige Zeit dauern. Okay, schauen wir uns die Funktionen an, während sie geladen werden. Funktionen sind also im Grunde genommen Log-Aggregatoren. Eines der wichtigsten Dinge ist, dass es im Grunde genommen Logs aus einer Aggregationsaggregation aggregiert. Aggregation ist wie Caratic aus verschiedenen Quellen und das Verstehen und im Grunde genommen Logs aus einer Aggregationsaggregation aggregiert. Aggregation ist wie Caratic aus verschiedenen Quellen und das Verstehen und Analysieren der Logs. Hier werden also automatisch Protokolle aus mehreren AW-Quellen abgerufen, um den Kontext für Sicherheitsprobleme bereitzustellen interaktive Untersuchung ermöglicht es Ihnen, Sicherheitsvorfälle zu untersuchen und den Datenfluss zu visualisieren Außerdem wird sie in die Cloud-Testversion von Guard Duty integriert , um gründliche Untersuchungen durchzuführen Und was sind die wichtigsten Vorteile? Eine vereinfachte Untersuchung ermöglicht automatische Korrelationen und Visualisierungsdaten, erleichtert die Rückverfolgung des Vorfalls und macht ihn auch für Sie verständlicher In Bezug auf eine schnellere Reaktion auf Vorfälle können Sie Sicherheitsprobleme schneller erkennen und darauf reagieren , indem sie einen umfassenden Überblick über die Daten Schauen wir uns das an. Sie haben hier also ein gutes Video von AWS, in dem gezeigt wird, wie Sie Ihren AWS-Detective sehen. Und wie hoch sind die Gebühren für die Protokollverarbeitung hier? Sie können sehen, dass null, 2000 GV 2$ sehr billig sein werden Die nächsten 4.000 GB werden etwa 1$ pro GB kosten. Es sind also etwa 2$ pro GB. Es tut mir leid, ich sagte zu billig, oder? Ich glaube nicht, dass es heißt. Also zuerst Null bis 2000 GB sind etwa 2$ pro GB, also ich meine, tausend bedeutet, es sind ungefähr 2.000$, schätze ich, Forum tausend GB an Daten, ähm Analyse Ähm, und hier drüben können Sie einige Vorteile sehen und haben wir eine kostenlose Testversion Ja, es gibt eine kostenlose 30-Tage-Testversion diesen Amazon-Detektiv. Das ist unglaublich. Es ist also nützlich für uns, anzufangen. Also klicken Sie einfach darauf und Sie können tatsächlich, ähm, die Direktive für dieses Konto aktivieren. Sie gehen einfach hierher, aktivieren Directive für dieses Konto, und dann können Sie Dective tatsächlich für dieses Konto aktivieren Hier wird also kein Delegate-Administrator benötigt. Ich meine, wenn Sie hier einen weiteren Benutzer hinzufügen, während wir in der Organisation sind, ist das der Grund, warum er kommt Es sei denn, Sie sehen das nicht, also können Sie es einfach aktivieren. Dies sind einige Benachrichtigungen dazu, also werden wir es hier einfach schließen. In Ordnung, das ist also die Richtlinie. Mit der Organisation von ARB können Sie das, Sie wissen schon, Sie können das Konto delegieren und Sie können tatsächlich für die gesamte Organisation aktivieren, oder Sie können es einfach für sich selbst tun Das ist also so ziemlich da. Hier kannst du also auch andere Mitglieder einladen, indem du das einlädst. Ich habe hier nur ein Konto. Das ist das Hauptkonto, also werde ich es einfach benutzen. Das kannst du also ignorieren. Integration, sodass Sie hier die Integration auswählen können , bei der die Dienste in den Security Lake integriert werden den Security Lake integriert werden Dies ist das Rohprotokoll für Ihre Datenquelle, sodass Sie den Security Lake hier aktivieren können. Es integriert sich also in den Security Lake und ruft die Protokolle ab. Und dann, ganz allgemein, können Sie sich einige allgemeine Informationen dazu ansehen. Sie können den deaktivierten Amazon-Detective auch hier sehen , also werden Ihre 30 Daten enden, wenn Sie deaktiviert sind. Das ist sehr nett. Ähm, hier drüben ist der Service. finden Sie den Ermittler, Hier finden Sie den Ermittler, die Ermittlungsgruppen und Sie können den geographischen Standort der Untersuchung sehen geographischen Standort der Untersuchung Und dann können Sie hier sehen, wie Gruppen und Untersuchungen gefunden wurden, was die aktuelle Untersuchung ist, und wonach möchten Sie dann suchen Sie haben also auch hier unter Detective all diese Optionen . Wie dem auch sei, Lob. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Ich hoffe, Sie haben verstanden, wie man mit dem Direktor zusammenarbeitet und was der Sinn von Direktive ist und wie man in diesem Fall mit der Direktive umgeht. Also nochmal, keine Fragen dazu, ob wir eine Direktive oder etwas Ähnliches konfigurieren werden? Es wird also darum gehen, was deduktiv ist und es könnte sich um eines der Merkmale der deduktiven Methode oder um die wichtigsten Vorteile von deduktiv handeln oder darum wichtigsten Vorteile von deduktiv handeln oder , worüber die Richtlinie alles ermittelt Die Fragen würden sich also darum drehen. Nochmals vielen Dank für Ihre Geduld und Zeit. Bist du dran 16. Labs AWS GuardDuty: Die Jungs heißen den nächsten Profi wieder willkommen. In dieser Zeit werden wir Wachdienst bei Rock Wams haben. Wachdienst ist, dass es einen Service zur Bedrohungserkennung handelt, Ihr AWS-Konto kontinuierlich auf bösartiges und nicht autorisiertes Verhalten überwacht , einschließlich API-Aufrufe oder kompromittierter Guard Duty ist also im Grunde ein Service, an den Sie sich erinnern können Mir gefällt, dass es die Pflicht erfüllt, Ihre Instanz zu schützen. Nun, was ist der Unterschied zwischen Schild- und Wachdienst? Weil beide irgendwo verwandt sind. Shield können Sie als reaktiven Ansatz betrachten, Guard Duty als proaktiven Ansatz. Also, ähm, Shield schützt dich vor den eingehenden Angriffen, okay? Es ist hauptsächlich reaktives Zeug. Wachdienst hier ist proaktiv er erkennt Bedrohungen, noch bevor sie sucht in Ihrem AWS-Konto bösartigem oder unberechtigtem Verhalten, einschließlich, ähm, Sie wissen schon, jeder Art von API-Aufrufen die rund um Ihr Konto stattfinden. Diese Art von API-Aufrufen, die über Amazon erfolgen, könnte bedeuten, dass der Computer, mit dem Sie eine Verbindung zu AWS hergestellt haben könnte bedeuten, dass der Computer, mit dem Sie eine Verbindung zu AWS hergestellt haben, kompromittiert ist und dieser AWS-Anruf von einem Computer kommt, ist und dieser AWS-Anruf von einem Computer kommt dem Sie auf Ihr AWS zugreifen. Ebenso besteht Wachdienst darin, Ihre vorhandenen Informationen auf Ihrem ST, Ihrem RDS, IM, Ihren VPCs, unter VPC EC zwei Server-Instances und jeder Art von Containerdiensten jeder Art Daher werden alle Dienste mithilfe von Guard Duty überwacht. Okay. Lassen Sie uns nun über das Beispiel in Echtzeit sprechen. Stellen Sie sich vor, Sie führen eine Finanzanwendung wie ein Banksystem aus und Ihr Wachdienst erkennt einen ungewöhnlichen APA-Anruf. Zum Beispiel Zugriff auf vertrauliche Daten oder unbekannte IP-Adressen Daher gibt Guard Duty eine Warnung aus, die Ihnen hilft, mögliche unbefugte Zugriffe zu untersuchen und vorbeugende Maßnahmen gegen solche Verstöße zu ergreifen Nun wird der Wachdienst hauptsächlich auf die APA-Anrufe und darauf achten, wie, Sie wissen schon, die Kommunikation zustande kommt Also, das ist mehr oder weniger in diesem Bereich der Sicherheit oder der Sicherung Ihrer Anwendung. Lassen Sie uns hier über ein paar Funktionen sprechen. Eines davon ist die kontinuierliche Überwachung. Überwacht also die Cloud-Testversion, VPC-Flow-Logs und die DNS-Logs auf verdächtige Aktivitäten Normalerweise Erkennung, bei der es mithilfe von Mission Learning Anomalien bei Konten und Netzwerkaktivitäten erkennt bei Konten und Und auch automatische Benachrichtigungen den Funktionen, die Sie einbauen können, sodass gehören zu den Funktionen, die Sie einbauen können, sodass eine umsetzbare Sicherheitswarnung gesendet wird , wenn die Bedrohung Sie können dies also auch mit Bridge verbinden, und dann sendet SMS im Grunde eine MS und Slack, und dann können Sie es auch mit der Lambda-Funktion verbinden , um dort eine Funktion auszulösen Was die wichtigsten Vorteile angeht, handelt es sich also im Grunde um eine proaktive Bedrohungserkennung, die potenzielle Bedrohung frühzeitig erkennt, wie z. B. kompromittierte Instanzen oder Und so gut wie kein Infrastrukturmanagement. Es handelt sich also um einen vollständig verwalteten Service, sodass Sie keinerlei Wartungsinfrastruktur einrichten müssen . Schauen wir uns also kurz an, wie es aussieht. Also Gott, Pflicht. Also das ist ein Dienst da draußen, also nicht mit der mittleren Maustaste klicken, und ähm, nur ein bisschen langsam. Das tut mir leid. Ordnung, jetzt habe ich gerade mein Video gelöscht, also hat es ungefähr 5 Sekunden gedauert, bis es geladen Also hier haben Sie den Hauswächter, intelligente Bedrohungsabwehr für Konto und Arbeitslast Beides verhindert Konten, wie ich Ihnen bereits gesagt habe. Wenn jemand einen APA-Aufruf, einen Befehlszeilenaufruf oder etwas Ähnliches ausführt und es für verdächtig hält, wird es eine Warnung, eine Sicherheitswarnung und so weiter wie ich Ihnen bereits gesagt habe. Wenn jemand einen APA-Aufruf, Befehlszeilenaufruf oder etwas Ähnliches und es für verdächtig hält, auslösen. Es geht also nicht nur um Dinge auf Service-Ebene, sondern auch um Dinge auf Kontoebene, wie die Leute darauf zugreifen. Und dann Wachdienst, alle verfügen über Funktionen zur Ableitung von Bedrohungen in AA Blaze und Raman Guard Duty, Malword Protection, und in diesem Fall ist es nur S drei Sie sich also entweder für alle Funktionen oder nur für S Three, sodass Ihre Preisgestaltung davon abhängt Jetzt können Sie sehen, dass Funktionen und Vorteilen um ein Schimpfwort Schutz für S drei handelt ein Schimpfwort Schutz für S drei und dann einfach zu implementieren und auf den neuesten Stand des Bedrohungsschutzes zu skalieren Ebenso müssen Sie nur zuhören und loslegen Nun, hier haben Sie einige Berechtigungsrollen. Wir werden später darüber sprechen. Das ist also die Erlaubnis zwischen anderen Diensten und diesem speziellen Aber wir werden den D41 benutzen, also werden wir uns darüber keine Gedanken machen Der Schutzplan hier sieht also vor , Guard Duty beim ersten Mal zu aktivieren Guard Duty Protection Plus zu aktivieren, mit Ausnahme von Runtime Monitoring und MalwpTection for ST, die beide je nach Konsole und API aktiviert werden können Alles, was wir jetzt tun müssen, ist, Ihnen eine kostenlose 30-Tage-Testversion zu ermöglichen Das sind also sehr gute Neuigkeiten Sie werden also hier eine 30-Tage-Testversion erhalten. Wenn Sie hier eine Administratorrolle delegieren möchten, können Sie die ID eingeben, aber ich werde hier einfach Guard DUT aktivieren. Ich werde dafür die Standard-ID verwenden. also hierher gehen, können Sie Guard Duty hier erfolgreich aktivieren. Jetzt ist GuardDuty aktiviert, also leitet es nur meinen Kontozugriff weiter und ich sehe, wie es damit funktionieren wird Hier gibt es also nichts zu finden , weil es einige Zeit dauern kann , meine Login-Informationen, APA-Aufrufe und ähnliches zu analysieren APA-Aufrufe und ähnliches gibt es hier also so gut wie nicht viel Moment gibt es hier also so gut wie nicht viel zu berichten. Sie können also auch die Laufzeitüberwachung aktivieren. Also bleiben noch 30 Tage für FatGate und EKS EC zwei Instanzen Bei der Laufzeitüberwachung wird es also während der Laufzeit überprüft, was bedeutet, wenn der Dienst läuft, wird er das überprüfen und, wissen Sie, es wird damit funktionieren Sie können auch den Dienst für EKS aktivieren , also den Quarantänedienst Fargate, das ist ECS, das ist Ihr Containerdienst, Sie haben EC Two, das ist Serverdienst Okay, das ist so ziemlich das. Und Sie haben die Möglichkeit, den Malware-Schutz für S drei zu aktivieren. Auf diese Weise können Sie benachrichtigt werden , wenn jemand eine Malware auf Ihren S Three hochlädt Ebenso ist der RDS-Schutz Teil davon Lamptection ist auch im Rahmen des Wachdienstes da. Wachdienst ist einer der wichtigsten Sicherheitsaspekte , und aufgrund der Bedeutung, die ihm beigemessen wurde, werden Sie möglicherweise mit Sicherheit eine Frage vom Wachdienst erhalten Sicherheit eine Frage vom Wachdienst aufgrund der Bedeutung, die ihm beigemessen wurde Auch hier gilt: Guard Duty ist ein Dienst zur Bedrohungserkennung , der Ihr AWS-Konto kontinuierlich auf böswilliges und nicht autorisiertes Verhalten überwacht . Und daran sollten Sie denken , wenn Sie sich dafür entscheiden. Und dies ist ein proaktiver Service , bei dem er Bedrohungen frühzeitig erkennt und der für alle Dienste in Ihrem Fall gilt . Es gilt also für RDS , Ihren relationalen Datenbankdienst oder wir können ihn als verwalteten Dienst bezeichnen Es gilt für Lambda, was im Grunde Ihr vollständig verwalteter Service ist, und dann haben Sie den Schutz für S drei, EC zwei und den Laufzeitschutz für andere Dienste wie EKS, EC Two, bei dem es sich um einen containerbasierten verwalteten Dienst handelt Also wieder Fargate für ECS, ähm, dann EC zwei Also, genauso, ähm, Sie haben Schutz vor, ich meine, ja, Sie können sagen vor bösartigen Inhalten und ähnlichem und auch vor Kontozugriffen Also das ist etwas , wofür Sie den Wachdienst tatsächlich nutzen können . Nochmals vielen Dank für Ihre Geduld und Zeit. Wenn Sie Fragen haben, hinterlassen Sie diese im Fragenbereich. Denken Sie daran, auf den Spickzettel zu verweisen. Wenn du einen kurzen Blick auf all diese Dienste werfen willst, hat es bei allen Diensten die 22. Lesung , sodass du die wichtigen Punkte vor deiner Prüfung Nochmals vielen Dank. Wir sehen uns im nächsten. 17. Labs AWS Inspector: Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir über AWS Inspector sprechen. Lassen Sie uns nun über die Verwendung dieses Inspektors sprechen, wie wir diesen Inspektor tatsächlich verwenden. Da dieses Diagramm eine Menge aussagt, ist Inspector ein automatisierter Service zur Sicherheitsbeurteilung, ist Inspector ein automatisierter Service zur Sicherheitsbeurteilung dabei hilft , Schwachstellen und Abweichungen von bewährten Verfahren in Ihrer EC Two-Instance zu identifizieren Abweichungen von bewährten Verfahren oder wenn Sie Container in Ihrem EC Two-Instance-Workload ausführen Container in Ihrem EC und Anwendungen nur einen Teil Ihrer EC Two-Instance ausführen. Nicht nur die EC-2-Instance, sondern auch das, was auf der EC-2-Instance gehostet wurde, wird überprüft. Nun, wie kann ich mich an diesen Namen erinnern? Das Wort Inspektor an sich ist ein sehr wichtiger Hinweis. Er informiert Sie darüber, dass er die Sicherheitslücken überprüft, zwei EC-Instanzen durchsucht und in Ihrer Anwendung Sicherheitslücken oder CVEs in dieser speziellen Okay, so erinnere ich mich an das Wort Inspektor. Also, wenn Sie das in der Prüfung sehen, werden Sie Inspektor überprüfen sehen. Also, was es tut, es inspiziert. Was es inspiziert, okay? Untersucht zwei EC-Instanzen auf Sicherheitslücken, CVs. Was ist CV? CV ist eine häufige Sicherheitslücke und Sicherheitslücke, bei der es Exploitern wie Hackern die Möglichkeit gibt , diese Sicherheitslücken auszunutzen und dann in Ihre Anwendung einzudringen, Details darüber zu sammeln und Sie um Lösegeld zu bitten und In diese Situation wollen wir nicht geraten . Wir wollen unsere Unternehmen, für die wir arbeiten, nicht in eine solche Situation bringen . Es ist also immer gut, den Inspektor zu verwenden, um es zu scannen und herauszufinden, welche Sicherheitslücken Sie haben. Es scannt also nicht nur die beiden EC-Instanzen, um die Abs kümmert, sondern es scannt auch Ihre Anwendung und die Container , die Sie ausführen. Und es gibt Ihnen im Grunde den Schwachstellenbericht. Es sucht nach Sicherheitslücken, Sicherheitsproblemen und ungepatchter Software Das sind also die Dinge, nach denen tatsächlich gesucht und versucht wird, sie zu beseitigen Ordnung, lassen Sie uns hier schnell über die wichtigsten Vorteile sprechen hier schnell über die wichtigsten Vorteile Kontinuierliche Überwachung ist hier einer der Hauptvorteile, ein kontinuierlicher Scan, der sicherstellt, dass es sich bei den neuen Sicherheitslücken Fehlkonfigurationen handelt, und wenn sie zunehmen, erkannt werden Es ist also nicht nur ein kostenloses Tool, also wird es Ihnen irgendwie in Rechnung gestellt, aber im Grunde genommen überwacht es Ihre Anwendung kontinuierlich und gibt Ihnen bei Problemen jede Art von Alarmauslösung Sie können dies also mit einer geraden Seite verbinden und es dann an SNS senden und dann per SMS oder Slack senden, oder Sie können eine Lambda-Funktion schreiben und sie dann auch über Lambda weiterleiten. Ebenso haben Sie verschiedene Funktionen. Und wir werden sehen, dass all diese Dinge ab dem nächsten Video dasselbe tun werden, weil es sich um einige sicherheitsrelevante Dienste handelt die im Hintergrund ausgeführt werden. Was wir also schon einmal gesehen haben, sind WAF und Shield, und WAF und Shield sind im Grunde eine Sicherheitsdatei, die Sie vor Problemen schützt Und das sind die Sicherheitsaspekte, die wie Amazon Inspector sind , der darauf aus ist , oder es ist eine proaktive Maßnahme, sie einzudämmen, also läuft sie auf Ihrem System und dann proaktiv, um wie Amazon Inspector sind , der darauf aus ist , oder es ist eine proaktive Maßnahme, sie einzudämmen, also läuft sie auf Ihrem System und dann proaktiv, sie Das Shield und der Graph sind also reaktiv wenn ein Angriff kommt, wird es reaktiv sein, was Reaktion auf den Angriff angeht Aber das sind proaktive Dinge, was wir gerade sehen Also das ist so ziemlich das, was ich dir hier zeigen möchte. Entschuldigung für den Hintergrund nein, das kann ich nicht kontrollieren. Sie können einfach AWS Inspector eingeben, und dann holen Sie sich Amazon Inspector hier. Und hier im Amazon Inspector sind Sie auf der Startseite, und Sie können sehen , wie es funktioniert. Also im Grunde genommen darf der Inspektor inspizieren und was geprüft wurde, ist Ihr ähm, Sie wissen schon, ähm, hier, schätze ich, aktivieren Sie den Inspektor und dann die automatisierte Arbeit, die Entdeckung. Ich bin mir nicht sicher, ob Sie es sehen können, aber das habe ich Ihnen gerade gesagt , also machen Sie sich keine Sorgen. Sie müssen also nur auf Erste Schritte klicken. Dann müssen Sie ihm Berechtigungen für die Art der Kontoadministratorregeln erteilen, die Sie ihm geben möchten, und dann können Sie einfach auf Inspektor aktivieren klicken. Dies wird also für das Standardkonto aktiviert, wenn Sie hier als delegierter Administrator nichts angegeben haben, also wird das Standardkonto verwendet Sobald Sie es also aktiviert haben, haben Sie eine 14-tägige Testversion, die kostenlos ist, und Sie können tatsächlich sehen, dass im Moment nichts funktioniert Vielleicht muss ich meine EC Two-Instance starten. Ich habe meine Ubernuts auf dieser EC-Two-Instance. Ähm, es ist ein Feedback. Ich benutze es nicht nur. Wenn ich also die East Two-Instance starte, würde ich vielleicht einige Sicherheitslücken bekommen. Ich weiß es nicht. Also lass uns über den Start reden oder ich fange an, es wird mir eine Gebühr berechnet. Lassen Sie uns mit einer dieser Instanzen beginnen. Es wird also eine Weile dauern, es zu starten. Und dann werden wir uns diese Sicherheitslücke ansehen. Falls es so etwas wie eine Sicherheitslücke gibt. Wie ich dir schon sagte, ähm, es gibt eine 14-tägige kostenlose Testversion, und danach wird es dir in Rechnung gestellt. Okay? Sie können also die monatlichen Projektionskosten hier in der Nutzung sehen, und im Grunde können Sie anhand des Scan-Typs EC-Two-Scanning, ECR-Scanning für Containerdienst und Lambda-Scanning sehen EC-Two-Scanning, ECR-Scanning für Containerdienst und Lambda-Scanning Das sind also drei Punkte hier drüben, was ein Teil davon ist, und ich verwende derzeit eine Testversion für 14 Tage, tut mir leid, 15 Tage hier drüben Sie können also auch hier auf Preise klicken und mehr erfahren, und das können Sie sich tatsächlich ansehen. Ich schätze also, sobald meine Instanz gestartet ist, würde sie mit dem Scannen beginnen. Es hat hier also bereits drei Instanzen gefunden, null von drei. Also vielleicht werde ich nach einer Weile versuchen, es dir zu zeigen, ob ich nur ein weiteres Video mache, ich werde versuchen, dieses auch aufzunehmen. Also schau einfach, ob hier etwas als Sicherheitslücke auftaucht . Also gut, ich sehe im Moment nichts. Nun, wie dem auch sei, vielen Dank für Ihre Zeit und Geduld Wir sehen uns auf dem nächsten Video, und ich erinnere mich, dass ich das für euch offen gehalten habe , damit, wenn hier etwas auftaucht, mein Instant anfing zu laufen, sodass es eine Weile dauern kann Also schauen wir mal, ob sich etwas ergibt. Danke. Nochmals vielen Dank, Leute. 18. Labs AWS Sicherheits-Hub: Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir über den AWS-Security-Hub sprechen . Lassen Sie uns zunächst darüber sprechen, wofür der AWS Security Hub verwendet wird. Security Hub bietet einen umfassenden Überblick über Sicherheitswarnungen Konformitätsprüfungen für alle AWS-Konten. Es fasst Sicherheitsergebnisse aus verschiedenen AWS-Services und Tools von Drittanbietern zusammen, organisiert und priorisiert Sicherheitsergebnisse aus verschiedenen AWS-Services und Tools von Drittanbietern zusammen, organisiert und Nun, wie Sie hier sehen können, eine Organisation. Ich weiß, dass wir nicht über Organisation gesprochen haben. Organisation ist ein Service in AWS. Lass mich dir das schnell zeigen. Wenn Sie also Organisation eingeben, können Sie hier die Datenbankorganisation sehen. Sie öffnen die Organisation hier. Standardmäßig werden Sie also keiner Organisation angehören , da Sie ein individuelles Konto erstellt hätten . Aber Sie können tatsächlich eine Organisation erstellen. Sie werden dort die Option haben , eine Organisation zu erstellen. Es ist völlig kostenlos. Sie können eine Organisation erstellen lassen, genau wie ich sie erstellt habe. Erstellen Sie einfach eine Organisation, dort werden nicht viele Fragen gestellt. Sie müssen also nur Ja sagen und dann die Organisation erstellen. Sobald Sie die Organisation erstellt haben, sollten Sie es sein, das Hintergrundgeräusch tut mir leid. Ähm, Sie sollten Ihren Kontonamen hier sehen können und Sie werden die Benutzerinformationen, die Stamminformationen, sehen können. Nun, was ist eine Organisation? Lassen Sie uns schnell darüber sprechen. Eine Organisation ist nichts anderes, aber wenn Sie in einem Unternehmensdienstleistungs- oder Unternehmensunternehmen oder sogar in einem geschäftsorientierten Unternehmen, einem großen Unternehmen, tätig sind, haben Sie möglicherweise mehrere Organisationen in Ihrem Unternehmen. Okay. Jede Organisation, wie die Finanzabteilung, wird ihr eigenes AWS-Konto haben. Das Gesundheitswesen wird ein eigenes AWS-Konto haben. Medien. Wenn es einen solchen Bereich gibt, werden Sie ein separates AWS-Konto haben. Okay. Jetzt werden sie die Entwickler-Produktions- und Testumgebung für ihre medienbezogene Anwendung hosten, und Sie werden Media Dot Example bank.com haben , etwas Ähnliches Sie können Finanzen Punkt, äh, Sie wissen schon, Beispiel Punkt Bank haben Sie wissen schon, Beispiel Punkt Bank Okay, oder wie Sie das Gesundheitswesen haben können, Beispiel Punkt Bank. Ebenso können Sie Ihre eigene Website haben. Und jede der Anwendungen wird einer einzigen Organisation unterstellt sein, nämlich Ihrer Dot Bank. Das ist die größte oder höchste Ebene Ihres Organigramms, und das wird auch so sein. Wenn Sie also über diese Art von Funktion verfügen, wenn Sie über eine solche Feature-Organisation verfügen, benötigen Sie ein Sicherheitszentrum, in dem Daten von Sicherheitszentrum, in dem verschiedenen Organisationen gesammelt werden, was bedeutet, dass alle Dienste, die Teil Ihrer Organisation sind, mit einbezogen werden. Ich habe zum Beispiel diese EC-2-Instanz, meine EC-2-Instanz, ich habe die Dienste wie AF und andere Sachen, richtig? Also habe ich all diese Dienste in meiner aktuellen Einstellung hier konfiguriert, was über Cloud AI hinausgeht, es wird ein Konto. Okay. Ich kann mir das vorstellen. Sie können ein weiteres Konto bei dieser Organisation hinzufügen. sich für dieselbe Organisation registrieren, können Sie tatsächlich Personen zu dieser Organisation einladen und dann ein anderes Konto für diese bestimmte Niederlassung Ihres Unternehmens Es könnte eine Filiale sein, es könnte Outlet sein, es könnte alles sein Sie können sie also als Teil der Organisation hinzufügen. Sie müssen also ein Konto erstellen. Aber was Sie in der Abrechnung für die Organisation sehen können. Die gesamte Organisation erhält also eine L-One-Abrechnung, die alle Konten innerhalb dieser bestimmten Organisation umfasst . Welcher AW-Sicherheits-Hub macht das nun? Es sammelt alle sicherheitsbezogenen Compliance-Probleme. Es sammelt alle Informationen zu den Sicherheitswarnungen und bietet Ihnen einen umfassenden Überblick auf einem Dashboard. Okay, das gibt Ihnen einen umfassenden Überblick über alle Sicherheitsprobleme. Auf diese Weise können Sie das Problem also tatsächlich, ähm, von einer einzigen, Sie wissen schon, Ansicht aus untersuchen. Sie verwalten beispielsweise eine AWS-Umgebung mit mehreren Konten und benötigen ein zentrales Dashboard zur Anzeige von Sicherheitswarnungen und Compliance-Daten. Der AWS-Sicherheits-Hub sammelt Warnmeldungen von Diensten wie Amazon Guard Dog , über die wir später sprechen werden, Inspektor, Firework Manager, worauf wir später noch eingehen werden Es sammelt also all diese Informationen und zeigt sie tatsächlich an einem Ort an Ich möchte, dass Sie sich bei der Prüfung daran erinnern , dass, wenn Sie das Wort Sicherheitszentrum hören, also wenn Sie das Wort Security und Hub zusammen hören, Hub ein Ort ist, an dem Sie eine integrale Sicht auf viele Dinge haben So nennen wir es als Knotenpunkt. Wenn Sie also dieses Wort hören, meinen Sie es, es muss Sie an diese Architektur erinnern , die besagt dass Sie Informationen sammeln werden, sicherheitsrelevante Informationen, Compliance-relevante Informationen, die Warnmeldungen von Sicherheitsberichten. Sie werden all diese Dinge in Ihrem Unternehmen an einem zentralen Ort haben. Das ist also etwas, worüber Sie wirklich nachdenken sollten , wenn Sie diesen Namen hören. Lassen Sie uns jetzt über die Funktionen sprechen , das zentrale Dashboard, das Benachrichtigungen mehrerer Konten und Regionen an einem Ort anzeigt. Kompilieren und überprüfen, es greift automatisch auf die Zusammenstellung der Industriestandards CIS und PCI Es lässt sich auch in andere AWS-Services wie Guard Duty, äh, Inspector, Maze und andere Also wir haben bisher nur Labyrinth gesehen, ich meine, Inspektor. Also werden die Videos entsprechend ausgerichtet, also mach dir darüber keine Gedanken Daran werden wir also arbeiten. Also das nächste sind die wichtigsten Vorteile hier. Die Hauptvorteile sind die einheitliche Ansicht. Wie ich Ihnen bereits sagte, bietet es die Konsolidierung von Sicherheitswarnungen für alle Dienste und Organisationen. Und es verfügt auch über eine Berichtsfunktion, mit der die Einhaltung der Vorschriften überprüft wird. Und es zeigt auch, dass es, wissen Sie, sehr gut ist, dass die Einhaltung der Industriestandards für AWS-Umgebungen eingehalten wird. Das sind also Dinge, nach denen es im Sicherheitszentrum Ausschau halten wird. Lassen Sie uns einfach einen Blick auf das Sicherheitszentrum hier werfen. Lassen Sie uns jetzt die Organisation schließen. Gehen wir zur Sicherheit. Hub, und dann bekommst du den Security Hub hier als Service, und dann klickst du einfach darauf. Und du kannst tatsächlich dorthin gehen. Sie müssen dies aktivieren. Dies ist eine kostenlose 30-Tage-Testversion für Security Hub. Gehen Sie also einfach zum Security Hub und dann beginnt Ihre Aktivierung. Security Hub hier drüben kümmert sich also quasi um alles andere, wie automatisierte Sicherheitskontrollen, konsolidierten Bericht von Inspektor May und zusätzliche Dienste und eine integrierte Partnerlösung. Es wird es von der ganzen Organisation nehmen, tut mir leid, all die Symbole der Organisation, es wird dir das zeigen. Dazu müssen Sie tatsächlich zu Security Hub gehen, und dann haben Sie hier die AWS-Konfiguration, auf die wir später eingehen werden. Und dann müssen wir die Sicherheitsstandards hier aktivieren , wo Sie erwarten , dass Ihre Anwendung ähm sein sollte, wie AABSFoundation of Security Best Practices und CIS ArabsFoundation und CIS Sie können also sehen, dass wir standardmäßig die grundlegenden Dinge ausgewählt haben , also können Sie hier auch weitere Elemente hinzufügen, um zu sehen , ob Ihre ähm, Artikel sind wie , es tut mir leid, wenn Ihre Organisation die Sicherheitsstandards hat all die Dienste und so zu erstellen, und dann einfach den Sicherheits-Hub hier aktivieren und dann einfach den Sicherheits-Hub hier aktivieren, der Ihnen diese Elemente tatsächlich hier zeigt . Hier sind die Preise also wie nach einer 30-tägigen kostenlosen Testphase, also können Sie für den ersten AC oder 100.000 um, Sicherheitsschecks bezahlen , Sie werden 0,00, ähm, einen 0$ pro Scheck berechnen ähm, einen 0$ pro Scheck Das ist also ziemlich billig, wenn Sie es vergleichen, sodass Sie sehen können, dass es so sein wird Ähm, das ist die Abrechnung, und ich wollte dir das alles zeigen und dir die Interaktion in diesem speziellen Aktionspunkt zeigen. werden wir auch andere Sicherheitsdienste Zu einem späteren Zeitpunkt werden wir auch andere Sicherheitsdienste aufsuchen. Nochmals vielen Dank für Ihre Geduld und Zeit. Wir sehen uns beim nächsten Mal. 19. Labs AWS Shield: Hey, Leute. Willkommen zurück zum nächsten Video. In diesem Video werden wir über eine der wichtigsten Umfragen zu AWS in Bezug auf Sicherheit sprechen . Wir werden über AW Shield sprechen. Also, was ist das Schild? Wir werden später über die Architektur sprechen, aber wovor schützt sie uns? Es schützt uns vor DoS-Angriffen, Denial-of-Service-Angriffen und dann vor DDoS-Angriffen, die Sie gleich sehen werden Also wenn ich mir nicht sicher bin, wie im letzten Monat, das ist, glaube ich, August 2024, als ich von einer Nachricht hörte, dass es diese, Sie wissen schon, diese Trump-Präsidentschaft gab und Trump diese Rede auf Twitter mit Elan Musk aufgab diese Rede auf Twitter mit Elan Musk aufgab Okay? Also das war eine große Neuigkeit für Sicherheitsnotizen, und viele Leute haben tatsächlich von dieser Nachricht gehört. Äh, ich unterstütze keine politischen Parteien oder ähnliches. Ich habe mir das nur ausgedacht, weil es eine echte Live-Situation war, in der Trump, ähm, ein Interview mit Elan Musk gab ähm, ein Interview mit Elan Musk Und was passiert ist , ist das in diesem Interview. Es sollte zu einer bestimmten Zeit beginnen, aber dann fing es mit 45 Minuten Verspätung an. Die Verzögerungen bei der Übertragung dieser bestimmten Live-Übertragung, ähm, weißt du, Twitter-Zeug ist tatsächlich passiert, 45 Minuten zu spät. Twitter, früher bekannt als derzeit X, richtig? X.com, das begann mit 45 Minuten Verspätung. Als wir uns danach erkundigten, erfuhren wir, dass es einen Dedos-Angriff gab Nun, was ist ein Dios-Angriff? Darüber werden wir sprechen. Lassen Sie uns über einen DoS-Angriff sprechen. Lassen Sie uns sehen, wie ein DoS-Angriff funktioniert. Ein DoS-Angriff funktioniert sehr einfach. Es wird ein Dienstpfeil genannt. Sie werden also als Hacker darauf zugreifen. Er wird so oft auf die Website zugreifen , dass sie irgendwann aufgibt und sagt, es gibt nur, weißt du, ich werde dir nicht mehr weiterhelfen weil momentan alle meine Bedrohungen voll sind Das ist also die Absicht eines Angriffs von Dido. Der Angriff von Dedos war sehr einfach. Sie greifen den Server weiter an, indem so oft auf den Server zugreifen, dass dem Server der Che ausgeht. Okay? Irgendwann werde ich zu Drohungen übergehen, um Ihre Anfrage zu beantworten. Okay? Also, was ist ein Dedos-Angriff Es ist eine verteilte Methode denselben DoS-Angriff anzugreifen Das heißt, Sie nutzen das Internet der Dinge, Ihren Laptop, Desktop und dann Ihre Mobiltelefone, jede Form von Geräten mit Internet-Phasen Und dann rufen Sie ständig den Dienst auf, okay, irgendwann gibt der Computer auf, obwohl Autoscaling aktiviert ist und all diese Dinge da obwohl Autoscaling aktiviert ist sind Aber denken Sie daran, dass Sie für die Skalierung von Autoscaling tatsächlich mehr für Ihre Amazon Web Services oder einen anderen Cloud-Anbieter bezahlen sollten für Ihre Amazon Web Services oder einen anderen Cloud-Anbieter wenn Sie skalieren, sodass das den Umsatzverlust für Ihr System bedeutet , weil Sie weiterhin, Sie wissen schon, die Leute darauf zugreifen Es sieht so aus, als würden Hunderte und Tausende und Millionen von Menschen auf Ihre Website zugreifen, aber das wäre nicht wirklich der Fall Es wäre, wenn Sie Opfer eines Angriffs wären. Okay. Also jetzt ist der Prozess sehr einfach. Greifen Sie über Ihr DNS auf die Website zu, gehen Sie über Route 53, falls sie über AWS gehostet wird, und gehen Sie dann zum Load Balancer, es kann sich um eine Anwendung, ein Netzwerk was auch immer es sein könnte, und gehen Sie dann zum Server Holen Sie sich diesen Inhalt vom Server. Jetzt könnte der Server über eine Web-App und dann über einen Datenbankdienst verfügen, er könnte auch zu Messaging-Diensten wechseln und dann die Daten abrufen. Jedes Mal, wenn die Daten abgerufen werden, greift der Angreifer erneut an und fordert Sie auf, weitere Daten abzurufen. Auf diese Weise kommt es also zu einem verteilten Denial-of-Service , okay? Also dieses Beispiel, was ich dir über Twitter oder X erzählt habe , ist echt Und wenn es auf einer so großen Website passiert, meine ich, dass die Unternehmen, für die wir arbeiten, nicht dafür anfällig sind. Wenn es nicht passiert, es nicht daran, dass Sie eine sehr gute Sicherheit aktiviert haben. Es ist Ihnen bisher nicht passiert, es bedeutet, dass niemand Ihre Website gehackt hat Das bedeutet es also, okay? Also, wie schützen Sie Ihre Website vor einem solchen Angriff Wie stellen Sie sicher, dass Sie mindestens eine Standardchance gegen solche Angriffe Lassen Sie uns also über AW Shield sprechen. Nun, AW Shield bietet Ihnen hier zwei Angebote. Das Standard-Shield, das standardmäßig aktiviert und kostenlos ist, und es gibt dieses erweiterte Shield. Nun, was meinst du mit Standardschild? Standard Shield bietet Ihnen, ähm, Sie wissen schon, es ist eine übliche Form von Schutzschild, Unternehmen groß angelegte Dedos-Angriffe Also mehr oder weniger, warum es kostenlos ist. Darüber musst du nachdenken. Amazon möchte seinen Service schützen, okay? Also auch wenn wir über Penetrationstests sprechen, oder? Bei Penetrationstests werden Sie also niemals eine Zulassung für Didsatac zu Testzwecken erhalten Didsatac zu Testzwecken Okay? Weil es einfach nicht deine Inhalte sind, die sie zu schützen versuchen. Es geht um all ihre Kunden. Wenn also eine Website ausfällt, nicht nur Ihre Anwendung betroffen, sondern die gesamte Anwendung, die gerade ist nicht nur Ihre Anwendung betroffen, sondern die gesamte Anwendung, die gerade auf der Site gehostet wurde, dann müssen sie auf DR umsteigen, was wiederum zusätzliche Kosten für sie bedeutet. Denken Sie also daran, dass sie dieses Produkt standardmäßig aktivieren wollten dieses Produkt standardmäßig weil sie Dedos-Angriffe hassen, okay? Das ist also der Grund, warum es dort kostenlos ist, okay? Und es gibt diese erweiterte Version davon, die kostenpflichtige Version ist. Und in dieser Version erhalten Sie verbesserten Schutz, Echtzeitangriffe, Transparenz und finanziellen Schutz vor hohen DID-Kosten Okay? Also das ist etwas, das als Teil der erweiterten, Sie wissen schon, Option zur Verfügung gestellt wird, die für Sie verfügbar ist. Ich werde Ihnen das in der praktischen Sitzung zu gegebener Zeit zeigen. Aber denken Sie daran, dass dieser Schutz standardmäßig vorhanden ist und Sie ihn nicht deaktivieren können, weil niemand einen Detosattack auf seiner Plattform will, also sollten Sie sich daran erinnern. Lassen Sie uns über einige seiner wichtigsten Vorteile sprechen . Der Hauptvorteil ist der automatische Schutz. Nun, was meinst du mit automatischem Schutz? Der Standardschutz ist hier standardmäßig aktiviert, sodass Sie nicht die Möglichkeit haben müssen , ihn zu deaktivieren oder zu aktivieren zweiter Stelle steht der erweiterte Bedrohungsschutz, bei dem An zweiter Stelle steht der erweiterte Bedrohungsschutz, bei dem Shield Advance einen detaillierten Bericht über die schnelle Reaktion bei groß angelegten Angriffen auf Ihr System, Ihre Website oder Ihre Anwendung bietet schnelle Reaktion bei groß angelegten Angriffen auf Ihr System, Ihre Website oder Ihre Anwendung Okay, schauen Sie sich das an, Sie können zu WAF und Shield gehen, also können Sie einfach WAF hier drüben eingeben und Sie erhalten BAF und Und unter WAF und Shield hast du den AF wie im ersten, und dann wird der zweite Shield sein Wenn Sie nun, wie ich Ihnen gesagt habe, mit Shield beginnen, handelt es sich um eine automatische Dios-Schutzschicht für Anwendungen Und das ist, weißt du , standardmäßig aktiviert Nun, was ist diese Preisliste? 3.000 pro Monat. Das ist für Shield Advanced für Fortgeschrittene. Wenn Sie sich also für Shield Advanced entscheiden möchten, können Sie sich tatsächlich dafür entscheiden. Aber ich würde nicht sagen, dass da etwas Besonderes drin ist, es sei denn , Sie möchten eine erweiterte Funktion haben , wie Ansehen des Angriffsberichts und solche Dinge. Und, ähm, bis dahin, weißt du, hat es keinen Sinn , dorthin zu gelangen. Sie können also sehen, dass dies nichts anderes sind als Ihre AWS-Infrastrukturen, Ihre AWS-Regionen und deren Availability Zones, die angegriffen werden. Sie können also sehen, dass Rot bedeutet, dass je mehr Angriffe auftreten, und Sie können sehen, dass die Angriffe auf der Seite der VAE zunehmen, und Sie können sehen , dass das, glaube ich, die New Yorker Seite der Dinge ist. Dort können Sie also sehen , dass es einen riesigen Angriff gibt und dass es eine Vielzahl von Aktivitäten gibt, die von AWS Shield gesteuert und verhindert werden . Sie können also die Zusammenfassung der letzten zwei Wochen sehen, nur die Zusammenfassung der letzten zwei Wochen, größte Paketangriff betrug 221 MB/s und Sie können sehen, dass der größte übertragene Bite 636 GB/s betrug Und dann die häufigste Vektor-SYN-Flood. Das ist hier im Grunde eine Art von Angriff, die Bedrohungsstufe, normal, die Anzahl der Angriffe liegt bei 66.540 Es war also in der Lage, so viele Angriffe zu erkennen , die hereinkommen, und das ist im Grunde ein ständiger Zugriff auf Ihre Websites und Anwendungen , die auf AWS gehostet Und es war in der Lage, diese Angriffe zu erkennen und die Angriffe zu stoppen. Nun, das können Sie in Ihrem Konto sehen, das ist kein Ereignis, weil ich es hauptsächlich intern für Open-Shift und andere Dinge verwende. Aber wie dem auch sei, das ist lustig. So kannst du den Shield-Reifen vergleichen. Im Moment haben wir den Standardreifen , der standardmäßig aktiviert ist und kostenlos ist. Sie können sich die Überwachung des Netzwerkflusses und den Standardschutz für die zugrunde liegenden AW-Services ansehen . Wenn Sie dann jedoch die Überwachung des Datenverkehrs auf Layer-Servern wünschen, werden wir über den Zeitpunkt der siebten Schicht sprechen. Ich gebe Ihnen nur eine kurze Einführung, und dann haben Sie die Migration der Schichten drei und vier, normalerweise Richtung. Also all diese anderen Dinge mit 24/7-Unterstützung durch das Shield-Team. Mit dem kostengünstigen, wo der Kostenschutz vor Skalierung aufgrund der Angriffe von Dido Das ist eine wunderschöne Sache. Wenn Sie der Meinung sind, dass Ihre Anwendung oder Ihre Website häufig angegriffen wird und aufgrund dessen, Sie wissen schon, die Skalierung erfolgt, können Sie diese 13000 pro Monat in Anspruch nehmen und Sie können dieses Geld dort sparen, wo es skaliert wird, und Sie haben sozusagen diesen Schutz, der besagt, dass Ihnen die Skalierung des Dienstes nicht in Rechnung gestellt wird Und dann AWS Five Manager, ohne zusätzliche Kosten, und dann AW, tut mir leid, WAF-Anfrage nach geschützten Ressourcen ohne zusätzliche Kosten. Ebenso haben Sie hier einige Vorteile, wenn zur fortgeschrittenen Version wechseln Aber es hängt ganz von Ihrer Situation ab, es liegt ganz Ihrer Wahl und der Wahl Ihres Kunden, wie Sie möchten. Aber es liegt in Ihrer Verantwortung all diese Dinge, all diese Vorteile Ihrem Kunden zu vermitteln und zu sagen, dass, ähm, Sie wissen schon, sind einige der Vorteile, warum Sie sich für einen, Sie wissen schon, monatlichen Zahlungsservice entscheiden würden . Wenn das etwas ist, was der Kunde benötigt, dann werden wir uns darauf einlassen. Sie können hier auch den globalen Thread sehen, ein Dashboard, sodass es Ihnen im Grunde jeden Tag Bescheid gibt, und Sie können die Anzahl der häufigen Angriffe sehen, die einfach weiter zunimmt. Sie können also auch nach den letzten drei Tagen, dem letzten Tag, suchen . Also gibt es dir nur die globale Bedrohung hier drüben, was dir die ganze Welt zeigt. Sie können auch Ereignisse überprüfen, die mit Ihren Sachen zusammenhängen. Sie können hier auch einige geschützte Ressourcen sehen. Sie haben nichts als Schutzressource, und dann können Sie sich den Überblick über die Dinge ansehen. Abonnieren Sie Shield Advance, um die Vorteile von Protects tatsächlich Das ist also unvollständig und Sie können dort beginnen. Darüber werden wir alle zu einem späteren Zeitpunkt in den Fachzeitschriften sprechen . Aber hier werden wir uns darüber keine großen Sorgen machen. Hier werden wir Sie einfach verstehen und sehen und Erfahrungen darüber sammeln , wie diese Typen aussehen, wie die einzelnen Dienste aussehen und warum es einfach so viele Dienste gibt. Nun, wenn es um Shield geht, heißt es ganz klar, dass es hier kein Akronym gibt, es gibt hier keine Kurzform, es heißt AW Shield. Und wenn Sie das Wort AW-Schild hören, bedeutet das, dass es Sie vor Angriffen schützt Daran sollten Sie sich erinnern. Das schützt dich vor Angriffen. Was für Angriffe, Dios greift an. Jede Art von konsistentem Angriff auf Ihre Website wird Ihre Banden schützen Daran sollten Sie sich erinnern, wenn sie Ihnen Fragen zu Shield stellen. Also werde ich dir einen Spickzettel geben, also mach dir darüber keine Gedanken, der 20 Sekunden Einführungszeit hat, also sprich einfach über diese Dinge, und du kannst dir einfach den Spickzettel ansehen und dann kannst du loslegen Nochmals vielen Dank für Ihre Geduld und Zeit . Wir sehen uns im nächsten Video. 20. Übersicht über Lab-Zertifikate: Hey, Leute, willkommen zurück zum nächsten Video. Und in diesem Video werden wir uns nur eine kleine Architektur in Bezug auf die Einführung von Zertifikaten ansehen eine kleine Architektur in . Ähm, ich möchte Ihnen nur den minimalistischen Ansatz vermitteln , denn wir werden uns in unserer praktischen Sitzung nicht mit der TLS-Exposition befassen Wir werden es tun, aber dann nicht erweitern , wo wir Anwendungen auf TLS konfigurieren werden, weil das nicht Teil Ihres Zertifizierungsprogramms ist Aber obwohl ich versuchen werde, möglichst viele Übungen zu diesem Thema durchzuführen, werde ich Ihnen die maximale Anzahl an Objekten zeigen, okay? Das ist ein Versprechen von meiner Seite. Also hier ist die Einführung in die Zertifizierung. Also hier, da sind diese drei. Also musst du diese drei getrennt voneinander trennen, okay? Also das sind hier drei verschiedene Konzepte. Versuchen Sie, es so weit wie möglich auszurichten und zu vereinfachen. Hier gibt es drei Arten von Zertifikaten. Sie haben also ein Demo-Zertifikat, selbstsigniertes Zertifikat und ein Signaturzertifikat eines Drittanbieters. Nun, diese drei Arten von Zertifikaten werden sich in Ihrem Browser sehr unterschiedlich verhalten , okay? Lassen Sie mich Ihnen das zunächst sagen. Wenn ich also ein Demo-Zertifikat oder Internet Explorer durchsuche, teilt mir der Internet Explorer direkt mit, dass diese Site nicht vertrauenswürdig ist und Demo-Zertifikate nicht zulässig sind Sie können das Demo-Zertifikat in Chrome oder einem anderen Browser durchsuchen , aber es wird eine große Warnung angezeigt Das Gleiche gilt für das Self-Science-Zertifikat. Zertifikat für Selbstwissenschaften ist etwas, bei dem Sie am Rande eine Warnung erhalten werden. Internet Explorer, Sie werden in Chrome und in jedem Browser eine Warnung erhalten , dass dieses Zertifikat anscheinend selbst signiert ist, und möchten Sie trotzdem fortfahren? Klicken Sie hier unten, und dann müssen Sie nach unten klicken und dann zur Website gehen. Sie müssen also manuell zustimmen und zur Website wechseln. Warum? Weil es selbstsigniert ist. Das Zertifikat Self Science ist also nichts, aber ich sage, dass ich ein guter Kerl bin. würde also jeder vertrauen, weil ich nicht sagen kann, dass ich ein guter Kerl bin. Wenn jemand sagt , dass ich ein guter Kerl bin, dann kann er mir natürlich vertrauen, oder? Wenn ich also sage, dass ich ein guter Kerl bin, kann niemand vertrauen. Das ist die Sache mit selbstsignierten Zertifikaten. Das selbstsignierte Zertifikat ist kostenlos. Jeder kann ein selbstsigniertes Zertifikat erstellen. Jeder kann es für ein selbstsigniertes Zertifikat auf seiner Website veröffentlichen. Das zweite ist Ihr drittes, es tut mir leid, das dritte, bei dem es sich Ihr signiertes Zertifikat für Dritte handelt. Nun, was meinst du mit signiertem Zertifikat eines Drittanbieters? Das Beispiel, das ich dir erzählt habe, richtig? Jemand sagt , dass ich ein guter Kerl bin. Du bekommst also, dass jemand abstempelt , dass ich ein guter Kerl bin, oder? Also das ist es, was es bedeutet. Es ist also so etwas wie ein Zertifikat von AWS. Sie sehen das Zertifikat hier drüben, Sie sehen dieses Protokollschild, richtig? Wenn Sie also auf das Protokollzeichen klicken, heißt es, dass die Verbindung sicher ist. Okay? Wenn es ein selbstsigniertes Zertifikat ist, würde das nicht stehen, okay? Weil es ein paar, drei oder vier Dinge gibt , die aussagen, dass die Verbindung sicher ist, und es wird gesagt, dass es sich um ein gültiges Zertifikat handelt. Okay? Es heißt sicher, weil es ein gültiges Zertifikat ist. Wenn es kein gültiges Zertifikat ist, bedeutet das nicht, dass die Verbindung sicher ist. Damit Sie sehen können, dass diese Website gültig ist und über ein gültiges Zertifikat verfügt, sollten Sie eine vertrauenswürdige Stelle kaufen. Nun, was meinst du mit vertrauenswürdiger Autorität, richtig? Das ist eine weitere Frage, die Sie haben werden. Nun, wenn Sie das sehen, ist es Ausgabe zwei und ausgestellt von. Manchmal wird es zwei Mal ausgegeben und von ebenfalls ausgestellt. Okay? Also ist es egal. Es ist wie von oder kaufen. Es ist die Person, die es ausgestellt hat . Nun, wer hat es ausgestellt? Es ist der Amazon RSA 204803. Okay? Dies ist das Stammzertifikat oder es könnte sich auch um den Einzelhandel mit Zwischenzertifikaten handeln. Das Zwischenzertifikat wird also in ein Stammzertifikat umgewandelt. Es gibt also etwas, das als Zertifikatskette bezeichnet wird . Jetzt siehst du das? Das ist ein Zwischenzertifikat. Dies ist Ihr persönliches Zertifikat, Zwischenzertifikat, Stammzertifikat. Es ist derzeit also verkettet. Also, wenn ich das schließe, fällt alles darunter. Also, wenn ich zur Architektur gehe, hast du die Sekunde, in der ich herkomme. Persönliches Zertifikat, Kündigungszertifikat , Stammzertifikat. Nun, warum es geändert wurde, tut mir leid, warum es verkettet ist und wofür ein verkettetes Zertifikat verwendet Was das selbstsignierte Zertifikat angeht, werden Sie in den meisten Fällen nur ein Personenzertifikat sehen Es wird nur ein Zertifikat geben. Das ist Selbstzeichen. Okay? Manchmal hast du das Zertifikat dieser Person angekettet Okay. Und in dieser Situation ist es immer noch ein selbstsigniertes Zertifikat. Warum? Weil es diesem Stammzertifikat nicht vertraut. Versuchen wir nun zu verstehen, was das Konzept ist warum wir es so aufbauen. Okay? Also das ist ein perfektes Beispiel. Warum ist es so. Warum das Stammzertifikat aus einem Zwischenzertifikat und persönlichen Zertifikat besteht. Wenn Sie ein Zertifikat erstellen, richtig, es wird nur als selbstsigniertes Zertifikat erstellt. Okay. Ähm, das ist der ganze Grund. Also, wenn du ein Root erstellst, wenn du ein Zertifikat erstellst, gibst quasi alle Details über das Zertifikat ein, okay? Das ist es, was du tust. Das tut mir so leid. Es tut mir einfach so, als ob ich es vermasselt habe. Also, wenn Sie ein Zertifikat erstellen, geben Sie quasi die Details ein, und was Sie als Ausgabe hier bekommen, wäre, ähm, tut mir leid, nur eine Sekunde Ähm, ja. Es wäre, es tut mir leid, es könnte eine JKS-Datei, Schlüsseldatei, KDB-Datei, Betwll-Datei Ebenso gibt es so viele Erweiterungen da draußen. Ebenso werden Sie diese Art von Datei erstellen. Dann gehst du zu einer Zertifizierungsstelle wie CA, okay? Und du unterschreibst das Zertifikat von der CA, okay? Wenn Sie es also an die CA binden, erhalten Sie dieses Format. Ihre CA wird über ein Stammzertifikat und ein Zwischenzertifikat verfügen . Also wird er dieses Zertifikat in einer einzigen Datei bündeln, die alle drei Zertifikate sind, und Sie legen es auf dem Server ab. Okay? Jetzt bekommst du hier drüben einen privaten Schlüssel. Du wirst einen privaten Schlüssel bekommen. Du solltest das niemals mit jemandem teilen. Dieser private Schlüssel sollte auch nicht mit einer CA geteilt werden . Denken Sie daran, dass der private Schlüssel zusammen mit diesem gespeichert werden sollte. Also diese spezielle Datei , die Sie direkt nach der Erstellung des Zertifikats als Ausgabe erhalten nach der Erstellung des Zertifikats als Ausgabe , ist ein privater Schlüssel. Wir verwenden also den privaten Schlüssel und generieren etwas namens CSR. Okay. Ähm, es gibt dort mehrere andere Formate, aber lassen Sie uns jetzt einfach bei CSR bleiben CSR wird als Certificate Signing Request bezeichnet. Sie senden also diese CSR-Datei an die CA, nicht den privaten Schlüssel selbst Wenn Sie einen privaten Schlüssel an die CA senden, wird er nicht ausgestellt Sie werden sagen, erstellen Sie das Zertifikat neu und schicken Sie mir die CSR, weil niemand einen privaten Schlüssel sendet, okay Wenn Sie also das Zertifikat neu erstellen, eine weitere Zufallsgeneratornummer dazu. Das ist also die sogenannte Schlüsselgröße. Nun, wenn Sie das auf dieser Website selbst sehen , heißt es 2048 Das ist also die Größe des Schlüssels. Normalerweise finden Sie die Schlüsselgröße also nur in diesem Detail. Ähm. Irgendwo hier findest du die Größe des Schlüssels, ja, hier, 2048 Das ist also im Grunde die Größe Ihrer Schlüsseldatei. Bei Keyf Size geht es um Verschlüsselung. Das ist die Zahl des Zufallsgenerators. Und wenn Sie nur diese Zufallsgeneratornummer verwenden, werden Sie feststellen, dass es sich um ein öffentliches Zertifikat handelt, sodass Sie damit nichts anfangen können. kommt also eine weitere Terminologie ins Spiel: öffentliches Zertifikat, ein privates Zertifikat, oder? Ein öffentliches Zertifikat ist wie ich normalerweise als Beispiel sagen würde, Sie haben zwei Schlüssel zu Ihrem Haus, okay? Ein Schlüssel dient im Grunde zum Verschließen, ein anderer Schlüssel zum Absperren. Also, wenn ein Dieb dich auf der Straße sieht und er dein Haus kennt, dann sagt er, gib mir einen Hausschlüssel Welchen Schlüssel würdest du geben? Nehmen Sie sich eine Sekunde Zeit, denken Sie darüber nach. Wenn du den privaten Schlüssel gibst, ist das zum Entsperren, okay? Schlüssel zum Entsperren des privaten Schlüssels. Und der öffentliche Schlüssel ist der Schlüssel zum Sperren, okay? Sie können also eine beliebige Menge an Inhalten oder eine beliebige Anzahl von Schlössern mit dem Sperrschlüssel sperren. Aber der einzige Schlüssel, der entriegelt werden kann, ist der Entriegelungsschlüssel, aber er weiß nicht, dass Sie diesen Schließschlüssel und den Entriegelungsschlüssel haben diesen Schließschlüssel und den Entriegelungsschlüssel Also wirst du ihm den Schließschlüssel geben. Also alles, was du mit dem Schließschlüssel machen kannst, ist Sachen zu sperren. Aber wer kann ihn entsperren, den privaten Schlüssel, der sich auf deinem Server befindet. Also das Zeug, die Verriegelungsschlösser, richtig, kann nur mit dem Entriegelungsschlüssel entriegelt werden weil der Entsperrschlüssel nur die Logik kennt, wie das Schloss hergestellt wird, denn wer stellt das Der Entsperrschlüssel macht es. Auf diese Weise verschlüsseln Sie also tatsächlich alles von der Kundenseite aus Und was passiert, sobald die Daten übertragen wurden, werden Daten in einem verschlüsselten Format übertragen , das Sie nicht wirklich lesen Es ergibt keinen Sinn, selbst wenn Sie es lesen. Okay? Sobald die Daten eingegangen sind, beginnt der Entsperrvorgang, bei dem der private Schlüssel das Zeug entsperrt Danke für die Zeit und Geduld. Wir sehen uns im nächsten Video , nachdem Sie das Zertifikat verstanden haben, also schauen wir uns den Zertifikatsmanager an. 21. Labs Rest Datenverschlüsselung: Hallo Leute. Willkommen zurück zum nächsten Video. In diesem Video werden wir über die restliche Datenverschlüsselung sprechen . Nun, wo wir die Restdatenverschlüsselung implementieren werden , nachdem wir gesehen haben, wie Verschlüsselung in Bezug auf Ihre HTDPS-Verschlüsselung für die Übertragung von Daten implementieren Ihre HTDPS-Verschlüsselung für die Übertragung von Werden wir hier über die Restmethode sprechen, zum Beispiel darüber, wie wir diese Daten verschlüsseln können Wir haben hier also die drei verschiedenen Speichertypen , ST, EBS und Also werden wir sehen, wie man es verschlüsselt, wenn wir sie erstellen Gehen wir zu unserer Konsole und öffnen wir all diese Dinge. Ich habe es für euch geöffnet, weil mein Internet, wie ihr wisst, etwas langsam ist. In Ordnung. Jetzt bin ich bei drei und wenn ich hier auf Create Bucket klicke, ist eine der Optionen, die mich fragen werden, der Bucket-Name. Sie verwenden ihn für, und dann die Einstellung, Ihr Bucket-Präfix auszuwählen , und dann einige Optionen, ob Sie diesen Zugriff auf die Öffentlichkeit haben möchten, und dann sollte die Bucket-Versionierung für Ihren Bucket aktiviert sein und dann die Verschlüsselung Standardmäßig gibt die Verschlüsselungsseite leider Verschlüsselung mit von AWS verwalteten Schlüsseln Sie können also auch die serverseitige Verschlüsselung mit dem AWS Manage-Schlüssel auswählen , und Sie können tatsächlich Clusom Managkey auswählen , den Sie auf KMS erstellen können Sie können den Schlüssel also für den Zugriff auf das ST-Paket verwenden. Aber ich würde empfehlen, den Standard zu verwenden. Und dann ist hier eine weitere Option, mit der Sie die serverseitige Dual-Layer-Verschlüsselung für den AWS Scheme Management Service aktivieren können die serverseitige Dual-Layer-Verschlüsselung . Für den Dual-Level-Schlüssel fallen hier zusätzliche Kosten an. Sie können sehen, dass Sie auf der Registerkarte mit den Preisen darüber informiert werden Wir verwenden also die Standardverschlüsselung, bei der serverseitige Verschlüsselung handelt, um serverseitige Verschlüsselung handelt, und der Bucket-Key wird aktiviert Sie auf den Bucket-Key zugreifen können, um auf USE-Inhalte zuzugreifen So müssen Sie nun die Verschlüsselung im Sinne von S 3 erstellen Verschlüsselung im Sinne von S und auf Create Bucket klicken. Mir werden keine Einzelheiten mitgeteilt. Ich habe im Moment nicht vor , einen Bucket zu erstellen, also überspringe ich diesen Teil und mache mit den Bänden weiter. Volumes heißt jetzt EBS, Elastic Block Storage. Was nun Elastic Box Storage ist, ist ein Standardspeicher, der mit jeder EC Two-Instance erstellt wird mit jeder EC Two-Instance erstellt Sie sehen hier drei Bände. Sie werden hier drei Beispiele sehen. jeder dieser Instanzen werden also Volumes jeder dieser Instanzen werden also standardmäßig auf dieser Instanz gehostet. Also kopiere ich die Instanz-ID hierher. Ich gehe zu Volumes und wähle das einfach aus und ich werde die Instanz-ID hier sehen. Sie können die angehängte Ressource sehen. Also das ist der eine. Sie werden also sehen , dass die Instanz dort drüben an diesen speziellen Band angehängt ist. IBS-Laufwerke werden also von, Sie wissen schon, Instanzen getrennt. Es wird also angehängt, wenn Sie die Instance starten, und getrennt , wenn Sie nicht möchten, dass Ihre Instances heruntergefahren werden Die Wartung dieses EBS-Volumes ist also kostenpflichtig, okay? Also, wenn Sie Ihre Instance nicht nutzen , werden Ihnen keine Gebühren für die Instance berechnet , die Sie nicht nutzen Ihnen werden aber trotzdem die Volumes in Rechnung gestellt , die Sie auf einem System betreiben oder speichern. Denken Sie jedoch daran, dass EBS günstiger ist als S Three selbst, weil S drei ein Service ist, verwendet werden, wenn sie an eine weil S drei ein Service ist, es ist ein Software-as-a-Service. Aus diesem Grund ist es nicht teuer und Volumes können nur verwendet werden eigene Instanz angehängt sind oder wenn sie an eine andere Instanz angehängt Das ist also quasi nicht über das Internet nutzbar oder man kann mit Volumen nichts anfangen Das ist ein weiterer Unterschied, falls du dich fragst warum ST mehr kostet und EBS weniger kostet Nun, die vorhandene CD, Sie können tatsächlich darauf klicken und Sie können die Details der vorhandenen Festplatte sehen Sie können die Verschlüsselung auch hier sehen. Es heißt also nicht verschlüsselt, was bedeutet, dass jeder auf die Daten zugreifen kann indem er sie in eine beliebige Instanz einbindet und die darin enthaltenen Daten einsehen kann. Das ist keine gute Sache, oder? Also geh einfach zu Volumes und erstelle dann ein Volume. Und wenn Sie dann ein Volume erstellen, haben Sie hier alle Details angegeben und hier gibt es eine Option , dieses Volume zu verschlüsseln Sie können also den Standardschlüssel, den AWS-EBS-Schlüssel, wählen und dann können Sie tatsächlich ein Volume erstellen Auf diese Weise wird das Volume erstellt und es wird ebenfalls mit einer Schlüsseldatei verschlüsselt Wenn Sie nun all diese Schlüssel verwalten möchten, können Sie diesen Schlüssel in KMS verwalten. Dies sind jedoch Standardschlüssel, die normalerweise nicht von Ihnen, sondern von AWS erstellt werden, um die Standardfunktionen zum Laufen zu bringen. Nun, das sind vier Bände. In Bezug auf Datenbank oder RDS, richtig? Wenn Sie also eine RDS-Instanz erstellen, handelt es sich um eine verwaltete Instanz. Ich habe nur eine konkrete Datenbank. Es dauert nur ein bisschen, also habe ich das geöffnet. Unter Datenbank erstellen haben Sie den Standard Create und dann wählen Sie die Datenbank aus und Sie nehmen hier einige Änderungen vor, und dann wählen Sie hier den Verschlüsselungsschlüssel aus. Hier ist die Verschlüsselung und, ähm, der Secret Manager hier drüben. Ich bin mir nicht sicher, ob das der Ausweis ist. Das ist nicht die Verschlüsselung, über die wir gesprochen haben. Es geht darum, wie Sie die Datenbank mit welchem Schlüssel verschlüsseln Das ist die Rede davon. Wenn Sie die eigentliche Verschlüsselung von Daten wünschen, müssen Sie herunterkommen und zur zusätzlichen Konfiguration wechseln. Und dann unten sehen Sie hier die Verschlüsselung. Standardmäßig wird die Verschlüsselung hier aktiviert, Sie sehen das, dann wird der standardmäßige KMS-Schlüssel für die AWS-RDS-Verschlüsselung verwendet. Dann können Sie die Konto-ID und den Schlüssel sehen und dann einfach auf Erstellen klicken. Es wird RDS mit Verschlüsselung erstellen. Das sind also die wenigen Dinge , die Sie verstehen sollten, bevor Sie damit fortfahren. Und das ist vielleicht nicht so detailliert. werden dich nach einer Prüfung fragen, aber vielleicht fragen sie dich nach dem Oo, ich gebe dir nur die Hand, weil du das wissen solltest, weil es sehr nützlich sein wird , wenn du zur nächsten Zertifizierung gehst oder wenn du wirklich an AWS arbeiten willst. Es gibt also alle möglichen praktischen Übungen, mit denen ich Ihnen etwas beibringen möchte. Nochmals vielen Dank für Ihre Geduld und Zeit Wir sehen uns im nächsten Video. 22. Labs Transist Data Encryption (ACM): Hallo Leute, willkommen zurück vom nächsten Video. In diesem Video werden wir einige praktische Hinweise auf Ihren Zertifikatsmanager sehen . Ein Zertifikatsmanager wird für die Verschlüsselung Ihrer Daten verwendet , die übertragen werden. Sie werden also Ihre gesamte Kommunikation auf HTTPS umstellen , sowohl während der Verbindung zu Ihrem S Three als auch zu Ihrem RDS Wenn Sie eine Verbindung zu S Three oder RDS oder ESP herstellen, verwenden Sie tatsächlich einen Kanal, der entweder als ELB Elastic Load Balancer bezeichnet ELB Elastic Load Balancer wird, oder Sie verwenden dafür CloudFront Lassen Sie uns nun weitermachen und das im Rahmen dieser, Sie wissen schon, Demositzung konfigurieren Rahmen dieser, Sie wissen schon, Demositzung Ich werde nun auf den Zertifikatsmanager zugreifen. Das ist also ein anderer Dienst, der da draußen ist. Klicken Sie also mit der mittleren Maustaste darauf und Sie können sehen, dass der Zertifikatsmanager derzeit keine Zertifikate in Ihrem Konto hat . Also so ziemlich das. Und hier haben Sie die Möglichkeit, ein privates Zertifikat zu erstellen. Jetzt können Sie diese Option verwenden, ein privates Zertifikat zu erstellen , mit dem Sie hier tatsächlich ein privates Zertifikat erstellen können . Wenn Sie einfach darauf klicken, können Sie tatsächlich auswählen, welche Art von privatem Zertifikat Sie benötigen. Was ist nun ein privates Zertifikat? Ein privates Zertifikat ist nichts anderes als dieses, das Stammzertifikat, das sich hier drüben befindet. Sie können also Ihre Zertifizierung selbst erstellen und Sie können Ihre Organisation und all diese Details über einen gemeinsamen Namen für Ihre, Sie wissen schon Ihre Organisation und , Website und alles andere Und dann können Sie die Größe auswählen und auf Ich bestätige das und dann auf Ich erstelle CA klicken auf Ich bestätige das und dann auf Ich erstelle CA Sobald Ihre CA erstellt ist, können Sie tatsächlich zum Zertifikatsmanager zurückkehren und hier ein Zertifikat anfordern. Hier wird es also eine Option geben, die momentan deaktiviert ist, aber Sie können diese tatsächlich auswählen und ein privates Zertifikat erstellen. Jetzt ist keine private Zertifizierungsstelle für die Ausstellung verfügbar, was bedeutet, dass derzeit kein privates Zertifikat verfügbar ist , dass derzeit kein privates Zertifikat verfügbar Deshalb ist diese Option deaktiviert Sobald Sie das getan haben, können Sie diesem Prozess folgen und ein Zertifikat erstellen Erstellen eines öffentlichen Zertifikats erfolgt nun weitgehend wie das Erstellen eines privaten Zertifikats, es wird jedoch eine zusätzliche Option geben. dieser einen Option geht es darum, Ihre Privatsphäre auszuwählen , die Sie gerade hier erstellt haben. Das ist die zusätzliche Option. Aber tatsächlich kann derselbe Prozess auch hier auf dem öffentlichen Zertifikat beobachtet werden . öffentliche Zertifikat fordert ein öffentliches SSL-TLS-Zertifikat von MOI Zone Öffentliche Bit-4-Zertifikate werden von Browsern und Betriebssystemen als vertrauenswürdig eingestuft Browsern und Betriebssystemen Wenn Sie nun vorhaben, Anwendungen zu erstellen, die über das Internet aufgerufen werden, wird immer empfohlen, ein öffentliches Zertifikat zu erstellen Wenn Sie jedoch planen, aus Ihrer Anwendung zum Durchsuchen innerhalb Ihrer AWS-Registrierung ein Zertifikat in sich selbst zu erstellen aus Ihrer Anwendung zum Durchsuchen innerhalb Ihrer AWS-Registrierung ein Zertifikat in sich selbst , können Sie sich für ein privates Zertifikat entscheiden Daher würde ich in diesem Fall empfehlen , sich für ein öffentliches Zertifikat zu entscheiden Einer der wichtigen Schritte , die wir hier tun müssen, ist die Angabe des vollständig qualifizierten Domainnamens. Was ist nun das Problem bei Angabe eines vollqualifizierten Domainnamens? Sie müssen einen Domainnamen auf Ihren Namen registrieren lassen. Nehmen wir zum Beispiel an, Sie möchten einen Domainnamen registrieren, Sie möchten sehen, wie hoch der Preis ist, bevor Sie sich registrieren. Die Domainregistrierung erfolgt also vollständig über Route 53. Wählen Sie hier Route 53. Und Sie können einfach modal auf die Route 53 klicken. Ich habe die Zeile 53 hier schon geöffnet. Wenn Sie sich in der Zeile 53 befinden , werden Sie standardmäßig zu registrierten Domains weitergeleitet. Jetzt stellen Sie fest , dass derzeit nicht viele Register-Domins verfügbar sind Ich habe meine Website namens beyondcloud.ai, und die ist bei einem anderen Anbieter registriert, wissen Sie, der natürlich nicht AWS ist Jetzt werden Sie sehen , dass Sie derzeit die Optionen hier haben. Entweder können Sie das N-Signal oder mehrere Domains von einem anderen Domaindienstanbieter übertragen einem anderen Domaindienstanbieter oder Sie können die Domain hier registrieren. Jetzt ist meine Website, auf der ich mich registriert habe , nicht mehr als cloud.ai. Wenn Sie nach dieser Website suchen und prüfen, ob sie verfügbar ist, wird die TLD nicht unterstützt Was meinst du damit? Das bedeutet , dass KI von obs nicht unterstützt wird. Sie können also sehen, dass die Preisgestaltung der Domain je nach Top-Level-Domain-TLD variiert Das ist die TLD-Bedeutung, zum Beispiel wie.com.org. Was jetzt verfügbar ist, ist.mobi.net dottv.com Punkt M. Aber Beyond Cloud gibt es nicht auf.com . Sie haben Blow Cloud, gut beyoncloud.com. Oder so ähnlich, aber nicht über die Uhr hinaus. Okay? Jetzt ist der Preis nicht hoch, wie Sie hier sehen können, nur 14 USD. Jetzt können Sie dies auswählen und Sie können tatsächlich die Zahlung tätigen und mit dem Auschecken fortfahren. Also das ist, ich denke, es ist für ein Jahr gültig, oder? Also gehen wir zum Auschecken. Also automatische Verlängerung dieser Domain. Das ist also für ein Jahr gültig, ja. Aber du kannst es auch auf zehn Jahre ändern, ähm, also es liegt ganz dir, wie du das machen willst. Okay. Sobald das erledigt ist, können Sie auf Weiter klicken und dann die Zahlungsoptionen auswählen und dann Ihre Kontaktinformationen eingeben , überprüfen und abschicken. Auf diese Weise können Sie also eine Domain registrieren und diese Domain auf Ihren Namen registrieren lassen. Sobald diese Domain registriert ist, können Sie den Domainnamen kopieren und hier das öffentliche Zertifikat eingeben. Jetzt geben Sie hier den Domainnamen ein. Jetzt können Sie hier auch einen anderen Namen mit einem chronischen Namen namens pub blocloud.com hinzufügen einem chronischen Namen namens pub blocloud.com Dieses Zertifikat wird also nicht nur mit diesem, sondern auch mit diesem verwendet nur mit diesem, sondern auch mit Sie fügen auch ein weiteres hinzu und geben dann stardt Sorry ein. Es tut mir nochmal leid. star.BlowCloud.com. Nun, was passiert, wenn du das tust? Ganz einfach. Ähm, du wirst SN-Namen bekommen. SN-Namen sind nichts anderes als alternative Betreffnamen. Was meinst du mit alternativen Betreffnamen? Bisher, wenn Sie einer bestehenden Website einen weiteren Domainnamen hinzufügen möchten , z. B. mail.belowcloud.com oder chat.belowcloud.com oder news.belowcloud.com mail.belowcloud.com oder chat.belowcloud.com oder news.belowcloud.com. Früher haben wir Zertifikate erstellt, unterschiedliche Zertifikate für jeden Domainnamen, aber jetzt nicht mehr. für jeden Domainnamen, aber jetzt nicht mehr. Was wir also nennen, ist ein SAN-Name , der entstand und wurde so beliebt. Und was wir normalerweise tun ist, einen SAN-Namen einzugeben, in dem Sie mehrere andere Möglichkeiten haben, Ihren ähm, Domainnamen zu durchsuchen . Also wenn ich diesen Start beloclod.com habe, kann ich das tatsächlich entfernen, weil ich das nicht brauche, weil star.belowcloud.com Also, ähm, Sie werden die Dens-Validierung hier durch, ähm , die Dens-Validierung sehen . Also, was Sie tun werden, ist diese Option zu verwenden, Sie werden autorisieren, dass diese bestimmte Domain Ihnen gehört, und was Sie tun werden, um sie zu autorisieren, ist einen Cname in Ihren A-Eintrag einzugeben Unabhängig davon, welchen A-Eintrag Sie im DNS haben, Sie ihm einen Cname hinzu Dafür benötigen Sie nun eine registrierte E-Mail-Adresse Ich bin bei einem anderen Anbieter und kann diesen Anbieter fragen. Ich habe die Anmeldeschnittstelle, über die ich den Cename hinzufügen und autorisieren kann Das ist also der Weg, es zu autorisieren. Eine andere Art der Autorisierung ist, äh, die Gültigkeit von E-Mails. Wenn Sie keine Erlaubnis haben oder keine Erlaubnis erhalten können, den DNS-Namen zu ändern, können Sie die E-Mail verwenden und dem Domainnamen tatsächlich Gültigkeit verleihen Ich meine, gültige Domain optional, gültige Domain optional. Das ist also im Grunde der Domainname hier drüben, und Sie können die E-Mail-Gültigkeit hier verwenden. Also hier, wenn Sie gehen, müssen Sie den Cname aktualisieren. Wenn Sie gehen, ist eine E-Mail-Bestätigung erforderlich Wir können also keine der beiden Optionen wählen , weil wir den Domainnamen nicht besitzen Und dann ist hier der Schlüsselalgorithmus. Also bleib bei 2048. Einfach auf Anfrage klicken. wurde ein Zertifikat für uns erstellt, öffentliches Zertifikat, dessen Validierung jedoch noch aussteht. Warum steht die Validierung noch aus? Weil du musst. Ähm, du musst den C-Namen aktualisieren. Okay? Also musst du deinen Dienstanbieter angeben oder, falls nicht, deine Route 53. Also ähm, hier selbst gibt es die Option, eine Route auf dieser zu erstellen. Also im Grunde wird es den DNS-Eintrag auf Route 53 erstellen , wenn Sie diesen Bmin bei Amazon registriert haben . Ich werde herkommen. Wählen Sie die Domain aus, erstellen Sie Datensätze. werden automatisch ohne Ihr Eingreifen erstellt Die Datensätze werden automatisch ohne Ihr Eingreifen erstellt, sodass Sie wirklich nichts tun müssen. Wenn Sie jedoch bei einem anderen Anbieter registriert sind, müssen Sie dorthin gehen, den Came aktualisieren, zu Ihrem Datensatz gehen, den C-Namen überprüfen und den C-Namen aktualisieren, den Domainnamen entsprechend abgleichen, und das wird als Bestätigung hier angezeigt. Okay? Also kannst du das sehen. Sname dann Snam-Wert. Das sollte also ein Sname und der Wert des Snamens sein. Also auf diese Weise, ähm, authentifizieren Sie quasi bei Amazon, dass diese Domain Ihnen gehört, und wofür Amazon, Sie wissen schon, das Zertifikat erstellen wird , ist für Okay? Und wenn du das gemacht hast, wenn du es abgeschlossen hast, dann musst du es woanders implementieren, oder? Sie müssen dieses Zertifikat, das ein L-Teil ist, irgendwo implementieren . Gehen wir also zum Load Balancer. Also das ist der Ort, an dem wir das machen werden. Also gib einfach Load Balancer ein. Es ist eine Funktion, kein Service. Es ist also eine Funktion unter ZT. Sie können diese Funktion also einfach direkt öffnen. Es wird also unter EC zwei fallen. Und darunter wird es hier beim Lastenausgleich kommen. Erstellen Sie jetzt Ihren Load Balancer. Der Application Load Balancer ist der weitaus einfachere. Es gibt einen noch einfacheren Load Balancer, der sich hier versteckt, oder den klassischen Load Balancer, aber wir verwenden ihn nicht so oft , weil er von der vorherigen Generation ist und, weißt du, ziemlich alt ist Der Application Load Balancer funktioniert also perfekt. Und Network Load Bancer ist eher ein Nischenprodukt, aber dann ist es für Ultraprozess-, Sie wissen schon, ultrahochleistungsfähige Sachen Suplicon Application Load Balancer. Sie können auch sehen, wie der Application Load Balancer funktioniert. Wir werden zu einem späteren Zeitpunkt über die Anwendung des Gleichgewichts sprechen . Aber hier, nur hier für unterhalb der Cloud. Ich werde einfach den Namen darunter kopieren . Cloud ist der Name dafür. Ich möchte, dass es mit dem Internet verbunden ist, weil wir unser öffentliches Zertifikat erstellt haben, und hier ist der PC, es ist die VPC Sie müssen mindestens zwei Availability Zone-Standorte auswählen , die Sie sehen können , und ein Subnetz pro also nur AZ auswählen, erhalten Sie tatsächlich ein Subnetz pro Zone Warum? Weil Sie auf Ihrem Load Balancer über eine Load-Balancing-Funktion verfügen müssen , sodass Sie zwei AZs auswählen müssen Okay. Jetzt in der Sicherheitsgruppe werden wir das Standard-SG verwenden, das nicht geändert wird. In Bezug auf das Listening oder Routing, wohin es weitergeleitet werden muss. Sie müssen die Zielgruppe hier auswählen. Wir haben es nicht, weil wir nichts geschaffen haben, aber wir sind wegen SSL hier, also mach dir keine Gedanken darüber, wohin es zielen wird. Ändere das von STDP auf HTTPS. Jetzt ist HTTPS die Kommunikationsmethode für uns, also werden wir hier HTTPS mit der Portnummer 443 verwenden hier HTTPS mit der Portnummer 443 Und wenn du das auswählst, wird es hier eine neue Option geben. Sie haben also die Sicherheitsrichtlinie für SSL und dann haben Sie die SSL-Richtlinie hier. In dieser SSL-Richtlinie geht es also darum, wo Sie das Zertifikat von ACM, Ihrem AWS-Zertifikatsmanager, ACM, erhalten, okay? ACM, Ihrem AWS-Zertifikatsmanager, ACM, erhalten, Oder von IAM. Sie können das Zertifikat auch in IAM, Identity Access Management und Eingabezertifikat laden Identity Access Management und Eingabezertifikat Wenn Sie also die BEM-Konfiguration hochladen möchten, COVID-basiert oder ähm, Sie wissen schon, Sie haben die Zertifizierungsstelle oder Sie können die Zertifikatszertifikatsketten ändern Zertifikatszertifikatsketten Sie können sie auch übertragen Also werde ich es von ACM laden. Okay? Also, ACM wird dein Zertifikat hier haben. Wenn Sie das also aktualisieren, werden Sie das Zertifikat hier sehen Sobald Sie Ihr Zertifikat erfolgreich, wissen Sie, validiert haben , wird das Zertifikat mit dem Zertifikat hier angezeigt Wählen Sie es aus und klicken Sie dann auf Creat Bedensa Auf diese Weise werden Ihre Ladungsmarken mit SSL und HTTPS erstellt und es wird die Kommunikationsroute über das Zertifikat verwendet, Zertifikat verwendet wobei die öffentliche Zertifikatsprüfung benotet die öffentliche Zertifikatsprüfung Wenn Sie nun ein öffentliches Zertifikat erstellen, müssen Sie mich fragen, wo ist mein privates Zertifikat Was Sie benotet haben, ist eigentlich ein privates Zertifikat. Aus dem privaten Zertifikat das öffentliche Zertifikat exportiert und hierher geschickt , und das heißt, nur das private Zertifikat wäre auf der Serverseite, was Sie hier sehen oder was an den Browser gesendet wird , ist das gesamte öffentliche Zertifikat Okay. Wir nennen es also nicht privat, ein Zertifikat muss erstellt werden, sondern wir nennen es öffentliche Zertifikate, sondern wir nennen es öffentliche Zertifikate Schwerpunkt auf dem Wort „öffentlich“ weil es Zugriff auf das öffentliche Netzwerk haben wird Aber was wir nicht betonen oder was im Hintergrund passiert, ist, dass ein privates Zertifikat erstellt wird, das verwendet und auf dem Server gespeichert wird Zur Entschlüsselung. Okay? Also das ist der Grund warum sie hier Zertifikat sagen. Sie haben hier nicht öffentliches Zertifikat gesagt, wählen Sie das Zertifikat aus , das Sie erstellt haben. Aber wenn Sie es erstellen, nennen wir es das öffentliche Zertifikat. Aber wissen Sie, hier, öffentliche Umfrage. Aber sie versuchen zu betonen, dass es öffentlich zugänglich sein wird, aber das ist ein Zertifikat, das Sie erstellen. Okay? Also das betonen sie und sonst nichts Also gut, dann hast du die Hands-On gesehen und ich kann dir nichts anderes zeigen als heute Ich hoffe, Sie hatten Spaß an dieser praktischen Sitzung. Wenn Sie Fragen haben, hinterlassen Sie diese bitte im Fragenbereich. Ich helfe Ihnen gerne weiter. Ich werde einfach löschen, was ich gerade erstellt habe. Ich gebe hier die Option Löschen an. Klicken Sie auf Delit und das hätte verschwinden sollen. Perfekt. Danke nochmal. Wir sehen uns im nächsten Video. 23. Labs AWS Audit Manager: Hallo Leute. Willkommen zurück zum nächsten Video. In diesem Video werden wir uns mit dem Audit Manager befassen. Damit Sie sich ein Bild davon machen können, Audit Manager, AW Audit Manager. Klicken Sie nun mit der mittleren Maustaste auf den Auditmanager. Jetzt sehen Sie den Auditmanager, der hier geöffnet ist. Jetzt können Sie Ihre AWS-Nutzung kontinuierlich überprüfen , um den Umgang mit Risiken und Compliance zu vereinfachen. Denken Sie jetzt daran, dass dies eine Funktion ist, die Sie aktivieren müssen. Die ersten 35.000 Bewertungen sind völlig kostenlos Sie können also einfach auf Neue Bewertung erstellen oder AWS als Manager einrichten klicken Neue Bewertung erstellen oder AWS als Manager einrichten Jetzt können Sie dafür eine mit dem IAM-Service verknüpfte Berechtigung oder Rolle einrichten dafür eine mit dem IAM-Service verknüpfte Berechtigung oder Rolle Das können Sie jetzt überspringen. Sie können diesen Zugriff auch einer anderen ID zuweisen, da dies Optionen sind , die Teil Ihrer Organisation sind und sie immer wieder auftauchen Wenn Sie keine Urheberorganisation haben, würden Sie das nicht sehen Dann können Sie diese AWS-Konfiguration sehen, sodass Sie dem Audit-Manager erlauben können , Daten aus Ihrer AWS-Konfiguration zu sammeln. So können Sie dem Auditmanager erlauben, AWS-Konfigurationsinformationen zu sammeln , um Beweise für Ihre Konfigurationsregeln zu generieren. Das heißt, wenn Sie eine benutzerdefinierte Anforderung für Ihr Unternehmen haben, wird das Audit durchgeführt und das Audit erfasst all diese benutzerdefinierten Anforderungen. Dabei wird AWS Manager verwendet, was mit Atos Manager erfasst wird Es tut mir leid, AW Config. Dann kann es vom AWS-Audit Manager erfasst werden. Und dann können Sie tatsächlich dorthin gehen und diesen Teil des AWS-Audit-Managers machen . Sie können auch Daten über den Security Hub sammeln, wir bereits gesehen haben. Es sammelt Daten oder Sicherheitsinformationen aus verschiedenen Quellen Ihrer Konten, sodass Sie Zugriff auf eine Konsole haben , auf der tatsächlich alle sicherheitsrelevanten Informationen sodass Sie auch Daten von dort sammeln können. Wenn Sie nun auf Einrichtung abschließen klicken, können Sie sehen, dass der Auditmanager die Einrichtung vorgenommen hat. Nun, die grundlegende Funktion von Audit Manager besteht darin, Berichte aus verschiedenen Frameworks zu sammeln Berichte aus verschiedenen Frameworks und, äh, Sie wissen schon, Elemente etwas , was Dienstleistungen, tut mir leid, nicht Artikel, Dienste, von denen wir vorhin gesprochen haben, und es wird diese Bewertung herunterladen und Sie können tatsächlich für jeden dieser Artikel das Dashboard aufrufen und dann überprüfen, was war bisher gemacht. Jetzt können Sie auch hier eine Bewertung erstellen und einfach den Namen und den Zielort des Bewertungsberichts angeben den Zielort des , damit Sie diese Bewertung für sich behalten können. Jetzt können Sie auswählen, welche standardisierten Bewertungen verfügbar sind , und Sie können diese tatsächlich auswählen und dann eine Bewertung erstellen. Dies sind Standardvorlagen für diese Bewertungen für die internationale Organisation für Normung Ebenso haben Sie Bewertungen, bei denen es im Grunde genommen darum geht all diese Informationen zu erfassen Das meiste davon sind AWS-Informationen, die besagen, dass Ihre Anwendung dem ISO-Standard entspricht, und während Sie diese Anwendung bewerten, können Sie sie auch in einen Verlaufs-Bucket können Sie sie auch aufnehmen, den Sie zu einem späteren Zeitpunkt an jeden beliebigen Benutzer exportieren können zu einem späteren Zeitpunkt an jeden beliebigen Benutzer exportieren Nochmals vielen Dank für Ihre Zeit und Geduld. So arbeitet der Audit Manager praxisnah 24. Labs AWS Cloud Watch: Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir zum Anfassen über Amazon Cloud Watch sprechen . Gehen wir also zur EC Two-Instanz über , die Sie gerade erstellt haben. Wenn Sie jetzt hierher gehen, werden Sie die laufenden Instanzen sehen. Wenn Sie jetzt darauf klicken, wird es Ihnen mit dem laufenden Filter angezeigt. Der Instanzstatus entspricht also dem Ausführen. Das bedeutet also, dass Sie nur die Instanzen sehen, die sich im laufenden Zustand befinden. Also wirst du das bekommen. Wenn Sie also alle Instanzen sehen möchten, schließen Sie dies einfach oder löschen Sie den Filter. Beides hilft dir dabei, dir alle verbleibenden Instanzen zu zeigen , die du in deiner Region hast. Also, was werden wir jetzt tun? Wir werden uns CloudWatch ansehen. Damit Sie sich Cloud Watch ansehen können, ist BT Fault Cloud Watch Teil Ihrer um EC Two-Instanz Klicken Sie einfach darauf und die EC Two-Instanz wird hervorgehoben und ausgewählt. Darunter finden Sie hier Details. Sie können dies erweitern und Sie können tatsächlich die Instanzübersicht sehen. Wir werden zu einem späteren Zeitpunkt ausführlich darüber sprechen, aber wir werden uns eine der Funktionen ansehen, die sich auf Cloud Watch bezieht, nämlich die Überwachung. Der Name Cloud Watch impliziert, dass die Cloud Ihre Instanzen, Ihre Anwendungen und all die Dinge, die Sie im Rahmen Ihrer Amazon Web Services tun , beobachtet, beobachtet. Das ist im Grunde ein Überwachungssystem, Sie werden also feststellen, dass es hier überwacht wird. Was beobachtet es da? Cloud Watch Agent ist Agent-Metriken. Es sammelt tatsächlich die Daten. Jetzt können Sie hier tatsächlich mehr Details sehen, indem Sie auf Managed Detail Monitoring klicken , und Sie können die detaillierte Überwachung hier aktivieren. Nachdem Sie beispielsweise die Detailüberwachung aktiviert haben, die Überwachungsdaten innerhalb von 1 Minute verfügbar. Das sind die Details , um die es geht. Wenn Sie diese Informationen derzeit hier sehen, werden sie alle 5 Minuten empfangen. Wenn Sie jedoch Informationen für 1 Minute haben möchten, können Sie dies aktivieren. Es fallen jedoch zusätzliche Gebühren an. Denken Sie daran , bevor Sie eine Änderung vornehmen. Wenn Sie also darauf klicken, gelangen Sie zu CloudWatch und Sie sehen den Preisrechner Sie können zur Preisrechner-App wechseln Oder Sie können das von hier aus einfach deutlich sehen. Hier geht es um Pay-Tire in Bezug auf Baumstämme. Wenn Sie also nur die Daten sammeln, erhalten Sie einen Standard von 0,5 pro GB für die Überwachung. Was den seltenen Zugriff angeht, bedeutet 0,2 seltener Zugriff, dass kein häufiger Zugriff darauf erfolgt Ebenso haben Sie die Gebühren hier. wir uns darüber im Moment also keine Gedanken , denn das ist nicht Teil Ihrer Zertifizierung und es ist auch nicht erforderlich, alle 1 Minute genau hinzuschauen. Nehmen wir die Standardeinstellung alle 5 Minuten, und Sie können die CP-Auslastung, die Netzwerkauslastung in Bezug auf Eingabe, Ausgabe, Patches, leider eingegangene Pakete, ausgehende Pakete und Sie können die CPU-Guthabenauslastung hier sehen, die Kreditauslastung der CPU und den CPU-Guthabenstand geht . Dadurch erhalten Sie tatsächlich vollständige Informationen darüber. Wenn Sie weitere Informationen dazu wünschen, können Sie tatsächlich zu CloudWatch selbst gehen Sie nun auf den Suchtyp Cloud Watch, und Sie werden hier einen Dienst sehen Klicken Sie einfach mit der mittleren Maustaste darauf und er wird auf einer neuen Registerkarte geöffnet Jetzt können Sie sehen, dass Sie ein leeres Dashboard haben. Hier gibt es kein Dashboard. Was Sie also tun können, ist entweder ein automatisches Dashboard über Ihre EC Two-Instance zu verwenden und dieses EC Two-Dashboard hier zu laden . Nun, was es Ihnen zeigen wird , die vorhandenen all Ihre EC-Zwei-Dienste , die Sie hier haben, was auch immer läuft. Also im Grunde zeigt es Ihnen, zwei Dienste für mich in den beiden EC laufen, also zeigt es diese Grafiken. Die anderen sind heruntergefahren, also werden Sie einfach nicht als Teil davon angezeigt. Also bekommst du irgendwie mehr Informationen. In der zweiten EC-Ebene konnten wir also bisher nur die CPU-Informationen, Netzwerkinformationen und CPU-Guthabeninformationen finden. Aber wenn Sie das hier sehen, erhalten Sie die durchschnittliche Auslastung, Informationen zum Lesen der Festplatte, zum Schreiben von Festplatten und Netzwerkinformationen, und dann können Sie sich hier einige Informationen zum Einchecken ansehen . Dies sind nun einige der Elemente, die Sie sehen werden. Sie können dieses Dashboard auch anhand von Live-Daten anpassen und diese dann als Teil Ihres Standard-Dashboards hinzufügen. Sie können auch ein anderes Dashboard auswählen , das ebenfalls über S-3-Funktionen verfügt. Ich habe ein paar S Three Buckets. Also im Grunde wechsle ich hier einfach zu S drei. Ebenso können Sie das automatische Dashboard erstellen oder verwenden. Sie können das Dashboard auch so eingeben. Hier siehst du diese Daten, oder? Sie können also auch hier etwas zum Dashboard hinzufügen, das tatsächlich zum Dashboard hier geht und das Dashboard zu Ihrer Cloud-Uhr hinzufügt. nun ein Dashboard hinzu, sodass Sie einen schnellen Überblick über die Ressourcen haben einen schnellen Überblick über , die für Sie wichtig sind. Sie können tatsächlich ein Dashboard konfigurieren , indem Sie hier klicken, auf Dashboard klicken und ein Dashboard erstellen. Beim Erstellen eines Dashboards wird nun der Name Ihres Dashboards benötigt, den ich testen werde. Und dann können Sie jedes Element hier eingeben. Sie können also tatsächlich eine Datasocia erstellen , die Prometes oder S Three Bucket verwendet, oder Sie können CloudWatch selbst dafür verwenden Sie können Metriken, Protokolle und Alarme einloggen. Wenn Sie sich also daran halten, können Sie hier einen nach dem anderen Parameter hinzufügen und auswählen, welche Elemente Sie als Teil dieses Dashboards hinzufügen möchten . Also wähle ich EC zwei. Es kommen 317 Metriken von EC Two Instance. Wenn Sie also darauf klicken, werden Sie hier mehr von dieser Präinstanz-Metrik sehen , mit nur 256 für alle Instanzen, die Sie haben. Okay? Also, wenn ich von Pre-Instance-Metrik spreche, schauen wir uns das an. Nun, Sie sehen, dass es hier so viele Instanznamen mit der Instanz-ID gibt, oder? Hier gibt es also keine spezifischen Namen, und Sie können sehen, dass es ein Eingabepaket gibt. Was für Sie also wichtig ist, Sie können diese Instanz-ID auswählen. Ich kopiere die Instanz-ID. Ich bin hier drüben, ich suche nach diesem Instanznamen. Also nur die instanzbezogenen Artikel, die hierher kommen. Wählen Sie nun diesen Instanznamen und ich erstelle einen Assistenten. Jetzt können Sie sehen, dass hier so ziemlich alle diese Elemente in einem Assistenten zusammengefasst werden, was etwas verwirrend sein kann, da ein Element viele Elemente enthält. Sie können also auch ein anderes Dashboard erstellen. Sie können also einen Artikel separat auswählen. also auf den nächsten klicken und hier dasselbe tun , können Sie diesen Instanznamen auswählen. Und dann können Sie auswählen, anstatt alle Elemente auszuwählen, Sie können ein Element auswählen. Und erstelle einen Assistenten. Hier geht es nur um die CPU, CPU, nicht um die Zahl der Festplatten-Bytes. Ebenso können Sie für jeden erstellen und Ihr eigenes Dashboard erstellen. Wenn Sie also zum Dashboard kommen, sehen Sie den Namen des Dashboards. Wenn Sie auf das Dashboard klicken, sehen Sie tatsächlich die Leistung dieser bestimmten, ähm, Sie wissen schon, Instanz. Sie können das Dashboard also hier löschen. Und das Dashboard ist entfernt. Das ist also so ziemlich , wie man ein Dashboard erstellt. Hier ist der Alarm. Sie können also auch ein Alarum erstellen Im Moment gibt es also kein Alarum. Ich sehe hier keine Alarme. drüben wird auch eine Alarmanlage gebaut Hier drüben wird auch eine Alarmanlage gebaut, die ein Gebäude sendet Jetzt, wo Sie hier kein Alarum haben, können Sie Larum erstellen, Dies ist eigentlich nicht Teil Ihrer Zertifizierung. Ich zeige es dir nur, weil ich Erfahrung damit habe. Sie können also festlegen, dass diese EC-Two-Instance-Suche nach diesem Servernamen erfolgt, und Sie können die CPU-Auslastung tatsächlich erfassen. CPUtilization ist also hier drüben. Matrix festlegen. Jetzt können Sie hier den Alarm für diese spezielle Nutzung einstellen. Alarum-Diagramm hier drüben wird quasi ein Live-Diagramm Es zeigt Ihnen tatsächlich die dynamische Ansicht dessen, was Sie einstellen Hier sagen Sie, wenn ich möchte, dass dieser Alarm ausgelöst wird, wenn die CP-Auslastung höher ist, als ich das hier sehen kann Sie können hier also den Prozentsatz angeben , 80 Prozent Sie können also sehen, dass es auf 80 Prozent eingestellt ist. Im Moment ist es sehr viel, ich meine, es ist im Moment eine geringe Auslastung. Wenn Sie also nur 20 Prozent sagen, können Sie tatsächlich einen Unterschied erkennen, nicht viel. Es ist 0,1. Sie können also auch einen Alarm einstellen und den Alarm tatsächlich in diesem bestimmten Diagramm selbst sehen den Alarm tatsächlich in diesem bestimmten Diagramm und dann auf Weiter klicken Und was möchten Sie tun, wenn dieser Alarm ausgelöst wird? Sie können hier ein SNS-Thema erstellen, und dieses SNS-Thema ist nichts anderes als ein einfacher Benachrichtigungsdienst, und Also habe ich es für eine andere Anwendung gemacht , sodass Sie es ignorieren können Und dann können Sie auch die Lambda-Funktion auslösen. Sie können auch Auto Scaling auslösen. Sie können die Autoscaling-Gruppe hier auswählen. Sie können auch eine EC-2-Aktion auswählen, z. ein Neustart des Servers oder ein Server-Shalwn oder etwas Ähnliches kannst du machen. Klicken Sie auf das nächste Symbol und dann können Sie es, Sie wissen schon, erstellen, aber es braucht ein SNS-Thema hier drüben. Fügen Sie hier also einen Namen und eine Beschreibung sowie eine Vorschau hinzu und erstellen Sie einen Alarm Das ist also ziemlich einfach und das Erstellen eines Alarums Das sind also die beiden Dinge, die wir diesem Video behandeln wollen Nochmals vielen Dank fürs Zuschauen. Jetzt wissen Sie also, wie Sie Ihre Anwendung mit CloudWatch überwachen Ihre Anwendung mit CloudWatch Es gibt noch andere Dinge , die Sie zu einem späteren Zeitpunkt behandeln , also machen Sie sich darüber keine Sorgen 25. Labs AWS CloudTrail: Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir uns die Cloud-Testversion ansehen. Für die Cloud-Testversion müssen wir nun möglicherweise hier reingehen und dann den Dienstnamen als Testversion eingeben. Also das sollte, okay. Das funktioniert nicht. Cloud-Testversion. Ja, bitteschön. Also klicken Sie mit der mittleren Maustaste darauf und Sie sollten es als neues Fenster öffnen. Und in diesem Fenster sollten Sie die Cloud-Testversion hier sehen. Perfekt. Denken Sie also daran, dass die Cloud-Testversion einen Preis hat. Sie können also tatsächlich Ihre eigene Testversion erstellen. Im vorherigen Video zur Architektur haben wir also herausgefunden, dass Sie tatsächlich Ihre eigene Cloud-Testversion erstellen und sich dann einen bestimmten Dienst ansehen und dann diesen bestimmten Dienst verfolgen können. Alternativ zu diesem Demo-Zweck, oder? Sie haben also etwas, das als Ereignisverlauf bezeichnet wird. Wir befinden uns also gerade auf Einführungsseite für die Cloud-Testversion , auf der Sie Ihre eigene Cloud-Testversion erstellen können. Das entspricht also dem Aufrufen Dashboards und der Erstellung einer Testversion. Bei der Erstellung einer Testversion erstellen Sie also tatsächlich den Namen der Testversion, aktivieren für meine gesamte Organisation, was bedeutet, dass Sie für alle Konten in Ihrer Organisation aktivieren können , einen neuen Bucket, ST-Bucket, erstellen können. Dieser ST-Bucket speichert das Protokoll Ihrer Cloud-Testversion, die Audit-Logs, und protokolliert dann die Verschlüsselung, wodurch die Verschlüsselung für dieses Protokoll aktiviert wird. Und dann wird hier ein neuer KMS-Schlüssel für die Verschlüsselung erstellt . Und dann aktivieren wir hier CloudWatch als Teil des Protokolls Cloud Watch wird sich die Protokolle hier tatsächlich ansehen, aber das ist optional und es fallen Gebühren an, da die Protokolle gelesen werden Wenn Sie dann zum nächsten Diagramm gehen, wählen Sie die Protokollereignisse aus, was sehr wichtig ist. Ich werde dir das zeigen. Also testen, das ist ein Test. Ich möchte nur zur nächsten Seite kommen. Also hier, wonach suchen wir? Okay? Nach welchen Audit-Logs suchen wir? Sie möchten den Management-Stream erfassen. Wie zum Beispiel der Management-Stream, wie er bei einem Vorgang auf AWS-Ressourcen ausgeführt wird, z. B. das Erstellen, Ähm oder Ändern von Terms of Data, Ereignisse wie das Übertragen von Daten innerhalb einer Ressource und so weiter. Interne Ereignisse wie Aktivitäten, Fehler und Verhaltensweisen Ihrer Services. All diese Dinge werden wirklich, eine Menge Daten sein. Denk daran. Ähm, wenn Sie all diese Daten erfasst haben, was soll das Management EM Event bewirken? Es zeigt die Betriebsleistung wie Lesen und Schreiben, Ausschließen von KMS-Ereignissen, Ausschließen von RDS, Daten, API-Ereignisse. Diese sind etwas, das tatsächlich viele Logs auslösen kann . Sie können sie also ausschließen und auch Lesen ignorieren, weil Sie nicht möchten, dass jemand Ereignisse protokolliert, was eine Leseaktivität ist. Sie möchten nur die richtige Aktivität protokollieren. Jemand schreibt etwas die Änderungen im Management. Das könnte sehr wichtig sein. Sie können dies also auch aktivieren, da in dieser Testversion keine zusätzlichen Gebühren für Protokollverwaltungsereignisse Protokollverwaltungsereignisse anfallen, da dies Ihre erste Kopie von Management Event ist . Es fallen zwar keine Gebühren an, aber die nächste Veranstaltung wird Ihnen trotzdem in Rechnung gestellt . Es wird daher immer empfohlen, sich an die aktuellen organisatorischen Anforderungen zu halten. Und wenn Sie dann Daten benötigen, z. B. wo Sie sie erfassen, können Sie den Anwendungsnamen und den Dienstnamen eingeben. Und dann können Sie die internen Ereignisse erstellen, okay. Dabei wird die ungewöhnliche Aktivität tatsächlich auf der Grundlage der Grundwerte für solide Tage in Bezug auf API-Aufrufraten und Fehlerquoten ausgewählt die ungewöhnliche Aktivität tatsächlich auf der Grundlage der Grundwerte für solide Tage in . Auf diese Weise können Sie in Ihrer Cloud-Testversion tatsächlich Ihr eigenes Event erstellen . Nun, das ist kostspielig, weil es eine Menge Daten erfasst und Sie werden wissen, dass Ihre Cloud-Uhr dieses Protokoll ebenfalls überwacht, Ihre Cloud-Uhr wenn Sie die Funktion wählen CloudWatch es analysiert , und Sie können eine grafische Darstellung in Denken Sie jedoch daran, dass dies nicht Teil Ihres Programms oder Ihrer Zertifizierung Sie werden dich also nicht fragen, welche Optionen es hier gibt, während du es erstellst, all diese Dinge. Sie wollen, dass du weißt, was eine Cloud-Uhr ist. Und Cloud-Testversion. Also mach dir über all diese Dinge keine Gedanken im Detail, okay? Also, wenn du zum Event-Verlauf gehst, ist das kostenlos, was standardmäßig der Event-Verlauf ist. Wenn Sie sich daran erinnern, dass wir beim letzten Training ein Dashboard erstellt und das Dashboard gelöscht haben. Wenn Sie sich erinnern, ein Dashboard erstellt und das Dashboard gelöscht haben. Wenn Sie sich erinnern, haben wir uns Cloud Watch angesehen und ein Dashboard erstellt. Ich kann mir das Gleiche vorstellen. Also haben wir ein Dashboard gelöscht. Wir haben, du weißt schon , hier angefangen. Es fand eine Art Hintergrundaktivität statt. Wir haben das Dashboard hierher gestellt, wir löschen das Dashboard, also haben wir das getan. Und dann haben wir zuvor eine EC-Two-Instance erstellt, oder? Also habe ich mich über die Konsole angemeldet und die Instanz gestoppt. Ich habe das gemacht, und dann haben wir aminiert, ich habe auch eine Terminierungsinstanz Und dann, ähm, ja. Und ebenso haben wir hier viele Aktivitäten gemacht. Ich weiß zum Beispiel nichts über diese Dinge. Vielleicht hätte ich das schon einmal gemacht, weil das alles vor 2 Stunden ist Also ich hätte es vor einiger Zeit gemacht. Aber lass uns jetzt eine Aktivität machen. Lassen Sie uns beweisen, dass das funktioniert. Gehen wir hier zu S drei. Skalierbarer Speicher in der Cloud. Also hier, ich werde hier einen Bucket erstellen. Also teste Hyphen Bucket, binde meine Kontonummer Siehst du, es muss einzigartig sein, also habe ich keine Wahl Also muss ich überall meine Kontonummer angeben , damit sie einzigartig ist. Und dann hätte natürlich niemand meine Kontonummer benutzt weil mein Konto IU einzigartig wäre. Es ist also im Grunde ACL, also werde ich das Standardmaterial hier verwenden und einen Bucket erstellen. Jetzt wird dieser Bucket hier drüben ohne jegliche Ausnahme oder Fehler erstellt hier drüben ohne jegliche , weil dieser Name eindeutig genug ist. Nun, wenn du hier rüber zu deinem um, sogar Verlauf gehst und eine Aktualisierung hier drüben vornimmst, solltest du Bucket Encryption einsetzen sehen. Sie sehen also, dass hier etwas los ist. Wenn Sie auf die Aktivität klicken, können Sie tatsächlich die Übersicht über diese Aktivität sehen. Das Usenym war also root und, du weißt schon, der Zugriffsschlüssel und alles andere, was erforderlich ist Und dann können Sie auch sehen , dass S Three Bucket Encryption verwendet hat, und Sie können die Details hier sehen. Das sagt Ihnen also im Grunde, dass es ein Ereignis gab, und es ging darum, einen Bucket zu erstellen. Also, wenn ich diesen Bucket lösche, wird er auch dort protokolliert. Also werde ich das einfach viel einfacher kopieren und einfügen , als es zu tippen. Jetzt werden Sie sehen, dass dies aktualisieren und Sie können sehen, dass es eine Weile dauern kann. Lassen Sie mich dann eine Pause einlegen, um das Video anzuhalten. Da hast du's. Sie haben also den Bucket erstellen, Bucket mit Wood und den Bucket löschen. Also sind alle drei Artikel reingekommen. Ich weiß nicht, warum der nicht früher gekommen ist, aber als ich, du weißt schon, ganze Seite neu geladen habe, ist er reingekommen. Also, Delit Bucket hier drüben gibt dir alle, du weißt schon, Informationen darüber, welcher Benutzer es gelöscht hat und wie die Event-ID dafür ist Ebenso hat es uns hier alle Informationen gegeben. Das ist also so ziemlich die Nutzung der Cloud-Testversion. Mit der Cloud-Testversion können Sie sich all Ihre Auditinformationen in AWS ansehen, um zu sehen Aktivitäten Sie im Rahmen der, Sie wissen schon, AWS-Services ausführen , wobei die Daten sich darauf beziehen. Standardmäßig schaut es sich das an. Denken Sie jedoch daran, dass es nicht so viele Daten enthält, da dies der Standarddienst hier ist. Es wird also ungefähr 90 Tage lang Daten speichern. Aber darüber hinaus, wenn Sie möchten, dass die Daten gespeichert werden, ähm, dann müssen Sie sich vielleicht für eine Art, äh, Ihr eigenes Dashboard entscheiden, in dem die Daten tatsächlich in Ihren S Three-Logs gespeichert werden , und das auch die Daten in den S Three-Logs enthält Denken Sie also daran, dass dies der größte Unterschied zwischen dem standardmäßigen Ereignisverlauf und dem Dashboard, der Cloud-Testversion, ist, in der Sie die Daten erstellen Also, das ist etwas, woran Sie denken sollten, wenn Sie mit der AWS-Cloud-Testversion arbeiten. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns beim nächsten. 26. Labs AWS Konfiguration: Hallo, Leute. Willkommen zurück zum nächsten Video. In diesem Video werden wir über die praktische Sitzung von AWS Config sprechen . Erinnern Sie sich noch an die Theorie von AWS Config, die wir über die Überwachung Ihrer bestehenden Infrastruktur mit einigen Regeln gesagt haben? wir über die Überwachung Ihrer bestehenden Infrastruktur mit einigen Regeln gesagt haben Ihrer bestehenden Infrastruktur mit einigen Regeln Also ähm, das können wir nicht tun. Also lasst uns weitermachen und nach AWS Config suchen. Damit werden jetzt Ressourcenbestände und Änderungen nachverfolgt. Das ist die Verwendung von Config. Hier drüben haben Sie das Dashboard. Hier sind die Konfigurationsmetriken, die die Aufzeichnungen verfolgen. Also hier ist der Compliance-Status. Hier heißt es also: Null Regeln für Nichteinhaltung und Null Ressourcen für Nichteinhaltung weil ich glaube, wir haben nichts. Ressourceninventar angeht, haben wir hier 110 Ressourcen. Dies sind einige der Ressourcen, die wir haben. Okay, jetzt ist das Bestätigungspaket im Grunde eine Art Vorlage, die Sie tatsächlich für bewährte Verfahren verwenden können . Zum Beispiel Best Practices für S drei, Amazon S drei. Sie können dieses Paket tatsächlich verwenden, und dann können Sie diesem Paket einen Namen geben und dann können Sie hier einen Parameter hinzufügen. Wie mehrere Parameter. Wonach suchst du? Und dann können Sie dieses Paket im Grunde einsetzen. Das ist also im Grunde so, als ob Sie eine Anforderung haben, eine Reihe von Anforderungen, die aktiviert werden müssen, damit Sie tatsächlich ein Bestätigungspaket bereitstellen können. Oder Sie können sich für Regeln entscheiden. Regeln sind viel einfacher und für unsere Demo sehr nützlich, da wir sie nicht stellen werden, wir werden ihnen keine Fragen dazu stellen, wie Sie das konfigurieren und was die verschiedenen Arten der Konfiguration der AWS-Konfiguration sind Fragen dazu stellen, wie Sie das konfigurieren und was . Und das ist nicht die Frage , die sie stellen werden. Sie werden nach der AWS-Konfiguration selbst fragen. Wenn Sie also auf Regel klicken, haben Sie die von AWS verwaltete Regel, benutzerdefinierte Lambda-Regel und dann die benutzerdefinierte Regel von Guard Okay? Also, lassen Sie uns mit der von AWS verwalteten Regel weitermachen und dann S drei Version Nr. eingeben. Nenn mich nur nicht Gottesdienst. Ich habe so viele, weißt du, Ergebnisse. In Ordnung, Versionierung Wenn ich Versionierung eintippe, siehst du, dass ich hier eine Option erhalte, nämlich die Versionierung drei Buckets Jetzt öffnen wir diese beiden Buckets einfach getrennt. Ich habe gerade mit der mittleren Maustaste darauf geklickt. Und ich habe die Eigenschaften dieses speziellen Cloud-Testprotokoll-Buckets geöffnet . Und Sie können sehen, dass die Bucket-Versionierung ausgesetzt ist. Und für diesen auch suspendiert. Also lass uns gehen und diesen Bucket hier drüben erstellen. Es tut mir leid, diese spezielle Regel hier drüben, die besagt, dass sie erkennt, ob die Versionierung in Ihrem Bucket aktiviert ist Okay? Also klicken Sie auf Weiter. Das ist deine Regel. Okay? Das ist etwas, das du nicht ändern kannst. Hier ist der Name dieser speziellen Regel. Und dann haben Sie hier den Umfang der Änderung, alle Änderungen, die Ressourcen-Tags. Ich nehme Ressourcen, bei denen Sie sie auswählen können, weil Sie möchten, dass die Ressource dem spezifischen Typ entspricht , also S drei, wir wollen den vorhandenen Typen entsprechen. Wir haben ST hier als Ressourcennamen ausgewählt. Hier können die Parameter also MFA D aktiviert werden, und dann können Sie den Wert hier tatsächlich angeben Wir werden das nicht verwenden, also fahren wir einfach mit Next fort und dann können Sie das tatsächlich sehen und überprüfen, was das bewirken wird Und dann klicken Sie auf die Schaltfläche Speichern. Jetzt klicken wir darauf. Wenn Sie nun diese spezielle Regel hier unter awsknFak aufrufen und dann auf Aktualisieren klicken, geben Sie ihr eine Minute Zeit unter awsknFak aufrufen und dann auf Aktualisieren klicken, geben Sie werden sehen, dass die beiden Buckets , die sich dort befinden, nicht konform sind, und diese Meldung wird hier erscheinen MFA DLT ist für Ihren S Three-Bucket aktiviert. Dies ist ein weiterer Parameter hier. Wir verwenden das nicht wirklich und was wir gerade verwenden, ist diese Regel hier. So müssen Sie also Parameter auf dem Bestätigungspaket angeben . Wenn Sie also ein Bestätigungspaket erstellen, müssen Sie den Schlüssel identifizieren und dann die Zeichenfolge angeben , ob zwei oder zwei. Also hier ist die MFA-Deaktivierung aktiviert. Wenn wir also darauf eingehen, gibt es hier eine Multifaktor-Authentifizierung Ich denke, es sollte um Sicherheit gehen, ich denke, die Erlaubnis muss es sein Also hier MFA. Es ist nicht hier. Das muss also ebenfalls aktiviert werden. Das ist es also, wonach es sucht. Gehen wir zurück und überprüfen, ob diese Regel erfolgreich ausgeführt wurde. Okay, Sie können also sehen, dass beide nicht konform sind. Beide Dienste sind also nicht konform. Wenn ich einen weiteren Bucket mit demselben Ding erstellen werde, wird er auch reinkommen, also werde ich hier einen Test-Bucket erstellen. Und dann deaktiviere ich die Versionierung. Also einfach erstellen Also klicken Sie einfach auf Jetzt erstellen Jetzt, wo ich diesen Bucket erstellt habe , gehe ich zum AWS Cloud Trial Log und gehe zu den Permission, sorry, Properties. Von da an bin ich okay, das ist die Multiflektor-Authentifizierung Ich habe nur nach Erlaubnis gesucht, also war es genau hier. Klicken Sie auf Bearbeiten, und dann habe ich hier die Versionierung hier aktiviert. Für MFA müssen Sie die Einstellungen an anderer Stelle ändern, also werden wir später darüber sprechen Ja, ich habe die Versionierung hier aktiviert. Wenn ich das also in ein paar Minuten aktualisieren werde, vielleicht 60, 1 Minute bis 1,5 Minuten, denke ich, das ist so, dass Sie sehen sollten, dass das neue kommt Also überprüfe alles. Manchmal wissen Sie also, was die Konformität hier nicht angezeigt wird , weil nur nach nicht konformen Ressourcen gesucht wurde. Also haben wir diese spezielle Version konform gemacht, also gehen wir einfach davon aus, dass wir das jetzt jederzeit sehen werden . Ich werde dieses Video pausieren und pausieren, sobald es angezeigt wird. Ordnung, jetzt können Sie sehen, dass dieser spezielle Dienst , den wir für den Gottesdienst aktiviert haben, kompiliert wird und der Rest, der neu erstellt wurde , ist Nicht konform. Das tut mir leid. Also, ähm, Sie können sehen, dass das so ziemlich die Demo ist , die ich Ihnen zeigen wollte. Jetzt können Sie verstehen , dass die AWS-Konfiguration dazu dient Ihre Konfiguration zu verstehen und zu analysieren und Ihre eigenen Regeln festzulegen, was für Ihre eigene Kommunikation mit AWS erforderlich ist. Nochmals vielen Dank für Ihre Zeit und Geduld. Ich hoffe, Sie haben verstanden, was AWS-Konfiguration in Bezug auf Handshone ist AWS-Konfiguration in Bezug auf . Ich werde dich im nächsten Video sehen 27. Labs AWS XRAY: Hey, Leute. Willkommen zurück zum nächsten Video. In diesem Video werden wir über AWS X Ray sprechen. Jetzt haben wir bereits die theoretische Erklärung für das Röntgen-Zeug gesehen . Nur um Ihnen einen schnellen Überblick zu geben: Röntgenscans, die internen Abläufe Ihrer Anwendung, Ihr Anforderungsablauf , Ihre Wind-Debugging, Improvisation, Optimierung, Leistungseinblicke und alles andere können Sie tatsächlich als Teil von AWS im Inneren sehen Also habe ich, tut mir leid, nicht AW inside erstellt. tut mir wirklich leid. Es ist AWS Xray Wenn Sie also nach Xray suchen, ist es eine Funktion, die ein separater Service ist , der Teil eines anderen Dienstes hier drüben ist, ähm, nämlich CloudWatch Früher war Xray also ein separater Dienst, aber dann wurde es Teil Jetzt kann ich sehen, dass die Spur hier drüben ist. Jetzt haben Sie standardmäßig keine Anwendung mehr, die Sie nachverfolgen können. Sie können also hier die Option Anwendung erstellen, eine Beispielanwendung erstellen geben . Etwas in der Art. Wenn Sie zu Trace Map gehen, werden Sie sehen, dass Sie eine Demo-Anwendung einrichten. Es wird nicht viel berechnet, nur 1$ pro Tag. Den ganzen Tag, an dem ich es benutzt habe nur 1$, wird es berechnet. Sie können es einfach einschalten und dann diese Anwendung ausschalten lassen. Jetzt können Sie sehen , wie schnell es verfolgt wird, da es sich um eine einfache Anwendung handelt, die wir verfolgen , wir haben den Client und dann ist der Score-Keeper im Grunde Ihr ECS-Container, ECS ist Ihr Cloud-Dienst, Ihr Elastic Cloud-Dienst, und Sie können sehen, dass es eine 100-prozentige Fehlerquote gibt , weil der Client nicht auf die Anwendung zugreifen kann weil es die Demo-Anwendung ist. Sie können den Verkehr auch hier sehen. Wenn Sie hier auf den Pfeil klicken, können Sie tatsächlich den Filter für die Verteilung der Antwortzeit sehen . Hier können Sie auch auf View Trace klicken und eine Abfrage ausführen. Hier erfahren Sie, wie schnell der Knoten ist , und HDDP-Methoden sind auch Teil des Traces Ebenso können Sie die Leistung Ihrer Anwendung ansehen Sie können sich die Anzahl der Anfragen ansehen, die im Herbst eingehen, und die Sekunden, in denen die Latenz verarbeitet wird. Ebenso können Sie eine vollständige Ablaufverfolgung Ihrer Anwendung einsehen. Wenn Sie eine Anwendung haben, können Sie sie tatsächlich über Trace verwenden und Sie können die Anwendung tatsächlich verfolgen, wie schnell die Anwendung ist wie oft sie aktualisiert wird. Ebenso können Sie all diese Dinge sehen. Sie können hier auch auf „Dashboard anzeigen“ klicken Dadurch erhalten Sie vollständige Informationen zur Score-Keeper-Anwendung, die Teil des Trace ist Ihnen die Latenzberichte , Fehler und Drosselungen anzeigt Alle Informationen kommen tatsächlich durch. Sie können auch für einen Zeitraum von 6 Stunden nachschauen. Das kann ich mir vorstellen. Hier gab es ein paar Spitzen, da es sich nicht um eine Live-Anwendung oder so etwas Du fährst nicht sehr detailliert Ski. Aber dann ist das die Spur. Es ist nicht verpflichtend oder es ist wirklich erforderlich , dass Sie wissen, wie Trace im Rahmen der Zertifizierung konfiguriert wird. Die Zertifizierung gibt Ihnen nur eine Vorstellung. Was Trace und einige der Funktionen sind, ist das, woran Sie sich erinnern müssen und welche Funktion davon sehr wichtig ist , weil Fragen auftauchen würden wie: Oh, ein Kunde oder Klient sucht nach einer Möglichkeit, die Leistung der Anwendung mit ihrer Architektur zu optimieren oder herauszufinden . Welcher Service wäre angemessen zu wählen. Sie werden Sie nach so vielen Diensten fragen , die so eng miteinander verwandt sind, wie CloudTrail, Cloud Watch oder Xray Sie müssen verstehen , was sie fragen. Sie suchen nach Leistung im Inneren und sie suchen nach der Architektur und dem Ablauf der Anwendung. Xray ist das Richtige. Ebenso werden sie diese komplizierten Dienste an Ihre bestehende Frage anhängen an Ihre bestehende Frage und sie würden Sie auf knifflige Weise stellen Sie sollten das verstehen, die Frage zweimal und dreimal lesen und dann nur auf diese Frage antworten Nochmals vielen Dank für Ihre Zeit und Geduld. Ich hoffe, es war hilfreich für Sie zu verstehen, wie man Xray konfiguriert Wir werden zu einem späteren Zeitpunkt in verschiedenen Schulungen ausführlich darauf eingehen, wie das geht , aber das erfordert eine Menge AWS-Kenntnisse Darauf werden wir zurückkommen. Ich werde dir all das Wissen geben, das ich habe. Nochmals vielen Dank. Wir sehen uns beim nächsten. 28. Labs First EC2-Instanz erstellen: Hallo Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir einen Moment kreieren. Lassen Sie mich also die VPC schließen und zu EC zwei übergehen. Jetzt sortiere ich es über die laufende Instanz und schließe es. Sie können all die Dinge sehen, die ich auch im Stop-Zustand habe. Normalerweise stoppe ich die Instanz erst, wenn der Zweck der Instanz erfüllt ist, weil die Kosten CPU und RAM ebenfalls eingestellt werden. Für mich fallen keine Gebühren an, bis ich die Instanz wieder starte , weil die CPU und der Arbeitsspeicher, die ich verwendet habe, an eine andere Person weitergegeben werden , wenn jemand anderes das verlangt. Also, ähm, ich werde nicht dafür bezahlt werden. Wenn Sie denken , dass ich meinen CPN-RAM, der dafür vorgesehen ist, einfach vermieten oder vermieten würde, nein, ich würde nicht dafür bezahlen Ich würde weder dafür bezahlt werden, noch würde ich dafür bezahlen Diese Ressource wird also jemand anderem zugewiesen, oder sie wird niemand anderem zugewiesen . Es wird ungenutzt sein. Das ist also der Grund, warum ich nicht bezahlt werde oder für irgendjemanden bezahle. Das ist also der einfache Grund. Um eine Instanz zu erstellen, gehen Sie einfach zur Startinstanz, oder Sie können zum Dashboard gehen und von dort aus auch die Instanz starten. Denken Sie jedoch daran, dass das Dashboard Ihnen den vollständigen Überblick über die aktuelle Region bietet. Wenn Sie also einen Server in der Region Mumbai oder CO haben , können Sie das hier nicht sehen, weil hier nur von North Virginia, USC Pne, die Rede Und Sie können einfach hier auf die globale Ansicht klicken, ich klicke einfach mit der mittleren Maustaste darauf und ich erhalte die Instances, die allen Regionen hier laufen. Sie können also die fünf Instanzen in einer Region sehen. Also, genauso gibt es mir all diese Dinge. Also VPC 18 in der Region 17. Also das ist etwas, worüber ich mir keine Sorgen machen muss , weil es ein Standardkram ist Aber 17 und 17 sind eine gute Nachricht. Aber warum 18 und 17? Weil ich in dieser Region zwei VPCs erstellt habe. Deshalb sage ich 18 bis 17. Ebenso kann man die Sicherheitsrillen und all diese Dinge tatsächlich aus einem viel höheren Winkel sehen . Also lass uns das schließen. Lassen Sie uns eine Instanz starten. Nun, das wird eine Testinstanz sein. Also nenne ich es einfach Test und seitdem werde ich das Standardbetriebssystem ausführen. Ich werde mich nicht einmal bei diesem Computer anmelden. Ich meine, über Put oder irgendein MobikStem oder einen Client. Okay? Also werde ich das verwenden und Benutzername wird hier angezeigt, einfach zu bedienen. Wenn ich beim Betriebssystem Rot wähle, können Sie hier tatsächlich sehen, wie sich der Benutzername ändert. Lass uns über U sprechen Bundu Bundu hat einen anderen Benutzernamen. Lass uns sehen. Lassen Sie uns das sehen. Okay, es dauert so lange. Lass uns das Betriebssystem auf ein anderes ändern , das ist wie. Es ändert also die Lautstärke, weshalb Sie aufgefordert werden, dies zu bestätigen. Oh, Band. Ja, damit du sehen kannst, dass der Benutzername Ubuntu ist. Also, wenn du nach dem Nutzernamen suchst um den Nutzernamen herauszufinden, was er ist und so. Wählen Sie also das Betriebssystem Ihrer Wahl. Vergewissern Sie sich, dass Sie sich auf dem Server befinden, für den das kostenlose Abonnement in Frage kommt. Der einzige Server ist derzeit also berechtigt. Es ist T Two Micro. Das ist also der, den ich ausgewählt habe. Also, die Tastatur ist so wichtig. Ohne Tastatur kann man sich nicht anmelden. Aber in dieser Situation, da wir das zu Demonstrationszwecken tun, müssen Sie sich nicht wirklich Gedanken darüber machen, einfach eine neue Tastatur mit dem Namen Test KeypareTest Hyphen Keypair zu erstellen eine neue Tastatur mit dem Namen Test KeypareTest Hyphen Keypair Ich habe es bereits erstellt, also klicken Sie einfach auf Tastatur erstellen und es also klicken Sie einfach auf Tastatur erstellen Tastatur nun die PEM-Datei verwenden, können Sie sich mit diesem Benutzernamen anmelden , Können Sie sich jetzt ohne Passwort anmelden? Nun, das kannst du nicht. Das Passwort ist auf Aula deaktiviert, Sie müssen also den privaten Schlüssel verwenden , um sich am Server anzumelden Das ist also die einzige Art der Kommunikation. Aber mach dir keine Sorgen, wir werden uns hier nicht einloggen, aber wenn die Zeit gekommen ist, werde ich dir zeigen, wie das geht , also mach dir darüber keine Sorgen. Was die Netzwerkeinstellungen angeht, können Sie Ihre VPC bearbeiten und ändern, Ihr Subnetz ändern und die automatisch zugewiesene öffentliche IP-Adresse automatisch aktivieren Sie können eine andere Funktion aktivieren, z. B. die Elastic IP-Adresse Auch hier gilt: Versorgung aufladen. Denk daran. Daran sollten Sie sich also, äh, halten und dann müssen Sie SSH-Verkehr von überall zulassen Das gibt Ihnen also die Erlaubnis, mit Ihrem PEMKey die SSH-Verbindung zum Server zu durchsuchen mit Ihrem PEMKey die SSH-Verbindung zum Server Wenn Sie das also deaktivieren, können Sie sich nicht wirklich mit SSSch verbinden . Denken Sie daran Aber wie dem auch sei, wir werden SSSuch nicht benutzen, es spielt keine Rolle Also AGB, damit bin ich einverstanden. Also klicken Sie einfach auf Launch Instance. Ähm, ja, fahren Sie mit dem vorhandenen TTS-Keeper fort. Entschuldigung, ich denke, wenn du es erstellst, es sich dort automatisch geändert, aber da ich es nicht erstellt habe weil es schon existiert, oder? Änderungen gehen also tatsächlich auf die Instanz zurück, die erfolgreich initialisiert Sie sehen es also gerade nicht, klicken Sie einfach auf Aktualisieren Es kann jederzeit kommen. Sie können sehen, dass es sich gerade im Status Ausstehend befindet, also wird es gerade erstellt. W bedeutet, dass Ihr Server gerade erstellt wird. Jetzt steht es noch aus, also lassen Sie uns einfach aktualisieren, dass es jetzt laufen sollte. Ja, bitteschön. Es läuft gerade, du hast die öffentliche IP-Adresse. Sie können SSSARC also über diese öffentliche IP-Adresse ausführen. Wenn Sie SSSaro deaktiviert haben, wenn Sie später einige Sicherheitsrichtlinien zulassen möchten, können Sie auf CoTA Security, I'm sorry, C Networking klicken und dann können Sie tatsächlich einige der wirklich schlechten Änderungen an diesem Hyundai vornehmen SSSaro deaktiviert haben, wenn Sie später einige Sicherheitsrichtlinien zulassen möchten , können Sie auf CoTA Security, I'm sorry, C Networking klicken und dann können Sie tatsächlich einige der wirklich schlechten Änderungen der wirklich Sie haben es also nicht im Netzwerk. Sie gehen hier zum Netzwerk und können die Netzwerkschnittstelle hier sehen, und dann ist da noch die Servicegruppe, das ist eine Sicherheitsgruppe. Okay, das ist also eine Sicherheitsgruppe, Sie können die Sicherheitsgruppe ändern und hier Elemente zulassen. Es steht unter Sicherheitsvorkehrungen. Das tut mir leid. In der Sicherheitsgruppe werden Sie also tatsächlich mehr eingehende Anfragen hinzufügen Im Moment wird hier also die Nummer 22 , also SSSch , hinzugefügt. Also genauso wirst du das hinzufügen. Sie können auch darauf zugreifen, indem Sie von hier aus zur Sicherheit gehen und die Sicherheitsgruppe ändern, oder? Das geht also im Grunde an Ihre Sicherheitsgruppe hier drüben. Das können Sie also auch tun. Aber wir werden ausführlich darüber sprechen. Ich bin nicht wirklich daran interessiert , über all diese Dinge zu sprechen, aber dann lass uns weitermachen und, ähm , weißt du, in diesem Video ist das so ziemlich das, was wir tun wollten. Wir haben gerade einen Sinnestest. Möglicherweise haben Sie diese Dinge nicht, also machen Sie sich darüber keine Sorgen. Das ist besser für ein anderes Projekt, für meine, ähm, du weißt schon, für meine Ubunitis-Arbeit und Open-Shift-Arbeit und solche Sachen Also kümmere dich nicht um diese. Okay. Wie dem auch sei, Wise, danke dir nochmal für deine Geduld und Zeit. Das mit den zusätzlichen Informationen tut mir leid, falls es dir quasi viele Informationen gibt, es tut mir so leid. Ich sehe das nächste Video mit mehr, mehr, mehr Informationen. Danke. 29. Einführung in Labs VPC: Hallo, Leute. Willkommen zurück zum nächsten Video. Und in diesem Video werden wir über Virtual Private Cloud sprechen . Nun, VPC, nennen wir es kurz, ebenso wie eine Reihe von Diensten, die in jeder Region laufen werden Wenn Sie also eine Region haben in der Sie Ihre EC Two-Instance ausführen möchten, müssen Sie zuerst die Region auswählen, in der Sie sie ausführen möchten, und dann eine EC Two-Instance in dieser Region erstellen Dies ist kein optionaler Parameter. Dies ist ein obligatorischer Parameter. Manchmal werden wir uns momentan nicht mit all dieser VPC-Konfiguration wenn wir die EC Two-Instance erstellen Aber zu einem späteren Zeitpunkt der eigentlichen Belastung werden wir uns darüber Gedanken machen, werden wir uns darüber denn das ist ein Thema, das wir mit das wir Nun, das wird eine Vorwarnung für Sie sein. Wir schauen uns das jetzt an weil wir für dieses Beispiel , das wir verwenden werden, EC2-Instanz in unserem Dienst benötigen , die ausgeführt werden muss. Das ist der Grund, warum wir nach VPC suchen oder sie verstehen und was EC-Two-Instances sind und wie wir sie erstellen. Obwohl wir nicht auf das EC zugreifen werden , wurden zwei Instanzen erstellt, aber wir wollen es trotzdem nur als Einführung betrachten Jetzt, hier drüben, haben Sie die VPC im Architekturdiagramm unter einer Region Das bedeutet also, dass Ihre VPC in jeder Region konfiguriert sein wird Ihre VPC in jeder Region konfiguriert Also geben wir hier einfach VPC ein, Sie erhalten die VPC. Es heißt also isolierte Cloud-Ressource, und das ist die Kategorie, in die sie fällt. Okay, also werde ich das einfach dort drüben markieren. Und dann, wie Sie hier sehen können, müssen Sie, ähm, EVPC in der USD-Ostregion Wenn Sie nun alle VPC-Instances in allen Regionen sehen möchten , gibt es jeweils eine Also wird es natürlich, äh, Sie wissen schon, eine bestimmte PBC in allen Aber es gibt etwas, das nicht oft gesagt wird. Es gibt also einige Regionen, die für mich deaktiviert sind, wie Sie hier sehen können, ich bin in Nord-Virginia. Ich habe 17 aktiviert und es gibt einige, die für mich deaktiviert sind. 13 Regionen sind deaktiviert, weil ich sie nicht mehr verwende. Es gibt also standardmäßig keinen Zweck. Äh, Amazon deaktiviert sie, aber wir können sie zu einem späteren Zeitpunkt aktivieren , wenn Sie sie benötigen Aber darüber mache ich mir keine Sorgen. Ich bin mit North Virginia zufrieden , weil das die billigste Region ist. Und mit den Ressourcen, die Sie schaffen, ist es viel billiger als alle anderen, Sie wissen schon, Gebiete in der Umgebung, weil es dort viele Lawinenzonen gibt. Ähm, nun, das ist also mein Geheimnis. Also ja, deshalb habe ich meinen Service hier eingerichtet. Ähm, also hier drüben habe ich zwei VPCs, also können Sie mehr als eine VPC haben Also eine VPC ist Standard, weil sie es Ihnen ermöglicht, schnell zwei EC-Instanzen zu konfigurieren , ohne irgendwelche, Sie wissen schon, ich muss diese Konfigurationsvoraussetzungen festlegen und solche Dinge Das ist also der Grund, warum jede Region eine VPC hat. Das macht es mir viel einfacher. Ich kann jetzt zu einer beliebigen Region wechseln und dann einfach die EC-2-Instanz starten, nur die Standardeinstellungen, okay, im Netzwerk. Ich muss also nicht viel tun. Das werden wir im nächsten Video sehen. Das ist der Grund, warum es überall eine VPC gibt, okay? Ein weiterer Grund ist, dass VPC für die Netzwerkkonfiguration wirklich erforderlich ist Dabei kann es sich um eine Kommunikation zwischen Regionen oder um eine phasenweise Internet-Anwendungskommunikation über das Internet handeln phasenweise Internet-Anwendungskommunikation über das Aber Sie benötigen auf jeden Fall eine VPC. Nun, wenn du das eingibst, gibt es hier zwei VPCs , richtig? Wenn Sie eine VPC eingeben , werden Ihnen Subnetze zugewiesen Sie können also sehen, dass es sich um Subnetze handelt. Nun, woher kommen diese Subnetze? Jetzt sind Subnetze die Standardkonfiguration einer VPC. Wie viele Zonen oder verfügbare T-Zonen hat die VPC, so viele Betreff, es tut mir leid, dass viele Subnetze für diese VPC verfügbar sein sollten Können Sie, ähm, wissen Sie, vielleicht gibt es mehrere Fragen Können Sie mehrere Subnetze haben, können Sie mehrere VPC haben? Diese Fragen werden zu diesem Zeitpunkt beantwortet, also machen Sie sich darüber keine Sorgen Wie Sie sehen können, stellen Subnetze eine Verbindung zu einer Routing-Tabelle her. Die Routentabelle führt zu einer Netzwerkkonfiguration. wir uns also keine Gedanken über Im Moment machen wir uns also keine Gedanken über die Architektur der Resource Map, wir kennen jetzt die Standardausstattung. Wenn Sie nun eine EC-Two-Instance erstellen, was ich im nächsten Video tun werde, werden Sie tatsächlich die Relevanz zwischen dem Subnetz und der VPC erkennen zwischen dem Subnetz und der VPC Sie werden also die EC Two Run-Instance sehen , die gerade läuft Wenn Sie also nur das auswählen, wird diese EC Two-Instance auf einer VPC gehostet, richtig, weil Sie die verfügbare T-Zone sehen können, sie wird auf US East One A gehostet. Da steht A , was bedeutet, dass sie unter Verwendung des Subnetzes auf US East One A gehostet wird unter Verwendung des Subnetzes auf US East One A So ist es also so ziemlich definiert. Es ist also Host eins A. Können wir ihn also auswählen? zum Zeitpunkt der EC-2-Instance Können wir zum Zeitpunkt der EC-2-Instance ein Subnetz auswählen Ja, Sie können ein Subnetz auswählen, wenn Sie eine EC Two-Instance erstellen Wenn Sie hier zum Subnetz gehen, haben Sie hier eine Menge Subnetze Es gibt also viele Subnetze, die Sama von mir erstellt hat. Ja, Sie können mehrere Subnetze erstellen. Also habe ich hier zusätzliche Subnetze erstellt. Das kannst du hier sehen. Sie können also sehen, dass es heißt: Das ist Netzwerkgrenzgruppe Ost, Ost, Ost, Ost, weil das im Grunde die USA Ost ist. Das ist der Name der Region, also das ist der Name der Region. Aber hier in der verfügbaren Zone haben Sie Ost eins A, Ost eins B, Ost eins, C, wenn Sie es einfach danach sortieren, richtig? Sie haben zwei Ost-A und zwei Ost-Eins B. Nun, warum? Weil ich ein Subnetz für mich selbst erstellt habe. Also kannst du das sehen Das ist also für die zusätzliche, Entschuldigung, zusätzliche Anwendung erstellt . Das ist also etwas, worüber wir irgendwann sprechen werden. Okay. Nur in diesem Abschnitt werden wir darüber sprechen. Okay. Ebenso haben wir mehrere Subnetze erstellt Also ja, um Ihre Frage zu beantworten: Es ist auch möglich, mehrere Subnetze in einer Verfügbarkeitszone zu erstellen in einer Verfügbarkeitszone Und ja, es ist möglich, Ihre EC Two-Instance auszuwählen, äh, um sie in einem bestimmten Subnetz hier zu hosten. Es ist jedoch nicht möglich, Ihren Backup-Speicherort zu wählen. Also nur zum Beispiel, wenn ich auf E Two hoste, kann das Backup überall sein. Wenn dieser Server also aus AW-Sicht ausfällt, kann er auf jeden der Hosts migriert werden Wir können uns also nicht dafür Aber es wird natürlich ein Backup reinkommen. Und Sie können auch die Verfügbarkeit der IP-Adresse für den Apfelwein sehen der IP-Adresse für den Apfelwein Jedes spezifische Subnetz wird also eine Apfelweininformation haben. Das sind also die Basiskriterien für die Zuweisung von IP-Adressen Auf den Servern, die unter der SDU gehostet werden. Okay. Also das ist der Bereich der Seite da oben. Also, Sie haben auch all diese Informationen dazu. Im nächsten Video werden wir eine EC Two-Instance erstellen. Ich hoffe, dass Sie die Grundprinzipien von VPC verstanden haben. Was ist VCP, tut mir leid, was ist VPC und was macht es, was sind Dinge unter Also das grundlegende Overlay verstehst du bei diesem. Im nächsten Video werden wir das grundlegende Overlay beim Erstellen einer EC-Two-Instanz und beim Zugriff darauf verstehen grundlegende Overlay beim Erstellen einer EC-Two-Instanz und beim Zugriff darauf Nochmals vielen Dank für Ihre Geduld und Zeit Wir sehen uns im nächsten Video 30. Labs Zugriffsschlüssel: Hallo Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir über dieses spezielle Thema sprechen . Zunächst werden wir den Zugriffsschlüssel, die Kennwortrichtlinien und die Speicherung von Anmeldeinformationen verstehen Kennwortrichtlinien und die Speicherung von Anmeldeinformationen an diesen beiden Diensten als Teil des Anmeldeinformationsspeichers arbeiten diesen beiden Diensten als Teil des Anmeldeinformationsspeichers Der Speicher für Anmeldeinformationen ist im Grunde Ort, an dem Sie den Speicher aufbewahren werden Also werden wir das in einem Video machen und dann werden wir das in zwei anderen Videos machen in zwei anderen Videos Zugriffsschlüssel und die Passwortrichtlinie angeht. Wir werden in diesem Video mit dem Zugriffsschlüssel beginnen und dann mit der Passwortrichtlinie im nächsten Video fortfahren. Denken Sie jetzt daran, dass den folgenden Videos, die ich Ihnen zeigen werde wir bei den folgenden Videos, die ich Ihnen zeigen werde, hier tatsächlich einen Abschnitt abgeschlossen haben. Hier werden wir also praktisch einen Benutzer erstellen und wir werden die Richtlinien tatsächlich dem Benutzer zuweisen und solche Dinge Wenn ich Ihnen nun die praktische Erläuterung dieser Aspekte zeige , zeige ich Ihnen den Benutzer, der bereits erstellt wurde Also mach dir darüber keine Sorgen. Das ist nur ein bisschen mehr von mir. Ich gebe mir Mühe , Ihnen zu zeigen, wie das tatsächlich aussieht, , Ihnen zu zeigen, wie das tatsächlich aussieht, aber für diese Zertifizierung sind keine praktischen Übungen erforderlich, also machen Sie sich darüber keine Gedanken. Es ist nur der zusätzliche Aufwand, den ich investieren werde , um Ihnen den Artikel hier zu zeigen. Also, wenn du denkst, oh, ich bin nicht dieser Benutzer, ist das okay. Du wirst es sowieso erstellen. Nach drei bis vier Videos wirst du das sowieso machen Aber ich werde es dir nur zeigen, weil das nicht wirklich praktische Arbeit erfordert, also werde ich dir das einfach zeigen. Um all die Dinge zu ignorieren , die der Benutzer bereits ist, habe ich es, weil Sie es später sowieso erstellen werden Schauen wir uns also dieses Diagramm an. Zunächst werden wir uns in diesem Video mit dem Zugriffsschlüssel befassen. Zugriffsschlüssel sind ein Paar von Anmeldeinformationen Es handelt sich um einen geheimen Zugriffsschlüssel mit Schlüssel-ID , mit dem programmatische Anfragen zur Verwendung der API über AWS CLI, SDK und STAPIs zugewiesen werden . Was sind das nun? Ähm, das sind im Grunde eine Art von Möglichkeiten , auf Ihr AWS zuzugreifen. Okay? Jetzt können Sie über die AWS-CLI auf AWS zugreifen, die Software, die Sie von AWS herunterladen müssen. das SDK-Softwareentwicklungskit erneut von AWS herunter und installieren Sie es auf Ihrem System. Rest-APIs sind, wissen Sie, wie Programme, die vom Client aus ausgeführt werden und tatsächlich an Ihr AWS weitergeleitet werden. Sie können zum Beispiel sagen, wenn Sie von Ihrer Red Hat-Website zu AWS auf Open Shift at Openshift zugreifen , müssen Sie diese Zugriffs-ID und den Schlüssel erstellen, einen Benutzer erstellen, ihm die erforderlichen Berechtigungen erteilen und dann diese Schlüssel-ID und den geheimen Zugriff erstellen und sie bei OpenShift weitergeben Was Openshift tun wird, ist, dass es die UM, Schlüssel-ID und den Zugriffsnamen verwendet, und es wird den Benutzernamen verwenden , den Sie angegeben haben, richtig Ähm, derjenige, der tatsächlich die Richtlinien für die richtigen Asse hat , um Ressourcen zu erstellen Und dann wird es auf die AWS-API zugreifen, was es natürlich als Teil des Benutzers gegeben hätte, und es wird mit diesen Anmeldeinformationen auf AWS zugreifen. Alles oder? Das nennt man Access Key Also im Großen und Ganzen wäre die Frage so, ähm, naja, Sie haben ein Unternehmen und die Drittanbieter möchten Sie haben ein Unternehmen und die Drittanbieter auf Ihren Service zugreifen, indem programmatischen Zugriff haben oder eine programmatische Anfrage über einen Ihrer Dienste , der auf der AWS-API läuft Welcher der unten aufgeführten Dienste wäre der richtige. Sie werden dich also nach dem SSSECH-Schlüssel fragen. Möglicherweise fragen sie Sie nach Ihrem Benutzernamen und Passwort, und sie werden Sie nach dem Zugangsschlüssel fragen Sie müssen also auswählen , in welcher Situation Sie den Zugriffsschlüssel auswählen müssen. Ich zeige dir einfach, dass vieles Sinn ergibt, wenn ich es dir zeige. Ich suche nach IAM mittleren Maustaste auf IAM Hier drüben haben Sie den Benutzer, Sie haben den Dev-Benutzer Normalerweise alles wie programmatischer Zugriff, bei dem eine API aufruft, äh, die Drittanbieter rufen über das Restprotokoll oder so etwas Sie müssen tatsächlich den Benutzernamen des Benutzers angeben , den Sie erstellt haben Normalerweise hätte ein Benutzer Richtlinien. Sie sich darüber keine Gedanken, wir werden das zu einem späteren Zeitpunkt erstellen. Sie werden also Richtlinien zuweisen. In dieser Richtlinie heißt es also, dass dieser bestimmte Benutzer vollen Zugriff auf EC zwei, S drei volle Achsen und Lambda Full Aces hat S drei volle Achsen und Lambda Full Aces Also haben wir nur diesem Benutzer namens Dev vollen Zugriff auf diese drei Dienste gewährt nur diesem Benutzer namens Dev vollen Zugriff auf diese drei Dienste , okay? Nun, wie kann eine Person auf diesen Podgula-Artikel zugreifen? Wie ich Ihnen bereits gesagt habe, können Sie tatsächlich über die Konsole auf diesen DE-Benutzer zugreifen , da sie aktiviert ist Sie können den Link zur Konsole hier sehen, damit Sie diesen Zugriff auf diesen Benutzer kopieren können. In dem Abschnitt, in dem wir den Benutzer tatsächlich erstellen werden, werden wir tatsächlich über die Konsole auf den Benutzer zugreifen. Das ist eine Art des Zugriffs. Aber dann wird nicht jeder gerne auf die Konsole zugreifen. Zum Beispiel werden Ihre Programme, die von Open Shift bis AWS laufen, alle durch Terraforming ausgeführt Wenn Sie jetzt einen Service über Terraforming ausführen möchten, können Sie ihn nicht wirklich mit der GI-Konsole ausführen Dann müssen Sie es möglicherweise über ST-API-Aufrufe oder etwas ausführen, das ein Programm verwendet, um eine Verbindung mit einem anderen Programm Das nennen wir normalerweise Program Medical Access. Lassen Sie uns nun über eine andere Art des Zugriffs sprechen. Wie Sie wissen, ist Multifaktor-Authentifizierung nichts anderes als ist Multifaktor-Authentifizierung nichts das Hinzufügen einer weiteren Authentifizierungsebene zusätzlich zu Ihrem bestehenden Passwort, mit der Ihrem bestehenden Passwort, Sie tatsächlich auf Ihre Konsole zugreifen können, und das hat nicht viel mit unserem Thema zu tun Kommen wir nun zum Access-Key hier drüben. Ich habe den Zugangsschlüssel hier drüben. Lassen Sie mich diesen Zugriffsschlüssel deaktivieren und neu erstellen. Es tut mir so leid, dass ich ihn wieder aktiviert habe. Also werde ich es dieses Mal machen. Ich muss den Namen des Zugriffsschlüssels eingeben, um ihn zu löschen. Jetzt ist dieser Zugriffsschlüssel deaktiviert. Nun, was ist der Zugriffsschlüssel? Verwenden des Zugriffsschlüssels zum Senden von programmatischen Aufrufen an AWS über AWS-CLI, AWS-Tools Power Shell, Entschuldigung, AWS-Tool wie in Power Shell, SDK oder direkt über AWS-APA-Aufrufe oder SPA-Aufrufe Sie können maximal zwei Schlüssel anhängen. einen können Sie es entweder Zum einen können Sie es entweder gleichzeitig aktiv oder inaktiv haben. Das bedeutet nun , dass Sie einen guten Zugriffsschlüssel benötigen, wenn Ihr Programm eine Verbindung zu dem Programm herstellen möchte , das auf AWS läuft , das auf AWS läuft. Jetzt haben Sie andere Kommunikationsmethoden wie SS, zum Beispiel, es wird für AWS-Code-Commit verwendet, aber hier nicht für programmatische Aufrufe. Sie können die Beschreibung hier sehen. Sie können HTTP Get Credentials verwenden, dies wird jedoch zur Authentifizierung der HGTBX-Verbindung verwendet, was wiederum ein Code-Commit für das Code-Commit-Repository ist Sie können Amazon Keypass hier für Cassandra für Apache Cassandra verwenden hier für Cassandra für Apache Cassandra Okay. Und dann können Sie x509 für SOP-Protokolle verwenden. In Ordnung. Jede dieser Authentifizierungsmethoden ist also für einen speziellen Dienst oder eine andere Art der Verbindung zu diesem bestimmten Benutzer von Drittanbietern aus vorgesehen. Wenn Ihre Frage jedoch speziell programmgesteuerte Aufrufe betrifft, müssen Sie über den Zugriffsschlüssel nachdenken Wenn Ihre Frage besagt, dass es nur um Codekommentare geht , dann müssen Sie entweder an SSH oder G denken. Wenn Ihre Frage besagt, dass Sie es über entweder an SSH oder G denken. Wenn Key Pass oder, äh, für Cassandra verwenden möchten Key Pass oder, äh, für Cassandra verwenden , dann müssen Sie an Anmeldeinformationen von Amazon Key Pass denken, ähm, tut mir leid, Schlüsselraum Schlüsselraum Und wenn es dann um, ähm, das SOAP-Protokoll und solche Dinge geht, dann X Five-Online-Zertifikat Aber mach dir keine Sorgen, das ist alles nicht Teil deiner Frage. Das Wichtigste wird der Zugangsschlüssel sein. Erstellen Sie nun einen Zugriffsschlüssel, klicken Sie einfach darauf und Sie können verschiedene Zugriffstasten sehen, die Sie für Ihre Befehlszeilenschnittstelle erstellen können. Lokaler Code: Wenn Sie ein Software Development Kit ausführen , können Sie sehen, wenn Sie ein EC ausführen, um Lambda zu bedienen, oder wenn Sie auf einen AW-Service auf einen anderen AWS-Service zugreifen möchten , können Sie eine Anwendung verwenden, auf der der AWS-Rechenservice oder ein Drittanbieter ausgeführt wird. Wenn Sie beispielsweise OpenShift für dieses Beispiel verwenden, können Sie Drittanbieter und dann Anwendung verwenden läuft außerhalb von AWS Ebenso haben Sie auch andere, wie Nevers, die hier auf wichtige Informationen zugreifen können Wie auch immer Sie etwas davon erstellen, es wird nach einem Beschreibungswert fragen es wird nach einem Beschreibungswert fragen und dann wird es hier ein Geheimnis erstellen Nun, der Zugriffsschlüssel wird hier zwei Elemente enthalten. Einer ist der Zugangsschlüssel, ein anderer ist der leider geheime Zugangsschlüssel. Es wird dein eigentliches Passwort sein. Das ist also der Benutzer. Sie werden das verwenden, was Sie als Beispiel angeben werden, wenn Sie in der anderen Hand Open Shift verwenden. Öffne Shift, du wirst sagen, benutze diesen Benutzernamen Dev für die Authentifizierung, diesen Benutzernamen Dev für die Authentifizierung, es wird dich fragen, gib mir den Zugangsschlüssel, gib mir den geheimen Zugriffsschlüssel. Sie müssen beide in OpenShift kopieren und einfügen, und Sie müssen auch Ihre Konto-ID angeben Es wird also all diese Kombinationen verwenden, also wird es die Konto-ID verwenden Der Benutzername, der Zugriffsschlüssel, geheime Zugriffsschlüssel und dann die Verbindung zu AWS. Denken Sie jetzt daran, dass OpenShift seine eigenen Anforderungen an die Richtlinien haben wird, die Teil des Entwickler-Benutzers sein müssen , damit er Aufgaben ausführen kann, zum Beispiel wird Openshift eine Menge Terraforming-Code ausführen Auf Ihrer EC Two-Instance oder Ihren ähnlichen Objekten. OpenShift wird sagen, ich benötige Administratorrechte, weil das, was es tun wird, um Terraforming-Skripte auszuführen, VPCs zu erstellen, Lastenausgleich zu erstellen, es wird eine Menge Dinge erstellen, wenn Ihre Open-Shift auf AWS installiert Dafür ist also Administratorzugriff erforderlich . Es will keine Grundsteuern. Sie sollten Access Key keinem Root-Zugriff gewähren, auch nicht jedem, der danach fragt. Okay? Sie sollten also nur einen Benutzer erstellen, die spezifischen Richtlinien angeben, nach denen er fragt, und dann den Zugriffsschlüssel erstellen und ihn dieser API geben. Ordnung. Das ist so ziemlich das, was ich dir in Form von Hands-On zeigen möchte. Ähm, denken Sie also daran , dass der Anwendungsfall für diesen Zugriffsschlüssel von IAM-Benutzer- und IM-Anwendungen verwendet wird IAM-Benutzer- und IM-Anwendungen , um programmgesteuert mit AW-Services zu interagieren Nun, dieses programmatische Wort sollte man sich merken. Wenn Sie das Wort programmgesteuert hören, sollte die Antwort Access Key lauten Sie müssen also sicherstellen, dass Sie den Zugriffsschlüssel regelmäßig wechseln müssen, um die Sicherheit zu gewährleisten Vermeiden Sie es, den Zugriffsschlüssel in den Quellcode einzubetten. Damit wird sichergestellt, dass, Sie wissen schon, IAM-Regeln, Sie wissen schon, als Teil davon erstellt wurden Darüber werden wir später sprechen. Dies sind also auch einige der bewährten Methoden, die Sie in Word Access Key verwenden können. Ich glaube nicht, dass ich hier noch etwas hinzuzufügen habe. Wenn Sie also Fragen haben, hinterlassen Sie sie im Fragenbereich. Ich werde am Wochenende hauptsächlich all Ihre Fragen beantworten . Nochmals vielen Dank für Ihre Zeit und Geduld. Wir sehen uns im nächsten Video. 31. Speicherung von Arbeitsnachweisen: Willkommen zurück zum nächsten Video. In diesem Video werden wir uns den letzten Abschnitt zu diesem speziellen Thema ansehen , nämlich Ihren geheimen Manager und Systemmanager. Und wir werden den Speicher für Anmeldeinformationen wiederherstellen. Nun, was meinst du mit Speicherung von Anmeldeinformationen? Ein Speicher für Anmeldeinformationen ist ein Ort, an dem Sie Ihre Anmeldeinformationen tatsächlich speichern können Sie können Ihre Anmeldeinformationen also auf zwei Arten speichern: in einem geheimen Manager und im Systemmanager-Parameterspeicher Nun, was sind diese beiden Gegenstände? Warum wir über zwei Artikel sprechen. Es gibt zwei Gründe dafür, dass wir über diese beiden Elemente sprechen , wenn es um die Speicherung von Anmeldeinformationen geht. zu erreichenden Zugangsdaten angeht, gibt es einen speziellen Dienst namens Secret Manager. Wenn ich jetzt einfach hier rübergehe, um Secret Manager zu finden, hole ich mir den Secret Manager. Ein anderer ist Systemmanager. Ich öffne beide, damit ich sie dir leicht zeigen kann. Also, was ist ein geheimer Manager? Secret Manager kann Geheimnisse während ihres gesamten Lebenszyklus problemlos rotieren , verwalten und abrufen Wenn ich also ein Geheimnis erstelle, wie ein API-Token, das ich für diesen Benutzer erstellt habe , direkt im vorherigen Video, das wir gesehen haben Jetzt kann ich den API-Schlüssel und den Zugriffsschlüssel im geheimen Speicher speichern. Aber das Problem ist, dass es eine kostenlose 30-Tage-Testversion gibt, aber dann pro Secret zahlen Sie 0,4 pro Monat. Es ist nicht so teuer, aber trotzdem etwas, das man in Betracht ziehen sollte. Sie können auch API-Aufrufe verwenden und das CNM-Passwort über den Secret Manager weiterleiten CNM-Passwort über den Secret Manager weiterleiten indem Sie den Namen des Geheimnisses angeben Anstatt den Schlüssel und das Geheimnis explizit direkt an einen der APS weiterzugeben, können Sie es mit den entsprechenden Rechten tatsächlich über den Secret Manager weiterleiten mit den entsprechenden Rechten tatsächlich über den Secret Manager weiterleiten Jetzt hat der Secret Manager sein eigenes UsenMPassword, und die Verschlüsselung dieses Secret Managers wird Teil von KMS sein Sie müssen den KMS-Service auch bezahlen , weil der Zugriff auf dieses spezielle Geheimnis über Ihren Key Store Management Service von AWS verschlüsselt wird Ihren Key Store Management Okay? Also, das ist ein Standard, den Sie hier als Secret Manager haben und der als Teil Ihres KMS erstellt wurde. Jetzt haben Sie hier Optionen. Sie können die wichtigsten Informationen tatsächlich für Ihre RDS-Datenbank speichern . Sie können auch die Amazon Document DB-Datenbank speichern. Sie können auch, ähm, Red Shift Data Warehouse speichern . Sie können auch Anmeldeinformationen anderer Datenbanken speichern wobei Sie den MsqolPostSQ-Server auswählen können, und dann können Sie die Serveradresse, den Datenbanknamen und die Portnummer angeben , falls er Der Dienst wird sich also direkt an den Secret Manager wenden , um das Geheimnis, das im nächsten Schritt, Schritt 2, konfiguriert wird, oder einen anderen Typ von API-Schlüsseln, den Sie für einen Benutzer erstellen, abzurufen das im nächsten Schritt, Schritt 2, konfiguriert wird , oder einen anderen Typ von API-Schlüsseln, den Sie für einen Benutzer erstellen, den Sie für einen Benutzer erstellen, Sie können also auch diesen Schlüssel mit dem Schlüsselwert hier einfügen und dann zum nächsten Schritt übergehen und dann und das Geheimnis konfigurieren. Und konfiguriere die Rotation. Gehen wir also einfach mit diesem Testtest und dann mit dem nächsten fort. Und hier gibst du hier tatsächlich den geheimen Namen an. Also, was auch immer der geheime Name sein mag, er wird hierher kommen. Und wenn Sie dann zum nächsten gehen, können Sie tatsächlich sehen, ob Sie das drehen möchten. Jetzt können Sie den Rotation Builder alle 23 Stunden oder alle zwei Monate hier haben , sobald Sie rotieren können. Das Schöne daran ist, dass Sie jedes Mal, wenn Sie das tun, auch hier eine Lambda-Funktion aufrufen können, und dann können Sie den Artikel einfach überprüfen und fertig stellen Nun, sie werden dich nicht fragen, wie man das mit der praktischen Anwendung macht , oder nach den Optionen , wenn man es praktisch macht Also gebe ich Ihnen nur zusätzliche Informationen darüber, wie man mit einem geheimen Manager zusammenarbeitet. Was ist nun ein geheimer Manager? Ein geheimer Manager speichert Ihr Geheimnis sicher und verwaltet es und ruft Und er wechselt auch das Geheimnis. Okay? Also das ist die erste wichtige Sache daran. Okay? Heute wird es hauptsächlich zum Speichern von Datenbankanmeldedaten verwendet zum Speichern von Datenbankanmeldedaten Sie haben also gesehen, dass viele Datenbanken in den Aktionspunkt aufgenommen wurden in den Aktionspunkt Wenn also eine Frage kommt, welches der folgenden Elemente wird bevorzugt in AWS Secret Manager gespeichert? Und sie haben vielleicht eine Menge Fragen, die damit zu tun haben, aber eine davon wird auffallen, die Datenbank-Credits sein werden Suchen Sie nach diesen Informationen. API-Schlüssel, auch wir können sie und vertrauliche Informationen speichern. Was auch immer Sie für sensible Informationen halten. Okay, oder sie werden Fragen wie diese stellen , bei denen ich Datenbankanmeldedaten habe und meine Kunden mich bitten, sie sicher zu speichern Welchen der Dienste möchten Sie nutzen? Einer dieser Dienste wäre Secret Manager. Okay. Also erinnere dich an dieses Wort. In Ordnung. Lassen Sie uns nun über den nächsten sprechen, bei dem es um die Funktion des Secret Managers geht. Es dreht dein Geheimnis um. Es verwendet den KMS-Dienst für die Rotation. Es tut mir leid, dass ich den Schlüssel mit KMS sicher aufbewahrt habe. Und dann hat es einen gezielten Zugriff über IAM. Okay. Also sehr einfach, darauf zu antworten. In Bezug auf den Systemmanager wird der Systemmanager also für viele Dinge verwendet. Okay? Sie können zum Beispiel Op Center hier sehen, Cloud Watch, Sie können Anwendungsmanager hier konfigurieren. Sie können das Änderungsmanagement auch als Teil des Systemmanagers betrachten . Sie können auch sehen, dass das Patchen auch einen großen Teil Ihres Systemmanagers ausmacht Aber eine Sache beim Speichern Ihrer Anmeldeinformationen ist Ihr Parameterspeicher Denken Sie jetzt daran, dass der Parameterspeicher Teil Ihres Systemmanagers ist , und was ist der Parameterspeicher Nun ist der Parameterspeicher eine zentrale Speicherung und Verwaltung von Geheimnissen und Konfigurationsdaten wie Passwörtern, Datenbankzeichenfolgen und Lizenzcodes. Sie können Werte verschlüsseln oder sie im Klartext speichern und auf der Einstiegsebene auf Secret zugreifen, ganz wie Sie möchten Eine weitere Funktion des Parameterspeichers besteht darin, dass Sie einen neuen Parameterspeicher erstellen und den Parametertyp und den Parameterwert angeben können Parametertyp und den Parameterwert angeben Und verweisen Sie auf den Parameter in Ihrem Code oder Befehl. Sie können ihn auch leicht referenzieren. Klicken Sie nun auf Parameter erstellen, sodass Sie hier tatsächlich den Namen des Parameters angeben können, eine sodass Sie hier tatsächlich den Namen des Parameters angeben können Beschreibung, ob Sie bis zu 2000 Standardparameter bis zu einem Wert von bis zu vier KB einer Dateigröße speichern möchten 2000 Standardparameter bis zu einem Wert von bis zu vier KB einer Dateigröße und ob die Parameterrichtlinie mit anderen AWS-Konten geteilt wird. Sie können dies als Teil der anderen AWS-Konten , die Sie haben, teilen . Oder Sie können sich einfach für Advanced entscheiden, wo Sie 100.000 erweiterte Parameter haben, was etwa acht KB entspricht. Das wird für Sie ein Aufpreis sein. Was nun den Wert angeht, den Sie speichern möchten, können Sie Ihre Datenbankwerte, Ihre Lizenzschlüssel und alles andere eingeben . Und Sie können auch, Sie wissen schon, mithilfe von KMS eine sichere Zeichenfolge erstellen. Sie können es mit einer sicheren Zeichenfolge verschlüsseln oder Sie können tatsächlich einen Datentyp als Text verwenden und dann den Wert hier einfügen Dadurch wird ein Parameter erstellt , in dem Sie den Wert tatsächlich speichern Der Zweck des Parameterspeichers besteht nun darin, dass hier ein weiterer Dienst zum Speichern von Konfigurationsdaten zum Speichern von Konfigurationsdaten und geheimen Dateien gespeichert werden kann Diese Funktion unterstützt nun sowohl Klartext als auch verschlüsselte Werte und zur Verschlüsselung in AWS KMS integrieren Ich würde sagen, ein idealer Anwendungsfall dafür ist das Speichern von Anwendungskonfigurationswerten wie Umgebungs-V-Werten oder Datenbankzeichenfolgen, die Sie behalten möchten , oder kleiner Geheimnisse die Sie hier haben, Sie können sie behalten. Der Hauptzweck oder die bewährte Methode besteht also darin, den Parameterspeicher zur Verwaltung nicht sensibler Konfigurationsdaten oder Geheimnisse zu verwenden zur Verwaltung nicht sensibler Konfigurationsdaten oder , die nicht häufig gewechselt werden müssen. Der Parameterspeicher dient also im Grunde dazu, Parameter und unkritische geheime Werte wie Ihre Lizenzinformationen und andere Dinge zu speichern und unkritische geheime Werte wie Ihre Lizenzinformationen und andere Dinge Wie es sich vom Secret Manager abhebt, wird Secret Manager KMS-Authentifizierung oder Verschlüsselung verwenden. Es gibt also keine Option, ähm, für Sie, es ohne KMS zu speichern. Wir haben hier mehrere Optionen gesehen. Sie können sehen, dass wir den Klartext oder den Schlüsselwert haben. Aber alles, was Sie hier eingeben erfordert eine KMS-Verschlüsselung, das können Sie hier sehen. Dies ist kein optionaler Parameter. Dies ist verpflichtend. Alles, was Sie als Teil davon speichern , erfordert eine KMS-Authentifizierung oder, es tut mir leid, eine Verschlüsselung, wobei der Wert verschlüsselt wird. In diesem Fall ist es optional, wo Sie es mit Ähm, KMS sichern können. So sicher wie eine Verschlüsselung mit dem Wert mit KMS. Okay, aber es gibt die Möglichkeit, das auch nicht zu tun, weil es im Grunde Parameter speichert Okay. Es werden also Fragen auftauchen. Sehr verwirrend. Sie werden sagen, ich möchte ein Geheimnis speichern, das im Grunde nicht so, ähm, Sie wissen schon, nicht so häufig rotiert werden muss und nicht so sicher ist. Es sind nur die Lizenzdaten. Würden Sie wissen, welche Dienste ich nutzen würde, um, ähm, Sie wissen schon, diesen Wert zu speichern? Es könnte sein, dass einer der Dienste Secure Manager wäre, anderer Dienst wäre Parameter, Parameterspeicher, und dann müssen Sie Parameterspeicher wählen, weil er keine Rotation keine Verschlüsselung erfordert. In dieser Situation, wenn Verschlüsselung eine Option ist, wählen Sie den Parameterspeicher. Wenn Verschlüsselung obligatorisch ist, entscheiden Sie sich für Secret Manager. Fragen werden etwas verdreht sein. Lesen Sie die Fragen zweimal und zweimal, Lesen Sie die Fragen zweimal und zweimal um den Unterschied zu verstehen, worauf wir uns eigentlich einlassen und beantworten Sie dann die Frage, es sollte Ihnen gut gehen Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wenn Sie Fragen haben, lassen Sie es im Fragen-Bereich 32. Labs Identifizieren von Authentifizierungsmethoden in AWS: Hey, Leute. Willkommen zurück zum nächsten Video, wir über die Identifizierung von Authentifizierungsmethoden in AWS sprechen werden. Eine der wichtigen Fragen hier: Im Rahmen dieser speziellen Aufgabe zwei oder drei, wir identifizieren die AWS-Zugriffsverwaltungsfunktionen, geht es um Authentifizierungsmethoden , um diese zu identifizieren Wir werden versuchen, einige praktische Übungen zu machen, aber wenn Sie die Benutzer lesen möchten oder etwas Ähnliches, werden wir das zu einem späteren Zeitpunkt tun Vielleicht werden wir in ein paar Videos praktisch daran arbeiten , darauf hinzuarbeiten. In diesem Video werden wir also hier eine Architektur identifizieren, in es um die Identifizierung von Authentifizierungsmethoden in AWS geht . Dies ist ein einziges Video wir all diese drei Punkte behandeln werden, und das haben wir immer wieder gesehen, sodass es für uns viel einfacher sein wird , das durchzugehen. Nun zur Identifizierung von Authentifizierungsmethoden in AWS, d. h. zur Identifizierung verschiedener Authentifizierungsmethoden. Eine davon ist Ihre Multifaktor-Authentifizierung , die Sie nicht ablehnen können . Sie ist dringend erforderlich und bietet eine zusätzliche Sicherheitsebene, indem der Benutzer aufgefordert wird zwei Arten der Authentifizierung bereitzustellen Eines ist Ihr Passwort, anderes ist ein Code , der jede Minute generiert und sich jede Minute ändert. Sie erhalten einen neuen Code, entweder mithilfe eines Hardware-Token-Geräts oder mithilfe einer mobilen App Ein Anwendungsfall besteht im Grunde darin, die MFA im IAM-Benutzer zu aktivieren haben wir für die vorherigen Videos bereits genug gesehen , Sie werden es auch im nächsten Video sehen im nächsten Video Ich meine, als Nächstes, was die Benutzererstellung angeht. Dadurch wird sichergestellt, dass der Root-Benutzer oder der Benutzer, für den Sie dies aktivieren , noch sicherer ist. Und selbst wenn das Passwort kompromittiert wird, können die Leute nicht hineinkommen, weil der fünfstellige Code ständig rotiert und sich jede Minute ändert Das nächste ist Iidentity Center von IAM. Ursprünglich als AWS-Single-Sign-On bezeichnet, ist das der frühere Name, aber seit Kurzem heißt es Iidentity Center Jetzt ermöglicht Identity and Access Management (Iidentity Center ) die zentrale Verwaltung des Zugriffs auf mehrere AWS-Konten und -Anwendungen unter Verwendung vorhandener Firmenanmeldedaten für, ähm, Sie wissen schon, direktes Active Directory . Wenn Ihr Unternehmen Active Directory verwendet , müssen Sie wirklich nicht all diese Benutzer in Active Directory nach AWS importieren Sie können diese Active Directorys tatsächlich Directorys als Teil des Identity Centers hinzufügen Teil des Identity Centers Es kann also einen externen Identitätsanbieter verwenden , der SAMO 2.0 Die Fragen hier wären wie Sie Ihr Unternehmen integrieren Es wird die Frage also formell stellen, so als ob Ihr Unternehmen bereits einen EDAP-Dienst hat , der mit vielen Benutzern und Passwörtern läuft der mit vielen Benutzern und Passwörtern läuft Nutzername und Passwörter. Nun, wie integriert man das? Welchen Service würden Sie verwenden , um das in AWS zu integrieren? Das ist Ihr Identitätszentrum. Okay? So wird die Frage also gestellt. Im Grunde genommen entspricht das dem typischen Anwendungsfall dieses Identitätszentrums. Es vereinfacht die Authentifizierung und das Zugriffsmanagement für große Unternehmen mit mehreren AWS-Konten, sodass Benutzer eines authentifizieren und auf alle zugewiesenen Ressourcen zugreifen Jetzt können Sie Federation auch verwenden, um auf die SAML-basierte Authentifizierung zuzugreifen , sodass sich Benutzer mit ihren vorhandenen Anmeldeinformationen anmelden können, die in ihrem Konto konfiguriert Wenn Sie zu IMR gehen, möchte ich Ihnen nur einige, ähm, Sie wissen schon, Einblicke geben ähm, Sie wissen schon, Einblicke Sie können sehen, dass die zugehörigen Konsolen die IM-Identität einrichten. Das war früher SSO, Single Sign-On, äh, aber jetzt ist es Identity Center. Jetzt können Sie das Identity Center tatsächlich aktivieren. Wenn Sie es also aktivieren, verbinden Sie Ihr Verzeichnis oder erstellen Sie Benutzergruppen , ich meine, für die Verwendung in AWS. Wenn Sie also sehen, dass alle Mitarbeiter über AWS-Konten hinweg verwalten und auf Workf-Integrationsanwendungen zugreifen, können Sie auch, wenn Sie mehrere Konten haben, dies tatsächlich verwenden, aktivieren und dann verwenden, um mehrere Benutzerkonten zu erstellen und mit ihnen zu arbeiten Ordnung. Lassen Sie uns jetzt über den nächsten Punkt sprechen, nämlich Ihre kontoübergreifende IM-Regel. kontoübergreifenden IMO handelt es sich im Grunde eine Regel, die es einem Benutzer oder Service in einem AWS-Konto ermöglicht um eine Regel, die es einem Benutzer oder Service in einem AWS-Konto ermöglicht, vorübergehend eine IAM-Rolle in einem anderen AWS-Konto zu übernehmen in einem anderen AWS-Konto , ohne langfristige Anmeldeinformationen weiterzugeben Nun, wenn ein Team aus mehreren AWS-Konten Zugriff auf Ressourcen für ein anderes Konto benötigt , wenn Sie beispielsweise eine Organisation haben und es diese Organisation mit dem Namen Organisation gibt , hat sie dieses Konto namens ANB Wie zum Beispiel hier drüben, eine davon sind Organisationen, die Sie sehen Standardmäßig hätten Sie Organisation also nicht aktiviert. Sie können es auch kostenlos aktivieren. Hier wird es also eine Option geben, die als Organisation aktivieren bezeichnet wird. Tun Sie das einfach. Es sollte sehr schnell aktiviert werden. Jetzt haben Sie hier mehrere Konten und möchten kontoübergreifend auf Benutzer zugreifen . Das nennen wir kontenübergreifende IAM-Regel. In diesem Fall können die Entwickler im Konto A auf den Bucket S drei auf dem Konto B zugreifen , sie können von einer Regel ausgehen, die geeignet ist und die entsprechenden Rechte dafür hat Das nennt man im Grunde kontoübergreifende IAM-Regeln. Die Fragen lauten normalerweise wie in meiner Umgebung: Ich habe einen Entwickler, bei dem ein Entwickler mit Konto A Zugriff auf S drei Bucket benötigt um es in das Konto B zu schreiben. Welche Art von Dienst sollte ich verwenden oder welche Art von Funktion muss ich verwenden, um diesem Entwickler Zugriff zu diesem Entwickler Zugriff gewähren und ihm Zugriff auf mehrere, ähm, gewähren und ihm Zugriff auf mehrere, ähm, Sie wissen schon, mehrere Konten unter meiner Organisation. Wenn solche Fragen auftauchen, gelten kontenübergreifende IAM-Regeln. Denk mal drüber nach Er muss auf beiden Seiten Zugriff haben, also müssen wir über kontenübergreifende IAM-Regeln sprechen Ordnung, Leute, danke nochmal, dass ihr euch dieses Video angesehen habt. Ich sehe den nächsten. Wenn Sie Fragen haben, hinterlassen Sie diese bitte im Fragenbereich. Ich kann Ihnen dann weiterhelfen. 33. Lab-Passwortrichtlinien: Hey, Leute, willkommen zurück zum nächsten Video. Hier werden wir über Passwortrichtlinien sprechen. In Bezug auf die Passwortrichtlinie werden wir nun über die Definition der Regeln oder Anforderungen sprechen , die der IAM-Benutzer bei der Erstellung der Passwortrichtlinie beachten muss Nun zu den Zugangsschlüsseln, die wir bereits besprochen haben, jetzt wird das Passwort nicht von Ihnen festgelegt, okay, es wird automatisch generiert Aber wenn Sie über die Passwörter sprechen, die für einen Benutzer erstellt werden, wenn er oder sie sich an der Konsole anmeldet , wird das von Ihnen festgelegt. Okay? Das ist also eingestellt von, Sie können das Passwort zurücksetzen Sie können entweder ein Autogenerator-Passwort oder ein benutzerdefiniertes Passwort auswählen Autogenerator-Passwort oder ein benutzerdefiniertes Passwort Okay. Also, auf welche Weise Sie das UH-Passwort tatsächlich verwenden werden. automatische Generator-Passwort bedeutet, dass Sie ein strenges Passwort haben, ohne dass Sie, ähm, Sie wissen schon, ein strengeres Passwort erstellen Aber wenn Sie sich für ein benutzerdefiniertes Passwort entscheiden, müssen Sie hier , ähm, spezifische Anforderungen erfüllen In gewisser Weise kann ich also kein Passwort namens Passwort erstellen. Wenn ich so etwas erstelle, können Sie sehen, dass die Passwortrichtlinie nicht gemeint ist. Die Passwortrichtlinie besagt, sie mindestens acht Zeichen lang sein sollte und Zahlen in Großbuchstaben, Kleinbuchstaben und Sonderzeichen enthalten sollte. Ich sollte mindestens eine Mischung aus diesen drei folgenden Elementen haben, mindestens drei, entweder aus diesen Elementen. Was wir tun werden, ist P bei der Geschwindigkeit. SSW, Null RD, bei Rate 123. Nun, das hat einen Großbuchstaben, Kleinbuchstaben mit der Rate, was ein Symbol ist, und dann Null, was eine Zahl ist, und dann ist es acht Buchstaben lang Sie benötigen nicht wirklich eine Rate von eins, zwei, drei, auch weil das eigentlich ein komplexes Passwort erfüllen sollte . Wir können auch festlegen, dass Benutzer bei der Anmeldung ein neues Passwort erstellen müssen und Sie können auch den Widerruf der gesamten Konsultation aktivieren. Wenn sich zu diesem Zeitpunkt jemand bei diesem Benutzer angemeldet hätte , würden diese Personen abgemeldet , wenn Sie auf Passwort zurücksetzen klicken. Sobald Sie das Passwort zurückgesetzt haben, informieren Sie den Kunden und er wird tatsächlich mit einem neuen Passwort arbeiten sobald Sie sicher mit ihm kommuniziert haben Eine weitere Sache, die im Rahmen der Passwortrichtlinie empfohlen wird , ist eine Multi-Faktor-Authentifizierung Klicken Sie jetzt einfach auf Multi-Faktor-Authentifizierung zuweisen und hier können Sie sich die verschiedenen Arten der Multifaktor-Authentifizierung ansehen . Hier geht es entweder um einen Sicherheitsschlüssel, einen Passschlüssel, einen physischen Schlüssel oder ein Gerät, die Authenticator-App, die Ihr Handy verwendet, und Sie können diese Authentifizierungs-App tatsächlich installieren, oder Sie können ein Hardware-Token haben Das ist TotPTKen , was wiederum Hardwaregerät hier drüben ist Hardwaregerät Ordnung. Durch die Verwendung der Multifaktor-Authentifizierung ist Ihr Benutzer also noch besser geschützt als zuvor Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns x 34. Arten von Identitätsmanagement: Hey, Leute, willkommen zurück zur nächsten Periode. Und in diesem Video können wir die Arten des Identitätsmanagements verstehen . Nun, wir haben hier bereits über das Identity Center und die kontoübergreifenden AM-Regeln gesprochen . Was wir über Identity Center verstanden haben , ist , dass Sie nicht nur Benutzernamen und Passwörter in AWS erstellen, sondern auch, wenn es in Ihrem Unternehmen bereits eine UM-, LDAP- oder eine andere Art LDAP- oder eine andere Art von Authentifizierung gibt, Sie diese über Identity Center integrieren können Jetzt können wir die Arten des Identitätsmanagements verstehen, zum Beispiel die föderierte Identität . Eine Föderation bedeutet im Grunde genommen Ergänzung der bestehenden Infrastruktur Lassen Sie uns über die verschiedenen Arten von Identitäten sprechen , die auf AWS verwendet werden. Jetzt gibt es zuerst einen lokalen IAM-Benutzer und Gruppen. Das bedeutet im Grunde, dass ich zu IAM gehe, einen Benutzernamen erstelle. Es tut mir leid, die Sitzung ist abgelaufen. Gib mir einfach eine Sekunde tut mir leid. Ich bin zurückgekommen. Ich glaube, ich muss alle Browser schließen und sie einfach wieder öffnen Wie Sie sehen können, habe ich die Benutzer hier erstellt, die Gruppen hier erstellt. Dies wird im Grunde als lokale IAM-Benutzergruppe bezeichnet wird auf lokaler Ebene in Ihrem AWS selbst erstellt lokaler Ebene in Ihrem AWS selbst Wir erstellen es manuell. Der nächste ist der Federated Identity Manager. Was Sie nun mit Federated Identity Manager meinen, ist, dass der Federated Identity Manager Benutzern von externen Identitätsanbietern oder DAPs den Zugriff auf AWS-Ressourcen ermöglicht , ohne dass ein separater IAM-Benutzer auf AWS-Seite erstellt werden muss , ohne dass ein separater IAM-Benutzer auf AWS-Seite erstellt ein separater IAM-Benutzer Dieser Zusammenschluss von Identitäten aus Unternehmensverzeichnissen wie Active Directory oder DAPs von Drittanbietern aus Unternehmensverzeichnissen wie Active Directory oder DAPs von Drittanbietern wie Google, Authentifizierung. All dies wird im Grunde als föderierte Systeme bezeichnet. Sie haben im Grunde genommen ein standardisiertes Format wie SAML 2.00 oder Open ID Connect verwendet, das können Sie ebenfalls Im Grunde funktioniert es so, AWS die externen DAPs integriert, um Benutzer zu authentifizieren Der Benutzer authentifizieren nimmt temporäre Rollen in IAM mit der in der AWS-IAM-Richtlinie definierten Berechtigung an Ebenso können Sie dies verwenden. In einem typischen Anwendungsfall können Sie es also in einer größeren Unternehmensorganisation verwenden, können Sie es also in einer größeren Unternehmensorganisation verwenden die bereits über Unternehmensanmeldedaten in ihrem Active Directory verfügt, Sie sie nicht wirklich nach Ihrem AWS-Standpunkt neu erstellen müssen sie nicht wirklich nach Ihrem AWS-Standpunkt Darüber haben wir auch bereits gesprochen. Lassen Sie uns nun über die nächste Regel sprechen, nämlich die Cross-Account-Regeln, über die wir bereits zu Beginn unserer Sitzung gesprochen haben. Nun, bei kontenübergreifenden Regeln handelt es sich im Grunde um Regeln, die mehrere , ähm, Sie wissen schon, haben, die für mehrere Konten innerhalb unserer Organisation funktionieren können . Okay? Diese Cross-acco-Regeln ermöglichen es Benutzern oder Services, auf einem AWS-Konto zu laufen , während eine Organisation Rollen auf einem anderen Konto übernimmt. Okay. Dies ist also im Grunde ein Identitätsmanagement, das den Zugriff über mehrere AWS-Konten hinweg vereinfacht , ohne dass Benutzer oder Anmeldeinformationen dupliziert werden müssen Das ist also etwas, das als kontenübergreifende Regeln bezeichnet wird, und darüber haben wir bereits gesprochen. Die nächste andere Art von Identitätsmanagement sind nun Service Link Rules. Was sind nun Service Link-Regeln Service Link Routes ist eine einzigartige Art von Regeln , die Kritiker direkt mit dem AWS-Service verknüpft. Diese Regeln ermöglichen es dem AWS-Service, Aktionen in Ihrem Namen durchzuführen. Wenn Sie zum Beispiel in den IAM-Benutzer wechseln und dann zu Rollen wechseln, richtig? Sie haben hier so viele Rollen. Wenn Sie das sehen, nehmen wir diese Beispielrolle. AW ist eine Servicerolle für Auto Scaling. Wenn Sie diese nun öffnen, können Sie die mit dem Auto Scaling-Service verknüpfte Rolle sehen. Wenn Sie jetzt darauf klicken, können Sie die Richtlinie sehen und auch die Erklärung finden Sie hier. standardmäßige serviceverknüpfte Rolle ermöglicht den Zugriff auf den AW-Service und die Ressourcen, die von Auto Scaling verwendet oder verwaltet werden. Alles, was Teil Ihres AW-Service ist und von Auto Scaling verwendet und verwaltet wird, ist also verwendet und verwaltet Teil der Service-Link-Regel hier. Gemäß dieser Regel ist sie mit der Richtlinie zur automatischen Skalierung von Servicerollen verknüpft . Jetzt, wo wir es erweitert haben, werden Sie mehr Details darüber bekommen , was die Aktion eigentlich ist, und sie erlaubt all diese Aktionen hier , wo es um Autoskalierung und Aktivierung und solche Dinge geht und Aktivierung und solche Dinge Sie können also sehen, dass die gesamte automatische Skalierung das Bild von elastischen Bändern oder Cloud-Watching zurückzuführen elastischen Bändern oder ist, all diese Dinge Das wird also im Grunde eine Service-Link-Regel genannt. Nun, so funktioniert es Die Rolle wird automatisch vom AWS-Service erstellt und verwaltet. Nun, das sind etwas, das Sie noch nicht erstellt haben, oder? Weil diese automatisch erstellt werden und als Service Running Role bezeichnet werden. Immer wenn Sie einen Dienst erstellen , verknüpft dieser Dienst eine bestimmte Rolle mit ihm. In diesem Fall wird ihm eine bestimmte Berechtigung zugewiesen , die für die ordnungsgemäße Ausführung des Dienstes erforderlich ist . Eine Dienstregel für Auto Scaling verfügt also Berechtigungen für Auto Scaling, über Berechtigungen für Auto Scaling, wie Sie hier sehen können. Das nennt man Service Rink Rule. Die nächste, über die wir sprechen werden, ist die Identität, die für kognitive Web- und mobile Anwendungen bereitgestellt kognitive Web- und mobile Anwendungen Jetzt gibt es eine weitere Anwendung oder einen anderen Dienst namens Amazon Cognito Es wird für die Verwaltung der Authentifizierung und Benutzeridentität für Web- und mobile Apps verwendet und Benutzeridentität für Web- und mobile Apps Wenn Sie eine Frage zum Identitätsanbieter für Web- und Mobilanwendungen haben, sollten Sie sich voll und ganz auf Amazon Cognito konzentrieren Jetzt unterstützt Amazon Cognito den Identitätsverbund über Drittanbieter wie Google Facebook und Enterprise Directory bis hin zu Samo Das heißt , wenn Sie sich manchmal auf, ähm, einer beliebigen Website anmelden , werden Sie sehen, dass Sie die Möglichkeit haben, einen Benutzer für diese Website zu erstellen, oder Sie können sich direkt von Ihrer Google-ID oder Facebook-ID aus anmelden, richtig werden Sie sehen, dass Sie die Möglichkeit haben , einen Benutzer für diese Website zu erstellen, ? von Ihrer Google-ID oder Facebook-ID aus anmelden, Nun, wie das mit diesem speziellen Identitätsanbieter von Amazon Cognito verknüpft ist diesem speziellen Identitätsanbieter von Amazon Cognito Wenn Sie also diesen Identitätsanbieter von Amazon Cognito verwenden, können Sie Ihre Optionen zur Aktivierung der Google-basierten Benutzererstellung Erstellung von Facebook-Seiten und direkte Anmeldung beim Benutzer mithilfe von Amazon Cognito Cognitive ermöglicht es Benutzern, sich einem externen DAP ihrer eigenen Kombination aus Benutzername und Passwort Nach der Authentifizierung erstellen sie vorübergehend Anmeldeinformationen über kognitive Identitätspools, um auf AWS-Services zuzugreifen Das wird jetzt immer komplizierter, aber machen Sie sich darüber keine Sorgen Eigentlich werden sie dir nicht so viele Fragen dazu stellen. Sie werden Sie fragen, wenn ich eine Anwendung für meine Web- und Mobilanwendung einrichte, möchte ich meine Google-Authentifizierung vornehmen. In dieser Situation, für welche Art von Authentifizierung oder welche Art von Dienst würde ich verwenden. Dann wird es eine Frage wie Amazon Cognito geben. Wenn Sie das sehen, ist das Ihre Antwort. Okay. Also werden auch Fragen gestellt. In Bezug auf das Identitätsmanagement sind dies jedoch einige der Konzepte. Dies sind etwas, an das Sie sich erinnern sollten. Das sind die Namen, an die Sie sich unbedingt erinnern sollten. Ich werde alle Dokumente, über die ich gerade spreche, in einem anderen Video, zu einem anderen Thema anhängen über die ich gerade spreche, in einem anderen Video, , damit Sie sich darauf beziehen und, Sie wissen schon, alles darüber verstehen können . Nochmals vielen Dank für Ihre Geduld und Zeit. Ich werde dich im nächsten Video sehen. 35. Labs Benutzergruppen und Richtlinien: Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir eine praktische Sitzung für Benutzergruppen, Rollen und Richtlinien durchführen . All diese Aktionspunkte können wir nicht praktisch umsetzen. Lassen Sie uns weitermachen und die praktischen Übungen durchführen. Damit Sie erfolgreich einen Benutzer erstellen können, müssen Sie zu IAM wechseln Es gibt also einen Dienst namens IdentityNAccess Also, Sie können das hier sehen, klicken Sie mit der mittleren Maustaste darauf. Jetzt sehen Sie, dass Sie hier einen neuen Tab mit allen Informationen geöffnet haben . Derzeit sind Sie ein Root-Benutzer mit MFA, das aktiviert ist, also das ist ein Häkchen Es gibt jedoch dieses Warnzeichen , das besagt , dass der Zugriffsschlüssel für Root-Benutzer deaktiviert oder gelöscht Es scheint einen Zugriffsschlüssel zu geben, daher werden wir aufgefordert, den Zugriffsschlüssel zu deaktivieren oder zu löschen. Gehen wir zum Benutzer. Es gibt keine Benutzer, und dann gibt es diese Benutzergruppe und diese Rolle. Es gibt hier so viele Rollen und Richtlinien. Nun, wie ich dir hier im vorherigen Interaktionsvideo gesagt habe . Jetzt sind Richtlinien ziemlich wichtig, also das ist das Endergebnis. Policies hat die JSON-Datei formatiert. Wenn Sie jetzt darauf klicken, werden Sie die ähm, die Richtlinienberechtigungen hier sehen Sie können sie im JSON-Format hier sehen. Jetzt hat die Richtlinie hier bestimmte Arten von Aktionen. Das sind die Berechtigungen. Das ist nun Teil dieser Richtlinie. Diese Richtlinie, die als Access Analyze-Dienstregelrichtlinie bezeichnet wird, enthält diese vielen zusätzlichen Elemente. Okay? Dies sind die vordefinierten Richtlinien, die standardmäßig in AW enthalten sind, es handelt sich also nicht um eine benutzerdefinierte Richtlinie. Sie können auch Ihre eigene benutzerdefinierte Richtlinie erstellen, die wir zu einem späteren Zeitpunkt noch eingehen werden kann Ihre eigenen Berechtigungen für Ihre Anwendungen oder Dienste enthalten, die Sie als Teil von AWS haben. Darüber werden wir später sprechen. Gehen wir nun die Regeln durch. Wie ich Ihnen bereits gesagt habe, geht es darum, Ihren Diensten, Benutzern oder Appliances temporäre Berechtigungen zu gewähren. Jetzt wird mit einem Rollennamen eine Richtlinie verknüpft. Jedem Rollennamen wird eine Richtlinie beigefügt. Denn hier in dieser speziellen Rolle namens EC Two Spot Fleet Tagging Role finden Sie auch den ähnlichen Namen für die Richtlinie, Amazon EC Two Spot Tagging-Rolle Das ist nur, um herauszufinden, was es ist. Mehr oder weniger, mit den meisten Richtlinien, die Sie haben werden, werden Sie auch Rollen haben, die damit verknüpft sind, und mit diesen Rollen werden die Richtlinien verknüpft sein. Nun, was die Benutzer angeht, werden Sie Benutzer erstellen lassen, was wir gleich tun werden, und dann haben Sie hier Benutzergruppen. Dies sind im Grunde Gruppen, zu denen Benutzer gehören werden. Klicken Sie auf Benutzer, klicken Sie auf Createser und Sie können den Benutzernamen angeben, genau wie in diesem Fall werde ich einen Entwicklungsbenutzer erstellen und Zugriff auf die Managementkonsole gewähren Dadurch wird sichergestellt, dass Sie Zugriff auf die Verwaltung gewähren. Konsole. Jetzt hier, stellst du einer Person eine Konsole zur Verfügung? Hier ist ein Benutzertyp ein bestimmter Benutzer im Identity Center empfohlen wird. Ich möchte einen IAM-Benutzer erstellen. Jetzt können Sie in diesem Fall selbst auch einen I-Benutzer erstellen , in dem Sie tatsächlich ein Passwort dafür erstellen können tatsächlich ein Passwort dafür erstellen Sie können ein Autogenerator-Passwort oder ein benutzerdefiniertes Passwort erstellen. Also werde ich hier d123 als Passwort angeben. Ich kann sehen, dass das Passwort angegeben ist. Denken Sie daran, dass das Passwort nur dann angezeigt wird, wenn Sie es beim nächsten Mal einrichten , es gibt keine Möglichkeit, das Passwort über die Benutzerregisterkarte abzurufen . Sie können sehen, dass der Benutzer bei der Anmeldung ein neues Passwort erstellen muss bei der Anmeldung ein neues Passwort erstellen Deaktivieren Sie einfach den Stick mit demselben Passwort. Und dann ist D mit der Rate 12345678 das Passwort Ich habe es in meine Zwischenablage kopiert, damit ich es einfügen kann. Hier können Sie jede Art von Richtlinien erstellen, die Sie zu einer Gruppe hinzufügen können , für die Richtlinien festgelegt sind, oder Sie können eine Richtlinie direkt an den vorhandenen Benutzer uh anhängen eine Richtlinie direkt an den vorhandenen Benutzer uh Im Moment hat er keine Richtlinien eingerichtet, also werde ich es einfach als Standard belassen, also werde ich einfach mit dem nächsten Bildschirm fortfahren. Jetzt, nachdem ich zum letzten Bildschirm hier gegangen bin, können Sie die Bewertung sehen. Sie können die Bewertung hier sehen. Sie können das überprüfen, was auch immer Sie tun. Also bis jetzt haben wir hier keinerlei Genehmigung erhalten . Zurücksetzen des Passworts ist jetzt, das benutzerdefinierte Passwort ist gesetzt, dann lassen Sie uns einen Benutzer erstellen. Jetzt wurde der Benutzer erstellt und Sie können das Passwort hier sehen. Kehren Sie nun zur Benutzerliste zurück. Denken Sie jetzt daran, dass Sie das Passwort nicht mehr abrufen können, wenn Sie diesen Schritt zum nächsten Schritt überspringen nicht mehr abrufen können, wenn Sie diesen Schritt zum . kannst du also ziemlich genau sehen, wenn du darauf klickst, oder? Sie gehen zum Sicherheitsnachweis, ähm, es gibt keine Möglichkeit, ein Passwort abzurufen, also können Sie es hier sehen. Dort steht, dass sich dieser Benutzer nie an der Konsole angemeldet hat , weil wir uns nie angemeldet Wenn Sie also auf Managed Console Ax klicken, können Sie Consolex widerrufen das Passwort zurücksetzen, aber es gibt keine Möglichkeit, das Passwort von hier aus Es gibt keinen Weg, nicht nur von hier aus. Sie können das nur tun, Sie hätten die Datei herunterladen sollen , nach der Sie zuvor gefragt wurden. Abgesehen davon können Sie es nicht tun. Aber die andere Sache, die Sie tun können, ist, das Passwort erneut zu senden Sie können ein benutzerdefiniertes Passwort erstellen und das Passwort dann hier eingeben. Das ist eine weitere Option für dich. Jetzt können Sie auch eine Multifaktor-Authentifizierung für diesen Benutzer einrichten , indem Sie auf ASI Multifaktor-Authentifizierung klicken Auf diese Weise können Sie hier eine Authenticator-App wie die Google Authenticator-App verwenden und Ihre Authentifizierung für Ihr Debüt einrichten Ihre Authentifizierung für Ihr Jetzt liegt es also wirklich an ihnen, ob sie eine Multi-Faktor-Authentifizierung für diesen Zweck haben möchten oder nicht Lassen Sie mich ab sofort hier einen Versuch machen. Lass mich einfach einen neuen Tab öffnen. Lass mich auf aws dot it's on.com gehen. Jetzt klicken Sie einfach auf Anmelden. Ein paar Dinge, die hier erforderlich sind, damit Sie sich erfolgreich anmelden können. Sie können den Root-Benutzer nicht verwenden, daher müssen Sie hier die Konto-ID angeben, die Sie von diesem Ort aus abrufen können. Stell es her, Dev. Das Passwort lautet Dev mit einer Rate von eins, zwei, drei, vier, fünf, sechs, sieben, acht. Dann klicken Sie einfach auf Anmelden, Sie sollten in der Lage sein, auf Ihr A-Disconso zuzugreifen Aber denken Sie daran, dass Sie hier auf nichts zugreifen können hier auf nichts zugreifen weil Sie keinerlei Richtlinien festgelegt haben , die Ihnen erlauben, irgendetwas zu tun, Sie wissen schon, Sie können nicht wirklich erfolgreich einen Bucket oder etwas Ähnliches erstellen Sie haben nicht die Erlaubnis, eine iPhone-Konto-ID zu erhalten. Sie sehen, dass eine Genehmigung erforderlich ist. Sie können hier also nichts tun. Okay? Also kannst du dir das Konzept tatsächlich ansehen. Das ist das Einzige, was du tun kannst. Aber diese leistungsbezogenen Artikel, all diese kostenbezogenen Artikel, unabhängig von den beiden EC-Instanzen, die Sie da draußen haben, werden Sie sie nicht sehen können, weil es sich nur um einen Dummy-Benutzer handelt, den Sie erstellt Sie werden hier also nichts sehen können, Sie werden überall rote Farben Also, wie erteile ich die Erlaubnis? Es gibt zwei Möglichkeiten , diesem Benutzer tatsächlich die Erlaubnis zu erteilen. Sie können die Berechtigung tatsächlich direkt unter der Berechtigung unter „ Berechtigung hinzufügen“ zuweisen der Berechtigung unter „ Berechtigung hinzufügen und dann hier eine Berechtigung zum Hinzufügen erstellen. Wir werden zu einem späteren Zeitpunkt über die Inline-Genehmigung sprechen. Sie können also die Erlaubnis daraus tatsächlich anhängen. Sie können also Administratorzugriff gewähren, wenn Sie diesen Administratorzugriff für diesen bestimmten Benutzer wünschen . Also gibt es dir alle Ressourcen, Doppelpunkt, alles, also tut mir leid, Sternchen, was alles bedeutet Okay? Alles Action ist Star, Action kann alles sein. Der Administrator hat also exklusive Rechte für jeden Aspekt Ihrer Dinge. Aber dann gibt es etwas, das dem Root-Benutzer vorbehalten ist. Darauf kann selbst der Administrator nicht zugreifen, um sich daran zu erinnern. Okay. Es ist also nicht so, dass Sie als Root-Benutzer die totale Kontrolle haben werden. Der Administratorbenutzer ist also nicht gleich dem Root-Benutzer. Der Root-Benutzer wird also unterschiedliche Rechte haben. Wir werden in der späteren Lektion darüber sprechen und versuchen zu verstehen, dass Root-Benutzer im Vergleich zum Administratorzugriff einzigartig sein wird . Also für den Entwickler, also müssen Sie die Anwendung wählen. Sie können also ST auswählen. Was möchtest du tun? Wenn er vollen Zugriff auf S drei haben will, kannst du geben. Sie sehen, ob dieser Entwickler eher für die S3-Administration oder für Aufgaben rund um diese zuständig ist . Wenn dieser Entwickler auch EC Two Instance benötigt, also habe ich diese Option ausgewählt, bin ich nicht deaktiviert. Wenn ich also nur EC Two auswähle, kann ich EC Two auch vollen Zugriff gewähren. Ich kann dem Entwickler mehrere Rollen zuordnen und ihm diese geben. Wenn er also auch Zugriff auf Lambda benötigt, tut mir leid, ich habe diese Schreibweise falsch Wir wollen auch Lambda, Sie können tatsächlich auch vollen Zugriff auf Lambda gewähren, sodass ich das dort sehen kann Wenn dieser Typ also nur ein Analyst sein will, sucht er nur nach Daten Dann können Sie all diese Optionen mit der Option „Nur Lesen“ angeben. Sie haben hier mehrere Optionen. Ich meine, keine vereinfachte Methode zu haben , ich meine, es nicht zusammenzufassen oder, wissen Sie, kompliziert zu machen, weil Sie Zugriff auf jedes Segment der Ressourcen hier drüben haben , Sie haben die Lambda-Rolle Replikation, MSK, das ist dein Kafka, und dann Ebenso haben Sie hier kleinere Teile des Awamda-Service Aber um es nicht zu verkomplizieren, einfach die volle Achse und lesen Sie nur die Achse Sie haben hier die Optionen, aus denen Sie wählen können. Wenn nicht, können Sie tatsächlich zum Gruppenbenutzer zurückkehren und hier eine Gruppe erstellen. Hier werde ich eine Gruppe für Entwickler erstellen. Entwickler. Nun, diese Gruppe wird diesen speziellen Benutzernamen haben, den ich ausgewählt habe, und dann muss ich nach Lambda Full Access, EC Two Full Access suchen , damit sie Dienste für ihre JVMs erstellen können und dann vollen Zugriff auf S Three Service haben Sie werden also Zugriff haben , um Buckets und ähnliches zu erstellen , weil sie ihre Daten dort ablegen können Ich habe eine Gruppe erstellt, ich habe Benutzer hinzugefügt, während ich die Gruppe selbst erstellt habe Wenn Sie nun den Entwicklerbenutzer haben der all diese Aktivitäten ausführt, lassen Sie mich diese Seite jetzt aktualisieren. Jetzt werden Sie sehen, dass er eingeschränkten Zugriff auf die zweite EC-Instanz hat , es tut mir leid. Jetzt können Sie die Instance starten. Es gab keine Probleme. Ist noch nie aufgetaucht. Und wenn er versucht, hier eine S-3-Anwendung zu erstellen, sollte es auch für ihn funktionieren Bisher war es also nicht möglich, diese Artikel zu sehen, oder? Jetzt können Sie sich das ansehen. Sie können auch in einige der Eimer gehen, um auch deren Inhalt zu sehen Sie können hier auch Buckets erstellen , um hier einige Artikel hinzuzufügen Ebenso können Sie alle Optionen verwenden, die ihr zuvor verboten waren Das ist es also, worum den Benutzern und Regeln, Richtlinien geht. Richtlinien bestehen im Grunde aus den Ressourcen und den Aktionen, die Sie für die Ressourcen ausführen können , und das definiert tatsächlich einen Dienst oder, ähm, Sie wissen schon, jeden, der versucht auf die AW-Services zuzugreifen. Der Benutzer ist also im Grunde ein Tool. Wenn Sie also zum Beispiel einen Benutzer für einen Dienst erstellen möchten, wie ich Ihnen im vorherigen Beispiel über Open Shift gesagt habe , oder? Wenn Sie nun einen solchen Benutzer für Open-Shift erstellen, dann werde ich Open-Shift, ähm, Service Access erstellen. Geben Sie hier also nicht die Verwaltungskonsole an, da Open Shift keine Managementkonsole erforderlich ist. früheren Versionen desselben IM-Tools gab es hier also eine Option , bei der Sie die programmatische Achse auswählen Aber hier heißt es, wenn Sie grammatikalische Achse erstellen, Zugriffsschlüssel oder bestimmte Also müssen wir einen weiteren Schritt machen. Das sage ich dir. Also hier habe ich diese Gruppe hier drüben. Ich werde nicht mit der Gruppe gehen. Hier wurde mir gesagt, dass sie Administratorzugriff und Zugriff auf alle Dienste benötigt. Es ist kein Root-Benutzerzugriff erforderlich. Niemand, keiner der Dienste würde verlangen, dass Sie Root-Zugriff haben. Denken Sie also daran, dass Sie niemandem Ihren Root-Zugriff geben sollten. Erstelle das nicht. Ich werde dir gleich sagen, wie das geht. Klicken Sie auf Erstellen und dann sehen Sie, dass der Benutzer erstellt wurde. Jetzt ist dieser Benutzer im Grunde ein Administratorbenutzer, da ihm Verwaltungsrichtlinien zugewiesen sind. Jetzt mache ich es nicht zu einem Teil einer Gruppe, weil ich das getrennt von meinen bestehenden Gruppen haben möchte , Sie wissen schon, die Gruppen, die ich für Benutzer erstelle. Also jetzt ist dieser spezielle Benutzer namens Open Shift Service Access für den Zugriff da. Also, wie gebe ich diesen Benutzernamen? Jetzt kenne ich den Benutzernamen. Was ist ein Passwort? Ich muss diese Information angeben, um Shift auf der anderen Seite zu öffnen. Dieses Beispiel gilt für jede Drittanbieteranwendung, bei jede Drittanbieteranwendung es nicht nur um Open Shift gehen muss. Multivektor-Authentifizierung ist also nicht für Open-Shift vorgesehen, da es sich dabei um eine zweite Authentifizierungsebene für Ihren Benutzer Also das ist es nicht. Zugangsschlüssel, sehr wichtig. Das ist der eine. Sie können also sehen, dass Sie diesen Zugriffsschlüssel verwenden, um programmgesteuerte Aufrufe von der AWS-CLI aus an AWS zu senden programmgesteuerte Aufrufe von der AWS-CLI aus an AWS zu Aber das ist der Nutzen davon. Wenn also ein anderes Tool eine Verbindung zu AWS herstellt, verwendet es tatsächlich den Zugriffsschlüssel hier drüben. Klicken Sie also auf Create Access Key. Und von hier aus, ist es für Commanda Interface? Nein. Ist es für die lokale Vorwahl? Nein. Es dient zum Ausführen einer Anwendung auf dem AWS-Rechenservice. Nein, das gilt auch nicht zwischen Service zu Service. Achten Sie darauf, dass der Benutzer sowohl für den Service to Service als auch für den Service to ECS Service oder für den Lambda Service erstellt werden kann für den Service to Service als auch für den Service to ECS Service oder für den Lambda Service erstellt Service to ECS Service oder für den Lambda Service Also Drittanbieter-Service, ja. Das ist also Open Shift, das ist ein Drittanbieter-Service, und ich wähle einen Drittanbieter. Es gibt noch andere Optionen, wie Anwendungen außerhalb von Ara Blaier laufen, Beispiel in Ihrer eigenen Infrastruktur, richtig, in Ihrem eigenen Rechenzentrum oder nicht aufgeführt Also Drittanbieter-Service, ich verstehe. Es heißt also, es ist die beste Methode , eine temporäre Zugriffsregel wie IAM zu erstellen , anstatt langfristige Zugriffsschlüssel und ähnliches Dies ist jedoch für Open-Shift sehr zu empfehlen. Taggen Sie also den Wert und erstellen Sie den Schlüssel. Jetzt ist dies das einzige Mal, dass es Ihnen hier den Zugangsschlüssel und das Zugangspasswort zeigt . Dies sind die beiden Aktionspunkte, die Sie benötigen. Wenn Sie auf Fertig klicken, wird dies hier geladen. Sie werden sehen, dass Sie bei Open Shift Taxes diesen Schlüssel erstellt haben und das Passwort wird nicht noch einmal angezeigt. Sie müssen es löschen, deaktivieren, löschen und dann neu erstellen, falls Sie das Passwort vergessen haben. Es gibt überhaupt keine Option. In Ordnung. Jetzt werde ich das löschen , weil ich es nicht brauche. Also hier muss ich es kopieren und einfügen. Also hier, zuerst deaktiviert, eingefügt und gelöscht So löschst du es also. Also hier werde ich auch diesen Benutzer entfernen, und es fallen keine Gebühren für die Anzahl der Benutzer an, die Sie in AWS haben werden. Sie können also eine beliebige Anzahl von Benutzern haben. Im Moment ist das so ziemlich die Art und Weise, wie Sie das verwenden können. einem anderen Video werden wir nun über Identitätsanbieter sprechen, da dieses Video sehr lang ist. Nochmals vielen Dank. Ich hoffe, dass Sie den praktischen Abschnitt über das Erstellen von Benutzerregeln verstanden haben und dass Sie in der Lage waren, sich auf das vorherige Thema zu beziehen und es wieder zu verbinden , was für uns im Hinblick auf unsere Prüfung sehr wichtig ist uns im Hinblick auf unsere Prüfung da es mindestens drei bis vier Fragen geben wird aus dieser speziellen Gruppe von Aktivitäten stammen Nochmals vielen Dank. Ich sehe dich im nächsten. 36. Labs AWS Knowledge Center: Willkommen zurück zum nächsten Abschnitt. In diesem Abschnitt werden wir darüber sprechen, herauszufinden, wo Sie tatsächlich viel Unterstützung in Bezug auf AW-Sicherheitsinformationen erhalten , und wir werden uns mit den verschiedenen Möglichkeiten befassen , diese Informationen zu erhalten. Zunächst werden wir über das AWS Knowledge Center sprechen . Gehen Sie jetzt einfach zurück zum Dokument hier in Bezug auf unseren Cloud-Praktiker oder unseren Prüfungsleitfaden Deshalb ist es für uns hier sehr wichtig, diese Services oder Funktionen von AWS zu erkunden Ein Teil davon befasst sich mit dem Verständnis darüber, wo Sie weitere Informationen zu den sicheren AW-AW-Informationen wie Protokollen, Sicherheitszentren und Wissenszentren sammeln können weitere Informationen zu den sicheren AW-AW-Informationen wie Protokollen, . Wir werden uns jeden von ihnen in einem separaten Video ansehen und dann werden wir all das im Rahmen dieser Schulung behandeln. Jetzt beginnen wir mit dem Knowledge Center. Jetzt befindet sich das Knowledge Center nicht in Ihrer AWS-Konsole, aber dann müssen Sie zu Google gehen und AWS Knlege Center eingeben Dies ist AWS-Repost, und eines davon befasst sich mit Knowledge Center Sie können auch einige Informationen zu diesen Kurzinformationen erhalten Sie möchten zum Beispiel mehr über Sicherheit erfahren. Weitere Informationen zur Sicherheit. Also, wenn du das tippst, tut es mir leid, ich war hier ein Tippfehler. Ich würde gerne etwas über Sicherheit wissen Eines davon würde sich mit Dokumentation und Wissensartikeln befassen Dies geht im Grunde zum Knowledge Center, das tatsächlich eine Weiterleitung zum Reposten auf AWS hat und zum Kledge Center führt Eine Art von Frage, die Sie im Chat stellen werden, wird entweder zur Dokumentation weitergeleitet, die an dost aws dot Uh, amazon.com geht, oder sie wird an das Repost Knowledge Center weitergeleitet Leg Center wird die meisten Fragen beantworten. Stellen Sie also häufig Fragen, die Ihnen zur Verfügung stehen Das wird dir das Leben leichter machen , wenn es darum geht, einigen Dingen zu folgen. also direkt auf das Knowledge Center Sie können also direkt auf das Knowledge Center zugreifen und es dann genau so durchsuchen. Oder Sie können es auch von Ihrer Konsole aus tun. Ich habe dir beide Optionen gezeigt. Lassen Sie uns etwas über das Knowledge Center erfahren, eine umfassende Sammlung von Artikeln und häufig gestellten Fragen, die ein breites Spektrum an AW-Services und -Themen abdeckt Spektrum an AW-Services und , darunter bewährte Sicherheitsmethoden, häufig auftretende Probleme und Tipps zur Fehlerbehebung. Nun, es ist sehr hilfreich Es bietet Ihnen detaillierte Antworten auf häufig gestellte Fragen zur häufig gestellte Fragen Sicherheitskonfiguration, Fehlerbehebung und Einhaltung von Vorschriften. Denken Sie jetzt daran, dass es im Knowledge Center nicht nur um Sicherheitsfragen geht, sondern dass es sich um all die Dinge handelt, die Sie normalerweise auf AWS tun. Und wie Sie hier sehen können, gehört das alles zu dem, was Sie normalerweise auf AWS tun. So erhalten Sie Schritt für Schritt vollständige Informationen darüber, wie Sie tatsächlich mit einem Problem arbeiten und es lösen können , sowie eine einfachere Methode, wie Sie es angehen können, z. B. indem Sie einen CLI-Befehl schreiben. Es lohnt sich also auf jeden Fall auszuprobieren, wenn Sie mehr darüber erfahren möchten. Zum Beispiel, wie man EC Two Instance sichert. Wenn Sie also eine Frage wie diese eingeben, erhalten Sie sozusagen die verwandten Artikel , die zuvor gegeben wurden. Also zum Beispiel die Sicherung meiner EC-2-Instanz. Jetzt können Sie sehen, dass es eine Antwort gibt und es 444 Aufrufe gibt, und Sie können sehen, dass diese Frage von dieser Person oder dieser E-Mail-Adresse gestellt wurde. Entschuldigung, diese ID. Jetzt heißt es: Hallo, ich bin ziemlich neu bei AWS. Ich habe vollen Administratorzugriff auf die Konsole. Ich habe vier EC-DB-Proxy, UI und API mit zwei Instanzen , und es fragt Sie, wie ich es sichern kann. Jetzt können Sie sehen, wie die Leute hier antworten und Sie können so ziemlich sehen, wie das geht. Also die Fragen sind hier drüben. Also, wenn ich dasselbe im Knowledge Center mache , können Sie das jetzt als Teil des Knowledge Centers stellen. Wenn ich also noch einmal danach suche, hier drüben bei C 4 und nicht bei allen Inhalten gehe ich hier drüben bei C 4 und nicht bei allen Inhalten zum Knowledge Center, Sie tatsächlich einige Optionen sehen können die im Knowledge Center verfügbar sind . Und bei einer davon würde es darum gehen Verbindung zu EC Two zu sichern. Also kannst du dir das hier ansehen. Sie haben also einen Bereich mit Fragen , in dem Leute wie uns darauf antworten. Es gibt ein Knowledge Center, in dem AWS Artikel darüber und über verschiedene Möglichkeiten, dies zu tun, schreibt. Und Sie können tatsächlich einen Befehl darüber schreiben, zum Beispiel, welchen Befehl Sie über den Beitrag schreiben möchten, AWS würde, wann immer sie verfügbar sind , darauf antworten, oder die anderen Leute werden auch hier vorbeikommen. Sie können sehen, dass die Leute auch hier Kommentare abgegeben haben . So wie du das sehen kannst. Also so ziemlich, das ist das Wissenszentrum, und so können Sie es nutzen. Und ja, du kannst dir etwas aus dem echten Leben machen , auch weil Leute reinkommen und Fragen stellen, du weißt schon, in einer Art Forum. Genau darum geht es im Fragen-Bereich. Nochmals vielen Dank, Leute, dass ihr euch dieses Video angesehen habt. Im nächsten Video werden wir über das zweite Video sprechen, das AW Security Center. 37. Labs AWS Sicherheitszentrum: Hallo, Leute. Willkommen zurück zum nächsten. In dieser Idee werden wir über das AWS Security Center sprechen . Was wir nun über das Security Center nicht sagen können, ist, dass es eine zentrale Anlaufstelle für sicherheitsrelevante Informationen von AW ist , einschließlich Compliance-Berichten, Datenschutzleitfäden und Sicherheitsbulletins Im Grunde hilft es Ihnen, indem es Ihnen Ressourcen und Dokumentation zum Datenschutz, zu Berichten über Vorfälle und zur Einhaltung von Industriestandards wie PCI, HIPAA und GDPR zur Verfügung stellt Ressourcen und Dokumentation zum Datenschutz, zu Berichten über Vorfälle und zur Einhaltung von Industriestandards wie PCI, HIPAA Kommen wir nun zu einem Teil dieses speziellen Zentrums Nun, das ist wiederum nicht Teil Ihrer bestehenden Dienste. Es wird außerhalb der, du weißt schon, Dienste sein , was du wiederum googeln kannst, oder du kannst awtotmason.com mit dem Schrägstrich SECURITY eingeben Nun, der Name, das Security Center, wurde in AWS Cloud Security geändert, also ist es im Grunde das, was es ist Nun, alle Funktionen, über die wir gesprochen haben, sind alle gleich, sodass Sie sich die strategische Sicherheit hier ansehen können oder die Identifizierung von Prävention. Es tut mir leid, identifizieren, verhindern, erkennen, reagieren, beheben. Das sind also einige der Optionen, die Sie hier haben, wenn es darum geht, mit ihnen zu arbeiten Jetzt können Sie auch sehen, dass es mir leid tut, was die Hintergrundgeräusche angeht. Sie können also hier sehen, dass Sie hier mehrere Sicherheitsdienste haben, es um die verschiedenen kostenlosen Sicherheitsversionen von Abs Cloud geht , auf die Sie klicken können, tatsächlich zur Testversion zu gelangen, aber ich weiß es nicht. URLs funktionieren aus irgendeinem Grund nicht, also ignoriere das. Sie können hier also tatsächlich andere Optionen zur Identifizierung der Einhaltung von Sicherheitsvorschriften sehen hier also tatsächlich andere Optionen zur Identifizierung der Einhaltung . Ich versuche gerade erneut, die URL zu öffnen, aber es scheint, als ob sie nicht funktioniert. Sie können also sehen, dass Sie das Identity Access Management als Teil davon haben . Amazon Cognito, Identity Center, Verzeichnisdienst und andere Anwendungen, die Teil Ihres Sicherheits- und Identitätskonformitätsdienstes sind, finden Sie hier überall Jetzt können Sie sich die vorgestellte Lösung auch auf AWS ansehen, und Sie können die Anwendungen sehen denen wir manchmal einige Anwendungen bereits gesehen haben, wie WAF, und wie AWS Automated auf Ihre Sicherheit reagiert und ähnliches AWS Automated auf Ihre Sicherheit reagiert Ihre Sicherheit Sie können hier auch die Kunden sehen , die AWS-Sicherheit verwendet haben Sie können die Einhaltung der Vorschriften auch hier nachlesen , wo es um die Compliance-Audits geht. Sie können an einem Kurs teilnehmen, um mehr über diese Compliance-Anforderungen zu erfahren mehr über diese Compliance-Anforderungen und Sie können sich hier auch mit Datenschutz befassen , um mehr über den Datenschutz zu erfahren. Sie haben hier auch einen Blog , in dem Sie erfahren, wie Sie mit einigen der äh, komplizierten Dinge hier umgehen können, da Sie sehen können, dass es im letzten Blog um die Implementierung einer beziehungsbasierten Zugriffskontrolle mit verifizierter Genehmigung von Amazon und Neptune geht beziehungsbasierten Zugriffskontrolle mit verifizierter Genehmigung von Amazon und Neptune Sie haben also auch eine Menge Artikel, die Ihnen tatsächlich Schritt für Schritt helfen werden, auf Ihr Ziel hinzuarbeiten Wenn Sie jetzt auf den Artikel klicken, können Sie tatsächlich die vollständigen Informationen sehen, wie er Ihnen helfen wird, einige Architekturdiagramme sowie einige der Aktionspunkte hier, die Teil dieses speziellen Blogs sein werden. Sie haben also auch Blogs, und Sie können die Partner hier sehen und Sie können auch zusätzliche Ressourcen einsehen. Das ist also Ihr Sicherheitszentrum. Jetzt möchte ich noch auf einen weiteren Punkt eingehen, den Sicherheits-Blog hier. Das ist das Gleiche, was wir gerade über den AWS-Sicherheitsblog gesehen haben. Dabei handelt es sich um eine reale Situation, in der AWS-Mitarbeiter die Blogs zu Lösungen und deren Architektur schreiben würden . Sie können hier auch die verwandten Produkte, den Lernstand dieser Blöcke und den Beitragstyp sehen Lernstand dieser Blöcke und , in dem es eine Trennung gibt. Wir haben hier also zwei Themen behandelt. Einer ist der Überblick über das AWS Security Center. Wir haben auch über den AW-Sicherheitsblog berichtet. Die Fragen wären, wissen Sie, sie hier reinkommen , Sie werden Sie fragen, wie Sie die neuesten Informationen über die AW-Sicherheit sammeln . Das könnte also eine der Optionen sein, die Sie sehen werden. Security Center, im Sicherheitsblog, sammeln Sie die neuesten Informationen über Sicherheit in Bezug auf Compliance und Datenschutz. Anschließend stehen Ihnen weitere Ressourcen wie bewährte Sicherheitsmethoden und Sicherheitsbulletins Ebenso haben Sie all diese Optionen hier in der AWS-Cloud-Sicherheit, die als Sicherheitscenter bezeichnet wird Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns im nächsten. 38. Labs AWS WAF: Hallo, Leute. Willkommen zurück zum nächsten Video. In diesem Video werden wir über BAF sprechen. Es gibt also einen Dienst namens Amazon WAF, der auch als WAF bezeichnet wird und bei dem es sich um eine Firewall für Webanwendungen handelt Lassen Sie uns nun über den SQL-Injection-Angriff sprechen , bevor wir etwas über die WAF-Firewall Nun, hier ist der Mr. Hacker hier, der versucht, Sie wissen schon, eine SQL-Abfrage in unsere Website einzufügen Ich versuche den Server zu manipulieren, um ihm die Antwort zu geben. Wie Sie wissen, basiert das SQL auf einer sogenannten relationalen Datenbank Was eine relationale Datenbank ist , ist , dass eine Sache mit einer anderen zusammenhängt, und so wurden Daten erfasst und auch Daten veröffentlicht Wenn Sie nun diese spezielle Gruppe von Tabellendatensätzen hier sehen , können Sie sehen, dass ein Kunde, wenn er sich bei einer Bank registriert, seinen Vornamen, Nachnamen, E-Mail-Adresse, Passwort, Adresse, Postleitzahl, vollständige Adresse und dann die Bankkontonummer angeben Nachnamen, E-Mail-Adresse, Passwort, Adresse, Postleitzahl, vollständige Adresse Postleitzahl, vollständige Adresse muss, richtig? Sie erhalten also eine temporäre Bankkontonummer, die wiederum mit Ihrer Bankkontonummer zusammenhängt, Ihrem Sparkonto, was ist der aktuelle Betrag, den Sie haben? Was sind die ausstehenden Transaktionen? Wie lautet Ihre Kreditkartennummer? Dann haben Sie über die Kreditkartennummer die Kreditkartennummer, ähm, was verfügbar ist, Kreditnutzung und alle Kredite auf Ihrer Kreditkarte. Ebenso wird jede Transaktion hier an eine andere Filiale weitergeleitet, die sich auf diese spezielle Information bezieht. Wenn jemand mehr über die Einzelheiten des Vornamens wissen möchte , der Nachname, die E-Mail-Adresse, das Passwort und so weiter ist , wird alles auf diese Weise in der Datenbank gespeichert. Das Passwort sollte also irgendwo sein, es muss unverschlüsselt sein, oder? Also zum Beispiel, ja, ein verschlüsseltes Passwort wird am Ende gespeichert, oder? Das ist der Zeitpunkt, an dem es das Passwort vergleicht und dann feststellt , ob Sie authentifiziert sind oder nicht Die Leute versuchen also, das zu tun was Hacks versuchen, ist, die POST-Methode einzufügen und sie werden versuchen, eine Anfrage an die Datenbank zu senden, die dann sowieso in der Datenbank landet Sie haben also Anwendungsserver, Webserver, Loadbalancer und all die Aber das Endergebnis wird tatsächlich in die Datenbank übertragen. Sie werden also eine XQ-Anweisung über eine Datei einfügen und versuchen, sie auf Ihrer Website zu Nun, das ist der Fall, wenn Ihre Website anfällig ist, wird sie mit dem tatsächlichen Endergebnis herauskommen oder Ihr Endkennwort oder andere persönliche Informationen sind ein Gewinn für sie, weil sie einige persönliche Informationen über die Person erfahren , die ein Konto bei der Bank hat Also nicht nur SQL, es gibt XSS, A, es gibt auch einige andere Formate , die hier verwendet werden. Jetzt wird WAF Ihr System schützen. Jetzt habe ich eine detaillierte Architektur WAF, das wird Ihnen das viel besser erklären Sie werden die Demo der praktischen Sitzung auf AWS in diesem Video selbst sehen Sitzung auf AWS in diesem Video selbst Ich werde zunächst diese Architektur erklären, wie Ihre WAF damit umgehen wird Nun, Sie hätten den AWS Shield-Standard bisher bereits verstanden AWS Shield-Standard bisher und wissen, welche WAF Ihnen hier zusätzliche Funktionen bieten wird . Nun, ABS Web ist eine Firewall für Webanwendungen, die dabei hilft, Ihre Webanwendung vor gängigen Web-Exploits und Sicherheitslücken zu schützen gängigen Web-Exploits und Und das könnte sich tatsächlich auf die Verfügbarkeit Ihrer Anwendung auswirken und auch Ihre Sicherheit mehr oder weniger gefährden, und auch Ihre Sicherheit mehr oder weniger gefährden weil, Sie wissen schon, diese Leute, diese Hacker, an die persönlichen Daten gelangen und dann versuchen, mit Ihnen ein Lösegeld auszuhandeln Das ist also der Grund, warum Ihre Webanwendung sicher sein sollte AWS WAF haben Sie also Kontrolle über den Datenverkehr, der Ihre Anwendung erreicht, indem Sie Regeln konfigurieren können, mit denen bestimmte Arten von Datenverkehr gefiltert oder blockiert nun den typischen Anwendungsfall angeht, welcher Anwendungsfall Sie tatsächlich verwenden können ist der Schutz vor häufigen Angriffen wie, Sie wissen schon, das Blockieren gängiger Web-Threads wie SQL-Injection, äh, Cross-Site-Scripting, Cross-Site-Scripting Und Dedos-Angriffe. Bei Dedos-Angriffen verfügen Sie über zusätzlichen Schutz, verfügen Sie über zusätzlichen Schutz sogenannten AW-Shield-Standards, sodass Sie auch vor Dedos-Angriffen geschützt sind, aber die WAF kann das auch tun Jetzt kann es Ihnen auch zusätzlichen Schutz bieten. Wie Sie wissen, wird AWS Shield nicht berechnet und ist standardmäßig aktiviert. Das dient also dem Schutz der AWS-Infrastruktur. Aus diesem Grund ist der Shield standardisiert. Wir haben also trotzdem die Erklärung dafür gesehen. Also, es funktioniert auch so etwas wie Ratenbegrenzung. Wenn Sie also AWS WAF verwenden, wird es verwendet, um die Anzahl der Anfragen zu begrenzen , die eine einzelne IP-Adresse an eine Anwendung stellen kann Das ist also sehr wichtig, weil manchmal der DirS-Angriff oder jede Art von Escule-Injektion von derselben IP-Adresse kommen kann , also ähm, OSPF wird das überwachen und sicherstellen, dass, Sie wissen schon, eine Erfassung oder etwas Ähnliches gesendet wird, um zu verhindern, dass die Leute immer wieder dasselbe durchsuchen . Wenn Sie heutzutage also Websites aufrufen, wenn Sie als BW auf google.com gehen und versuchen, zehn, 15 Mal nach einem bestimmten Thema zu suchen, dann wird Ihnen sofort ein Capture angezeigt, in dem Sie aufgefordert werden, das Capture einzugeben. Was also passiert ist , wenn Leute häufig auf eine Website zugreifen innerhalb von 10 Minuten oder so häufig auf eine Website zugreifen, dann weiß die Website, dass, okay, ich von dieser IP-Adresse ständig unter Druck gesetzt wurde, also werde ich dieses Mal durch eine Firewall gehen. Ich werde das blockieren und es an eine Cap-Shop-Seite schicken , anstatt tatsächlich darauf zuzugreifen. Diese Art der Umleitung findet also statt, wenn Sie mit einer solchen Firewall arbeiten Dies wird als Web Application Firewall bezeichnet. Wir werden über viele Aspekte der Säkularität sprechen Aspekte der Säkularität Es ist sehr wichtig. Sie sollten die Benennung verstehen und verstehen, worum es bei diesem speziellen Aktionspunkt gehen wird. Ich werde dir dazu einen Hinweis geben. Also, wenn du das Wort F, A W W AF hörst A W W AF W steht meistens für Web in Bezug auf all Ihre computerbezogenen Dinge, W steht meistens für Web. Wenn Sie also WAF hören, sollten Sie als Erstes in den Sinn kommen, könnte es Web sein? Als Nächstes steht A hauptsächlich für Anwendung. Wo immer Sie also A als Abkürzung sehen, steht es meistens für Anwendung Und wenn Sie dann über Sicherheit sprechen und es ein Wort namens F gibt, dann muss es Firewall sein. Versuchen Sie also, es zu erzählen und versuchen Sie, diese Akronyme zu verstehen und sich mit ihnen vertraut zu machen, denn ähm, wissen Sie, als AWS diese Akronyme kreierte, hatten sie diese Art von Mentalität, als sie sie kreierten, weil sie sicherstellen wollten , dass diese Akronyme so gut wie brauchbar und wiederverwendbar sind und die Leute über diese Dinge nachdenken können , wenn es um die Kurzformen geht. Erinnern Sie sich, dass das ein Tipp ist, den ich Ihnen für jede einzelne Sicherheitssitzung geben werde , damit Sie verstehen können , wie Sie sich sofort, ähm, mit diesem speziellen Segment identifizieren können . Hier drüben haben Sie also einen weiteren Anwendungsfall, über den ich sprechen möchte, nämlich die benutzerdefinierten Regeln. Wie Sie hier sehen können, haben wir Regeln verwaltet, Whitelist, Blacklist Der Nutzen einer benutzerdefinierten Regel besteht also darin, dass Sie Ihre eigene benutzerdefinierte Regel erstellen und es Ihnen ermöglichen, bestimmte Muster des Webverkehrs zu blockieren weil es andere Tools gibt die wir später sprechen werden, und dieses Tool kann sich tatsächlich, Sie wissen schon, Ihre Protokolle ansehen, das Muster erkennen, den häufig von Ihnen abgerufenen IP-Adressbereich sehen häufig von Ihnen abgerufenen IP-Adressbereich Wenn Sie sich mit dem IPR-Bereich vertraut machen, werden Sie anhand des IPR-Aussehens der öffentlichen geistigen Eigentumsrechte wissen, aus welcher Region es stammt. Heutzutage wird es sehr, sehr schwierig, es zu identifizieren, weil die VPN-Dienste immer sehr schwierig, es zu identifizieren besser Also, ähm, ja, es gibt eine Menge Komplikationen und es wird in Zukunft schwieriger sein. Und ja, es gibt immer eine Möglichkeit, den Fehler oder irgendein Problem zu identifizieren und, du weißt schon, herauszufinden , bevor etwas passiert Aber die Technologie verbessert sich immer noch erheblich. Es gibt hier also benutzerdefinierte Regeln , die Sie von einem bestimmten geografischen Standort aus zulassen oder verbieten können, wissen Sie, indem auch Ihre HTTP-Header-Informationen ansehen. Sie können sich also die HTTP-Header-Informationen ansehen und sagen: Okay, diese Art von Header-Informationen ist nicht Teil meiner, ähm , meiner Programmierung, also können Sie diese Header-Informationen auch ablehnen. Das wird die Leute also ebenfalls davon abhalten, irgendeine Art von SQUL-Injektion auszuführen ebenfalls davon abhalten, irgendeine Art von SQUL-Injektion Was die Integration angeht, gibt es diese wunderbare Integration mit, ähm, Sie wissen schon, anderen Diensten wie Cloud Friend Sie können es auch in den Lastenausgleich auf Anwendungsebene integrieren . Das ist also etwas, das ich dir hier schon gezeigt habe. Sie können es also in CloudFront einrichten. CloudFrind wird für uns ein Cache-Dienst sein, aber es wird unsere Informationen zwischenspeichern, und es wird uns nur zur Verfügung stehen Der einfachste Weg, dies zu identifizieren ist im Grunde genommen der Name CloudFront Es wird sich also auf der Vorderseite Ihrer Cloud befinden und alle Informationen zwischenspeichern und die zwischengespeicherten Informationen weiterleiten alle Informationen zwischenspeichern und die zwischengespeicherten Informationen weiterleiten Route 53 ist also der Ort, an dem sich Ihr DNS befindet, und CloudFront ist der Ort, an dem die Informationen zwischengespeichert werden AWS PAF wird zwischen dem Routing und dem Caching Sie wissen also, dass selbst die zwischengespeicherten Informationen nicht an die häufig aufgerufenen gelangen Aus diesem Grund befindet es sich direkt hinter der Route 53, sodass selbst CloudFront bei Angriffen nicht genutzt wird Ordnung. Gehen wir jetzt zum Beispiel in Echtzeit. Also eines der Beispiele in Echtzeit, mit denen ich mich selbst konfrontiert habe , als ich für einen E-Commerce-Riesen in Indien gearbeitet habe. Also habe ich früher für Amazon CloudFront gehostet. Ich habe diese Dienste früher darauf gehostet. Und es ist irgendwie anfällig für SQL-Injection und Cross-Scripting Also, was ich getan habe, war, durch die Aktivierung dieser WAF-Dienstanwendung FR WOL können Sie sich tatsächlich, ähm, Sie wissen schon, die Logs ansehen und sehen, welche IP häufig, Sie wissen schon, auf unsere Website können Sie sich tatsächlich, ähm, Sie wissen schon, die Logs ansehen und sehen, welche IP häufig, Sie wissen schon, zugreift Äh, und wir können sie tatsächlich, weißt du, blockieren. Okay? Wir können sie sogar als Teil dieser schwarzen Liste blockieren. Also habe ich das getan, und das hat tatsächlich verhindert, dass diese Reihe von iPad-Adressen auf unsere Website zugreift. Und wir haben es anhand der Seiten erfahren, auf die sie zugreifen, oder? Wir haben herausgefunden, ob sie tatsächlich kaufen werden , dass die IP-Adresse tatsächlich zur Kasse geht, oder ob sie nur auf der Startseite sein will, um sich umzuschauen. Da machen wir doch einen Schaufensterbummel, oder? Also genauso macht eine IP-Adresse das Ähm, umgeht die Produkte und wählt dann nach dem Zufallsprinzip Produkte aus. Und dann werden immer wieder mehrere Produkte aktualisiert, wobei, wissen Sie, jedes Mal, wenn Sie Ihr Produkt aktualisieren, abgerufen werden müssen die Informationen aus der Datenbank , weil die Produktpreise und die Produktverfügbarkeit überprüft werden müssen, oder? Also, ähm, das bedeutet zusätzlichen Druck auf die Datenbank, Ihnen diese Informationen zu besorgen. Durch diese Maßnahme der schwarzen Liste, diese IPAR-Rs, richtig, konnte ich, wissen Sie, eine Menge Ressourcen in meiner Datenbank sparen, was tatsächlich zu einer geringeren Rechnung geführt hat, weil je in meiner Datenbank sparen, was tatsächlich zu einer geringeren Rechnung geführt hat mehr Ressourcen Sie ausgeben, desto höher der Betrag, den Sie für AWS zahlen werden Das ist der Grund, warum, weil es Überweisungsgebühren gibt, es gibt Internetgebühren und all diese Dinge kommen in Bildern zusammen und Sie können sich die Abrechnung sparen, wenn Sie, Sie wissen schon, eine geringere Leistung in Ihrer Anwendung haben. Aber ich bitte um eine sinnvolle Leistung. Das ist alles, worum ich bitte. Lassen Sie uns hier also über die wichtigsten Vorteile sprechen. Äh, es ist einfach zu implementieren. Es ist kostengünstig und hochgradig anpassbar. Das heißt, wenn ich über hochgradig anpassbar spreche, kann ich meine eigenen Regeln erstellen und ich kann sogar meine weiße und schwarze Liste mit IP-Adressen haben. Kostengünstig. Sie zahlen nur für das, was Sie tatsächlich nutzen, basierend auf der Anzahl der Webanwendungsanfragen angewandten Regeln. Das wird Sie also viel kosten. Und dann einfach zu implementieren, da Sie es einfach sehr einfach bereitstellen können. Ich zeige es dir in der Praxis. Lassen Sie uns also diesen speziellen Artikel in die Hand nehmen , es tut mir leid, ich habe hier gerade etwas anderes geöffnet. Also lasst uns einfach WAF AF und Shield eingeben. AF wird also mit Schild geliefert. Wir haben das also auch beim Thema Schild gesehen. Also, Shield und VF teilen sich das gleiche Service-Overlay Sie werden also den AF oben und den Schild unten haben oben und den Schild unten Also ja, damit du sehen kannst, wie das mit WAF anfängt. Sie können also tatsächlich ein neues AWS Wabashboard verfügbar machen, das ist also Und Sie können auch die Web-Seite mit der ACL-Zugriffskontrollliste verwenden Okay, das ist so ziemlich alles. Jetzt können Sie Ihr Erfassungsverhalten anpassen indem Sie Capture-APIs implementieren. Also, die Java-API wird jetzt in der Erfassung verwendet, was bedeutet, ähm, wie ich dir gesagt habe, oder? Wenn also eine häufige Anzahl von Personen mit derselben IP-Adresse Zugriff hat, können Sie sie tatsächlich lesen, um sie zu erfassen. Das gehört also auch dazu. Sie können das also in WAF sehen, richtig, Sie haben Web-ACR, Board Control Dashboard Oh, das sind einige der Funktionen. Ich glaube, wir haben die schlechten Stiefel verpasst. Ja. Also hier haben Sie HTTP-Floods, Scanner und Probs, IP-Reputationslisten und dann bösartige sind also einige der Funktionen, und das ist es, was Ihnen hier tatsächlich angezeigt wird. Das Board steuert also Dashboards, und dann haben Sie IP-Sets für die Anwendungsintegration , mit denen Sie hier eine Regel über die IP-Sets erstellen Und dann können Sie hier eine Liste mit weißen P-Sätzen erstellen. Es spielt also keine Rolle, ob Sie es blockieren oder zulassen, aber Sie erstellen es einfach mit dem Namen Schwarze Liste oder Weiße Liste, und dann können Sie es als Regel festlegen. In der Regel können Sie also tatsächlich eine Regelgruppe erstellen und, Sie wissen schon, angeben , was sie für diese Gruppe tun muss. Sie geben also einfach die Gruppendetails ein und legen dann die Regeln und Funktionen sowie die Regelpriorität fest und überprüfen und erstellen dann die Regel. Auch hier werden wir nicht tief in die Konfiguration einsteigen, da es bei dieser Schulung oder dieser Zertifizierung nicht darum geht, dass Sie jede Komponente eintauchen und Dinge tun in jede Komponente eintauchen und Dinge tun, die auf professioneller Ebene sind, also machen Sie sich darüber keine Gedanken. Das ist also eine Grundstufe, also werden sie Sie nicht fragen, wie man eine Regel erstellt. Welche Optionen gibt es, wenn es darum geht, eine Regel zu erstellen? Sie würden dich diese Dinge nicht fragen. Okay, also AWS Marketplace, Regeln verwalten. sind also einige der Das sind also einige der Marktplätze, die häufig genutzt werden, ähm, Sie können den anonymen IB-Schutz sehen. Das ist also von Cloud Brick und das ist eine verwaltete Regel von Ähm, AWS-Mitarbeitern. Dies bietet Ihnen also im Grunde genommen einen anonymen ID-Schutz und bietet integrierten Schutz vor anonymer IP-Organisation aus verschiedenen Quellen wie VPNs, Rechenzentren, DNS-Proxys, Troy Network, Relays Wenn Sie also einfach darauf klicken, wird es auf den Marktplatz und es werden Ihnen die Produktdetails hier angezeigt Also, worum geht es bei dieser, ähm, Marktregel und kann ich diese Regel für mich selbst nutzen , um meine Organisation zu verbessern? Weil sie auf Organisationsebene angewendet wird, was bedeutet, dass Ihre gesamten VPCs was bedeutet, dass Ihre gesamten VPCs sie tatsächlich nutzen, nutzen werden Aber das beinhaltet auch die Preisgestaltung. Ich kann die Gebühren hier sehen. Nutzungskosten pro Monat für jede Region. Pro Rated by Hours beträgt der Betrag 35$ pro Region. Ähm, hier können Sie sehen , dass die Gebühr pro Million Anfragen in jeder Availability Zone 0,2 beträgt Okay, das ist so ziemlich nicht erstattungsfähig. Es ist vom Verkäufer. Es geht also darum, es gibt Ihnen, ähm, die Liste der Bedrohungen, die bereits erkannt und bereits markiert wurden Sie müssen also nicht von vorne anfangen und nach IP-Adressen suchen, die Ihr Netzwerk eindringen. Vielleicht ist nichts, wenn Sie nicht wie ein großes Unternehmen sind, Sie brauchen das wirklich nicht und Sie können es tun indem Sie es überwachen und anschauen, Sie müssen nicht so viel pro Monat bezahlen Wenn Sie der Meinung sind, dass Ihr Unternehmen nicht so groß ist und Sie es nicht mögen , eine so große Bedrohung zu haben Aber wenn Sie in einer größeren Organisation arbeiten, können Sie für so etwas vorschlagen, nur 35$, nichts für die große Organisation Aber das gibt dir Schutz dort drüben. Sie haben also APA-Schutz, APA-Sicherheitsregeln und Board-Schutz eingerichtet. Also das sind etwas , das Sie kaufen und, Sie wissen schon, monatlich mit Ihrer Rechnung bezahlen können. Und das wird zusätzliche, Sie wissen schon, zusätzliche Sicherheitsregeln hinzufügen Ihrer WAF zusätzliche, Sie wissen schon, zusätzliche Sicherheitsregeln hinzufügen und sicherstellen, dass sie, wissen Sie, eine Art Kontrolle ausübt, was die Kontrolle über Ihre schlechten Boards, Ihre, Sie wissen schon, unbekannten IP-Adressen, anonymen IP-Adressen und solche Dinge angeht Ihre, Sie wissen schon, unbekannten IP-Adressen, anonymen IP-Adressen und solche Dinge Es liegt also ganz bei Ihnen, ob Sie es verwenden möchten. Alles klar? Also, das ist jetzt eine neue URL. Der alte Klassiker ist weg. Sie können es also darauf umstellen, aber ich würde es vorziehen, das neue zu verwenden, weil , wissen Sie, es wird jetzt eine Weile da sein. Also, weil die neuen immer mindestens zwei oder drei Jahre zusammen sein werden, also wirst du das, ähm, du weißt schon, daran üben lassen. Sie haben hier also so viele Kategorien, Web-Zugriffskontrolle, IP-Sets, Regelgruppen und Marketplace-Regeln für schnelleren und einfacheren Zugriff auf eine bestehende Regel, die in Ihren Fall importiert werden soll. Und diese wurden alle, Sie wissen schon, von AWS selbst genehmigt und geprüft Das sind also die auf dem Markt. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Sie haben verstanden, was WAF ist, und Sie haben die Architektur verstanden Wenn Sie Fragen haben, hinterlassen Sie diese im Fragenbereich Ihre Bewertung ist wirklich wichtig. Wenn Sie einen Vorschlag haben, können Sie ihn jederzeit in der Bewertung machen. Sie können mich über Nachrichten erreichen. Sie können meiner Community beitreten und mich auch von der Community aus kontaktieren. Es gibt so viele Möglichkeiten , mich zu erreichen und diesen Kurs zu verbessern. Es liegt ganz bei dir. Nochmals vielen Dank für Ihre Geduld. Wir sehen uns auf der 39. Lab-Netzwerk ACL: Ich werde zum nächsten DF zurückkehren und nur PDO verwenden, wir sprechen über die Liste der Netzwerkzugriffskontrollen Jetzt sind ACLs eines der wichtigsten Themen in Ihrem AWS-Caia Was wir jetzt verstehen können , ist ein bisschen Theorie sowie ein bisschen praktische Erfahrung mit ACL Um Netzwerk-ACL zu verstehen, müssen Sie zunächst die Abkürzung dafür verstehen. ACL wird Access Control List genannt. Das ist also noch höher als das, was wir in höher als der Sicherheitsgruppe besprochen haben. Wie Sie in diesem Architekturdiagramm sehen können, ignorieren Sie bitte alle Tippfehler hier, da es sich um ein von KI generiertes Bild handelt Also, ähm, hier gibt es keinen großen Tippfehler. Also, ähm, ich meine, selbst wenn die Tippfehler da sind, ignorieren Sie es bitte nur wegen der, ähm, der KI-Urheberrechte und so. Also, wie Sie hier sehen können, die Sicherheitsgruppe in ist die Sicherheitsgruppe in dieser Hierarchie der ECT-Instanz sehr ähnlich, aber nicht auf einer höheren Ebene Aber wenn Sie über die ACL, die Netzwerk-ACL, sprechen, befindet sie sich auf einer höheren Ebene, etwa in Bezug auf die virtuelle private VPC-Cloud, wo sie sich auf einer viel höheren Ebene in der Nähe des Subnetzes befindet Wir haben bereits früher verstanden, was eine VPC im Grunde ist, aber machen Sie sich keine Sorgen, wir werden zu einem späteren Zeitpunkt näher darauf eingehen , wenn wir viel detaillierter über VPC sprechen Ab sofort müssen Sie jedoch verstehen, dass die VPC der Einstiegspunkt für jede Art von Kommunikation ist und dass die VPC über allen AW-Services steht . Jetzt können Sie sehen, dass alle AW-Services umgeben sind und VPC an oberster können Sie sehen, dass alle Stelle steht Nun werden Sie auf VPC-Ebene die Netzwerk-ACLs konfigurieren Denken Sie jetzt daran, dass ACL eine statuslose Firewall ist. Zum Beispiel, wenn Sie das mit Ihrer Sicherheitsgruppe vergleichen. Bei einer Sicherheitsgruppe handelt es sich um eine statusbehaftete Firewall, bei der wir einige der Aktivitäten gesehen haben , z. B. wenn Sie Datenverkehr innerhalb bei der wir einige der Aktivitäten gesehen haben, z. B. wenn Sie Datenverkehr innerhalb von Gebäuden zulassen , wird derselbe Datenverkehr automatisch auch nach außen da sie den gesamten Datenfluss überwacht den gesamten Datenfluss Okay? Aber wenn Sie dasselbe mit der Netzwerk-ACL vergleichen, ist es wie eine zustandslose, ähm, Firewall-Methode, bei der die Verbindung nicht überwacht wird Daher ist es wichtig, dass Sie die eingehende Verbindung angeben. Außerdem müssen Sie auch die ausgehende Verbindung angeben Wenn Sie also die ausgehende Verbindung nicht angeben, da dadurch weder die Enter-Transaktion noch die Sitzung überwacht wird, können die Verbindungen nicht nach draußen gehen Wenn Sie also Verbindungen über die Sicherheitsgruppe zulassen und dies nicht über ACL zulassen, würde Ihr Netzwerk irgendwann nicht funktionieren Sie werden keine Antwort vom Server erhalten, obwohl Sie die Anfrage an den Server senden können , werden Sie keine Antwort erhalten, weil die Netzwerk-ACL es Ihnen nicht erlaubt, die Informationen vom Server zu die Informationen vom Server weil sie auf oberster Ebene konfiguriert sind, okay? Weil es unter der VPC konfiguriert ist. Okay? Sie können also über die Netzwerk-ACL darauf zugreifen, und Sie werden sehen, dass es an die VPC weitergeleitet wird und eine der Funktionen von VPC Ihre Netzwerk-ACL ist Wenn Sie also Ihr VPC-Dashboard aufrufen, werden Sie auf der Sicherheitsstufe die werden Sie auf der Sicherheitsstufe Sicherheitsgruppe und die Netzwerk-ACL sehen Auch hier gehört die Sicherheitsgruppe zu dieser Stufe, aber dann werden sie direkt Ihren EC-Instanzen zugewiesen, die wiederum nur an die VPC berichten, aber es handelt sich Ihren EC-Instanzen zugewiesen, die wiederum nur an eher um eine statusbehaftete Sitzung und Netzwerk-ACLs eine statusbehaftete Sitzung und Netzwerk-ACLs Im Moment haben Sie hier zwei Netzwerk-ACLs Eine davon ist für die Röntgenprobenanwendung bestimmt, die Sie ignorieren können Die andere ist die Standardversion, die standardmäßig verwendet wird. Jetzt sind sechs Subnetze angeschlossen, so dass wir zuvor gesehen haben, dass Subnetze im Grunde das Netzwerk sind, das für jede Ihrer verfügbaren T-Zonen konfiguriert ist, die Teil dieser Ich bin also in Nord-Virginia. Ich habe sechs Regionen, tut mir leid. Ich habe sechs verfügbare Zonen in der Region Nord-Virginia, sodass mir standardmäßig sechs Subnetze zugewiesen sind Wie bei dieser zusätzlichen Anwendung können Sie auch das Subnetz angeben, in dem Sie Ihre Inhalte hosten möchten, und Sie können diesbezüglich auch sehr spezifisch sein, aber das würden wir nicht empfehlen da Sie jede der EC2-Instances in jeder der sechs verfügbaren T-Zonen hosten können EC2-Instances in jeder der sechs Alle Ihre Elemente sollten also Teil einer Netzwerk-ACL sein , die Teil davon sein sollte Dies ist eine sehr spezifische Anwendung und bitte nehmen Sie keine Beispiele daraus. Bitte verwenden Sie das Beispiel , das konfiguriert ist, und es wäre definitiv auch für Sie da , wenn Sie sich Ihre Netzwerk-ACL ansehen. Denn ohne diese wird Ihr Netzwerkverkehr nicht funktionieren, wenn Sie diese löschen . Selbst deine SS wirst du nicht benutzen können. Warum? Da auf diese Weise diese Kommunikation tatsächlich ermöglicht wird, obwohl sie auf Sicherheitsgruppenebene zulässig ist, sollte die Netzwerk-ACL aktiviert sein , damit Ihre Kommunikation funktioniert. Wenn Sie sich nun diese spezielle Netzwerk-ACL ansehen, finden Sie hier die Regel: Zulassen und Verweigern. Da dies zustandslos ist, müssen Sie angeben, was Sie zulassen müssen, Sie müssen angeben, was Sie verweigern müssen Die Netzwerk-ACL ist eine statuslose Firewall, die auf Subnetzebene arbeitet und den eingehenden und ausgehenden Verkehr zu und von den Subnetzen in einer VPC steuert zu und von den Denken Sie daran, wenn Sie einen Datenverkehr anwenden, wenn Sie für eingehenden Datenverkehr oder eine Regel für ausgehenden Datenverkehr anwenden, und dann sagen Sie , dass ich eine Verbindung zu allen verfügbaren Subnetzen herstellen möchte , also zu allen verfügbaren Verfügbarkeitszonen , also eine Regel für eingehenden Datenverkehr oder eine Regel für ausgehenden Datenverkehr anwenden, und dann sagen Sie, dass ich eine Verbindung zu allen verfügbaren Subnetzen herstellen möchte , also zu allen verfügbaren Verfügbarkeitszonen in dieser Region. Das bedeutet also, dass der gesamte Apfelwein hier reinkommt, nur für jede dieser Verfügbarkeitszonen zugewiesen, was bedeutet, dass diese Regeln für eingehenden und ausgehenden Datenverkehr diese Dinge gelten Aber standardmäßig ist die Regel für eingehende Nachrichten die erste Regel, die hier drüben ist, und die zweite, die als Nine erwähnt wird Das bedeutet also , dass diejenige, die die höhere Zahl hat, mehr Priorität hat, da Sie sehen können, dass 100 höher ist als Stern, oder? Es würde also diese spezielle Regel verwenden und gesamten Datenverkehr aus allen Quellen zulassen. Und was die Outbound-Regel angeht, das Gleiche hier drüben. Es erlaubt den gesamten internen Verkehr, der eine höhere Zahl hat, was das Rangsystem ist, also lässt es den gesamten Verkehr innerhalb Wenn du das also editierst und es auf dieses mit Stern und dieses auf 100 änderst , dann wird es alle ausgehenden Anfragen ablehnen. Und es wird das Zulassen haben, aber dann wird die Ablehnung zuerst gelöscht. Jetzt können Sie sehen, dass ich hier zwei Regeln aufgestellt habe. Ich habe 100 als Leugnen und 101 als Zulassen gegeben. Wenn Sie das jetzt standardmäßig sehen, können Sie sehen, welches zuerst ausgewählt wird. Ich werde natürlich alle Anfragen ablehnen, und es wird all diese Anfragen zulassen, aber das Problem ist, dass sie gleich als Nächstes kommt. Es wird also im Grunde alles ablehnen , was eingeht, weil es eine Rangfolge einnimmt. Wenn Sie hier einen anderen Rang haben , der tatsächlich eine weitere Regel hinzufügt und Sie uns einfach eine geben und Sie sagen „Gesamter Verkehr“ und Sie sagen „Zulassen“. Sie können sehen, wenn Sie sagen und beenden, wenn Sie ausgehende Regel wählen, können Sie sehen, dass Regel Nummer eins dorthin geht und alle Anfragen erlaubt Das bedeutet, dass es sich um eine Rangfolge handelt. Sie werden also einen anderen Rang davor setzen. Es gibt keinen anderen Rang vor einem. Einer ist der Beginn des Rangs, was bedeutet, dass dies der erste Rang ist , den er zulassen wird. Hier sprechen wir über den gesamten Verkehr. Sie können Ihren Traffic auch an Ihre Anforderungen anpassen und dies entsprechend tun. Lass uns das einfach rückgängig machen. Man muss nur das und das entfernen und dann die Hundert zulassen. Und speichern Sie die Änderungen und das sollte Ihr Rollback-Element hier in der ausgehenden Regel Perfekt. Jetzt funktioniert das als Standard. Dieser Stern ist nicht etwas , das Sie konfigurieren würden, er wäre standardmäßig enthalten. Wenn Sie also keine dieser Regeln erwähnt haben, wird sie mit der Standardregel , nämlich Verweigern, übernommen. Denken Sie jedoch daran, dass wir Deny angeben müssen , wenn Sie Verbindungen zu Ihrem Server verweigern , wenn Sie Verbindungen zu Ihrem Server Das ist es, was es jetzt impliziert. Das bedeutet, dass Sie es leugnen müssen , wir müssen es verringern. Es ist nicht so, dass es standardmäßig verweigert wird, wie bei unserer Sicherheitsgruppe, Sicherheitsgruppe Wenn Sie nichts zulassen, wird es standardmäßig verweigert, aber nicht bei ACL. Deshalb haben Sie hier diesen Abschnitt , der nicht zu empfehlen oder nicht zu entfernen ist Abschnitt , der nicht zu empfehlen oder nicht zu entfernen ist, in dem steht, Das ist eine Art Helfer. Wenn Sie diese Regel entfernen , werden alle eingehenden Verbindungen verweigert. Das bedeutet, dass keiner Ihrer Dienste den Lambda-Dienst mag, unabhängig davon, welchen Dienst Sie dieser Region hosten, Sie nicht über das Internet darauf zugreifen können Weil Sie auf VPC-Ebene alles leugnen. Okay. Es sei denn, Sie haben eine andere VPC konfiguriert und diese andere VPC zeigt auf eine andere ACL Sie können also sehen, dass dies ein weiterer VPC-Name ist. Das kannst du sehen. Das ist also eine völlig andere VPC. Das gilt also für eine andere Regel, und die ist momentan wirklich fortgeschritten , also mach dir darüber keine Gedanken Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns im nächsten. 40. Laborsicherheitsgruppe Teil 1: Hallo Leute. Willkommen zurück zum nächsten Video. In diesem Video müssen wir über das Thema sprechen , das die AWS-Sicherheitsfunktionen und -Services beschreiben wird . Wir können uns zum Beispiel drei der Dienste oder Funktionen in Ihrem AWS ansehen. Erstens konzentrieren wir uns zunächst auf Sicherheitsgruppe und dann machen wir ACL und F. Zunächst werden wir etwas über die Sicherheitsgruppe hier erfahren . Was ist nun eine Sicherheitsgruppe? Wir konfigurieren diese Sicherheitsgruppe tatsächlich als Firewall-Funktion für EC Two-Instances, die tatsächlich eingehenden Verkehr aus dem Internet und ausgehenden Verkehr vom Server zum Internet zulässt aus dem Internet und ausgehenden Verkehr vom Server zum Es gibt also Verkehr in zwei Richtungen, aber es gibt immer wechselseitigen Verkehr, nämlich eingehender Verkehr und ausgehender Verkehr Wenn Sie also eine Straße als Beispiel nehmen, ist eine Straße normalerweise eine Straße, die als Einbahnstraße bergab geht. Aber manchmal kann eine Straße auch eine Einbahnstraße sein. Also sagen wir normalerweise nicht Einbahnstraße. Und dass wir nicht die Angewohnheit haben zu sagen, dass es eine Einbahnstraße ist, weil eine Straße, ähm, du weißt schon, für zwei Richtungen konzipiert ist. Es wird also eine Spur für den laufenden Verkehr geben, eine weitere Spur für Ihren eingehenden Verkehr. Wenn Sie also entscheiden, dass die Straße eine Einbahnstraße sein sollte, dann sagen wir ausdrücklich, dass es sich um eine Einbahnstraße handelt, und sagen, dass es entweder laufenden Verkehr oder eingehenden Verkehr geben wird . Okay? Also, wenn Sie EC Two Instances erstellen, haben Sie quasi diese Sicherheitsgruppe standardmäßig konfiguriert, sodass Ihre SSH-Verbindung möglich ist, Sie haben die gesicherte Shell Diese Verbindung kann also von überall her zugelassen werden. Das haben wir also gesehen, als wir eine ECT-Instanz erstellt haben, oder? Das ist also ein eingehender Verkehr. So kann sich jeder auf der ganzen Welt über SSH mit Ihrem Server verbinden Das ist es, was wir sagen. Schauen wir uns einfach, du weißt schon, die praktische Sitzung an. Ich bin mir nicht sicher, ob es abgemeldet wurde. Ja. Gib mir einfach eine Sekunde. In Ordnung, ich habe mich auf einem Server angemeldet. Also, wenn ich genau dort zu EC Two Instance gehe, dann sollte ich das Netzwerk und die Sicherheit sehen können , dass Sie diese Sicherheitsgruppe hier haben. Wenn Sie jetzt auf Sicherheitsgruppe klicken, sehen Sie hier quasi mehrere Sicherheitsgruppen. Also haben wir EC Two Instance gestartet, richtig? Wenn Sie also sehen, dass es sich um die laufenden handelt, sollte ich die T Two Micro sehen. Diese Instanz hätte eine Sicherheitsgruppe drauf. Wenn ich also einfach zur Sicherheitsabteilung gehe, werde ich hier eine Sicherheitsgruppe einrichten, sodass Sie sehen können, dass dies Name der Sicherheitsgruppe hier ist und Sie können sehen, dass die Sicherheitsgruppe hier für eingehenden und ausgehenden Verkehr zugewiesen ist hier für eingehenden und ausgehenden Verkehr zugewiesen Nun, ich glaube nicht, dass dies die ist , die wir verwenden, um sie zu erstellen Ich bin mir nicht sicher. Ich denke, es könnte jeder Fall sein, egal. Also werde ich dir eine Standardversion zeigen, die hier drüben ist und die als Standard erstellt wurde. Und das erlaubt den gesamten Verkehr als eingehende Regel, und das ist ausgehender gesamter Dies ist ein klassisches Beispiel für eine Standardsicherheitsgruppe, und die Sicherheitsgruppe beginnt immer mit dem Wort SG Ipind, die eindeutige ID der Gruppen-ID Ihrer Sicherheitsgruppe Ich möchte Ihnen auch ein komplexes Problem in Bezug auf die Sicherheitsgruppe zeigen auch ein komplexes Problem in Bezug auf die Sicherheitsgruppe Standardmäßig verweigert die Sicherheitsgruppe den gesamten Datenverkehr. Denken Sie also daran. Sie müssen den Verkehr je nach Anforderung aktivieren. Wenn Sie also über Sicherheitsgruppen sprechen, sprechen wir über eine der komplexen Gruppen , die wir für unseren Ubernty-Service konfigurieren Auch das ist nicht Teil deiner Prüfung. Das ist nur, um sicherzustellen, dass es viel einfacher ist, wenn Sie zur nächsten Stufe übergehen , denn anstatt nur für die Zertifizierung zu lernen, ist es immer gut, auch für die Zukunft zu lernen , weil mir das wirklich gefällt. Wir haben also etwas, das sich Steuerungsebene und Cuberts nennt , und Rechenebenen-Uberts Ich kann tatsächlich sehen, dass ich Instanzen für Kubernetes konfiguriert habe und ich möchte die Kommunikation zwischen den Ubernts-Clustern und ich möchte Außerdem die Cubont-Achse von meinem System sowie die Konsolenachse für den für den Ich muss all diese Dinge aktivieren, oder? Also, wie ich dir gesagt habe , ist standardmäßig alles deaktiviert. Sie müssen die Portnummern öffnen. Es ist, als ob Sicherheitsgruppen mehr oder weniger wie eine Firewall sind, was innerhalb Ihrer Instanzen passiert. Wenn Sie sich also nur die Sicherheitsgruppenkonfiguration für die Computerebene, also die unkontrollierte Ebene, ansehen, werden Sie eine bestimmte Konfiguration sehen , die bereits durchgeführt wurde Gehen wir eins nach dem anderen. Lassen Sie uns über die Rechenebene sprechen, denn das tut uns leid Lassen Sie uns über die Kontrollebene sprechen, die eigentlich der Master-Knoten ist. Wenn Sie sich das ansehen, gibt es hier acht Berechtigungseinträge, die als Teil dieser Steuerungsebene konfiguriert sind. Wenn Sie jetzt über Regeln für eingehenden Datenverkehr sprechen, Regeln für eingehende Nachrichten um die eingehende Anfrage den Server, dem diese Sicherheitsgruppe auf der Steuerungsebene zugewiesen ist Wenn ich diese Instanz zugewiesen habe, lassen Sie mich sie auf einer anderen Registerkarte öffnen Ich weise diese spezielle Kontrollgruppe zu, Sie wissen schon, Kontrollgruppe, Sicherheitsgruppe, und wenn Sie zu Sicherheit gehen, können Sie sehen, dass ich die Kontrollgruppe für meinen Co-Guarants-Controller Sie wissen schon, Kontrollgruppe, Sicherheitsgruppe, und wenn Sie zu Sicherheit gehen, können Sie sehen, zugewiesen habe , der der Master-Server ist In dieser Situation erlaube oder akzeptiere ich Anfragen, die an den Server kommen Einer ist der Port Nummer 22. Dies ist verpflichtend, sonst kann ich SSSch nicht von meinem Windows-System zum AW-Server ausführen und auf diesen Server zugreifen Also hier können Sie den IP-Bereich hier sehen. Das sagt Ihnen also, dass jeder, das heißt, alle IP-Bereiche als Quelle, Verbindungen zu dieser speziellen Sicherheitsgruppe akzeptiert , die hier aufgeführt ist, nur Portnummer 22. So wichtig, ähm, es geht hier nicht nur um die IP-Adresse, sondern auch um den Portbereich. Was so ziemlich alles ist, was du vermitteln musst. Manchmal, wenn Sie Standarddienste wie SSSH wählen , okay? Sie müssen keine Portnummer angeben, da SSSH standardmäßig auf 22 sucht Es gibt also diesen 02024, bei dem tatsächlich ein Protokoll einer Portnummer zugewiesen ist Also werden wir das als Protokoll bezeichnen, und wir werden es als Portnummer bezeichnen Also werden wir das zuweisen und eine IP angeben, die besagt, dass dies der IP-Adressbereich ist ich akzeptieren möchte. Okay. Nun, lass uns über diese hier drüben sprechen. Lassen Sie uns zuerst alles irgendwo beenden , und dann kommen wir dorthin. Jetzt habe ich noch zwei Artikel hier drüben, nur 6443. 6443 ist Ihr Cluster-Kommunikationsport, und der wird auch überall abgehört 30.000 bis 32.000 sind eine Knoten-Port-Nummer. Wenn also Cbonnts auf einem System läuft und Sie die Anwendung durchsuchen möchten, die auf dem Cubone Ties Node läuft, werden wir sie über diesen Bereich von Portnummern , 30.000 bis 32.007 67, dem Internet zugänglich machen diesen Bereich von Portnummern , 30.000 Das wird NodePort genannt. Wenn wir diese Art von Port verwenden, möchte ich die Anwendung sehen oder durchsuchen , die auf dieser speziellen Kubernetes-Notiz läuft dieser speziellen Kubernetes-Notiz Damit ich ihn von meinem Desktop aus von meinem Laptop aus aufrufen kann, muss mir ihn von meinem Desktop aus von meinem Laptop aus aufrufen kann, diese Portnummer angezeigt werden, damit ich den Dienst, der auf Kubernetes läuft , tatsächlich durchsuchen kann auf Kubernetes läuft , Ich muss dies sowohl auf der Notensteuerungsebene als auch auf der Rechenebene verfügbar machen, da meine Worker Notes tatsächlich auf der Rechenebene ausgeführt werden tatsächlich auf der Rechenebene ausgeführt Dass der Slave Notes , auf dem mein Cubertpot tatsächlich läuft , auf diesem laufen wird . Das muss ich aufdecken. Aber manchmal muss man es nicht der ganzen Welt zeigen, oder? Wie zum Beispiel hier drüben. Das bedeutet also , dass diese IP-Adresse eng innerhalb des AWS-Netzwerks verankert ist. Alles innerhalb des AWS-Netzwerks, da AWS diesen IP-Adressbereich allen internen Servern zugewiesen hat . Also hier gebe ich hier einige benutzerdefinierte Portnummern an, wie ICMP, die andere Server untereinander anpingen Und wieder müssen Sie ICMP aktivieren, sonst können Sie es nicht pingen, obwohl es erreichbar wäre, aber die PIN funktioniert nicht Okay, weil ICMP deaktiviert ist. Ebenso müssen Sie solche Portnummern aktivieren, wie zum Beispiel hier, ich aktiviere UDP-Portnummern hier, und das sage ich, sie sollten sich innerhalb des AWS-Netzwerks indem Sie die lokale IP-Adresse angeben, die private IP-Adresse für AWS Das bedeutet also, dass Sie es für die ganze Welt konfigurieren können. Sie können es für das lokale Netzwerk konfigurieren, was in Ihrem Subnetz der Fall ist Sie können es auch für jede Art von IP-Adressbereich oder -quelle konfigurieren von IP-Adressbereich oder -quelle Sie können es tatsächlich für die IP-Adresse Ihres Laptops konfigurieren , denn wenn Sie auf das Element Nu ClkonEdit klicken, versuchen Sie, hier eine Regel hinzuzufügen. Ich werde es dir sagen. Also, wenn du einfach SSH auswählst, richtig, es wird dir hier drüben sagen, meine IP-Adresse wird auch hier rüber kommen Also, wenn du einfach danach suchst. Ähm, weil meine IP, du kannst sehen, dass meine IP ist. Das ist also meine IP-Adresse , die ich derzeit auf dem System verwende, und Sie können sehen, dass die IP-Adresse hier angegeben ist. Leider habe ich eine dynamische IP-Adresse, was bedeutet, dass sich meine IP-Adresse jedes Mal ändert, wenn ich mein Modem oder das System neu starte mit einem VPN verbinde oder mich Es ist also nicht wirklich empfehlenswert, eine IP-Adresse anzugeben, da es sich um IP-Adresse anzugeben, da es sich eine öffentliche IP-Adresse handelt und sich alles ändern kann. Sie müssen also einfach weiter ändern. Das ist der Grund, warum wir Nullpunkt Nullpunkt Nullpunkt Schrägstrich Null Es bedeutet also überall. Das heißt also im Grunde überall. Sie haben also eine Option wie diese und wählen diese aus und das bedeutet im Grunde überall IP-Version vier oder irgendwo IP-Version sechs. Also, genauso wählst du das. Ich hoffe, diese zusätzlichen Informationen waren hilfreich für Sie, um dies etwas genauer zu verstehen . Wenn Sie Fragen haben, hinterlassen Sie diese im Fragenbereich. Wir sehen uns beim nächsten. 41. Laborsicherheitsgruppe Teil 2: Hallo Leute, willkommen zurück zum nächsten Video. Also hier machen wir weiter mit der Sicherheitsgruppe hier drüben. Wir haben also zuvor eine Verbindung zugelassen. Nun, die Frage wäre natürlich, wenn Sie eine Verbindung ablehnen wollen, was werden Sie dagegen tun? Wenn Sie also vorhaben, eine Verbindung zu verweigern, müssen Sie Ihre Zustimmung nur zu einer strengen Regel machen. Also füge ich hier zum Beispiel ein benutzerdefiniertes hinzu, und hier sage ich nur, dass ich ein Protokoll benötige, was auch ein benutzerdefiniertes Protokoll ist. Also sag einfach TCP-Protokoll. Und dann kann ich es mir leid tun, sagen wir TCP-Protokoll. Und hier gebe ich eine Portnummer namens 2525-Portnummer an. Ich möchte also Verbindungen zu einer bestimmten Personengruppe verweigern und die Verbindung zu einer bestimmten Personengruppe ermöglichen Wie ich Ihnen bereits gesagt habe, können Sie das tatsächlich als Teil Ihrer Sicherheitsgruppe tun. Es gibt keine ausdrückliche Möglichkeit, Menschen zu verleugnen. Es gibt keine Möglichkeit, dass Sie Personen ausdrücklich den Zugriff auf Ihren Dienst verweigern Sie können jedoch angeben, wer darauf zugreifen kann . Der Rest wird standardmäßig verweigert Sie müssen hier also nicht wirklich eine Ablehnungsliste erwähnen , denn wenn diese Personen hier nicht Teil Ihrer speziellen IP-Adressliste sind , werden sie standardmäßig verweigert Es könnte also eine knifflige Frage geben. Ist es Ihnen also möglich , bestimmte Benutzer als Teil Ihrer Sicherheitsgruppe abzulehnen ? Zwar gibt es in der Sicherheitsgruppe keine spezielle Option wie Verweigern, aber standardmäßig ist es Verweigern, also ja. Sie können eigentlich nur angeben, wer wahrscheinlich auf Ihre bestimmte Portnummer für Ihre Instances zugreifen Ihre bestimmte Portnummer wird, auf die die Sicherheitsgruppe angewendet wird. Also dem Rest der Leute wird es natürlich verweigert werden. Das ist also die Antwort. Okay? Also so können sie dir Fragen stellen. Sie definieren also eine Regel, die bestimmte Portbereiche von IP-Adressprotokollen erlaubt oder verweigert , okay? Sicherheitsgruppen sind statusbehaftet, was bedeutet, dass der eingehende Verkehr zugelassen wird, der entsprechende ausgehende Verkehr wird automatisch wird Das ist also im Grunde das, was Stateful-Status bedeutet. Also, was das bedeutet, lassen Sie mich das noch einmal umformulieren Wenn Sie internen Verkehr zulassen , wirkt sich das tatsächlich auch auf Ihren ausgehenden Datenverkehr aus, und Ihr ausgehender Datenverkehr wird im Grunde so eingestellt , und Ihr ausgehender Datenverkehr wird im Grunde so eingestellt der ausgehende Verkehr auf natürliche Weise zugelassen wird, sodass dieser Verkehr nach außen an die spezifische IP-Adresse oder Reihe von IP-Adressen, die Sie angegeben haben, zugelassen die spezifische IP-Adresse oder Reihe von IP-Adressen, die von IP-Adressen Standardmäßig gelten die Regeln für ausgehenden Datenverkehr überall. Der Server kann mit jedem beliebigen Ort kommunizieren. Sie können sehen, dass die Standardregel für ausgehende darin besteht, Verbindungen überall zuzulassen Die Verbindung , die von Ihrem Server nach draußen geht , ist standardmäßig überall Aber selbst wenn Sie dies deaktivieren, werden die Regeln für eingehende Nachrichten tatsächlich von den Regeln für ausgehende Nachrichten unterstützt Es ist also ganz natürlich , dass Sie es nicht wirklich spezifizieren müssen , weil es statusmäßig ist Okay. In einem typischen Anwendungsfall können Sie diese Art von Sicherheitsgruppe also verwenden , wenn Sie eine Sicherheitsgruppe so konfigurieren, dass sie nur auf eine bestimmte IP-Adresse beschränkt ist eine Sicherheitsgruppe so konfigurieren, dass sie nur auf , wie z. B. die VPN-Adresse Ihres Unternehmens, sie nur Datenverkehr wie HTTP und HTTPS zulässt, und Sie können auch genau darauf eingehen. Sie können also nur HTTP und HTTPS zulassen. Das können Sie auch hier tun. Wenn Sie also hier eine Regel hinzufügen, können Sie auch nach HTTP suchen. Und HTTPS. Du musst hier zwei Regeln angeben. Also eins für HTTP, 15 HTTPS. Standardmäßig können Sie sehen, dass die Portnummern hier ausgewählt wurden. Sie können diese Portnummern also nicht wirklich ändern und dann von überall aus zulassen. Sie können diese nur so konfigurieren, dass sie überall und den Rest, Sie wissen schon, alles TCP zulassen , und Sie können den, Sie wissen schon, VPN-IP-Adressbereich Ihres Unternehmens Sie wissen schon, VPN-IP-Adressbereich Ihr Netzwerkadministrator hätte also den IP-Adressbereich Ihres Unternehmens, und Sie können diesen IP-Adressbereich hier eingeben Also kann jeder aus Ihrem Unternehmen tatsächlich auf diese spezielle Sicherheitsgruppe des Dienstes zugreifen , tut mir leid. Also das ist so ziemlich alles, was ich in diesem Video behandeln möchte. Nochmals vielen Dank, dass Sie sich das angesehen haben. Wenn Sie Fragen haben, hinterlassen Sie diese im Fragenbereich. 42. Labs Sicherheitsprodukte von Drittanbietern: Ein Typ sprach zurück zum nächsten PDO. In diesem PDO werden wir über das sogenannte Verständnis der Sicherheitsprodukte von Drittanbietern sprechen , die als Teil des AWS-Marktplatzes erhältlich sind Jetzt werden wir die verschiedenen Arten der Verfügbarkeit oder die Sicherheitsprodukte von Drittanbietern verstehen die verschiedenen Arten der Verfügbarkeit oder die Sicherheitsprodukte von , die zusammen mit Ihrer AWS-Sicherheit, der integrierten Sicherheit, verwendet werden können mit Ihrer AWS-Sicherheit, der integrierten Sicherheit, Nun, warum wir Drittanbieter verwenden werden, um die Sicherheit Ihrer bestehenden AWS-Sicherheit , die bereits vorhanden ist, Jetzt können Sie es für, ähm, zusätzliche Überwachung im Hinblick auf die Verhinderung von Netzwerkanwendungsdaten sowie für die Einhaltung von Identitätsbestimmungen und Erkennung und Reaktion auf Bedrohungen durch Dritte verwenden. Dies basiert auf jahrelanger Erfahrung, in der der Drittanbieter tatsächlich mit verschiedenen Produkten gearbeitet hat und seine Produkte im Rahmen der Drittanbietersicherheit auf dem AWS-Marktplatz vorgestellt werden Rahmen der Drittanbietersicherheit auf dem AWS-Marktplatz vorgestellt Drittanbietersicherheit auf dem AWS-Marktplatz Wir werden im letzten Teil dieses Videos über die Demo sprechen . Es handelt sich lediglich um eine kurze Demo darüber, wo Sie die Sicherheitsprodukte von Drittanbietern auf dem AWS-Marktplatz finden AWS-Marktplatz Ich werde dir das zeigen. Aber dann werden wir mehr oder weniger über jedes Konzept sprechen, und wir werden über die Produkte sprechen, mehr oder weniger wie einige Beispiele, auch das werde ich Ihnen geben. Lassen Sie uns über die Netzwerksicherheit sprechen. Wie Sie wissen, haben wir verschiedene Sicherheitskonzepte in Bezug auf Ihr AWS, was standardmäßig enthalten ist. Darüber hinaus können Sie AW-Sicherheitsprodukte auf dem Amazon-Marktplatz kaufen, z. B. Produkte wie Firewalls, Intrusion Detection Systems Intrusion Prevention-Systeme zur Überwachung und Steuerung Ihres Nun, das gibt Ihnen einen etwas erfahrenen Überblick über die Produkte, die von Herstellern wie Checkpoint, ähm, Sie haben Ebenso haben Sie eine Menge, ähm, Sie wissen schon, Software, die Ihnen bei IDS und IPS in Bezug auf Einbruchmeldesysteme und Schutz helfen wird IPS in Bezug auf Einbruchmeldesysteme und Schutz Einbruchmeldesysteme Ebenso haben Sie andere Netzwerksicherheitsprodukte. Wir werden das auch anhand der Demo überprüfen , auf der Sie in diesem Video zu sehen sein werden. Im nächsten geht es um Anwendungssicherheit. Tools, die Anwendungen vor Sicherheitslücken schützen, wie z. B. Web Application Firewall (VAF), die bereits Teil der Anwendung ist, DDoS-Schutz und einmalige Anwendungssicherheit meiste davon ist bereits als Teil von AWS verfügbar, aber es besteht immer noch die Möglichkeit, auch Sicherheitsprodukte von Drittanbietern zu aktivieren Wie zum Beispiel Trend Micro Deep Security als weiteres Produkt, signalisiert das VAF, dass es ein anderes Produkt eines Drittanbieters handelt, und dann können Sie FI big IP Advanced WAF Espo verwenden FI big IP Advanced WAF Ich kombiniere die jahrelange Erfahrung dieser Product Owner und dann stellen sie ein Produkt zusammen, das Sie verwenden können Auch hier wären die Lizenzierung und die Kosten getrennt, und Sie müssen möglicherweise etwas mehr dafür bezahlen , da Sie dieses Produkt direkt vom Anbieter kaufen werden . Und um diese Produkte zu aktivieren, benötigen Sie einen Root-Benutzer, denn unabhängig davon ob ein Produkt einem Marketplace aktiviert oder ein Abonnement aktiviert wird, muss dies von einem Root-Benutzer aus erfolgen. Lassen Sie uns nun über Datenschutzprodukte sprechen. Jetzt sind die Lösungen für Verschlüsselung, Schutz vor Datenverlust, Schlüsselverwaltung und Sicherheitsspeicherung bereits Teil Ihrer AW-Services. Einige davon haben wir in unserer Schulung besprochen. können Sie sich auch für einen externen Sicherheitsanbieter entscheiden einen externen Sicherheitsanbieter In dieser Situation können Sie sich auch für einen externen Sicherheitsanbieter entscheiden, den Sie als Teil von AWS konfigurieren können . Und das sind einige Beispiele, die ich Ihnen zum Thema Semantic Data Loss Prevention, Talus Cyber Trust, Das ist also ein anderes Unternehmen. McCafe-Schutz vor Datenverlust. Ebenso haben Sie Unternehmen, die Ihnen zusätzlich zu dem Datenschutz was AWS bereits bietet, Datenschutz bieten können Identitäts - und Zugriffsmanagement angeht, verfügen wir über eine Multifaktor-Authentifizierung mit nur einem Vorzeichen, ebenso für die Verwaltung privilegierter Zugriffe Sie können auch Drittanbieter wie OCTA, Ping Identity verwenden . Ebenso können Sie die Software von Drittanbietern und dann deren Anbieterprodukt in Verbindung mit dem verwenden , was Sie in Bezug auf Ihr vorhandenes Identitätszugriffsmanagement in AOBS haben Ihr vorhandenes Identitätszugriffsmanagement in Was die Zusammenstellung und Verwaltung angeht, hier drüben. Also Tools, die helfen, Kompilierungsanforderungen wie GDPR, HIPAA, SOC 2 und mehr zu verwalten Kompilierungsanforderungen wie GDPR, HIPAA, , sodass Sie mit den Informationen arbeiten oder bei der Sie können auch mit Plunk Cloud, Audit Board und Quality Compliance Suits arbeiten Audit Board und Quality Compliance Suits Ebenso sind Produkte von Drittanbietern erhältlich, die Sie im AWS-Markt abholen können Wie das nun funktionieren wird , hängt von den Produkten ab. Jedes Produkt wird also eine andere Arbeitsweise haben und es mit seinen Optionen und so umgehen, was sich für jedes Produkt ändert, was bei der Demositzung auch schnell zum Einfügen passt. Das letzte Problem, das wir uns als Teil des Sicherheitsprodukts eines Drittanbieters auf ganzer Linie ansehen Sicherheitsprodukts eines Drittanbieters auf werden, ist Ihre Bedrohungserkennung und -abwehr. Jetzt Sicherheitsprodukte zur Erkennung und Abwehr potenzieller Bedrohungen wie Antivirensoftware, Endpoint Detection and Response und SIEM-Lösungen, die erweiterte Sicherheit in Bezug auf die Erkennung einer Bedrohung und die Reaktion auf eine Bedrohung ermöglichen , sowohl auf Serverebene als auch auf Service-Ebene auf W. Jetzt können Sie Produkte von Drittanbietern wie CrowdStrike Falcon verwenden . Sie können Splunk Enterprise Security verwenden. Ebenso verfügen Sie über mehrere Produkte, die Sie tatsächlich gegen die Bedrohung einsetzen und diese abwehren und auf die Bedrohung reagieren nun die Vorteile der Verwendung von Sicherheitsprodukten von Drittanbietern betrifft , so besteht darin, dass Sie über eine Lösung für die schnelle Bereitstellung verfügen , die vorkonfiguriert und für ABS optimiert ist, da diese Produkte für AWS entwickelt wurden, das auf dem Markt erhältlich ist, und von AWS vertrauenswürdig und zugelassen ist Das ist der Grund, warum es da ist. Dann haben Sie eine nahtlose Integration mit Ihren bestehenden Produkten auf AWS wie Cloud Trial, Cloud Watch, Guard Duty und Security Hub, sodass Sie tatsächlich einen Überblick über alle Produkte von Drittanbietern aus dem Security Hub haben , Ihnen eine allgemeine Beschreibung gibt. Dann haben Sie das Modell „ Pay-as-you-go“. Da es einige Produkte gibt, für die auch eine 30-Tage-Testversion verfügbar ist, zeige ich Ihnen das. Und das auch, wenn Sie den monatlichen Stundenplan verwenden müssen, oder Sie können sogar ein AVO-Abonnement abschließen je nachdem, welches Produkt Sie auswählen Sie werden auch einen Herstellersupport erhalten. Also für Produkte von Drittanbietern, sodass Sie sie per E-Mail oder über ihren Support-Chat-Kanal erreichen können . Im Grunde bieten sie also einen umfassenden Support für die Produkte, die sie Ihnen verkaufen, weil Sie für das Produkt bezahlen, was auch ihren Support beinhaltet. Das ist so ziemlich das, worüber ich sprechen möchte. Lass uns hier einfach einen Marktplatz einrichten. dem AWS-Marktplatz können Sie also Deploy-Software kaufen. Also jetzt hier drüben, ich habe das Abonnement hier verwaltet. Ich habe kein Abonnement, wie Sie sehen können. Jetzt kann ich auf Produkte entdecken klicken und ich kann hier Produkte entdecken und dann hier nach verschiedenen Arten von Produkten suchen . Sie haben also den Katalog hier, dem es um verschiedene Arten von Produkten geht , und Sie kennen die Herausgeber und die Liefermethode hier. Sie haben die Preismodelle. Sie haben Software, die kostenlos ist, was bedeutet, dass sie zu Demo-Zwecken oder ähnlichem zur Verfügung gestellt wird . Sie beginnen also kostenlos und werden dann irgendwann bezahlt. Dann sind einige nutzungsabhängig, und Sie können die Preiseinheit basierend auf Benutzern, Host, kundenspezifischen Einheiten und Reifen sehen , und dann haben Sie den Anbieter in den Sicherheitsprofilen hier. Zertifikate angeht, haben Sie die Zertifikate hier, wo es sich um ein Konformitätszertifikat handelt , oder es könnte sich um die Besonderheiten von AWS handeln, zum Beispiel Sicherheitsspezialität hier drüben, was Ihnen tatsächlich die sicherheitsrelevanten Dinge zeigt , über die wir gerade gesprochen Sie sehen hier den Trend Cloud One, bei dem es im Grunde um die CN APP handelt, die in der Lage ist , die gesamte Cloud-Umgebung zu schützen die gesamte Cloud-Umgebung Dies ist eine Sicherheit , die auch in die D Wop-Tools integriert ist Sie haben hier eine andere Art von Sicherheitsplattform namens Cloud Infrastructure Security, die eine Vielzahl von Sicherheitssignalen korreliert, um eine echte Infiltration in Form von Angreifern nachzuverfolgen , die in Ihr System eindringen oder in dieses eindringen Sie haben auch Datadog Pro. auf SAS basierende einheitliche Beobachtungs- und Sicherheitsplattform bietet volle Transparenz Sie haben auch ACA-Sicherheit. Ebenso stehen Ihnen hier so viele Sicherheitsfunktionen zur Verfügung. Palo Alto, das ist also etwas, das wir bereits besprochen haben Sie können also sehen , dass es eine kostenlose 30-Tage-Testversion für Paige gibt, und Sie können sehen, dass es sich um eine Cloud-Firewall der nächsten Generation handelt, die die beste Netzwerksicherheit ihrer Klasse bietet eine kostenlose 30-Tage-Testversion für Paige gibt, und Sie können sehen, dass es sich um und Sie können sehen, dass es sich eine Cloud-Firewall der nächsten Generation handelt, die die beste Netzwerksicherheit ihrer Klasse Die nutzt künstliche Intelligenz und maschinelles Lernen um Zero-Data-Exploit und all diese Dinge zu stoppen Es hat eine Bewertung von einem neuen Benutzer bekommen, glaube ich, kein zufriedener Kunde, glaube ich. Ebenso gibt es Sicherheitsmaterial, in dem es darum geht. So können Sie es sich ansehen und Sie können sich hier auch einige Spezialisierungen von Managed Security Services ansehen hier auch einige Spezialisierungen von Managed Security Services Es gibt vier davon hier drüben, die Deep Watch. Es gibt also auch so viele interessante Sicherheitsanwendungen von Drittanbietern. Aber wenn Sie mich fragen würden, sollte ich mich wirklich für einen Drittanbieter entscheiden? Das hängt ganz von Ihrer Bewerbung ab. Wenn Sie mit der von AWS bereitgestellten Standardsicherheit nicht zufrieden sind, können Sie sich jederzeit für eine Drittanbietersicherheit entscheiden , die Ihnen zusätzlich mehr Sicherheitsaspekte und Vorteile bietet, wenn Sie sich für diese entscheiden. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Ich hoffe, dass es für Sie hilfreich war, es zu verstehen. Wenn Sie also Fragen dazu haben wissen Sie, wie Sie diese beantworten können. Meist ginge es bei den Fragen um alles. Sie werden Sie nach Sicherheitsprodukten von Drittanbietern fragen Sicherheitsprodukten von Drittanbietern Möchte ich dieses zusätzliche Maß an Sicherheit haben? Ist es für AWS möglich, einen Drittanbieter zu integrieren. Also fragen sie dich vielleicht so etwas wie O V. davon. Sie würden nicht auf jedes dieser Dinge näher eingehen, aber sie fragen Sie vielleicht, sie werden Sie nicht nach den Beispielen fragen, aber sie werden Sie nach, ähm, Sie wissen schon, einem bestimmten Service fragen und sagen, ich möchte ein maßgeschneidertes, ähm, Sie wissen schon, maßgeschneidertes Sicherheitsprodukt eines Drittanbieters, etwas, das wieder aktiviert wird. Ebenso werden Sie Fragen zu diesem speziellen Thema erhalten . Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns im nächsten. 43. Vertrauenswürdiger Berater von Labs: Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir über AWS Trust Advisor sprechen . Jetzt ist es wichtig, dass Sie ein wenig darüber verstehen. Ein Trust-Advisor-Service in Echtzeit, der Sie bei der Optimierung der AWS-Umgebung unterstützt , indem er Ihnen Empfehlungen zu Sicherheit und Kosten-Leistung gibt. Trusted Advisor gibt Ihnen all diese Art von Empfehlungen in Echtzeit zu Ihren Services, die Sie derzeit nutzen. Wenn Sie nun wissen, wie es funktioniert, überwacht der Monitor Ihre AWS-Umgebung und bietet Anleitungen zur Verbesserung der Sicherheit, einschließlich Empfehlungen zur Aktivierung von Multifaktor-Authentifizierung, Sicherheitsgruppen und IAM-Richtlinien Es ist wie ein Tool, das als Service verwendet wird. Sie können also in dieser Architektur selbst sehen, der verrostete vertrauenswürdige Berater hier auf all Ihre Dienste zugreift und Ihnen ein Gesamtbild Ihrer Dienste gibt und Ihnen, ähm, den Vorschlag dafür oder eine Empfehlung dafür Es handelt sich also um einen Service, Sie müssen also nur nach einem vertrauenswürdigen Berater suchen Das sollte jetzt als Service angeboten werden, wie Sie dort sehen können. Also habe ich es der Einfachheit halber bereits geöffnet. nun die Empfehlung angeht, können Sie sehen, dass die vertrauenswürdige Empfehlung darin besteht , dass keine Aktionen für Sie empfohlen Es hat Null untersucht, und es ist grundsätzlich ausgeschlossen, Sie wissen schon, eingeschlossen ausgeschlossen, ich meine, ich habe noch nicht einmal irgendwelche Prüfungen durchgeführt Jetzt können Sie also tatsächlich alle Schecks herunterladen, wodurch alle erforderlichen Schecks gelöscht werden. Jetzt können Sie sehen, dass Sie Ihren AW-Supportplan aktualisieren , um alle Trusted Advisor-Checks zu erhalten. Derzeit habe ich den kostenlosen Tarif, sodass derzeit keine Überprüfung erforderlich ist. Und um das zu tun, muss ich den Plan auf eine Stufe hochstufen , auf der es einen vertrauenswürdigen Berater gibt. Das ist jetzt also für einen vertrauenswürdigen Berater. Sie können sehen, dass der Basisplan, auf den ich vertraue, Empfehlung, nur Servicecodes und die Sicherheitsprüfung des Kurses beinhaltet. Aber wenn Sie sich für einen Entwickler oder ein Unternehmen oder ein Unternehmen entscheiden , haben Sie hier eine ganze Reihe von Prüfungen und nur Dienste, die für Basisentwickler mehr und nur Dienste, die für Basisentwickler mehr oder weniger dieselben sind. Ich habe jetzt alle Schecks heruntergeladen, aber wenn ich die Schecks aktualisiere, schauen wir mal, ob irgendwas davon auftaucht. Derzeit gibt es keine Aktion. Lass uns einfach auf Info klicken. Ich sehe hier nichts. Lassen Sie uns einfach über das Kosten-Nutzen-Verhältnis sprechen. Hier ist das Kosten-Nutzen-Verhältnis eine dieser Empfehlungen. Jetzt sehen Sie wieder, dass dafür ein Upgrade erforderlich ist, sodass es für uns nicht verfügbar ist. Es überprüft also Ihre Nutzungsfähigkeit Ihre Kosten für jeden der Dienste und berät Sie auf dieser Grundlage. Trusted Advisor empfiehlt Ihnen daher möglicherweise, ungenutzte Ressourcen zu löschen oder Kapazitäten zu reservieren, falls festgestellt wird, dass diese nicht effektiv genutzt werden. In Bezug auf die Leistungsprüfung ist es wieder dasselbe. Es wird die Leistung Ihrer Anwendung überprüfen, z. B. den Durchsatz bereitstellen, überlastete EC-2-Instances und bisher nicht ausgelastete Instanzen überwachen und Ihnen nur das geben, bisher nicht ausgelastete Instanzen dass ich denke, dass der Kostenoptimierer Ihnen die denke, dass der Kostenoptimierer Ihnen nicht ausgelasteten Ressourcen zur Verfügung stellt, und die Leistung gibt Ihnen die überlasteten Ressourcen, sodass Sie den müssen Die CPU oder der Festplattenspeicher. Ähm, in Bezug auf die Sicherheit hier drüben, also das ist jetzt etwas , das für uns verfügbar ist. Jetzt können Sie sehen, dass das etwas ist, das kostenlos ist. Jetzt hier, Sicherheitsgruppe, sie denkt sich hier eine Ausnahme aus. Es heißt also, dass 12 von 27 Sicherheitsgruppen uneingeschränkten Akteuren Zugriff auf bestimmte Portnummern gewähren Das ist also ein Sicherheitsrisiko, und es gibt Ihnen tatsächlich diese Informationen Also zum Beispiel 80, 25, 443 und 465. Also das ist etwas, das grün ist, was okay ist. Und hier ist der rote, der besagt , dass die Sicherheitsgruppe an die Ressourcen angehängt ist , die uneingeschränkten Zugriff auf Ports 2021 22 bieten die Ports 2021 22 bieten. Das ist Ihre SSH-Portnummer, ich denke, diese ist Und es gibt noch andere Portnummern, die wir aktiviert haben. Es hat sich damit befasst und uns mitgeteilt, dass dies eine rote Sicherheitswarnung ist , dass dies ein Problem sein könnte. Jetzt erhalten Sie hier auch eine Liste der eine Liste der Regionen, in denen diese Portnummern jetzt aktiviert sind. Das ist komisch. Ich habe AP South nie benutzt. Jetzt können Sie sehen, dass es mir gegeben hat diese spezielle Sicherheitsgruppe diese 22 in dieser Gruppe geöffnet hat. Das ist ein Sicherheitsrisiko für mich , weil ich diese spezielle Region noch nie benutzt habe. Jetzt können Sie die anderen Sicherheitsgruppen hier sehen, die auftauchen und sagen, Sie sollten 22 geben, aber dann wollen sie, dass Sie bei den geistigen Eigentumsrechten spezifisch sind, aber dann wird es für mich chaotisch, die IPR von meinem System zu bekommen , weil ich nicht von einer Organisation verwende Wenn ich von einer Organisation verwende, die bestimmte Schutzrechte hat , weil ich der Organisation beitrete . Ich verwende ein VPN oder so. Von dort aus greife ich dann auf den AWS-Server zu. Aber dann mache ich das nicht, sodass es für mich chaotisch wird, wenn ich jedes Mal meine fest codierte IP-Adresse angeben müsste jedes Mal meine fest codierte IP-Adresse angeben Das ist also etwas, das für mich keine gute Sache ist. Jetzt gibt es auch noch andere Dinge, die es überprüft, wie EBS, RDS, S Three Buckets, MFA, was eine Multifaktor-Authentifizierung für Root-Benutzer ist Es ist da. Es gibt noch andere Dinge, für die hier wirklich ein Upgrade erforderlich ist, damit Sie diese Aktionspunkte hier überprüfen Es gibt eine Menge Prüfungen. Was die Fehlertoleranz angeht, glaube ich nicht, dass sie für uns verfügbar ist, also haben Sie sie. Da. Jetzt gibt es hier die Service-Limits wie die Startkonfiguration von Auto Scaling, wir haben noch kein Auto Scaling abgeschlossen. Wir haben hier noch kein Dynamo-DV gemacht. Das alles überprüft also Ihre Service-Limits, ob Sie das dafür zugewiesene Kontingent erreichen dafür zugewiesene Kontingent Nun ist das Kontingent im Grunde ein bestimmter Schwellenwert, den Sie jedem der Dienste zuweisen würden Standardmäßig sind es 80 Prozent. Verwenden Sie also mehr als das, dass es überprüft. Und eine Sache, die herauskommt, ist die Nutzung des Lambda-Code-Speichers. Das ist also irgendwie nicht in unserem Plan enthalten. In Bezug auf die betriebliche Exzellenz dient diese Überprüfung als Empfehlung zur Verbesserung der Betriebsbereitschaft Ihrer AWS-Ressourcen. Das gibt Ihnen also im Grunde genommen , dass dies eine der Ressourcen ist. Auch hier ist es nicht Teil unseres speziellen Plans. Ordnung. Also das ist so ziemlich dein vertrauenswürdiger Berater hier drüben. Jetzt können Sie sehen, dass wir den vertrauenswürdigen Berater aktiviert haben. Sie können die Benachrichtigung auch hier konfigurieren . Ich glaube, es wird SNS für die Benachrichtigung Sie können hier also Kontakte hinzufügen, und dann wird der Empfänger im Grunde genommen über und dann wird der Empfänger im Grunde genommen einen der vertrauenswürdigen Berater informiert Das ist so ziemlich das, was ich in diesem Video behandeln möchte. Danke, Leute, für eure Zeit und Geduld. Jetzt können Sie sehen, dass die Empfehlung ins Bild gekommen ist , wenn wir einfach nach dem Zufallsprinzip auf jedes einzelne klicken, und Sie können diese eine Empfehlung zu unserer Sicherheitsgruppe hier sehen . Nochmals vielen Dank für Ihre Geduld und Zeit. Ich werde dich am nächsten sehen. 44. Labs AWS CLI-Betrieb mit mehreren Befehlen: Hey Leute, wir kommen zurück zum nächsten Video. Und in diesem Video werden wir über die Benutzererstellung sprechen Damit Sie von einem beliebigen CLI-Modus Ihres AWS aus darauf zugreifen können, müssen Sie dafür auf einen Benutzer zugreifen. Ich werde Ihnen von dem Befehl erzählen, den Sie verwenden müssen , um auf den Benutzer zuzugreifen, aber zuerst müssen wir einen Benutzer erstellen. Und gib ihm den Zugangsschlüssel. Access Key können Sie nun von Ihrer CLI aus auf Ihren AWS-Service zugreifen Mit Access Key können Sie nun von Ihrer CLI aus auf Ihren AWS-Service zugreifen , der hier läuft. Dafür müssen Sie einen IAM-Benutzer erstellen, also öffnen Sie IAM einfach hier. Ich habe hier bereits einen Benutzer namens Dev Ich werde diesen Benutzer nicht verwenden Nun, hier gibt es zwei Optionen Sie können einen Benutzer erstellen und dann können Sie, Sie wissen schon, einen Zugriffsschlüssel für diesen Benutzer erstellen, und Sie können ihn der AWCLI zur Verfügung stellen Aber wenn es eine Anforderung gibt , dass Sie um den Zugriffsschlüssel Ihres Root-Benutzers geben müssen um den Zugriffsschlüssel Ihres Root-Benutzers In dieser Situation, wenn Sie ein verwaltungsorientiertes Skript ausführen, bei dem Sie den Zugriffsschlüssel des verwaltungsorientiertes Skript ausführen, bei dem Root-Benutzers benötigen, können Sie das auch tun. Es wird jedoch nicht empfohlen, Root-Zugriffsschlüssel nicht zu verwenden, aber immer noch für Gelegenheiten, z. B. wenn Sie viel Kommandozeilen-Scripting durchführen und Konten organisatorisch hinzufügen möchten , wenn Sie ein verwaltungsorientiertes Skript ausführen, bei dem Sie den Zugriffsschlüssel des Root-Benutzers benötigen, können Sie das auch tun. Es wird jedoch nicht empfohlen, den Root-Zugriffsschlüssel nicht zu verwenden, aber immer noch für Gelegenheiten, z. B. wenn Sie viel Kommandozeilen-Scripting durchführen und Konten organisatorisch hinzufügen möchten, und Sie möchten irgendwelche benutzerbezogenen Aktivitäten ausführen oder etwas, das über das hinausgeht, was nur Root-Benutzer tun können In diesen Situationen müssen Sie möglicherweise einen Zugriffsschlüssel für Ihr Root-Konto erstellen. In diesem Fall können Sie zu Ihrem Benutzernamen gehen und mit der mittleren Maustaste auf Ihre Sicherheitsanmeldeinformationen klicken. Sobald Ihre Sicherheitsnachweise geladen sind, haben Sie dort eine Option nun diese Option verwenden, können Sie den Zugriffsschlüssel tatsächlich erstellen , indem Sie hier klicken. Diese Option würde jetzt direkt in Ihrem Root-Benutzerkonto angezeigt. Deshalb gehen Sie hierher und klicken auf Sicherheitsanmeldedaten. Denken Sie daran, dass ich mich bei meinem Root-Konto angemeldet habe und dann diese Option verwenden muss. Wenn Sie sich mit einem normalen Konto anmelden, können Sie den Zugriffsschlüssel für den Root-Benutzer nicht generieren. Dazu müssen Sie sich zunächst beim Root-Benutzerkonto anmelden und dann zu Ihrem Kontonamen und von dort aus zu Ihrem Kontonamen und den Sicherheitsanmeldedaten wechseln. Sobald Sie darauf klicken, ist der Vorgang derselbe , den ich für einen normalen Benutzer durchführen werde. Jetzt werde ich hier einen Benutzer namens AWS Iphone CLI erstellen . Das ist also ausschließlich für den Zugriff auf die CLI-Schnittstelle vorgesehen. Hier müssen Sie Admin, ähm, keinen Zugriff auf die Verwaltungskonsole gewähren, sodass Sie sie einfach verlassen können, ohne sie zu aktivieren. Sie klicken auf Weiter, und Sie können es tatsächlich zu einer bestehenden Gruppe hinzufügen oder Sie können ihr direkt Richtlinien hinzufügen. Okay. Ich benötige also Administratorzugriff, weil ich darüber Administratorzugriff haben möchte. Also würde ich das auswählen und zum nächsten Bildschirm gehen. Klicken Sie jetzt einfach auf Creates. Dies sollte dazu führen, dass ein Benutzer erstellt wird. wurde kein Zugriff Bisher wurde kein Zugriff auf diesen Benutzer gewährt. Klicken Sie jetzt auf diesen Benutzernamen und dann erstellen wir den Zugriff auf den Benutzer. Jetzt kann der Zugriff auf den Benutzer über die Admin-Konsole erfolgen. die Admin-Konsole aktivieren, können Sie das Passwort für die Admin-Konsole aktivieren. Das werden wir für diesen Benutzer nicht verwenden, da dieser Benutzer für den Befehlszeilenzugriff generiert wurde. Dafür müssen Sie also einen Zugriffsschlüssel erstellen. Sie können also sehen, dass der Zugriffsschlüssel für programmgesteuerte Aufrufe wie AWS über die AWS-CLI bestimmt ist programmgesteuerte Aufrufe wie AWS über die AWS-CLI CLI ist also auch ein Teil davon. SDK ist auch ein Teil davon. Power Shell ist auch ein Teil davon. API-Aufrufe gehören also auch dazu. Ebenso haben Sie diese Artikel. Wenn Sie eine dieser Methoden für die Kommunikation mit AWS verwenden, müssen Sie einen Zugriffsschlüssel erstellen. Wenn Sie einen Zugriffsschlüssel erstellen, gibt es hier eine Option. Was ist die Verwendung dafür? Ich werde CLI verwenden, also habe ich diesen speziellen Anwendungsfall in diesem Szenario ausgewählt , akzeptiere die Lizenz, akzeptiere leider die Empfehlung, gehe dann zum nächsten und klicke dann auf Create Key, und dann solltest du den Zugriffsschlüssel haben. Jetzt haben Sie mehrere Möglichkeiten, dies zu tun. AWS-Konfiguration. Jetzt konfigurieren ist die Option für AWS, die Konfiguration für einen bestimmten Zugriffsschlüssel vorzunehmen. Wenn Sie jetzt die Eingabetaste drücken, werden Sie nach einer Zugriffsschlüssel-ID gefragt. Jetzt kopiere ich die Access Key-ID hierher und füge dann das Zugriffspasswort hier ein. Und dann ist die Region der USA Ost. Wenn Sie sich also nicht sicher sind, in welcher Region Sie arbeiten, gehen Sie zu Ihrer Startseite. Sie werden hier North Virginia sehen, und Sie werden den US-Bindestrich East Bindestrich eins sehen Also das Gleiche gebe ich hier an, US-amerikanischer Bindestrich, östlicher Bindestrich Und das Standardausgabeformat ist JSON. Sie können also sowohl JCN als auch einfach Enter eingeben. Okay. Also standardmäßig wird es dich nicht nach diesen beiden fragen , und es wird auch nicht kommen. Ich habe das schon getestet. Deshalb kommt es. Da wird es nein, nein, nichts dergleichen sagen. Ich werde sagen. Also hier gibst du US Iphone Diphen eins Hier gibst du Jason. Und dann OK, äh, du wirst tatsächlich anfangen zu sehen , dass die Artikel auftauchen, ich meine Hier müssen Sie also keine ID oder so etwas angeben , weil Ihre Schlüssel-ID eindeutig genug ist Es wird wissen, dass es den Authentifizierungscode für dieses spezielle Konto selbst hat , sodass Sie sich darüber keine Gedanken machen müssen. Was Sie jetzt tun können, ist, dass Sie sich tatsächlich bei diesem Benutzer angemeldet haben , den Sie gerade erstellt haben. Wenn Sie IM verwenden, müssen Sie auf Fertig klicken, dieses Passwort ist weg. Okay? Also lass es so wie es ist. Gehen Sie einfach zu diesem Benutzernamen und klicken Sie auf diesen Benutzernamen. Dann werden Sie sehen, welche Art von Erlaubnis Sie für diesen Benutzer haben. Das heißt, Administrator ist die Richtlinie, die wir ausgewählt haben. Es wird also die Richtlinie geladen. Geben Sie ihm erneut Zugriff darauf. Okay, lass es laden. Okay, Sie können den Administratorzugriff sehen. Sie nun Administratorzugriff haben, werden wir einige Aktionen in S Three Bucket ausführen. Lassen Sie uns also zuerst den Bucket S Three öffnen. Das ist das Einfachste, was wir auf dieser Ebene tun können. Okay? Also werden wir eine Datei hochladen, wir erstellen eine Datei und laden sie in einen der Buckets Sie haben also alle drei Buckets hier drüben, Test-Bucket. Wenn Sie noch keinen Bucket haben, erstellen Sie einfach einen Bucket. Erstellen Sie einfach einen Bucket namens Test-Bucket mit Ihrer ID. Und sobald Sie den Test-Bucket haben, werden Sie sehen, dass hier keine Datei vorhanden ist. Sie können also Befehle wie einfache Befehle verwenden, wie zum Beispiel, um die Buckets auf Ihrem S drei aufzulisten Sie haben hier also drei Buckets, also können Sie AWS S Three, den Servicenamen LS, den Servicenamen Hier werden also einfach die Buckets aufgelistet, die Teil Ihres Amazon S Three Jetzt hast du drei Eimer hier drüben. Nun, was bedeuten diese drei Buckets wir nehmen für dieses Beispiel einen Test-Bucket Wir werden hier eine Datei namens demo, also cat Demo, erstellen. Es tut mir leid. Demo, damit werden Elemente in diese Datei geschrieben. Das ist eine Demo-Datei. Control D, nachdem Sie die Eingabetaste gedrückt haben, geben Sie einfach Control D. Oder Sie können auch eine VI-Demo machen und dann diesen Inhalt schreiben und mit der Datei weiterspeichern. Das liegt also an dir. Jetzt können Sie eine einfache AWS-Kopie mit drei Kopien dieser speziellen Datei erstellen, eine Demo-Datei, zwei davon mit einem Cons-Lash Bucket testen. Dadurch wird die Datei im Grunde genommen von diesem Speicherort von Ihrem Systemstandort in Ihren S Three-Bucket kopiert. Die Funktionen werden hier aktualisiert Sie werden die Demo-Datei sehen. Okay. Die Demo-Datei wurde also diesen speziellen Test-Bucket übertragen. Wenn Sie diesen löschen möchten, können Sie die Demo wie im Namen verwenden. Und dann kannst du RM machen und dann kannst du diesen bestimmten Hule auswählen Das sollte jetzt entfernt werden. Okay. Sehr einfacher Befehl , um sicherzustellen, dass Ihre Funktionen von Ihrer CLI aus funktionieren. Sie können dies auch über diesen Teststart mit der Befehlszeile tun. Ich öffne eine Eingabeaufforderung unter Windows. Also das ist meine Windows-Eingabeaufforderung hier drüben. Also nur eine Sekunde. Also habe ich hier eine Windows-Eingabeaufforderung geöffnet. Jetzt kann ich das auch in dieser Windows-Eingabeaufforderung konfigurieren. Also, jetzt drücke ich auf Konfigurieren, es wird so bleiben, also gehst du zurück zu diesem Ding kopierst den Zugriffsschlüssel. Fügen Sie ihn oder einen geheimen Schlüssel ein, fügen Sie ihn und geben Sie dann hier US Phone Typh One ein. Lassen Sie uns den ersten US-Bindestrich bestätigen. Das ist der eine. Dann JSON. Jetzt habe ich mich bei diesem Artikel angemeldet. Jetzt werde ich AWS s3s verwenden. Also verstehe ich diese Liste. Also kannst du es jetzt beeinflussen. Ich habe mich jetzt bei diesem System angemeldet , weil ich diese virtuelle Maschine ausschalten werde. Sie sehen, dass hier eine einfach zu virtuelle Maschine läuft. Gehen wir also dahin, wo es einfach ist. Also ja, du siehst also, dieser Server läuft und da sind wir gerade. Wir sind tatsächlich auf diesem Server. Also lass uns diesen Server ausschalten. Okay? Also das werden wir tun. Also werden wir zunächst die Beschreibung der Instanz verstehen . AW ist also einfach zu beschreiben, ich rufe Instanzen an, tut mir leid, beschreibe Iphon-Instanzen tut mir leid, beschreibe Iphon-Instanzen Dadurch erhalten Sie die Ausgabe der, Sie wissen schon, die Instanzendetails hier drüben Geben Sie einfach einen Space Park und gehen Sie dem Detail auf den Grund. Sobald Sie den Grund erreicht haben, enthält der Boden sehr wichtige Informationen. Ihre öffentliche IP-Adresse, lassen Sie uns vergleichen, ob dies die öffentliche IP-Adresse ist. Wenn Sie einfach hierher gehen und die Sitzung bearbeiten, können Sie 52, 55, 22, 203 sehen , und das ist dasselbe hier, interne IP-Adresse. Was ist wichtig, ist diese Instanz-ID? Das ist es, was wichtig ist. Also, was ist das? Das ist im Grunde deine Instanz-ID. Das ist also der eine. Sie sehen also diese Instanz-ID, also ist es die eine. Wenn Sie also das Stoppen der Instanz kontrollieren möchten, müssen Sie dafür die Instanz-ID verwenden. Mal sehen, was passiert, wenn ich AWS EC Two starte Iphon-Instance mit der Instance-ID stoppe Ich muss die Instanz-ID angeben, bei der es sich um Iphone Iphonstceiphon-IDs handelt Und dann füge ich die ID hier ein und drücke Enter. Und jetzt, ähm, tut mir leid. Nehmen wir zum Beispiel S. Jetzt sollten Sie sehen, wie sich das ausschaltet. Sie können sehen, dass dieses System ausgeschaltet wird. Und Sie konnten die Instanz von hier aus herunterfahren. Es gibt also so viele Optionen Sie als Teil Ihres EC Two ausführen können. Sie können zum Beispiel eine Instanz erstellen. Sie können viele andere Dinge erstellen, Optionen, Sie wissen schon, welchen Teil Ihrer EC zwei Instanzen haben. Sie können also auch so viele andere Optionen verwenden. Und wenn Sie mehr über spezielle Servicehilfe erfahren möchten, können Sie jederzeit EC two help eingeben. Dadurch erhalten Sie alle Optionen, die Sie für ECT eingeben können . Okay. Ebenso kannst du einfach Platz geben und es gibt dir alle Optionen hier. Ebenso kannst du es kontrollieren. Sie können auch die Instanz starten , die Sie heruntergefahren haben, also geben Sie das einfach hier hin. Nun, dies wird nicht dieselbe IP-Adresse verwenden. Sobald Sie angefangen haben, können Sie zur Beschreibung der Instanz gehen und die Beschreibung dieser öffentlichen IP-Adresse abrufen. So können Sie sehen, dass sich die öffentliche IP-Adresse geändert hat. Kopieren Sie also diese öffentliche IP-Adresse, bearbeiten Sie sie und fügen Sie sie hier ein. Auch hier ist eine öffentliche IP-Adresse im Grunde eine IP-Adresse, die, ähm, Sie wissen schon, automatisch und ohne Ihr Zutun vergeben ähm, Sie wissen schon, automatisch wird, weil öffentliche IP-Adresse ständig ändert, weil Sie keine statische IP-Adresse haben oder wir sie als Elastic IP-Adresse bezeichnen Elastic IPS ist kostenbindend. Das heißt, wenn Sie eine Elastic IP-Adresse verwenden, müssen Sie etwas Geld bezahlen damit Sie eine statische IP-Adresse auf Ihrem System haben. Jedes Mal, wenn Ihr System neu gestartet wird, erhalten Sie eine neue öffentliche IP-Adresse aber Ihre private IP-Adresse bleibt dieselbe Leider können wir es nicht mit einer privaten IP-Adresse verbinden es nicht mit einer privaten IP-Adresse Okay? Also das sind zusätzliche Informationen, die für euch im Moment nicht so sehr benötigt werden. Aber Sie konnten so ziemlich einige Aktivitäten auf Ihrer CLI ausführen. Es gibt so viele Befehle da draußen. Ich habe Ihnen gerade nicht einmal einen Prozentsatz von dem gegeben , was ich Ihnen gezeigt habe war nicht einmal ein Prozentsatz, weil es so viele Dinge gibt , die Sie mit CLI tun können. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Ich hoffe, diese Demo war hilfreich für Sie, Sie wissen schon, um zwischen den Theorieeinheiten ein wenig zu entspannen. Nochmals vielen Dank. Pass auf dich auf. 45. Labs AWS Cloud Formation IAC: Hallo Leute, willkommen zurück zum nächsten Video. Denken Sie jetzt daran, dass Sie auf Ihrer Git-Seite die Konfigurationsdetails finden, welche Befehle ich bisher ausgeführt habe. Ich habe es hier für euch als Referenz rübergebracht . Nun, der Inhalt hier ist auch für dein vorheriges Video angegeben. Denken Sie also daran, auf der GitHub-Seite darauf zu verweisen und es sich zu besorgen. Sie können es viel einfacher kopieren und einfügen. Denken Sie daran, dass WQ hauptsächlich zum Speichern und Beenden dient. Also das setze ich immer dann normal ein, weißt du, wenn du hier eine Datei siehst, wie ein Pifive wo ich sie öffne, um einige Informationen zu bearbeiten Lassen Sie uns nun über die Wolkenbildung sprechen. In dieser Situation werden wir nun die CloudFormation-Vorlage verwenden, um Verbindung herzustellen und mit unserer Anwendung zu arbeiten Jetzt würden wir denselben Benutzernamen verwenden , da er Administratorzugriff hat In derselben Konfigurationsdatei hier drüben sind die Anmeldeinformationen also bereits geladen Ich muss also nicht wirklich mit einer Konfiguration separat arbeiten Jetzt muss ich eine Yama-Datei entwerfen , die Informationen zur Wolkenbildung enthält. Die Bildung eines Wolkenunterstrichs ist drei. Bitte ignorieren Sie die Rechtschreibfehler hier, und dann werde ich das als Yamal-Datei erstellen, die Anweisungen enthält, die einen S-Drei-Bucket erstellen sollen Denken Sie jetzt daran, diesen ST-Bucket einzigartig zu machen. Ich werde meine Konto-ID angeben, damit sie einzigartig wird , weil ich mir ziemlich sicher bin , dass es sie bereits gibt. Dieser Name würde mit Sicherheit schon existieren. Also werde ich einfach weitermachen und die Kontonummer angeben , damit im Grunde dieser spezielle S-Drei-Bucket entsteht. Nun, Flow Formation ist ein Automatisierungstool, bei dem es sich um einen Standardservice von AWS handelt. Mithilfe von Cloud Formation kann ich eine Infrastruktur erstellen, die so einfach wie das Erstellen eines S Three-Buckets oder das Erstellen EC Two-Instance, oder Sie können damit alles Mögliche machen es gibt keine Grenzen. Jetzt führe ich hier einen Befehl aus , der es mir ermöglicht, einen Stack zu erstellen. Es heißt also CloudFormation-Stack. Jeder Stapel wird erstellt und innerhalb des Stacks tatsächlich bestimmte Dinge Zum Beispiel wird dieser bestimmte Dateiinhalt tatsächlich ausgeführt Davor können Sie sehen, dass der Vorlagentext von S Three Bucket hier drüben übernommen wurde. Um diese Datei zu haben, sollten Sie den endgültigen Namen hier auf den Dateinamen korrigieren , den wir in dieser Situation erstellt haben. Also werden wir einen Bucket, ST-Bucket, erstellen , und dieser endgültige Name muss geändert werden. Was ist der endgültige Name, den wir gerade erstellt haben. Ordnung, die Region ist USeast One, das ist eine bevorzugte Region für uns, und der Stack-Name ist MS Three Lassen Sie mich Ihnen jetzt schnell die Konsolenansicht für Cloud-Bildung geben die Konsolenansicht für Cloud-Bildung Wenn Sie dort also Cloud Formation eingeben, werden Sie es einem anderen Dienst zuordnen. Und derzeit habe ich, glaube ich, eine CloudFormation-Vorlage zu einem frühen Zeitpunkt ausgeführt . Möglicherweise sehen Sie einige Hinweise darauf, ignorieren Sie sie bitte Okay, jetzt können Sie sehen, dass es derzeit einen Röntgen-Sample-Stack gibt , der verwendet wurde, um eine bestimmte Anwendung zu erstellen. Und diese Erstellung ist abgeschlossen. Wenn ich jetzt diesen Befehl ausführe, werden Sie sehen, dass dieser MS-Drei-Stapel hier drüben erscheint und er wird anfangen zu funktionieren. Nun, da das Ziel dieser speziellen, Sie wissen schon, Datei so einfach ist, kann sie entweder erfolgreich sein oder scheitern, etwa weil es ein Problem mit dem Dateinamen oder irgendwelche anderen Probleme gibt , dann kann es ein Fehlschlag sein. Und vor allem denke ich, dass es ein Erfolg sein würde. Um dies bereitzustellen, müssen Sie am Ende nur noch die Eingabetaste drücken. Dadurch wird sichergestellt , dass der Cloud-Stack mithilfe dieses CLI-Befehls bereitgestellt der Cloud-Stack mithilfe wird, mit dem die Cloud-Formation bereitgestellt wird Mit dieser Methode können Sie jetzt auch Änderungen an Ihrem AWS beeinflussen Wir schauen uns nur verschiedene Möglichkeiten an, AWS zu beeinflussen, nicht nur über Ihre Managementkonsole, sondern auch über die Befehlszeilenschnittstelle auch mithilfe von Cloud-Formation. Wenn ich die Option S three und die Befehlszeile erstellen möchte, gibt es eine Option, sie zu erstellen. AWS S drei und dann gibst du die Option Erstellen und was du willst. Das ist eine Befehlszeilenmethode, um dasselbe zu erstellen , was wir im vorherigen Video getan haben , nämlich SDK mit SDK, wir haben es als B erstellt. Jetzt werden wir Cloud Formation verwenden, indem wir Yama-Dateidefinition schreiben die Cloud Formation versteht und über den CloudFormation-Service ausführt Jetzt können Sie das tatsächlich ausführen. Jetzt können Sie sehen, dass es hier eine ID erstellt hat. Kann diesen Befehl verwenden, um Informationen darüber zu überprüfen. Ich kann das hier sehen, es scheint im Gange zu sein. Also im Gange. Jetzt kannst du das tatsächlich auch hier sehen. Jetzt solltest du zwei davon sehen. Sie können sehen, dass die Erstellung abgeschlossen ist. Es scheint also erfolgreich erstellt worden zu sein. Jetzt können Sie sehen, dass die Erstellung abgeschlossen ist. Sie können einige Informationen dazu in der Ausgabe hier sehen . Es gibt keine Ausgabe. Sie können die Ereignisse auch hier überprüfen. Okay, also wenn die Veranstaltung in Bearbeitung ist , ist der Fortschritt abgeschlossen. Wenn ich jetzt hier drüben zu S drei gehe, sollte ich den neuen Bucket sehen. Okay, Sie können diese Informationen auch von hier abrufen . S drei Ls, damit Sie sehen, dass mein Beispiel drei Eimer ist, das können Sie auch hier sehen. Mein Beispiel ist Three Bucket. Nun der Bucket, den wir hier in dieser Datei erwähnt haben , nämlich Cloud Formation. Sie können sehen, dass es sich bei meinem Beispiel um drei Buckets handelt, die erfolgreich erstellt wurden. Jetzt haben Sie die vierte Zugriffsmethode verstanden. Im nächsten Video zeige ich Ihnen nun die fünfte Methode. Nochmals vielen Dank, dass Sie sich das angesehen haben. Wir sehen uns beim nächsten Mal. 46. Labs AWS Cloud Shell: Hallo Leute. Willkommen zurück zum nächsten PDO In diesem PDO werden wir uns Cloud Shell ansehen. Dies ist die fünfte Methode für den Zugriff auf Ihren AWS-Service. Bei Cloud Shell müssen Sie nun sicherstellen, dass Sie sich in der AWS-Managementkonsole befinden . Anstatt jedoch eine Shell zu öffnen entweder das Befehlsdienstprogramm auf Ihrem Windows-Server installieren auf Ihrem Windows-Server indem Sie entweder das Befehlsdienstprogramm auf Ihrem Windows-Server installieren und Ihre Eingabeaufforderung so aussehen lassen, dass sie Ihre AW-Services bedienen kann, oder Sie erstellen einen Linux-Server und installieren dasselbe Befehlsprogramm. Ja, Sie haben eine weitere Möglichkeit, dies mithilfe von Cloud Shell zu lösen. Nun, Cloud Shell ist dieses Symbol hier oben, und dieses Symbol erstellt tatsächlich eine Umgebung , mit der Sie arbeiten können. Ich würde sagen, die Funktion ist, dass das Tool auf dieser Cloud Shell vorinstalliert ist. Diese Cloud Shell selbst ist ein Linux-System, auf dem vorinstallierte Tools wie AW oder CLI, Python, Git No JS und mehr enthalten sind. So können Sie nach Bedarf andere Tools installieren. Denken Sie jetzt daran, dass es auf persistentem Speicher läuft, da für jede Region ein GB Persistenzspeicher angegeben ist Dieser Speicher erinnert sitzungsübergreifend, was bedeutet, dass Sie die Dateien und das Skript Sie speichern, dort sehen können, wenn Sie sie zurückgeben Dieses Ding werden Sie haben, wenn Sie Cloud Shel tatsächlich haben Sie werden hier einen schnelleren Zugriff haben, anstatt einen Server zu erstellen und ihn dann auszuführen, wie wir es getan haben. Sie können sehen, dass dieser Server ihn bereits hat Wenn ich jetzt Ss mache, können Sie jetzt sehen, dass alle meine drei S-Buckets angezeigt werden , die ich hier habe. Nun, wie wird es überhaupt angezeigt? Ich bin nicht mit AWS Configure angemeldet. Nun, das müssen Sie nicht, da Sie sich bereits bei dieser Verwaltungskonsole angemeldet haben. Über die Management Console rufen Sie also eine Cloud Shell auf, was bedeutet, dass Sie über diese Datei verfügen werden Lassen Sie uns also einfach hier eine Datei erstellen. Es tut mir leid. Also hier drüben eine Datei namens Datei A zu erstellen, richtig. Also jetzt, wo ich diesen schließe und wieder öffne. Wenn Sie also einfach, Sie wissen schon, diese Cloud Shell entfernen, können Sie sie von hier aus wiederherstellen. Sie werden die Datei also auch nach dem Abmelden und Einloggen immer noch sehen . Das wird also ein GB für dich sein. Jetzt ist Cloud Shell bereits in Ihre AWS-Anmeldeinformationen und Ihre AWS-Umgebung integriert , sodass Sie dafür keine spezielle Konfiguration ausführen müssen dafür keine spezielle Konfiguration So ziemlich genau das wollte ich Ihnen in Bezug auf eine andere Art des Zugriffs auf Ihre AWS-Ressourcen sagen eine andere Art des Zugriffs auf , die Verwendung von Cloud Shell Leider müssen Sie mit Cloud Shell zuerst auf die Verwaltungskonsole zugreifen , damit Sie es aktivieren können. Und über die Management Console rufen Sie die Cloud Shell von dort aus auf Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns beim nächsten. 47. Labs AWS Direct Connect: Hey, Is, komm zurück zu diesem Video. In diesem Video werden wir über AWS Direct Connect sprechen . In dieser Direktverbindung werden wir nun verstehen, wie es sich von VPN unterscheidet und wie es sich von HPO im öffentlichen Internet unterscheidet Lass uns mit diesem Video weitermachen. Jetzt haben wir diese drei Punkte , die Sie mit dem letzten Video vergleichen. Wir haben verstanden, was VPN ist. Jetzt können wir verstehen, was Direct Connect ist und wie es sich dann von VPN und wie es sich vom öffentlichen Internet unterscheidet. macht Spaß, zunächst zu verstehen, wie es sich vom öffentlichen Internet unterscheidet , da es sich um ein Intranet handelt Wenn Sie von einem Unternehmen aus darauf zugreifen und den Zugriff auf Ihre VPCV über das Internet einschränken möchten , können Sie nur über das Intranet darauf zugreifen . Im Internet gibt es hier noch ein Element namens Direcconnect. Direct Connect bietet jetzt eine dedizierte private Netzwerkverbindung zwischen Ihrem eigenen Promise-Rechenzentrum Büro, von dem aus Sie arbeiten, und AWS. Im Gegensatz zu VPN durchquert VPN nicht das öffentliche Internet. VPN erfordert, wie ich im vorherigen Video sagte, VPN-Internet, damit Sie eine Verbindung zu den VPN-Diensten oder -Endpunkten herstellen können, oder In Bezug auf eine direkte Verbindung funktioniert dies jedoch nicht mit öffentlichen Internet, das eine hohe Leistung, geringe Latenz und eine zuverlässigere Verbindung bietet geringe Latenz und eine zuverlässigere Verbindung Das ist das Hauptverkaufsargument von Direct Connect. Das Wort Direktverbindung bedeutet nämlich, dass eine direkte Verbindung zu Ihrem Onpromises-Rechenzentrum hergestellt wird direkte Verbindung zu Ihrem Onpromises-Rechenzentrum Sie können also sehen, wie ein dediziertes Netzwerk von AWS zu Ihrem Rechenzentrum kommt und dann wieder zu AWS zurückkehrt Das bedeutet, dass Ihr Rechenzentrum direkt über ein privates Netzwerk verbunden wird direkt über ein privates Netzwerk verbunden und die Latenz gering ist. Etwas, das Sie aus diesem Bild selbst verstehen können . Was sind nun die Hauptmerkmale? wichtigsten Funktionen gehört eine private physische Verbindung zu AWS, die das öffentliche Internet umgeht Direct Connects bietet also im Vergleich zu internetbasierten Verbindungen eine geringe Latenz und eine konsistentere Leistung zu internetbasierten Verbindungen Sie können auch aus verschiedenen Bandbreitenoptionen wählen , z. B. 50 MB/s und 100 GB/s einer Datenübertragung, die Sie zwischen Ihrem Rechenzentrum und Ihrem AWS durchführen können Ihrem Rechenzentrum und Ihrem AWS durchführen Was ist nun der Anwendungsfall hier? In Situationen, in denen Sie das verwenden können? Sie können es für Unternehmen verwenden , die häufig große Datenmengen zwischen Zusagen an AWS übertragen . Dies wird also hauptsächlich für eine Hybrid-Cloud-Lösung oder ein Hybrid-Cloud-Modell empfohlen oder verwendet eine Hybrid-Cloud-Lösung oder ein Hybrid-Cloud-Modell empfohlen oder Und die Leistung hier. Die Anwendung erfordert eine leistungsstarke Netzwerkverbindung mit niedriger Latenz. Das ist also die beste Lösung dafür. Unternehmen, die sowohl lokale als auch Cloud-Ressourcen nutzen und eine stabile Verbindung zwischen ihnen benötigen. Entweder verbinden sie eine lokale Datenbank, die die Kundendaten enthält , und ihre Anwendung wird auf AWS gehostet, was wirklich erfordert, dass die Daten in verschlüsseltem Format übertragen und dem Kunden bereitgestellt werden in verschlüsseltem Format übertragen . In dieser Situation oder in diesem Prozess benötigen Sie also eine sehr, Sie wissen schon, stabile Verbindung zwischen ihnen. Dies ist eine der Methoden Sie eine stabile Verbindung herstellen können, und für diese Verbindung ist kein Internet erforderlich, was bedeutet, dass Ihre Daten zu keinem Zeitpunkt gefährdet Daran sollten Sie sich also erinnern. In Ordnung, ich habe das so ziemlich theoretisch behandelt und Sie kennen auch den Unterschied zwischen einem VPN und Direct Connect. Also lass uns gehen und die praktischen Übungen machen. Direct Connect angeht, so wird es, Sie wissen schon, als separater Service auf AWS angeboten, der Direct Connect heißt. Wenn Sie jetzt zu Direct Connect gehen, können Sie diese Dokumentation tatsächlich sehen. soll es Ihnen also leicht machen, eine dedizierte Netzwerkverbindung gemäß Ihren eigenen Zusagen an AWS herzustellen. Das bedeutet, dass Ihr Büro, Ihr Rechenzentrum oder, Sie wissen schon, Registrierung an einem gemeinsamen Standort eine direkte Verbindung zu AWS haben kann , und es kann sich dabei um eine private Es tut mir leid, das kann es sein. Es ist eine private Verbindung zwischen ihnen. Sie können sich die Funktionen hier ansehen, z. B. reduzierte Bandbreitenkosten, konsistente Netzwerkleistung, private Verbindung zu AWS. Außerdem ist es elastisch, da es von 50 MBS auf 100 MBS angehoben werden kann von 50 MBS auf 100 MBS angehoben Okay, das ist die maximale Verbindung, aber hier können Sie sehen, dass der Verbindungsanbieter ein Gbit/s bis zehn Gbit/s Ebenso können Sie dies skalieren. Wie Sie hier sehen können, Sie einfach auf Verbindung erstellen, klicken Sie einfach auf Verbindung erstellen, um eine Verbindung herzustellen. Hier sagen Sie, welches Resilienzniveau Sie benötigen. Maximale Belastbarkeit, Sie haben eine hohe Belastbarkeit, Sie haben Entwicklung und Tests. Dies ist hier die niedrigste unkritische Arbeitslast mit geringerer Belastbarkeit. Geben Sie dann als Nächstes ein und dann können Sie hier die Geschwindigkeit auswählen, die zwischen einem Gbit/s und 400 Gbit/s liegt, und den gewünschten Standort Also hier ist der Standort Ihrer Rechenzentren hier drüben. Das ist also Ihre AW-Site. Dort befindet sich der Standort, an dem Sie eine Verbindung herstellen möchten . Das ist also eine AW-Site hier drüben. Sie können also sehen, dass es sich an diesem bestimmten Ort und beim Dienstanbieter befindet. Der Dienstanbieter hilft Ihnen also dabei, die Verbindung zum Rechenzentrum herzustellen, und hier gibt es auch zusätzliche Einstellungen und einige zusätzliche Einstellungen. Dann gibt es noch diese Verbindungszusammenfassung , sodass Sie die acht Anbieter sehen können. Es kommen zwei Verbindungen von Ihrem Standort aus , und durch Überprüfen und Erstellen werden diese Verbindungen erstellt. Aber wie Sie sehen, kostet das etwa 0,6/Stunde, etwa 4:39 pro Monat für die Portnutzung und zusätzliche Datenübertragung Sie können Auch für die Datenübertragung wird nur eine Gebühr erhoben und es werden zwei Verbindungen hergestellt. In diesem Fall wird dies also die Widerstandsfähigkeit gegen Misserfolge erhöhen. Wenn es sich um eine größere Verbindung handelt, können Sie hier tatsächlich die maximale Widerstandsfähigkeit erkennen. Wir haben tatsächlich eine größere Information. Erster Standort, Sie haben diesen Anbieter, der zweite Standort ist ein Backup-Standort hier drüben. Und dann haben Sie einen anderen Anbieter. AT und TF haben wir bereits ausgewählt, also wählen wir Verizon Hier habe ich vier Verbindungen hier 90$ pro Stunde ausgeben, etwa 65.880 monatlich und Gebühren für die Datenübertragung sind getrennt. Das bedeutet, dass Sie sehen können, dass die Abrechnung beginnt, sobald die Verbindung zwischen dem AWS-Router und der Route und Ihrem Router hergestellt ist, oder 90 Tage Was auch immer zuerst kommt. Sie haben also auch die Möglichkeit , dies zu erstellen, und dies ermöglicht die direkte Verbindung direkte Verbindung ist viel teurer als das VPN selbst, da sie das private Netzwerk verwendet , um eine Verbindung herzustellen. Das ist so ziemlich alles, was ich Ihnen auf der Demo-Seite zeigen möchte alles, was ich Ihnen auf der Demo-Seite , damit Sie den Kern dessen verstehen, was wir hier eigentlich tun. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns beim nächsten Mal. 48. Labs AWS SDK mit Python: Ich habe zum nächsten Video in diesem Video zurückgesprochen Wir werden über SDK sprechen. Eines der Themen, die wir haben und das hier als Teil Ihres Programms behandelt wird , ist auch die Verwendung von SDK. Jetzt werden wir hier schnell eine Demo zum SDK sehen. Das ist also API ist SDK CLI. Wir haben also die CLI fertiggestellt, also ist es Zeit für uns, das SDK zu erkunden. Auch dies wird nicht Teil Ihrer Prüfung sein, Sie können dies also durchaus überspringen. Ich werde Ihnen hier nur ein einfaches, ähm, SDK-orientiertes Zeug zeigen , das Sie auf Ihrem AWS verwenden können. Denken Sie jetzt daran, lassen Sie mich noch einmal einloggen. Ich habe mich gerade in das System eingeloggt. Also hier werden wir über SDK sprechen. Ich werde hier eine Sprache verwenden, die häufig verwendet wird, nämlich Python. Ich werde die praktische Sitzung mit Python durchführen. Dafür müssen Sie sicherstellen , dass Sie Python auf Ihrem System installiert haben. Mach ein Pseudo, ähm, es tut mir leid, es gibt eine Verzögerung im System Pseudo yum installiere Python Three Iphone Y, schau, ob es es aufnimmt Python 3 ist bereits installiert. Lassen Sie uns also Python P PIP IPhony installieren. Python PIP ist erforderlich , damit Sie die Boto Three installieren können Boto Three ist Ihr Python-Treiber für Ihr SDK-Kit, das im Grunde für Ihre AWS-SDK-Konfiguration bestimmt ist Jetzt können Sie den Befehl PIP three hier verwenden und dann Boto Three installieren Das ist im Grunde deine Python-Konfiguration für, ähm, du weißt schon, dein AWS. Dies hilft Ihnen, eine Verbindung zu AWS herzustellen und das SDK von Boto aus auszuführen. Sie können also hier sehen, dass es das 40 CLO Boto installiert, drei Roots. Äh, Version Entschuldigung, Boto Three, 11235-Version, Boto Core, und es wird auch ein Three-Transfer installiert Das wird sicherstellen, dass Sie das STK hier haben Wenn Sie nun irgendwelche Python-, ähm, Sie wissen schon, Befehle oder Python-Skripte ausführen ähm, Sie wissen schon, Befehle oder Python-Skripte die von AWS aufgerufen werden, werden die Elemente tatsächlich von, Sie wissen schon, AWS vom Backend abgerufen. Nun, wir haben AWS zuvor konfiguriert, sodass Sie einfach überprüfen können, ob es noch da ist , wählen Sie einfach drei. Es ist immer noch mit dem IS-Service verbunden. Jetzt haben Sie auch eine alternative Möglichkeit, sodass Sie einfach diese Datei öffnen können, die sich in Ihrem Home-Ordner befindet. Rufen Sie den AWS-Ordner auf. Und darin haben Sie eine Datei namens Credentials. Sie können also Ihre Anmeldeinformationen hier speichern . Jetzt können Sie sich das ansehen. Der Berechtigungsnachweis ist tatsächlich hier gespeichert. So loggst du dich ein. Also, noch bevor Sie das tun, können Sie diese Anmeldeinformationen direkt dort eingeben, und dann können Sie darauf zugreifen. Sie müssen die AWS-Konfiguration also nicht mit den Anmeldeinformationen dort ausführen AWS-Konfiguration also nicht mit den Anmeldeinformationen dort Jetzt, wo Sie die Anmeldeinformationen dort eingegeben haben und sie standardmäßig da sind, müssen Sie sich darüber keine Gedanken mehr machen Jetzt werde ich hier eine Datei erstellen, die eine Python-Datei ist, und diese Python-Datei wird die drei S-Buckets auflisten Also, jetzt diese Python-Datei, wir werden den Code kopieren und einfügen , den ich für Sie herausgeben werde. Dies ist eine Python-Konfiguration in die Sie b23 importieren, was Ihr SD-Fall eines Entwicklungskits ist , das AWS im Hintergrund verwendet Erstellen Sie hier einen S Three-Client , der im Grunde Ihr S Three-Bucket ist Und hier ist diese Antwort eine Bucket-Antwort mit drei Listen. Dann drucken wir hier den Wert, der besagt, dass S drei Buckets vorhanden sind , und es wird eins nach dem anderen gedruckt und es wird eins nach dem anderen gedruckt, was Teil Ihrer Antwort hier ist. Sagen wir einfach kurz diese Datei. Und dann lassen Sie uns Python ausführen. Und dann können Sie tatsächlich, äh, die Python-Drei ausführen, die in der PUI gespeichert ist und die Ihnen die Ausgabe hier gezeigt hat die Ihnen die Ausgabe hier gezeigt Also, bestehende Buckets, Sie haben drei Buckets. Also das ist im Grunde, ähm, du weißt schon, das Ganze über ein SDKs-Softwareentwicklungskit laufen ein SDKs-Softwareentwicklungskit Das ist also eine weitere Methode , um auf Ihre bestehende, ähm, Sie wissen schon, Infrastruktur in Ihrem AWS zuzugreifen ähm, Sie wissen schon, Infrastruktur in Ihrem AWS Wir haben also über, Sie wissen schon, die Verwaltungskonsole gesprochen , tut mir leid, die Verwaltungskonsole, wir haben über CLI gesprochen. Wir haben über die Verwendung von Python auch über das SDK gesprochen . Denken Sie jetzt daran, dass Sie AWS Config nicht ausführen müssen. Wenn Sie also eine Verbindung mit einer neuen Sitzung herstellen, müssen Sie AWS Config hier in diesem Szenario wirklich nicht ausführen , da Sie das USM und das Passwort, tut mir leid, die Schlüssel-ID und den Schlüsselzugriffscode direkt in die Datei laden tut mir leid, die Schlüssel-ID und den Schlüsselzugriffscode direkt , die ich bereits erwähnt habe Diese Datei wird es also tatsächlich aufnehmen, sodass Sie die AWS-Konfiguration in diesem Szenario nicht wirklich ausführen müssen AWS-Konfiguration in diesem Szenario nicht wirklich ausführen Und diese Python-Datei wird ausgeführt, weil sie zu Boto Boto geht, zu diesen speziellen Anmeldeinformationsdateien und dann eine Verbindung zu dem Konto herstellt, dem sie zugeordnet ist Dann wird es die Logik innerhalb des Python-Skripts ausführen. So funktioniert es im Grunde. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns beim nächsten. 49. Einführung in Labs CLI: Hallo, Leute. Willkommen zurück zu den nächsten s, wir werden über die AWS-Befehlszeile sprechen. unserer Schulung werden wir uns nun mit einer der Funktionen befassen, die im Wesentlichen für Ihren programmatischen Zugriff vorgesehen ist Wir müssen also einen Benutzer erstellen, auf den es zugreifen kann, also werden wir das in einiger Zeit tun Aber ab sofort werde ich die Befehlszeilenschnittstelle für uns starten lassen. Und dafür müssen wir es für ein anderes Betriebssystem herunterladen. Um auf die Befehlszeilenschnittstelle zuzugreifen, einfach die CLI von Google AWS herunter, und Sie können auf diese Seite mit der Befehlszeilenschnittstelle zugreifen, bei der es sich um die Slash-CLI von aws.amazon.com handelt Jetzt sollten Sie zu dieser Seite gelangen, auf der Sie Dokumentation zur Ausführung dieses Tools Ebenso wie andere Tools, was ein Teil davon ist. Hier haben Sie also die Schritte, die zu dieser Version , die Sie als ALI Two verwenden . Sie bietet neue Funktionen wie verbessertes Installationsprogramm, neue Konfigurationsoptionen und auch Identity Center , einen Nachfolger von AWSSO Es gibt verschiedene Funktionen. Es gibt auch AWS S , eine Entwicklerbewertung. Das ist also ein weiteres Befehlszeilenprogramm , das Ihnen, ähm, Sie wissen schon, Komfort - und Produktivitätsfunktionen bietet. Also ein Teil der Verwendung hier, wie Sie einige grundlegende Befehle über die Befehlszeilenschnittstelle ausführen können . Also das sind Dinge hier drüben. Sie können sich auch über die Hilfe zum automatischen Scannen informieren und eine Gruppe für automatisches Skifahren erstellen. Ebenso haben Sie hier so viele Optionen, die Sie verwenden können. gibt es eine vollständige Referenz Hier gibt es eine vollständige Referenz in Bezug auf die Arbeit mit, ähm, Sie wissen schon, mehr Verweise auf die Befehlszeilenoptionen, was auch als Teil davon angegeben wird. Nun, wir werden einige der grundlegenden Aspekte untersuchen, wie Sie wissen, dass dies, ich meine, wir müssen etwas über die Kamana-Oberfläche wissen, aber sie funktioniert nicht vollständig, so dass das nicht Teil Ihrer Zertifizierung ist Aber nur zu Ihrem Verständnis Wir werden tatsächlich an der Installation arbeiten Wir werden mit, ähm, wissen Sie, einigen der Standardbefehle arbeiten , die wir uns auch in Bezug auf die CLI ansehen werden. Okay? Also das werde ich als Teil dieses Videos tun. Nochmals vielen Dank, dass Sie sich das angesehen haben. Im nächsten Video werden wir die Windows-Installation, die macOS-Installation und die Linux-Installation sehen macOS-Installation und die Linux-Installation und Sie auch über die Amazon Linux-Installation informieren Linux-Installation Nochmals vielen Dank. Wir sehen uns im nächsten Video. 50. Labs Linux CLI-Installation AWS Linux Upgrade: Hallo Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir, ihr wisst schon, diesen Server herunterfahren, den vorherigen Server , den wir zuvor benutzt haben, und ihn dann tatsächlich beenden. Das ist besser als herunterzufahren. Und dann erstellen Sie die Amazon Linux-Version. Also Amazon Linux One, wir haben es bereits gemacht, sodass Sie diesem Video noch einmal folgen können. Es ist jetzt nur eine Änderung in der Betriebssystemauswahl. Sie können also sehen, dass das System ausgeschaltet wird, das ist also okay Also öffne das, bearbeite dieses bestehende, und wenn du es bearbeitest, ändere einfach die IP-Adresse Alles andere ist gleich, außer dem Benutzernamen, iPhone benutzt EC Two, PhoNue Das ist der Nutzername Klicken Sie also einfach auf Okay und doppelklicken Sie dann darauf. Also, wenn du es verbindest. Es dauert ein bisschen . Da hast du's. Jetzt sind wir mit EC Two Instance verbunden . Perfekt. Sobald Sie mit der Easy Two-Instanz verbunden sind, müssen wir sie nur noch mit dem Befehl curl herunterladen Das gleiche Zeug. Ähm, denken Sie daran , in dieser Situation haben Sie AWS CLI bereits installiert. Schauen wir uns das an. Lass uns zuerst diesen Curl runterladen Okay, diese Datei wurde heruntergeladen. Okay. Lassen Sie uns jetzt einfach AWS ausführen und dann Phoniphon-Version eingeben Schauen Sie also, ob es bereits installiert ist. Jetzt kann ich sehen, dass die alte Version gespeichert ist, nämlich 215. Jetzt müssen wir es auf die neueste Version aktualisieren. Okay? Also dieses Video, Sie können es als Ausführung des Upgrades betrachten , das wir geplant haben. Diese Datei komprimieren. Zip ist auch in Abs Linux variabel, das ist also eine gute Sache. Sie müssen dieses Paket nicht separat installieren. Nachdem Sie die Datei entpackt haben, gehen Sie in AWS und führen Sie sudo dot slash aus Es ist besser. Ich kopiere basierend. Kopiere den Befehl von hier aus. Ich gebe keinen anderen Befehl ein. Ich tippe nur den gleichen Befehl. Mit einem Schrägstrich wird der Standardspeicherort installiert. Wenn Sie sich bezüglich des Standorts nicht sicher sind, können Sie jederzeit angeben, welches AWS Sie verwenden möchten. Das wird es dir sagen. Okay, es ist also an einem anderen Ort. Sie können diesen Benutzer in AWS sehen. Sie müssen also nur den Heimatstandort der AWS eingeben. Ähm Benutzer, ich suche nur nach dem AWS-Home-Ordner. Ich sehe es hier nicht, also lass uns sehen, dass es ein Einheimischer hat. Nein, der Home-Ordner ist dort nicht vorhanden. Ordnung, ich habe also nach Unterlagen gesucht, aber es gibt nichts Vergleichbares. Also fahren wir mit demselben Befehl fort. Wir werden diesen Befehl einfach kopieren, um ihn zu aktualisieren. Der Home-Ordner befindet sich also an einem anderen Ort, oder? Wenn Sie nun den Ordner Bin eingeben, der sich an diesem Speicherort befinden wird, verwenden Sie einen Bin-Ordner. Der Installationsort, den ich bisher gefunden habe , war nicht an diesem Ort. Also der, den ich gefunden habe, ist auf dem OPT AWS. Also der Standort ist es, also werde ich einfach mit diesem Verzeichnis versuchen, um zu sehen, ob es akzeptiert wird. Also kannst du das sehen. Jetzt kannst du das ausführen. Mal sehen, ob es jetzt mit der neuesten Version funktioniert . Da hast du's. Es ist also gerade mit 218 aktualisiert, ich habe OPTAWS gegeben, weil ich diesen Ordner auf Optaws gefunden habe Es ist sehr seltsam, ihn in diesem Verzeichnis zu finden, aber da dieses Betriebssystem ein bisschen alt ist, ist das der Grund, warum es dort ist Jetzt haben Sie also die V Two Ocean als Teil der OptaWS. Also so müssen Sie es machen. Ich werde all die benutzerdefinierten Befehle, die ich auf Ihrer GitHub-Seite namens AWS ausgeführt habe, kopieren ich auf Ihrer GitHub-Seite namens AWS ausgeführt habe, auf Ihrer GitHub-Seite namens AWS Ich werde den Link zur Github-Seite dort drüben einfügen. Das wird also direkt auf Github übertragen, der Notepad plus eins Also werde ich es dort kopieren und einfügen, damit ich es so nenne, als würde ich deine AW-CLI Was wir bisher behandelt haben, ist im Grunde die Installation der AWS-CLI Das haben wir also getan, und wir haben keinen Befehl, also kopiere ich den Befehl einfach hierher. Und wir haben auch gesehen, wie Sie Ihre AWS-CLI erfolgreich aktualisieren können, und meistens sollte dieser Befehl funktionieren, aber falls sich Ihr AWS in einem anderen Ordner befindet, müssen Sie ihn möglicherweise in diesen Ordner ändern Also habe ich Ihnen gezeigt, wie das auch in Bezug auf ein anderes Verzeichnis geht, ich habe es Ihnen auch gezeigt. Das ist also so ziemlich das, was wir im CLI-Teil der Dinge behandeln wollen . Nochmals vielen Dank. Im nächsten Video werden wir einige Befehle sehen, die wir als Teil der CLI ausführen können, und ich werde Sie im nächsten Video sehen. 51. Labs Linux CLI Installation Ec2 Instanzen erstellen: Hallo, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir sehen, wie man eine Linux-Installation durchführt. Aber ich werde das in mehrere Teile aufteilen , damit es für Sie einfacher wird, dies zu tun da die Linux-Installation viel länger dauert und wir planen, sie auf der EC-Two-Maschine durchzuführen. Nun, ich habe Ihnen keine Informationen darüber gegeben , wie man eine Z2-Maschine erstellt, also werde ich das nur als Teil dieses Videos tun . Nun, wir haben eine EC-Two-Instance erstellt, aber wir haben sie nie gestartet oder damit gearbeitet, also werde ich sie einfach noch einmal komplett neu erstellen Dafür müssen wir zunächst die CLI verstehen. Es gibt bestimmte Voraussetzungen, Es gibt bestimmte Voraussetzungen damit Sie sie installieren können Es gibt tatsächlich eine ganze Installationsseite, wenn Sie suchen, was ist das nochmal? Ähm, hier finden Sie die vollständigen Installationsschritte in Bezug auf die Arbeit mit der Windows-Installation, MacOS-Installation, wie Sie hier sehen können, und der Linux-Installation. der vorherigen Seite haben wir die EC-Installation wie das ExcelFle macOS-Paket gesehen , das genau wie eine EXE-Datei ist Wenn Sie nach einem mCOS-Paket suchen, ist das Windows-Paket genau dasselbe wie das mCOS-Paket, sodass es dort keinen Nun, was die Linux-Installation angeht, ist die Anweisung ziemlich langwierig, wie Sie sehen können, sie wird einfach immer wieder unterbrochen, weil sie eine Menge Komponenten enthält Lassen Sie uns nun zunächst die Voraussetzungen hier verstehen. Das bedeutet, dass Sie Zip als Teil Ihres Linux-Pakets haben müssen , um diese Installation durchführen zu können. Sie benötigen GLPsy, GRO sowie s als Teil Ihres Linux-Pakets, wenn Sie es mit Ihrer CLI installieren möchten Und die CLI wird für Sento Fedora, Ubantu und Amazon Linux gleichermaßen unterstützt und auch auf Linux gleichermaßen Da AWS also kein anderes Repository als SNAP von Drittanbietern unterstützt, ist SNAP ein Tool, das im LinxOperting System installiert ist, das genau wie YAM ein Repository-Manager anderes Repository als SNAP von Drittanbietern unterstützt, ist SNAP ein Tool, das im LinxOperting System installiert ist, das genau wie YAM ein Repository-Manager ist. AWS unterstützt hier nur SNAP . Sie finden also auch Anweisungen dazu. Denken Sie jetzt daran, wenn Sie mit Amazon Linux arbeiten und die AWS-CLI haben, die vorinstalliert ist. Wenn Sie also hier sehen können, ist auf Amazon Linux-Image die AWS-CLI vorinstalliert. Wenn Sie nun Ihre AW-CLI aktualisieren möchten, müssen Sie sie zuerst entfernen. Haben Sie also einfach den Befehl, es zu entfernen. Sie haben dir den Befehl gegeben, es zu entfernen. Und wenn Sie es erfolgreich entfernt haben, können Sie es, Sie wissen schon, mit den drei verschiedenen Methoden installieren. Die erste Methode besteht im Grunde darin, die Datei von Amazon AWCali amazon aws.com herunterzuladen Amazon AWCali amazon aws.com Dies ist also die offizielle Website Sie Ihr Paket aus der Zip-Datei herunterladen Ihr Paket aus der Zip-Datei Sie es unter Linux installieren Also auch hier ist ZIP erforderlich, da Sie ein Zip-Dateiformat für Linux herunterladen werden ein Zip-Dateiformat für Linux herunterladen Unzip ist also ein separates Paket, das Sie installieren müssen, falls es noch nicht installiert Und Sie haben AW CLI. Wir benennen diesen Dateinamen tatsächlich AW CLI V-Zip-Datei mit zwei Punkten um und komprimieren ihn mit dem Befehl NZP Und dann installieren wir es mit Sudo Sie werden einen AWS-Ordner haben und dann werden wir den darin enthaltenen Installationsbefehl ausführen, und das wird Ihre AWS-CLI auf diesem Betriebssystem installieren Ihre AWS-CLI auf diesem Betriebssystem Der Vorteil dabei ist, dass Sie im Grunde die neueste Version herunterladen da es keine Version gibt, sodass sie mit der neuesten Version verknüpft wäre. Im Gegensatz zu dieser Version wird es also nicht die Standardversion haben , wenn das Putting-System fertig ist. Sie haben also Amazon im nächsten Jahr 2023, aber es gibt kein 2024, aber die CLI hätte die neueste Version hier drüben, was bedeutet, dass Sie die neueste Version nicht hier haben werden. Für euch, die das als Teil davon installieren, müsst ihr es zuerst entfernen und dann den Anweisungen folgen. Ich werde dir Schritt für Schritt erklären, wie es geht. Also werden wir zwei separate Videos erstellen, eines für Defol Linux, Bond-Variante Und wir werden auch eines für Ihr, Sie wissen schon, Amazon Linux erstellen . In Ordnung. Klingt gut. Also lass uns weitermachen und das praktisch machen. Was wir zuerst tun müssen, bevor wir mit der Arbeit beginnen , ist , dass wir zwei Instanzen hier drüben zur Europäischen Kommission gehen und eine neue Instanz erstellen müssen . Wenn Sie also bereits eine Instanz erstellt haben, entfernen Sie sie einfach und nehmen Sie die Clunch-Instanz Jetzt werde ich die Instanz mit dem Namen AWS CLI verwenden , da wir CLI hier ausprobieren. Also eine Instanz, Sie können sie mit Amazon Linux erstellen, eine andere mit upANTF, wir werden eine Ubundu-Instanz erstellen Wählen Sie die Option aus, für die die kostenlose Version aktiviert ist, und Sie sollten sehen können, dass sie sich für die 64-Bit-X86-Architektur entscheidet Und dann T zwei Micro, das reicht uns. Und was Kepare angeht, werde ich die bestehende Tastatur hier benutzen Wenn Sie noch keine Tastatur haben , ist es an der Zeit, sie tatsächlich zu erstellen. Ich würde Ihnen empfehlen, daraus eine PPK-Datei zu erstellen Klicken Sie auf Erstellen und dann hier auf den angegebenen Namen Sie können diese Datei wiederholen und speichern Wählen Sie hier PPK aus , da wir Put as In über das mobile System verwenden werden Put as In über das mobile System Stellen Sie also sicher, dass Sie PPK angeben , denn wenn Sie die Sitzung hier bearbeiten, richtig? Ich habe hier auch PPK gegeben. Du kannst das PPK sehen. Das ist also im Grunde genommen Putty für uns, um es aus dem Mobilfunk-Begriff zu verbinden Sie verwenden also PPK und klicken dann auf Paar erstellen. Sobald Sie also ein Paar erstellt haben, wird es in Ihre Download-Leiste heruntergeladen , sodass Sie es tatsächlich bereitstellen können , wenn Sie eine Verbindung zur Instanz späteren Zeitpunkt können Sie es mit Mobile Exterm herunterladen Es ist viel einfacher und Sie haben auch die unbezahlte Version. Dies ist also eine Testversion oder eine kostenlose Version oder Testversion, in der Sie sie für inoffizielle Zwecke verwenden können, und Sie können die Netzwerkänderungen, LOS, von überall aus verfolgen. Stellen Sie also sicher, dass dies aktiviert ist Sie müssen nichts anderes aktivieren. Und dann hast du das EGB konfiguriert und klickst dann auf Launch Instance Das sollte ungefähr ein paar Minuten dauern und das sollte den, Sie wissen schon, Amazon-Computer regeln Sie wissen schon, Amazon-Computer Es tut mir leid, Sie öffnen Do-Maschine für Ihre AW-CLI und dann können Sie hier eine weitere Instanz starten oder Sie können warten, bis das vorbei ist, und dann das neu erstellen oder wie Sie möchten, ich werde es auf einmal erledigen. Aw CLI, Amazon Dinux, also denken Sie daran, dass Sie nur eine Instanz kostenlos haben können, also machen Sie das eine mir also nichts aus, wenn es für mich etwas kostet, also mache ich es trotzdem Ich entscheide mich hier für Amazon Linux, da der Name auch impliziert , dass es sich um Amazon Linux handelt. Ich wähle dieselbe Instanz aus. gebe die Informationen über meine Tastatur an, die ich standardmäßig verwende Und dann gebe ich hier Informationen über SSA, ohne irgendwelche Informationen zu ändern. Dies wird die Standardinformation bei der Startinstanz sein Dadurch wird eine AMI-Maschine gestartet. Amazon-Maschinen-Image, sodass auch das Amazon-Betriebssystem verwendet wird . Ein Teil davon. Ihr habt zwei Instanzen eine ein arabisches CI für euch ist, es wird nur eine Instanz sein. Sie können das später machen. Die einzige Änderung zwischen diesen beiden ist das Betriebssystem. Und wenn Sie das Betriebssystem ändern, denken Sie daran, dass sich auch der Benutzername ändert. Für Ubundu wird es U Bundu als Benutzername sein. Für Amazon Machine Image wird es für Iphen-Benutzer einfach sein Das wird der Benutzername sein. Du kannst das auch überprüfen , wenn du dieses Erstellungsprozesses etwas erstellst. Ich weiß es, deshalb habe ich es nicht überprüft. Sie können es auch überprüfen, indem Sie mit der rechten Maustaste auf Verbinden klicken, und Sie können den Benutzernamen tatsächlich hier sehen. Das ist eine andere Möglichkeit , es zu überprüfen. Also, ähm, bis jetzt haben wir den Artikel fertiggestellt. Habe ich es geschlossen? Ich glaube, ich habe es geschlossen. tut mir leid. Ja, das tut mir leid. Ja, ich glaube, ich habe es geschlossen. Nun, da Sie den ersten Abschnitt abgeschlossen haben, haben wir die Instanzerstellung hier auf der CLI abgeschlossen . Bei der nächsten Methode werden wir mit MobikStem darauf zugreifen , werden wir mit MobikStem darauf zugreifen diese beiden Dienste verwenden Mobitem und dann werden wir AWCLI darauf installieren Nochmals vielen Dank, dass Sie sich das Ich werde es beim nächsten sehen 52. Labs Linux CLI-Installation Offline-Methode: Hallo Leute, willkommen zurück zum nächsten Video in diesem Video. Wir werden die verschiedenen Methoden zum Herunterladen und Installieren des Pakets sehen Herunterladen und Installieren des Pakets Sie wird auch als Offline-Methode bezeichnet. Sie haben also beispielsweise Server in einer Infrastruktur, auf die das Internet nicht zugreifen kann . Wie würden Sie Nap zur Installation verwenden? Nun, das kannst du eigentlich nicht. Sie werden diese Datei also tatsächlich herunterladen, versenden und dann über Befehlszeilenmethode installieren. Dies ist im Grunde ein internetfreies Programm, bei dem Sie Internet auf Ihrem Jump-Server haben werden. Oder bei dem Sie diesen Vorgang auf einem Jump-Server durchführen und wenn Sie den Vorgang abgeschlossen haben, verschieben Sie dieses Paket auf den eigentlichen Server und installieren es dann. Jetzt kopiere ich einfach diesen Befehl. Zuvor werden Sie, glaube ich, die Version 218 von AWS CLI installieren . Mal sehen, welche Version diese installiert wird. Das ist ein Curl-Befehl. Standardmäßig verfügt jedes Betriebssystem über den Befehl curl Befehl Curl besagt, dass die Ausgabedatei einen benutzerdefinierten Dateinamen haben sollte. Sie werden sehen, dass die Datei heruntergeladen wird Jetzt verwende ich den Befehl unzip. Okay. Ein Zip ist nicht da. Also ich kann mit Snap selbst installieren, Snap Unzip installieren. Also okay, es ist nicht in der Lage, es zu bekommen Lass mich APK ausprobieren. Also sollte der APT es herunterladen. Entschuldigung, wenn ich vorher APK gesagt habe, meinte ich APT. Also versuchen wir es einfach mit sudo APT, Install. Es tut mir leid. Installiere nz Es wird also das Paket von NZP heruntergeladen. Lassen Sie uns jetzt einfach diese NZP-Datei verwenden, um diese Picular-Datei zu entpacken Das System ist etwas verzögert, wissen Sie, aufgrund der geringeren Menge an Konfiguration, die wir im System haben, also ist es Das Netzwerk ist auch in Ordnung , schätze ich. Ich kann sehen, dass es gerade diese bestimmte Datei entpackt. Nun, diese Datei können Sie im Grunde auf einem System entpacken und Sie können sie als Tarball erstellen Sie können einfach Star Iphone CV von verwenden und dann den Tarball so erstellen Und dann sollte das zu jedem Ihrer Systeme passen. Möglicherweise haben Sie eine Frage, wenn ich dieses Paket nicht installieren oder herunterladen kann installieren oder herunterladen , wie ich es dann versenden soll. Jetzt hast du einen Tarball. Jetzt können Sie es an mehrere Systeme senden und dann, ähm, das installieren Schau dir hier eine Dateigröße an. Es ist 223 MBT Star Ball. Sie können diese Teerkugel auch abschießen, wodurch sie noch weiter reduziert wird Es tut mir leid, Gs, der Tarpl, es noch weiter reduzieren wird , sodass Sie es über zwei Systeme senden können , die kein Internet haben. Also, weil diese Jumpbox so konzipiert sein wird , dass sie eine Verbindung zu diesen Servern herstellt, richtig? Also kannst du das sehen. Es ist sogar weniger als die Zip-Datei selbst. Also, was ist der nächste Schritt? Im nächsten Schritt können Sie entweder auf den AWS-Ordner zugreifen und den Befehl Doslash install ausführen Nun, dieser Installationsbefehl, ich denke, Sie benötigen einen Root-Benutzer Also musst du Psudo und dann Dot Slash Install machen. Damit sollten Sie also alle AWS-Sachen finden. Und da dies lokal verwendet wird, können Sie die AWS-iPhone-Version eingeben. Okay, es heißt also, dass es kaputt gehen wird. KIEFER. Jetzt können Sie sehen, welches AWS Ihnen den vollständigen Pfad gibt, in dem AWS installiert ist Wenn Sie eine neueste Version davon wünschen, können Sie sie auch aktualisieren. Das ist etwas. Woher wissen Sie nun, an welcher Position oder an welchem Ort es installiert ist? Sie können den AWS-Befehl verwenden, Sie können den AWS-Befehl verwenden der Ihnen den Standort mitteilt. Wenn wir uns diesen Befehl ansehen, Sie aufgefordert, eine bestehende Installation zu aktualisieren. Sie haben eine ältere Version davon und haben diese Zip-Datei heruntergeladen Sie können lediglich diesen Befehl mit dem Speicherort ausführen. Jetzt können Sie sehen, dass es auf dem Benutzer Local Bend installiert ist. Sie haben diese Ausgabe erhalten, also verwenden Sie Local Bind, was natürlich der Standardspeicherort ist. Solange Sie Snap nicht verwenden erstellt SNAP wie Sie sehen, an einem anderen Ort. Es wird SNAP mit einem Schrägstrich versehen und dann werden all diese Dateien dort abgelegt Aber wenn Sie es während der normalen Installation verwenden, können Sie diesen Befehl tatsächlich verwenden Um Ihre Version Ihrer USB CLI zu aktualisieren. Es ist so, dass der aktuelle Standort derselbe ist. Wir müssen das Installationsverzeichnis überprüfen , ob dies dasselbe ist. Also lass uns die LS I und LTR machen. Ja, Sie können sehen, dass das Installationsverzeichnis existiert, oder? Also das ist so ziemlich das. Also können wir diesen Befehl ausführen. Wenn Sie eine neuere Version oder die neueste Version nach 29 haben, können Sie diesen Befehl ausführen. Und dieser Befehl funktioniert so, als ob Sie sich bereits im APs-Ordner befinden, richtig. Sie müssen das also nur entfernen. Also hinkt es einfach sehr hinterher. Also um zu installieren. Lot Slash installieren Jetzt können Sie sehen, dass es übersprungen wird, weil es dieselbe Version erkannt hat, die Sie aktualisieren möchten Diese Art von Upgrade können Sie auch durchführen, wenn Sie eine ältere Version installiert haben und planen , diese zu aktualisieren Im nächsten Video werden wir uns mit Amazon Linux befassen und es dort auf die neueste Version aktualisieren. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns im nächsten. 53. Labs Linux CLI-Installation mit Snap: Hey Leute, wir kommen zurück zum nächsten Video. In diesem Video werden wir sehen, wie man dieses spezielle Gerät nutzt und es mit MbiXtem verbindet Nun, das ist eines der Videos. Ich habe es noch nicht gemacht, also kannst du dieses mobile Extem installieren, das kostenlos ist Und dann können Sie tatsächlich Ordner wie diesen erstellen. Es tut mir leid, Ordner wie dieser neue Ordner und dann die AWS-CLI auswählen. Das ist der Ordnername, und darin können Sie tatsächlich auf Ihre Sitzung klicken. Dann können Sie tatsächlich zu Ihrer AWS-CLI gehen und das öffentliche IPR von dort kopieren, es hier ablegen, den Benutzernamen vom Connector nehmen, mit der rechten Maustaste klicken und eine Verbindung herstellen und den Benutzernamen hier drüben Sie können also einen Benutzernamen angeben und dann diesen Benutzernamen hier eingeben und dann AWS CLI Open als Spitznamen dafür angeben auch AWS CLI Open als Spitznamen dafür angeben , damit er verschwindet. Er wird hier angezeigt. Und vergessen Sie dann nicht, Good Advance zu geben und dann Private K zu verwenden und den Ordnerdateinamen hier anzugeben. Für mich habe ich als Teil davon schon einen Dateinamen hier. Ich werde diesen Ort einfach für mich kopieren. Ich kann nicht kopieren. Lassen Sie mich es einfach bearbeiten und dann durchsuchen. Klicken Sie einfach hier und Sie können den Standort durchsuchen und dann den Standort lokalisieren Ordnung. Ich habe den Standort genau bestimmt, wie Sie hier sehen können Das sollte mir reichen Also klicken Sie auf Okay. Und dann doppelklicken Sie einfach darauf. Ich werde Sie fragen, ob Sie die Authentifizierung akzeptieren möchten . Ähm, okay, das ist komisch. Ich sage, ich unterstütze kein Authentifizierungsformular. Lass uns das einfach noch einmal versuchen. Scheint, als ob es diesen Ort nicht eingenommen hat, also versuchen wir es einfach noch einmal. Okay, es heißt also, dass Sie die maximale Anzahl von Speicherabschnitten erreicht haben . Okay, ich hab's. Ich muss ein paar Sessions hier drüben erzählen , weil ich in der Testversion bin, richtig, damit ich hier mehr Sessions speichern kann. Lass uns das gleich anklicken. Also wird es dir hier eine Frage stellen. Akzeptierst du, akzeptierst du, den Treuhänder zu teilen und so Also musst du nur ja sagen und dann solltest du in der Lage sein, dich darauf einzulassen Jetzt bin ich im U Bundu-Betriebssystem, wie Sie hier sehen können, und der AWS-Befehl funktioniert, Sie wissen schon, nicht Es gibt also mehrere Möglichkeiten, die AWS DS-Version zu installieren, und Sie können sehen, dass die App AW CLI installiert, Sie haben SNAP installiert AW CLI Dies ist also eines der unterstützten Elemente hier, wie wir in diesem Dokument besprochen haben. Wenn Sie also auf die Installation mehrerer Methoden klicken , müssen Sie sie herunterladen und installieren, und das ist diese. Sie haben ARM für ARM Linux, wie Sie es installieren möchten. Sie haben hier nur ein anderes Architekturpaket und Sie haben das Snap-Paket. Für Snap müssen Sie also nur diesen Befehl verwenden. Sie installieren also einfach AWS CLI und installieren das dann. Also, wenn du einfach das, ähm, Pudo Sudo siehst , schätze ich Also werden wir einfach Sudo eingeben. Installieren Sie einfach AWS CLI Classic. Jetzt wird dieses Paket heruntergeladen und es wird nicht nur dieses Paket, sondern auch seine Abhängigkeit installiert . Hier sehen Sie die AWS iPhone iPhone-Version. Jetzt sollte das mit AWS CLI, 218, erscheinen. Wenn ich AWS eintippe, sehen Sie jetzt denselben Hilfebefehl , den wir zuvor gesehen haben. Dies ist eine der einfachen Methoden zur Installation. Wenn Sie also auch die andere Methode zur Installation verwenden möchten, werde ich es Ihnen im nächsten Video zeigen. Um das zu entfernen, denke ich, sollte der Befehl remove hier entfernt werden, das sollte das Paket entfernen. Okay, Sie können sehen, dass das jetzt entfernt ist. Wenn ich Typen eintippe, ich habe eine iPhone-Version, kann man sehen, dass BDS nicht gefunden Also ziemlich einfache Methode der Installation mit Snap. Im nächsten Video zeige ich Ihnen die andere Installationsmethode, da Snap manchmal nicht Teil Ihres Betriebssystems ist. Wenn du zum Beispiel zu Sentos oder einem anderen Betriebssystem wechselst, wirst du Snap nicht haben, dann wird es für dich zu einer Komplikation Also werde ich dir die andere Methode zeigen , die hauptsächlich von großen Leuten benutzt wird, also sehe ich dich im nächsten Video 54. Labs Windows CLI-Installation: Hallo Leute. Willkommen zurück zum nächsten Video. Und in diesem Video werden wir die Windows-CLI installieren. Wenn Sie also einfach darauf klicken, sollte Ihre Windows-CLI auf Ihr System heruntergeladen werden. Wenn Sie auf das macOS klicken, wird es heruntergeladen Ebenso werden wir zuerst die Windows-Installation abschließen. Damit Sie die Windows-Installation kennen, finden Sie sie hier. Wir gehen einfach zu den Optionen, Sie werden hier einen Download finden, der hätte sein sollen. Wie Sie hier sehen können, habe ich es bereits mehrmals heruntergeladen , wie Sie sehen können. Ich werde diese Datei öffnen. Nun, das kommt mit den Informationen was Sie einrichten werden. Das ist also eine Version zwei Ihrer AWS-Befehlszeilenschnittstelle. Also klicken Sie einfach auf Weiter. Stimmen Sie den Allgemeinen Geschäftsbedingungen hier zu. Klicken Sie einfach erneut auf Weiter, nachdem Sie zugestimmt haben. Hier wählt es den Pfad aus, in dem Ihre CLI-Version zwei installiert werden soll Ihre CLI-Version zwei installiert Klicken Sie auf Weiter. Und dann klicken Sie auf und installieren. Nun, das Mac-Betriebssystem ist genau das Gleiche. Ich habe kein Mac-Betriebssystem. Wenn Sie also das Mac-Betriebssystem herunterladen, öffnen Sie es, damit es Ihnen genau die gleichen Schritte anzeigt oder zeigt , die wir gerade befolgt haben. Jetzt müssen wir das nur noch installieren und dann müssen wir nur noch auf Fertig stellen klicken, sobald die Installation abgeschlossen ist. Was jetzt passiert, ist so , als ob es mit unserer Befehlszeile erstellt wird, also wird es als Teil unserer Windows-Befehlszeile verwendet . Ich warte nur darauf, dass das Produkt installiert ist. Okay, jetzt, wo die Installation abgeschlossen ist, klicken Sie auf die Schaltfläche Fertig stellen. Öffnen Sie jetzt ein Befehlszeilenfenster, damit ich zu meiner Ausführungsaufforderung gehe. Ich gebe CMD an meiner Eingabeaufforderung ein und klicke dann auf Okay Also gehe ich zu einem anderen Doppelpunkt hier drüben. Eine weitere Eingabeaufforderung ist geöffnet. Jetzt können Sie sehen, dass dies nur eine normale Eingabeaufforderung ist. Sie können dasselbe auch für Macos tun. Öffnen Sie Ihre Eingabeaufforderung und geben Sie AWS ein. Wenn Sie zuvor AWS eingegeben hätten, hieß es, der Befehl wurde nicht gefunden. Diesmal können Sie jedoch nach der Installation der CLI feststellen, dass dieser spezielle Befehl funktioniert. Also AWS-Hilfe, und alle verfügbaren Hilfethemen finden Sie hier. Sie geben hier einfach eine Leertaste ein, damit alle verfügbaren Optionen hier angezeigt werden. können sehen, was Sie von der Konsole aus tun können. Sie können es auch von der AWS aus tun. Es tut mir leid, AWS CLI auch. Ebenso haben Sie hier alle Befehle , die Sie verwenden können. Das sind also die Gegenstände. Im Grunde sind dies die Dienste, die von AWS angeboten werden, und dies sind die verschiedenen Arten, auf sie zuzugreifen. Wir werden uns zu einem späteren Zeitpunkt genauer damit befassen, sodass wir in einer separaten Sitzung darüber sprechen werden , wie Sie in Zukunft mit Ihren AW-Services arbeiten können. Ich werde euch ein paar Informationen zu SS 3 geben, sowie auch zur einfachen Instanzensteuerung. Also werde ich dir das einfach beibringen. Nur um Ihnen den Einstieg in AW CLI zu erleichtern, damit Sie es bei der nächsten Schulung oder der nächsten Zertifizierung nicht schwierig finden. Das ist also so ziemlich das, was ich in diesem Video behandeln möchte. Nochmals vielen Dank für Ihre Zeit und Geduld. Wir sehen uns im nächsten Video. 55. Laborverfügbarkeitszonen: wir nun verstanden haben, was eine Region ist, wollen wir verstehen, welche T-Zonen verfügbar sind. Verfügbare T-Zonen sind im Grunde genommen Rechenzentren, die verfügbar sind. Nun, innerhalb einer Region Ihnen möglicherweise mindestens zwei T-Zonen zur Verfügung , oder es gibt derzeit möglicherweise maximal sechs verfügbare T-Zonen in der Region USA Ost, eine Region, nämlich Northland Virginia In dieser Region sehen Sie also sechs AZ, was bedeutet, dass es sich um sechs Theta-Zentren handelt Diesen sechs Theta-Centern wird nun ein Subnetz zugewiesen, das jeweils einen Subnetznamen klassifiziert, der jeder Availability Zone zugewiesen ist Was ein Subnetz-Subnetz ist, ist eine Gruppe von IP-Adressen, die den Diensten zugewiesen werden können, die Sie in jeder dieser Verfügbarkeitszonen hosten Nun, das ist unter VPC konfiguriert, okay, Virtual VPC nimmt also viele Subnetze auf, die jeder Availability Zone zugeordnet sind, und diese werden als Teil aller Dienste konfiguriert , die Sie konfigurieren werden Wenn Sie also eine EC-2-Instance konfigurieren, konfigurieren Sie tatsächlich, ähm, Sie werden tatsächlich das sein, was Sie gemäß der EC-2-Instance konfigurieren würden , Sie konfigurieren ein sogenanntes Subnetz Ebenso werden Sie, es tut mir leid, Sie werden VPC als Teil Ihrer EC Two-Instance konfigurieren als Teil Ihrer EC Two-Instance In diesem Szenario ordnen Sie Ihre virtuelle private Cloud zu, die über ein Subnetz verfügt, und jedes Subnetz hat jede der Verfügbarkeitszonen, und dann erstellen Sie einen Dienst diese bestimmte Wir haben diesen Prozess auch gesehen. Ich zeige Ihnen diesen Prozess nur noch einmal. Wie wir hier im vorherigen Video Regionen gesehen haben , hat jede Region eine Verfügbarkeitszone. Nehmen wir zum Beispiel diese spezielle Region Nord-Virginia, die 2006 gegründet wurde. Dies ist der erste. Wenn Sie sich das ansehen, ist Irland das zweite Land, das 2007 andauerte. Wie Sie hier sehen können, haben Sie hier die sechs Verfügbarkeitszonen. Wir werden etwas später über lokale Zonen und Wellenlängen sprechen . Bei Availability Zones handelt es sich jedoch im Grunde um ein Rechenzentrum. Wie viele Rechenzentren gibt es also? Es gibt sechs Rechenzentren. Wenn Sie die Ansicht hier auflisten möchten, werden Ihnen tatsächlich die Regionen mit Verfügbarkeitszone angezeigt, sodass Sie die Anzahl der Regionen hier sehen können. Es gibt neuerdings Osaka, Japan, tut mir leid, Tokio, Japan, wo es vier gibt COL hat hier vier als Verfügbarkeitszone hier drüben. Jetzt können Sie den Gesamtwert sehen. Es hat also 41 Verfügbarkeitszonen, 13 Regionen. Das ist also die Region Asien-Pazifik und China. Hier haben Sie also die regionale Klassifizierung und wo sie bald erscheinen wird. Okay, es gibt Ihnen also einen vollständigen Überblick über alles, was Sie haben. Und das ist dann Region für Region, weißt du, Klassifizierung hier drüben. Also das ist so ziemlich viel. Lassen Sie uns also verstehen, was eine Verfügbarkeitszone ist. Verfügbarkeitszone, wie gesagt, Sie, es gibt insgesamt 108 Verfügbarkeitszonen mit 34 Regionen. Okay? Jetzt gibt es 34 Regionen mit jeweils mehreren Verfügbarkeitszonen. Sie haben insgesamt 108 Verfügbarkeitszonen , die für Sie verfügbar sind. Das sind also nichts anderes als Ihre Rechenzentren. Kann ich jetzt den Standort dieser Rechenzentren erfahren? Nun, das können Sie nicht, weil die Availability Zone etwas ist, was AWS selbst verwaltet. Sie werden nur die Hauptadresse eines bestimmten Standorts oder einer bestimmten Region kennenlernen . Abgesehen davon wirst du es nicht wissen. Aber wie können Sie sonst etwas mehr Details darüber erfahren? Wenn wir zu Virtual Private Cloud wechseln, enthält Ihre Standard-VPC die Details Wenn Sie also auf Ihre Standard-VPC klicken, werden die damit verbundenen Subnetze angezeigt Wenn Sie ein Subnetz konfigurieren, sehen Sie im Grunde all diese, Sie wissen schon, verfügbaren Elemente hier in Bezug auf Wenn Sie also zu subnutl gehen, um ein Subnetz zu erstellen, wählen Sie eine VPC Jetzt haben Sie die Möglichkeit, die Availability Zone auszuwählen Jetzt können Sie also sehen , dass dies die verfügbaren Ilt-Zonen sind , die in dieser speziellen VPC verfügbar Diese VPC gehört also zu Nord-Virginia. Also, wenn ich sage, dass ich nach der Region Mumbai suchen möchte, dann klicke ich mit der mittleren Maustaste auf die Region Mumbai Jetzt habe ich hier in der Region Mumbai eine VPC geöffnet. Ja, Sie können tatsächlich mehrere Tabs mit unterschiedlicher Regionskonfiguration öffnen mehrere Tabs mit unterschiedlicher Regionskonfiguration Für einen Latenztest habe ich, wissen Sie, VPCs hier in der Region Mumbai erstellt , um den Latenztest zu überprüfen , auf den wir zu einem späteren Zeitpunkt noch eingehen werden Wenn Sie sich also in der VPC der Region Mumbai befinden, werden Sie feststellen, dass Sie dort eine VPC haben, die standardmäßig konfiguriert ist Dies ist die Standard-VPC. Wenn Sie das Subnetz hier konfigurieren, konkretes Subnetz angeben und zehn auswählen, leider die Standard-VPC, oder wenn Sie eine neue VPC erstellen und ihr ein Subnetz zuweisen möchten, auch hier wieder, wenn Sie zu einer Variablitätszone kommen, sehen Sie die Availability Zone, die als Teil dieser speziellen Region verfügbar ist, nämlich der dieser Die Region Mumbai hat drei Verfügbarkeitszonen. Das Gleiche. Falls ich Oregon abhole, tut mir leid. Also, wenn ich ein Subnetz erstellen wähle, lass uns ein Subnetz erstellen hier drüben zeigt eine Jetzt sehen Sie die Avabit-Zone, das sind vier Verfügbarkeitszonen in der Region Oregon Hier erfahren Sie nun, wie viele Rechenzentren Ihnen zur Verfügung stehen Äh, an diesem Ort, in dieser speziellen Region. So erfährst du also, wie viele Availability Zones es gibt und wie man sie benutzt, okay? Im Moment wissen Sie also nichts über das Netzwerk oder Ihr Subnetz oder so, also machen Sie sich darüber keine Gedanken Aber ich gebe Ihnen nur, wie Sie sich die verschiedenen verfügbaren Artikel ansehen die verschiedenen verfügbaren Artikel Normalerweise wird es als A, zwei B, zwei C, D usw. erwähnt . Das Gleiche gilt auch hier für die Architektur. Sie werden sehen, dass die Availability Zone denselben Namen wie die Region , außer dass direkt daneben ein Zeichen hinzugefügt ABCDE, EF heißt Hier gibt es sechs Availability Zones, also es beginnt einfach bei A und dann BCD E F, also geht es weiter bis F. Ebenso sind die Availability Zones benannt Wenn ich mir also diese spezielle Zone ansehe, also diese verfügbare Zone, ähm, der Name der Region ist Sie wird also USS Two A, BCD genannt, weil sie vier Availability Zones hat. In Ordnung. Also das solltest du aus diesem Video verstehen, und das soll sicherstellen, dass du verstehst, was eine Verfügbarkeitszone mit ihrer Handzone ist. Denken Sie also daran, sich das nächste Video anzusehen , das Ihnen etwas mehr Details zur Verfügbarkeitszone gibt. Nochmals vielen Dank. Wir sehen uns beim nächsten. 56. Labs Cloud Front – Website einrichten: Hey, Leute. Willkommen zurück zum nächsten Video. Und in diesem Video werden wir praxisnah über CloudFront sprechen Hier werden wir also eine Website auf Cloudfront erstellen und sie im Cache durchsuchen Das ist also eine ziemlich einfache, praktische Erfahrung in Bezug auf CloudFront, und es ist so einfach, dass wir eine einzige Datei erstellen müssen Jetzt habe ich mich in die EC-Two-Sion eingeloggt , die ich zuvor erstellt habe Also ich bin mir ziemlich sicher, dass du das hast , dass ich dich nicht gebeten habe, es zu löschen, also musst du das hier drüben laufen lassen. Das heißt also AW CLI Ion Machine. Ich verwende dasselbe , das ich für CLI erstellt habe. Jetzt werde ich hier eine Datei namens Index Door GMO erstellen hier eine Datei namens Index Door GMO Nun, das wird meine Indexseite von GMO sein, also werde ich hier ein H-Tag geben. Ich werde dieses H-One-Tag schließen und hier habe ich den Inhalt Das ist meine Website von Pocket. Also werde ich diese Art von HGMO-Seite hier erstellen. Ich werde hier ein HGMO-Tag verwenden. Nur um darauf hinzuweisen, dass es sich um eine HGMO-Seite handelt. Ich werde auch dieses GMO schließen, und das wird der Inhalt hier sein. Das sind im Grunde hervorgehobene Inhalte hier drüben, wo es heißt, das ist meine Website von S Three Bucket Speichern Sie jetzt beim Beenden dieser Datei . Diese Datei sollte eigentlich so aussehen. Sobald Sie diese Datei haben, können Sie sie auf S drei hochladen. Stellen Sie einfach sicher, dass Sie immer noch mit AWS verbunden sind , denn Sie haben sowieso eine Verbindung hergestellt, schätze ich. Sehen wir uns S3s S wenn Sie es verbinden, ja, Sie sind verbunden. Jetzt erstellen wir zunächst einen Bucket oder verwenden nur diesen Test-Bucket. Mein Beispiel, S Three Bucket selbst, werden wir als Namen für unsere Website verwenden, und dann werde ich diesen Inhalt dorthin übertragen, S Three Copy, Index oder SMO Zu diesem S drei Buckets. Ich gebe S einfach einen Schrägstrich mit drei Doppelpunkten kopiere es in diesen Bucket Es tut mir leid, ich sollte CP sein. Ich sollte es kopieren lassen. Jetzt sollte ich das in meinem ST-Bucket haben, ich werde das als Lesezeichen speichern, weil wir es so oft benutzt haben Also hier hat mein Beispiel-Bucket den Index zur HMO-Datei. Sie können die Datei hier nicht wirklich lesen, weil S 3 ein Ort ist, an den Sie die Datei kopieren und speichern können, aber es gibt keine Möglichkeit, den Inhalt der Datei zu lesen , weil eine Datei alles Mögliche sein kann, also erlaubt ST Ihnen das nicht Nun, da Sie die Datei von Ihrem Linux-System in den S-3-Bucket kopiert haben , sollten wir damit einverstanden sein, daraus eine Website zu erstellen. Da wir nun über eine Website auf diesen ST-Bucket zugreifen werden , müssen wir diesen ST-Bucket Berechtigungen akzeptiert, damit er vom Internet aus durchsucht werden kann Standardmäßig wird ein ST-Bucket so erstellt, dass alle öffentlichen IP-Adressen blockiert werden, ähm, also müssen wir das deaktivieren , damit Cloud Friend den Inhalt von, äh, diesem STR-Bucket der Öffentlichkeit zugänglich machen Um das zu tun, können Sie hier auf Erlaubnis klicken. Und innerhalb dieser Erlaubnis sehen Sie die Einstellung „Bucket für öffentlichen Zugriff blockieren“. Es ist also derzeit aktiviert. Das heißt, es blockiert tatsächlich den gesamten öffentlichen Zugriff auf diesen Bucket. Klicken Sie also hier auf Bearbeiten und deaktivieren Sie dies und Sie können auf die Schaltfläche Speichern klicken. Also ist es konform und dann klicken Sie auf Enta Ich glaube, ich habe die Schreibweise Klicken Sie auf Bestätigen und damit sollten Sie Internet auf Ihren Bucket zugreifen Ihr CloudFront kann diese Informationen verwenden und wir können diese spezielle Datei über das Internet projizieren spezielle Datei über das Internet projizieren Gehen wir jetzt zu CloudFront hier drüben. Lassen Sie uns das alles schließen und dann CloudFront öffnen . Jetzt ist CloudFront Jetzt können Sie auf Cloud klicken und eine Cloud-Distribution erstellen. Wenn Sie jetzt auf CloudFront-Verteilung klicken, können Sie den Ursprung Ihrer Website auswählen Es kann also von beliebigen Aktionselement hier sein, es kann von einem Load Balancer stammen, wenn Sie Ihre Anwendung auf einen EC Two verweisen Load Balancer zeigt auf Ihre Anwendung auf EC Two und EC Two zeigt auf Ihre Anwendung , die darauf läuft Aber in dieser Situation werden wir es von S Three Bucket aus verwenden Also das ist der eine und von hier, dem ursprünglichen Pfad hier drüben, können wir das eigentlich ignorieren. Im Moment müssen wir hier keinen Quellpfad angeben. Wenn Sie hier drüben einen Namen haben , der, Sie wissen schon, etwas ist , das Sie als Webseitennamen verwenden können, und das ist der Name, den Sie hier eingeben können. Es gibt bestimmte Aspekte, die Sie nicht ändern können. Das wird zum Beispiel ein Cloud-Freundesname sein, sodass du so ziemlich alles haben kannst, was du willst. Aber dein Domainname wäre hier in etwa so. Der Origin-Pfad ist im Grunde genommen wenn Sie danach einen bestimmten Pfad angeben möchten, R, wir brauchen ihn momentan nicht. Also gehen wir einfach mit der Öffentlichkeit. Also öffentlich, was bedeutet, dass jeder darauf zugreifen kann. Wenn Sie einen individuellen Kopf oder eine Information haben, können Sie sie hier angeben. Also das wird jetzt zu Origin Shield passen. Origin Shield fügt eine zusätzliche Caching-Ebene hinzu, die dazu beiträgt, die Belastung des Origins zu reduzieren und gleichzeitig dessen Verfügbarkeit zu schützen Und jetzt haben wir hier das Cache-Verhalten, also das ist die Cache-Einstellung hier. Viewer-Protokoll ist HTTP und HTTPS oder leitet HTTP zu HTTPS um. Ich würde das wählen. Wenn jemand auf die HTTP-Website zugreift, wird Ihnen die HGTV-Website separat angezeigt, und dasselbe Steuerelement wird auch auf der HTTPS-Website angezeigt Es wird jedoch immer dringend empfohlen , nur über HTTPS zu surfen Wenn Sie hier jedoch nur HTTPS auswählen, die Personen, die versuchen HTTP für Ihre URL zu verwenden, nicht darauf zugreifen Es gibt also immer eine Weiterleitung von HGTP zu HGTPS . Erlaubt die Methode Das heißt also, deine Anfrage oder deine oder, du weißt schon, Informationen über den Informationskopf hier drüben zu bekommen du weißt schon, Informationen über den Informationskopf hier drüben Nun, es ist nicht empfehlenswert all diese Informationen zur Verfügung zu haben, da durch die Veröffentlichung von Informationen Informationen auch an Ihren Dienst weitergeleitet werden können. Das ist nicht eingeschränkt. Ansicht mit eingeschränktem Zugriff. Dies ist im Grunde für Ihre Cookie-Einstellungen, und dann haben Sie hier auch einige Cookie-Einstellungen, die Optimierung der Cache-Richtlinien Wir werden die Standardeinstellung verwenden , die für ST empfohlen wird . Wir werden auch hier die Standardeinstellungen haben. Jetzt hast du hier so viele Einstellungen. Also hier hast du den vA-Schutz. Also aktivieren wir hier den VAF-Schutz für jede Art von Angriff auf unsere Website Und dann nutzen Sie hier in der Umgebung den gesamten Edge-Standort, beste Leistung, verwenden Sie Nordamerika und Europa Das bedeutet also, dass Ihre Informationen priorisiert werden. Auf dieser Grundlage wäre die Preisgestaltung also davon abhängig. Wenn wir uns für alle Edge-Standorte entscheiden unabhängig vom Standort, wird jeder Edge-Standort das übernehmen. Wenn Sie also auf die Preisinformationen klicken, CloudFormation, tut mir leid, CloudFront-Preise Nun, Sie werden sehen, dass es hier eine kostenlose ID gibt , ein TB an Daten, die pro Monat aus dem Internet übertragen werden , ist kostenlos oder 10.000 HTTP- oder HTTPS-Anfragen pro Monat oder zwei, ich glaube, es sind 2 Millionen Cloudfront-Funktionen pro Monat abgerufen werden, und dann kostenloses SSL-Zertifikat, keine Einschränkungen, alle Wenn Sie die vollständige Preisgestaltung verstehen möchten, wenn Sie den endgültigen Wert überschreiten, können Sie hier sehen, wie die Cloud ab einem TB in den Ruhestand geht. Damit erhalten Sie bereits ein TB in den Ruhestand. Hier können Sie tatsächlich nach Preisen suchen, wie viel Datentransfer Sie erwarten möchten Es ist ein GB pro Monat, Datenübertragung, wieder ein GB pro Monat. Die Anzahl der Anfragen wird um sein, für ein GB Daten würde 5.000 Anfragen bedeuten, was in dieser Berechnung so ist, Sie werden sehen, wie viel Ihnen Rechnung gestellt wird, Ihnen wird berechnet. Die erste ist, dass es 0,09 USD sein wird . Es ist ziemlich billig und die monatlichen Gesamtkosten betragen etwa 0,12 USD Das ist so ziemlich deine Berechnung für die Vereinigten Staaten, aber dann kannst du sie tatsächlich, du weißt schon, auch für verschiedene Standorte überprüfen und die Berechnung für verschiedene Standorte hier finden . Sie haben hier auch ein Sicherheitssparpaket, dem Sie tatsächlich sparen können, indem Sie sich die häufig gestellten Fragen durchlesen. Sie können also bis zu 30 Prozent von, äh, Sie wissen schon, pro Monat in der Cloud sparen . Aber wie auch immer, wie wir den Basisartikel hier verwenden werden. Also hier die HTDV-Version. Wenn Sie also ein benutzerdefiniertes Zertifikat, ein SSL-Zertifikat, haben , können Sie es hier auswählen, aber wir werden das Standardzertifikat verwenden Hier ist die Protokollversion. Wir verwenden hier die Standardprotokolle und die Standard-Logs. Darin geht hier die Standardprotokolle und die Standard-Logs um die Viewer-Anfrage, es um die Viewer-Anfrage, wer sie sich ansieht, und Sie können sie einschalten was bedeutet, dass Sie sie hier auf einen Bucket legen können. Also werden wir es in den Test-Bucket hier drüben stellen. Ungültiger Bucket für die standardisierte Protokollierung aktiviert ACO. Ebenso benötigen Sie es jetzt nicht , weil es kompliziert wird. Klicken Sie auf Verteilung. Dadurch sollten Sie eine CloudFront-Verteilung erstellen der CloudFront-Distribution können Sie jetzt eine Website erstellen und diese hosten lassen Und Sie können hier tatsächlich sehen , dass sich das Gerät derzeit in der Bereitstellungsphase befindet. Da steht die Registerkarte Sicherheit. Ich, weißt du, es kreiert das, teile deine Meinung und bitte um Feedback. Lassen Sie uns hier weitermachen und sehen sich das im Bereitstellungsstadium entwickelt. Sie werden immer noch bereitgestellt, daher kann es einige Zeit dauern. Ich suche hier nur nach Ereignissen aller Art, für die Sie auch benutzerdefinierte Fehlerseiten hinzufügen können. Sie können hier Verhaltensweisen, Ursprünge und Sicherheit hinzufügen . Wenn es irgendwelche Sicherheitsrator-Warnmeldungen oder ähnliches gibt, können Sie das tatsächlich sehen Sie können die Metriken, Ihre Vertriebsmetriken auch hier überprüfen . Es gibt keine Daten, weil ich vermute, dass es hier immer noch passiert was die Verteilung der Bereitstellung angeht. Lassen Sie mich das Video pausieren und pausieren, sobald der Vorgang abgeschlossen ist. Also Leute, gerade erst angefangen, ihr könnt sehen, dass die Bereitstellung abgeschlossen ist und ihr seht das Datum der Bereitstellung , die abgeschlossen ist. Wenn Sie darauf klicken, werden Sie tatsächlich die Anforderungen hier sehen , ebenso wie in den Details der allgemeinen Details dieser speziellen Distribution. Sie können die Sicherheit sehen, Sie können den Ursprung sehen. Der Ursprung wird tatsächlich, die S, drei Bucket Details hier drüben haben die S, drei Bucket Details und das ist im Grunde dein Ursprung. Wenn Sie also diese Anwendung durchsuchen möchten, können Sie diese Distribution unter meinem Namen hier benutzen, aber sie ist immer noch die letzte Änderung, da sie gerade bereitgestellt wird. Wenn Sie also nur auf diese Website zugreifen, können Sie sehen, dass sie heute Abend mit Access verfügbar ist. Nun, das fasst ziemlich gut zusammen , dass es immer noch bereitgestellt wird, also werden wir noch etwas länger warten. Es sind also schon zehn bis 15 Minuten vergangen, also müssen wir vielleicht noch ein paar Minuten warten, und dann sollte es meiner Meinung nach bereitgestellt werden. Also denken Sie jetzt daran, dass Sie diesen speziellen Aktionspunkt bearbeiten können. Ich glaube, ich habe hier etwas falsch gemacht. Deshalb ging es zurück zur Bereitstellung, denn als wir das letzte Mal sahen, dass es hier tatsächlich die Zeitpläne vorgab, weiß ich nicht, was ich hier falsch gemacht habe, aber es ging wieder zur Bereitstellung über , geben Sie mir etwas Zeit, also lassen Sie es klären Denken Sie jetzt daran, dass Sie den Index Toga auch als Ihre Stammseite angeben können , um den Index m als Ihre Stammseite zu haben Hier in den Einstellungen hier drüben haben Sie das Standard-Stammdokument Hier können Sie weitermachen und es bearbeiten und diesen, ähm, Index hier in HTML einfügen und Sie können die Änderungen speichern Nun, vielleicht war das der Grund? Ich weiß es nicht. Wenn Sie hier einfach auf dieses Indexpunkt-HGML zugreifen, schauen wir mal. Du bekommst immer noch diesen Zugriff war eine Ausnahme. Gib mir nur eine Sekunde. Nun, dieser Fehler könnte bedeuten dass auf das S Drei nicht zugegriffen werden kann, Objekt S drei, das auf STMO indexiert ist, nicht Von dort kommt Access Dinit. Also, wie werden wir es reparieren? Zunächst werden wir S drei öffnen und versuchen, S drei zu durchsuchen und festzustellen ob der ST tatsächlich zugänglich ist, damit wir verstehen können, ob dies ein Problem mit Cloud Front oder ST selbst ist . Lassen Sie uns diese S3-Datei hier öffnen und Sie erhalten hier tatsächlich eine URL , mit der Sie diese Datei öffentlich durchsuchen können. Wir haben das aktiviert, wir haben es deaktiviert. Lassen Sie uns diesen aktualisieren. Wenn ich Control Refresh mache, können Sie sehen, dass wir hier dasselbe Ergebnis erhalten. Der vorherige kam aus dem Cache. Wenn Sie eine Kontrollaktualisierung durchführen, halten Sie die Strg-Taste gedrückt und drücken Sie die Taste F fünf Dadurch wird der Cache aktualisiert und Sie werden aufgefordert, die neuen Ergebnisse abzurufen. Sie erhalten diesen Zugriff auf Stufe S. 3. Damit Sie dieses Cloud-Front-Problem beheben können, scheint die Cloud-Front in Ordnung zu sein. Es stellt die Anwendung bereit, aber das Problem ist , dass diese Ausnahme von der dritten Seite kommt. Um diese Ausnahme zu beheben, können Sie zunächst die Berechtigungen Ihres Buckets verstehen . Etwas geschlossener. Was wir also getan haben, ist, wissen Sie, wir haben den Blog mit dem Namen Public Access deaktiviert, aber wir haben dem Access How-Bucket immer noch keinen öffentlichen Zugriff gewährt. Damit Sie hier rüber kommen können, haben wir eine Zugriffskontrollliste. Wenn Sie nun die Zugriffskontrollliste hier lesen, gewährt das dem Bucket-Besitzer im Grunde genommen Zugriff auf Lese- und Sorry-, Listen- und Schreibobjekte sowie Bucket-ACLs zum Lesen und Schreiben Bucket-ACLs, wissen Sie, etwas, das Sie als Besitzer tun können, das ist offensichtlich, dass Sie das nicht tun können Aber für den öffentlichen Zugriff können Sie sehen, dass das hier so gut wie nicht verfügbar ist. Nun, hier wird es kompliziert. Jetzt müssen wir das nur bearbeiten und den öffentlichen Zugriff aktivieren, aber das Problem ist, dass die Bearbeitung deaktiviert ist. Wenn Sie die Informationen sehen, diesen Bucket die Einstellung „ Bucket Owner erzwingt “ auf den Objekteigentum angewendet Im Grunde gilt dies also für die oberste Ebene. Wenn Sie also, wissen Sie, spezifische Anforderungen für diesen speziellen Bucket ändern möchten , müssen Sie den Objekteigentum hier ändern indem Sie auf Hier bearbeiten klicken und dort auf deaktivierte ACL ändern, um ACO zu aktivieren Sie müssen also bestätigen , dass Sie ACR für einen bestimmten Bucket aktivieren , und dann auf Änderungen speichern klicken Wenn Sie nun zu derselben Option kommen, sehen Sie hier die Schaltfläche Bearbeiten . Klicken Sie auf die Schaltfläche Bearbeiten. Jetzt haben Sie das Verhältnis von Objekt und Bucket. Für alle, die öffentlich zugänglich sind, können wir die Objekte auflisten, die sich im Bucket befinden, aber wir können nicht, dass Bucket Co nicht gelesen werden kann. Okay? Also können wir nur den Zugriff auf Objekte auflisten. Also klicken Sie einfach auf, ich verstehe. Speichern Sie die Änderungen. Aber das gilt nur für diejenigen die zu einem späteren Zeitpunkt erstellt werden, aber dieser ist schon da, also müssen wir vielleicht die Einstellung für sich selbst vornehmen . Guru-Erlaubnis hier drüben, und du hast den gleichen Satz von so ist, wann immer das erstellt wurde, es ist dieselbe Berechtigung zu diesem Zeitpunkt, klicke einfach hier auf Bearbeiten und lies weiter über Objekte auswählt, damit die Leute die Objekte lesen können , die sich in diesem öffentlichen Bucket befinden, und ich sage, verstehe, und dann speichere ich die Änderungen. Wenn Sie jetzt diese URL durchsuchen, schauen Sie, ob sie funktioniert. Jetzt können Sie sehen, dass dies genau derselbe Inhalt dieser bestimmten Datei Dieser Inhalt funktioniert also. Schließe das und aktualisiere es so ziemlich und du kannst sehen, dass dieser Inhalt jetzt aus S Three Bucket stammt. Jetzt wird dieser Inhalt im Grunde auf Ihrem Cloud-Freund gehostet. Sie können die CloudFront-URL sehen , von der ich sie hier aus dieser CloudFront-URO übernommen habe Dann habe ich sie hier rübergebracht Wenn ich jetzt versuche, das sind die Bucket-Informationen, S drei Bucket-Informationen Wenn Sie einfach HTDP hierher stellen, können Sie das sehen. Sie möchten diese Informationen deaktivieren, ganz einfach. Es gibt zwei Möglichkeiten für Sie. Sie können die Bucket-Informationen ändern indem Sie zu Bucket Permission gehen, und dann können Sie sie bearbeiten und Sie können sie entfernen und die Änderungen speichern. Nun, diese spezielle Information wird nicht kommen. Sie kommt immer noch. Das ist so ziemlich, weißt du, ich dachte, es würde den öffentlichen Zugang zum Objekt deaktivieren , aber ich denke trotzdem, es ist eine allgemeine Information Ihnen den Inhalt dessen zeigt, was es hat. Also das ist in Ordnung, denke ich. Also hier haben Sie die Information , dass es einen Index zur Datei gibt. Ich habe dir gesagt, dass es einen anderen Weg gibt, oder? Gehen Sie also hier in das Root-Objekt und bearbeiten Sie dieses Root-Objekt und sagen das Root-Objekt auf den Indexpunkt HGMO zeigen soll Das ist also auch eine andere Möglichkeit, dies zu deaktivieren. Aber ich denke, es wird diese Änderungen sofort implementieren. Warten wir also, bis die Änderungen implementiert sind. Es kann ein paar Minuten dauern. Oder um eingesetzt zu werden. Jetzt denke ich, dass die Bereitstellung abgeschlossen ist Ich glaube, es heißt Bereitstellung. Aber wenn Sie einfach die Website eingeben, können Sie sehen, dass Sie nicht den Zugriff haben, den Sie zuvor hatten , und Sie rufen direkt den Index ab, der die Frontdatei ist. Auf diese Weise können wir also verhindern, dass Informationen auf der Startseite Ihrer CloudFront-Website gedruckt werden der Startseite Ihrer CloudFront-Website Jetzt können Sie sehen, wie oft ich es aktualisiere. Ich erhalte diese Seite, ohne sie zu tippen. Wenn Sie also auch HTTP eingeben, ist das kein Problem, es wird zu HTPS umgeleitet und Sie erhalten den Index für GM-Inhalte Das liegt daran, dass ich gerade Index H GML als Standard-Root-Objekt aktiviert Index H GML als Standard-Root-Objekt In diesem Fall erhalte ich jedes Mal, wenn ich auf diese Website oder diesen bestimmten Domainnamen zugreife, auf diese Website oder diesen bestimmten Domainnamen zugreife, den Inhalt von Index H So können Sie es auf CloudFront hosten. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Es war nützlich für dich. Lassen Sie mich weitermachen und diese spezielle Cloud-Front löschen weil wir nicht wollen , dass sie läuft weil sie viele, Sie wissen schon, Gebühren von AWS übernehmen wird . Lassen Sie uns also weitermachen und das, was nicht bereitgestellt wurde, deaktivieren Und wenn es dann deaktiviert ist, haben Sie die Möglichkeit, diese spezielle, Sie wissen schon, Instanz zu löschen Also ich denke, es ist immer noch betriebsbereit, schätze ich. Ja. Ja, gib ihm einfach etwas Zeit und du wirst die Option haben, das zu löschen. Nochmals vielen Dank. Ist Sume das nächste Video. 57. Labors Beschreiben, wann mehrere Regionen verwendet werden sollen: Hallo Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir darüber sprechen , wann mehrere AWS-Regionen verwendet werden sollten. Dies ist eine der wichtigsten Fragen hier. Es geht darum , Sie zu fragen, wann Sie mehrere AWS-Regionen verwenden sollten. Hier werden wir uns also mit Disaster Recovery, Geschäftskontinuität, geringer Latenz für Endbenutzer und Datensouveränität befassen. Dies sind also einige der Punkte, mit denen wir uns Rahmen dieses speziellen Videos befassen werden. Denken Sie jetzt daran, dass ich wegen der geringen Latenz am Ende der Sitzung ein Video erstellt habe. Nun, ich beende den nächsten Aktionspunkt. Am Ende der Sitzung habe ich ein praktisches Video erstellt, in dem Sie die Latenz praktisch ausprobieren können die Latenz um ein bisschen mehr über Latenz zu erfahren. Das ist das einzige, was ich Ihnen in Bezug auf all diese Aktionspunkte zeigen kann all diese Aktionspunkte denn mehr oder weniger Disaster Recovery, Geschäftskontinuität und Datensouveränität hängen alles von Theorie ab und es gibt keine tatsächliche Möglichkeit, sie umzusetzen. Aber die niedrige Latenz kann ich Ihnen in der Praxis zeigen. Aber um diese Kursübersicht nicht zu stören, habe ich das Video am Ende dieses speziellen Abschnitts platziert Lassen Sie uns mit diesem Video fortfahren und wir werden es verstehen. Zunächst beginnen wir mit der Notfallwiederherstellung. Jetzt kann die Verwendung mehrerer AWS-Regionen erhebliche Vorteile bieten. Im vorherigen VDO haben wir über die Arbeit mit mehreren Availability Zones gesprochen, okay Availability Zones bieten Ihnen tatsächlich Stabilität gegenüber Ihrer Anwendung und bieten Ihnen eine Ihrer Anwendung und bieten Ihnen hohe Verfügbarkeit Ihrer Anwendung Aber was ist, wenn Sie mehr als das benötigen? Zum Beispiel, wenn Sie das Modell der globalen Infrastruktur sehen . Also im Moment sind wir hier drüben. Wir haben unsere Anwendung hier in Nord-Virginia bereitgestellt hier in Nord-Virginia Es tut mir leid, in Nord-Virginia haben wir unsere Anwendung bereitgestellt. So perfekt. Jetzt befinden sich meine Kunden also in Amerika, also im nördlichen Teil Amerikas, hauptsächlich an diesem Standort. Aber plötzlich erhalte ich eine Anfrage von mehreren Personen aus Indien. In dieser Situation muss ich jetzt einen Server an diesem Standort einrichten, muss ich jetzt einen Server an weil jedes Mal, wenn die Leute darauf zugreifen, sie hierher kommen und dann auf diese Region zugreifen müssen . Das bedeutet, Sie wissen schon, eine Menge Latenz hier drüben, wenn wir von Indien nach Amerika kommen , oder? Also, ich möchte es auf regionaler Basis meiner, äh, Sie wissen schon, Anwendung implementieren auf regionaler Basis meiner, äh, Sie wissen schon, , die ich hier hoste. Ich plane also einen Dienst, einen Loadbalancer, der tatsächlich, wissen Sie, den Service zwischen der amerikanischen Region und der indischen Region ausgleicht und meinen Dienst in der Region Mumbai hosten kann den Service zwischen der amerikanischen Region und der indischen Region ausgleicht und meinen Dienst in der Region Mumbai hosten Und die erste Frage ist, können wir das schaffen? Ja, das können wir. Damit kommen wir nun zu dem Thema Multiregion für AWS. Hier kann die Verwendung mehrerer AWS-Regionen erhebliche Vorteile in Bezug auf Verfügbarkeit, Leistung und Compliance bieten erhebliche Vorteile in Bezug auf . Im Folgenden sind einige der Szenarien aufgeführt, in denen Sie mit mehreren Regionen arbeiten können. Notfallwiederherstellung ist heute eines der wichtigsten Dinge, bei dem sichergestellt werden soll, dass Infrastruktur und Anwendung Ausfälle wie den Ausfall einer einzelnen Region schnell und zuverlässig beheben können Ausfälle wie den Ausfall einer einzelnen Region schnell und zuverlässig Dabei handelt es sich um ein regionales Versagen bei dem es sich um einen Cyberangriff handeln könnte , der in der arabischen Region stattgefunden hat. Das könnte sich also tatsächlich auf mehrere Regionen auswirken, tut mir leid, auf mehrere Verfügbarkeitszonen in einer Region Es handelt sich also um eine Strategie Infrastruktur über mehrere Regionen hinweg repliziert wird, , bei der die Infrastruktur über mehrere Regionen hinweg repliziert wird, sodass im Falle eines regionalen Ausfalls oder eines Angriffs auf eine bestimmte Region auf eine sekundäre Region umgestellt werden kann regionalen Ausfalls oder Angriffs auf eine bestimmte Region auf eine sekundäre Region Wenn ich dasselbe tun möchte, kann ich auch, wenn ich Kunden nur in den USA habe, meine Anwendung in Nord-Virginia hosten lassen, eine USE-Anwendung Nord-Virginia hosten lassen, verwenden und ich kann sie auch auf Ohio Espo hosten , nur um hier eine Redundanz zu haben , und ich kann die Instanzen einfach ausschalten bis hier eine Katastrophe passiert, dann kann ich zu den Instanzen wechseln. Denken Sie jetzt daran, dass Sie einige Dienste konfigurieren können, es gibt auch eine Option , das zu tun. nun die Geschäftskontinuität anbelangt, besteht das Ziel darin, den unterbrechungsfreien Geschäftsbetrieb bei Ausfällen oder Katastrophen aufrechtzuerhalten unterbrechungsfreien Geschäftsbetrieb bei und sicherzustellen, dass der Service weiterhin verfügbar bleibt Jetzt besteht die Strategie darin, die Region für die Replikation kritischer Infrastrukturen und Daten zu nutzen kritischer Infrastrukturen und Daten , sodass bei einem Ausfall einer Region der Betrieb problemlos von einer anderen Region aus fortgesetzt werden kann Nun die nächste wichtige Sache zur niedrigen Latenz für Endcer Das habe ich dir zu Beginn des Videos über niedrige Latenz erzählt Beginn des Videos über niedrige Latenz Der Zweck besteht nun darin, die Latenz zwischen dem Endbenutzer und Ihrer Anwendung sicherzustellen Latenz zwischen dem Endbenutzer , indem Sie die Ressourcen näher an Ihrem geografischen Standort bereitstellen . Verteilung der Anwendungen auf mehrere Regionen, wobei jeweils zwei wichtige Benutzergruppen zusammengeführt werden, um sicherzustellen, dass schnellere Reaktionszeiten und ein verbessertes Benutzererlebnis gewährleistet sind. Beim nächsten Thema geht es um Datensouveränität und Compliance. Hier sind Daten so wichtig wie die Einhaltung der lokalen Datenschutzgesetze und -vorschriften, die vorschreiben, dass sensible Daten innerhalb bestimmter geografischer Grenzen gespeichert werden müssen. Zum Beispiel, ähm, Daten, die sich auf Benutzerinformationen einer bestimmten Region beziehen, für ihren Namen und ihre ethnische Zugehörigkeit und, Sie wissen schon, ihre Sozialversicherungsnummer oder jegliche Art von Informationen, die Sie zu diesen Daten haben , müssen, Sie wissen schon, den regulatorischen Anforderungen in dieser bestimmten Region entsprechen , weil jede Region spezifische Anforderungen wie die DSGVO haben wird . Also genauso, äh, weißt du, musst du dich an diese Informationen halten. Das ist auch etwas , was Sie auf regionaler Ebene tun können . Wenn Sie also beispielsweise mit den VAE zusammenarbeiten, können Sie in dieser Region Ihr eigenes UA-Rechenzentrum haben, und in dieser Region werden alle UA-bezogenen Informationen nur in dieser Region gespeichert . Das ist also nur ein Beispiel. Das sind so ziemlich, ähm, die Gründe, warum oder welche Vorteile oder wann man bei der Arbeit mit AWS mehrere Regionen nutzen sollte. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns im nächsten. 58. Einführung in den Standort der Labs Edge: Hallo Leute, willkommen zurück zum nächsten Video. Lassen Sie uns über den Edge-Standort sprechen. Wie Sie in der Listenansicht sehen können, gibt es diese Edge-Standorte auf der ganzen Welt. Was sind Edge-Standorte und warum gibt es so viele Edge-Standorte Um etwas über die Randstandorte zu erfahren, können Sie sehen, dass es in jeder dieser Regionen, wie in Nordamerika, diese vielen Randstandorte gibt. In Europa gibt es diese vielen Randstandorte, und was Südamerika angeht, es diese vielen Randstandorte. Und im asiatisch-pazifischen Raum gibt es so viele H-Standorte. Nun, wir wissen, dass wir zwei, wissen Sie, wir haben drei Verfügbarkeitszonen in Indien, Sie können Hydrobad sehen, Sie haben drei, Sie haben Mumbai, Sie haben drei Also insgesamt sechs verfügbare Y-Zonen in Indien. Und das kann man in Brasilien sehen, oder? Sie haben also eine verfügbare, tut mir leid, Sie haben drei Verfügbarkeitszonen in Brasilien in Südamerika. Und entsprechend haben Sie auch andere Edge-Standorte. Jetzt haben Sie zwar drei verfügbare Zonen, aber Sie haben immer noch diese vielen Edge-Standorte. Was ist nun Edge-Standort und warum sind so viele Edge-Standorte verfügbar? Heute handelt es sich bei Edge-Standorten um AWS-Rechenzentren , die dem Endbenutzer Inhalte mit geringer Latenz bereitstellen. Jetzt sind sie Teil des AWS-Netzwerks für die Bereitstellung von Inhalten, das als CDN bezeichnet wird Und was sie liefern, ist, dass sie zwischenspeichern. Sie speichern all die Dinge , die ihr macht. Und wenn Sie dann die Seite aktualisieren, nicht vom Server, kommt sie nicht vom Server, sondern vom Cache, weil der Cache im Content Delivery Network gespeichert wird , also diesen Edge-Standorten. Jetzt können Sie also sehen, dass, wenn Sie Inhalte jeglicher Art in Brasilien hosten und Ihr Kundenstandort in Brasilien ist. Sie werden also natürlich Ihre Region als Basel wählen und dann, Sie wissen schon, Ihre Bewerbung in Brasilien hosten . Okay. Wenn Sie das tun, wenn Sie Ihre Anwendung in Brasilien hosten haben Sie Ihre EC Two-Instance und alles wird in Brasilien erstellt, weil Sie den Kunden bedienen, der sich an diesem Standort befindet. Wenn Sie den Kunden beliefern , der sich an diesem Standort befindet, das ist Brasilien, würden Ihre gesamten Inhalte jetzt aus diesem speziellen Rechenzentrum stammen , richtig? Aber da ist das, wissen Sie, im Süden haben Sie Bogota Also es ist ein anderer Ort in Südamerika, ähm, und, ähm, ich glaube, es ist Teil von Kolumbien, wie Sie sehen können Und es gibt andere Orte, wenn man über Brasilien spricht, Menschen, nicht nur in Brasilien, sondern auch Menschen aus Bolivien, Peru, Kolumbien, Venezuela. Sie werden also tatsächlich versuchen, auf Ihre Website zuzugreifen, die verfügbar ist, oder auf Ihre Anwendung, die in Brizo verfügbar ist Wenn Sie das tun, brauchen Sie quasi einen Cache-Standort, Sie wissen schon, um das herum Oh, okay, also, das ist der tatsächliche Name des Landes. Okay, ich habe es nicht bemerkt. Also das ist Buenos Aires, Argentinien. Sie haben einen anderen Ort aus Brasilien, Las Bo und dann Peru hier, und dann Chile. Ebenso, wie ich Ihnen bereits gesagt habe, würden die Leute Anwendungen von verschiedenen Orten wie Argentinien, Bolivien, Peru aus durchsuchen . Ich habe dir gerade gezeigt, dass das Kolumbien ist. Was sie getan haben, ist, dass sie einen kleinen Ort mieten, an dem Sie diese paar Dienste anbieten, die von AWS als Content Delivery Network oder AWS CDN bezeichnet werden, sowie Amazon CloudFront Sie werden Amazon CloudFront verwenden und diese beiden Dienste hier an einem anderen Ort platzieren an einem anderen Ort Wenn also Leute Ihre Anwendung von diesem Ort aus durchsuchen , würde der Cache an diesem Ort selbst Und es muss nicht reisen, wissen Sie, Ihre Webset-Anfrage muss nicht den ganzen Weg zurücklegen Sie können auch den Cache-Level kontrollieren, also quasi alle 24 Stunden kontrollieren , sodass Sie den Cache leeren können Also beim ersten, du weißt schon, nach 24 Stunden, wird der Cache automatisch gelöscht, und die erste Anfrage ruft ihn vom eigentlichen Server ab , der in Brasilien gehostet wird Und sobald der Inhalt heruntergefahren ist, wird er in das CDN geladen Und CDN wird dann damit beginnen, den Inhalt aus Ihrer lokalen Quelle bereitzustellen , Ihrem Content Delivery Network hier drüben Mit dieser Methode werden Ihre Inhalte jetzt viel schneller sie werden viel schneller empfangen Und ja, es sind zwischengespeicherte Informationen, aber sie werden trotzdem viel schneller sein Denken Sie jedoch daran, dass der Cache je nach Website, mit der Sie es zu tun haben, ein- oder ausgeschaltet werden kann , ein- oder ausgeschaltet je nach Website, mit der Sie es zu tun haben Also zum Beispiel, wenn Sie Ihren Bankantrag überprüfen möchten , um den Geldbetrag auf Ihrem Konto zu überprüfen. Jetzt ist der Cache-Inhalt nutzlos, weil er Ihnen die wiederholten Informationen 24 Stunden lang nicht anzeigen kann . Es muss also die neuesten Informationen von Ihrer Bank abrufen die neuesten Informationen von Ihrer Bank Das bedeutet, dass in dieser Situation kein Cache vorhanden ist und Ihr Content Delivery Network nicht genutzt wird Wenn es sich jedoch um eine E-Commerce-Website , auf der sich die Verkäufe in den nächsten 24 Stunden nicht ändern werden. Es wird also einfach sein, wenn Sie die Bilder dieses bestimmten Produkts im Content Delivery Network speichern dieses bestimmten Produkts im und dann das Produktbild herunterladen. Denn wenn Sie die gesamte Seite direkt auf einer Website platzieren, die Artikel, deren Laden mehr Zeit in Anspruch nimmt, Ihre Bilder, richtig? Wenn Ihre Bilder also schneller geladen werden können, können die Daten aus der Datenbank aktualisiert werden. Aus diesem Grund verwenden sie normalerweise eine separate URL für Bilder und eine separate URL für Ihre Inhalte. Wenn Sie also zwischenspeichern, speichert der Cache die Bilder und all diese großen Videos und ähnliches, sodass Sie das Video beim Abspielen viel schneller herunterladen können . Da jemand in Ihrer Nähe das Video bereits heruntergeladen hat , ist dieses Video bereits im Cache verfügbar. Anstatt es also von einem weit entfernten Ort herunterzuladen, wird es vom nächstgelegenen Ort heruntergeladen da es bereits zwischengespeichert ist Dies ist der Grund für einen Edge-Standort. Dies ist das Beispiel, das ich Ihnen geben möchte , und im nächsten Video werden wir uns die Beziehung zwischen all diesen dreien ansehen , damit Sie die Beziehung zwischen ihnen verstehen können die Beziehung zwischen ihnen verstehen weil diese Frage auch von der Beziehung handelt. Wir werden dies mit dem nächsten Video abschließen , in dem wir über die Beziehung zwischen Regionen, verfügbaren Zonen und Standorten sprechen über die Beziehung zwischen Regionen, verfügbaren Zonen und Standorten Nochmals vielen Dank. Wir sehen uns im nächsten Video. 59. Labs Peering Verbindungskonfiguration: Hallo, Leute. Willkommen zurück zum nächsten Video. In diesem Video werde ich Ihnen erklären, wie ich den Server in einer anderen Region anpinge. Dies ist ein zusätzliches Video, wenn Sie sich jetzt ansehen möchten, wie Sie die Peer-Kommunikation so konfigurieren , dass sie von einer virtuellen Maschine zu einer anderen virtuellen Maschine pingt , die sich in einer anderen Region befindet. Öffnen Sie also zwei ECT-Konsolen Ich klicke zweimal mit der mittleren Maustaste auf die ECT-Konsole, und dann machen wir auch zweimal den PC. Ich teile nur die beiden EC-Konsolen auf der rechten Seite auf. Ich habe EC zwei Konsolen, BPC, VPC und E, oder du kannst es einfach machen, zwei und A ist gerade in derselben Region wie Sie hier im Highlight hier sehen können, es ist alles in der Ich werde diese 21 EC Two-Instance und VPC für North Virginia öffnen und VPC für North Und dann werde ich das auf die Region Mumbai ändern. Es muss also nicht die Region Mumbai sein. Es könnte übrigens jede andere Region sein. Jetzt werden die Sessions, die Sie hier machen werden, tatsächlich für UmbiRegion hier drüben fortgesetzt, und diese VPC wird auch die Region Mumbai widerspiegeln Sie müssen also zwei Konfigurationssätze vornehmen. Zunächst muss die Instanz ausgeführt werden und ihr muss eine IP-Adresse zugewiesen sein. Nun, die IP-Adressserie basiert im Wesentlichen auf dem Subnetz der VPC, der Sie sie zuweisen Wenn Sie irgendeine Art von Server erstellen, werden Sie tatsächlich einen Server in einer bestimmten, äh, VPN, Sie wissen schon, tut mir leid, VPC erstellen , und diese BPC wird zum Zeitpunkt der Erstellung oder des Starts der Instanz angegeben Erstellung oder des Jetzt haben Sie hier die Standard-VPC, die gerade läuft Dies ist die Standard-VPC. Dies sind die Standard-Subnetze. Für jede Region würde automatisch eine Reihe von Subnetzen erstellt werden , und dies ist die Anzahl der verfügbaren Zonen. Basierend auf der Anzahl der verfügbaren Zonen erhalten Sie hier die Anzahl der verfügbaren Zonen, die Sie hier sehen können , und die grundlegende Anzahl der Subnetze finden Sie Das ist die Standardkonfiguration. Standardmäßig wird es keine PR-Verbindung geben, also sollten Sie diese auch nicht finden. Ich habe gerade den bearbeitet, den ich für die Erstellung verwendet habe. Es wird also ein Internet-Gateway geben, es wird eine Routing-Tabelle geben. Routingtabelle können Sie auf das Internet zugreifen, da Sie hier das Internet-Gateway verwenden. Okay, das Internet-Gateway sorgt dafür, dass die VPC Ihrem lokalen Netzwerk als auch mit Ihrem Internet verbunden ist als auch mit Ihrem Internet Das ist also die IPTRSS-Serie. Wenn Sie das Subnetz sehen finden Sie die Informationen zum Apfelwein hier Da Sie also sechs davon haben, geben Sie einmalig, aber wenn Sie sehen, dass die ersten beiden nichts an 17231 ändern, und dann für verschiedene Verfügbarkeitszonen geben Sie acht an, es beginnt bei Null und 32 und dann 48 und dann 64 und 80. Dadurch erhalten Sie eine beträchtliche Anzahl verfügbarer IP-Adressen, die Sie zuweisen können. Denken Sie daran, dass diese VPC und diese IP-Adresse für Ihr lokales Netzwerk bestimmt sind, also für Ihr System, was bedeutet, dass Sie mit diesem System 491 Systeme mit jeweils einer IP-Adresse zuweisen können Das ist es, was das bedeutet. Dies ist die Anzahl der Instanzen, die Sie erstellen können Die verfügbare IP-Adresse gibt an, wie viele iPaddre für jede Instanz verfügbar sind Das ist also so ziemlich die Standardeinstellung. Wir haben keine Änderungen an der Standardversion vorgenommen. Wir haben zwar die Standardversion, werden aber tatsächlich eine benutzerdefinierte verwenden. Darüber werden wir sprechen. Da wir von Ihrer Region Nord-Virginia nach Mumbai kommunizieren . Zunächst müssen Sie eine EC Two-Instance erstellen. Aber das Problem, wenn Sie jetzt eine EC-Two-Instance erstellen , werden Sie zu einem späteren Zeitpunkt eine Ausnahme bekommen weil wenn Sie eine Peer-Verbindung herstellen, wird es nicht funktionieren. Wenn Sie sehen, dass Sie hier eine Peer-Verbindung herstellen, erstellen Sie eine Peer-Verbindung und geben Sie hier einfach einen zufälligen Namen ein. Also USA zwei I&D. Also das ist quasi von den Vereinigten Staaten nach Indien Und hier ist der VPC der D-Four-VPC, ich nehme ihn, der die Apfelweininformation von 17231 hat die Apfelweininformation Denken Sie daran, dass die VPC, die standardmäßig in allen Regionen erstellt wird standardmäßig in allen Regionen erstellt , dieselben Apfelweininformationen verwendet Wenn Sie also hier auf die Apfelweininformationen klicken, werden Sie feststellen, dass diese Ich werde entfernen, was ich manuell hinzugefügt habe. Also entferne das einfach. Also wirst du nur diesen einen Apfelwein haben. Also, wenn du den Apfelwein siehst, 17231 passt zu dem Apfelwein Wenn ich also versuche, ihn mit den gleichen Cider-Informationen zu erstellen, muss ich nur diese VPC-ID hierher kopieren und auswählen, Also hier wählst du aus, hier wählst du zwei aus. Wählen Sie also eine andere VPC für die Peer-Breite aus. Wählen Sie hier also eine andere Region aus und geben Mumbai und die VPC-ID Jetzt wird diese VPC-ID nicht funktionieren. Ich sage es dir, ich zeige es dir. Klicke einfach auf PR-Verbindung erstellen. Sobald Sie darauf geklickt haben, kehren Sie erneut zu Pro Verbindung zurück und Sie werden feststellen, dass die Verbindung fehlgeschlagen ist. Wenn Sie darauf klicken, um den Grund für den Fehler zu verstehen, ist der Fehler entweder darauf zurückzuführen, dass entweder die VPC-ID falsch oder die Count-ID falsch ist oder sich der Apfelwein überschneidet In unserem Fall überschneidet sich der Apfelwein, weil sich der Apfelwein, von dem aus und zu dem wir eine Verbindung herstellen selben Netzwerk befindet So kannst du den 17231 sehen. Und auch hier in der VPC ist es 17231. Auf der einen Seite sollte es anders sein. Okay. Also werde ich die Standardversion für diese spezielle Region, ähm, Nord-Virginia verwenden. Und hier werde ich eine neue VPC erstellen, klicken Sie einfach auf Create VPC, dann VPC und dann wird der Name lauten, Latenztest VPC, IP-Version für manuelle Eingabe, und ich habe 17232 Punkt Null Punkt Null Schrägstrich 16 gegeben Nun, wenn Sie das vergleichen sehen, ist das am 31. Ich gebe hier 32. Das wird also eine eindeutige IP-Adresse sein und Tenancy ist Standard Wählen Sie nicht „Dediziert“ aus. Es wird dir mehr berechnen. Und denken Sie daran, bevor eine VPC erstellen, VPCs sind kostenpflichtig. Wenn Sie also mehr als eine VPC erstellen, wird Ihnen das in Rechnung gestellt, aber nicht so viel. Wenn Sie die VPC hier sehen und die VPC hier drüben, fehlt etwas wird Ihnen das in Rechnung gestellt, aber nicht so viel. Wenn Sie die VPC hier sehen und die VPC hier drüben, fehlt etwas. Das ist Ihr Subnetz. Wenn Sie das sehen, gibt es hier Subnetze, die an die Routingtabelle und dann an Ihr Internet-Gateway angeschlossen Routingtabelle und dann an Ihr Internet-Gateway Im Moment gibt es hier keine Routingtabelle, die von Defa erstellt wurde, aber hier gibt es kein Subnetz Auch hier gibt es keine Internetverbindung. Wir müssen hier also zunächst einige Aktivitäten ausführen, um ein Subnetz zu erstellen. Gehen Sie also zum Subnetz Jetzt haben Sie bereits drei Subnetze, die hier bereits der VPC zugewiesen sind, sodass Sie nichts tun können Ein Subnetz kann also einer VPC zugewiesen werden. Sie können sehen, dass es IPR der Serie 31 zugewiesen ist. Wir verwenden also selbst eine neue VPC. Also werden wir diesen VPC-Namen ändern. Okay, also erstellen Sie ein Subnetz und wählen Sie die VPC aus. Sie sehen also die Latenztest-VPC. Das ist der Name, den wir gegeben haben, oder? Und hier drüben wird auch 17232 angezeigt. Also das brauchen wir. Geben Sie hier einen Subnetznamen ein. Versuchen Sie nun zunächst zu verstehen, wie die Subnetznamen konfiguriert sind. hier mit der mittleren Maustaste auf das Subnetz, und dann wähle ich das aus, um mir den Namen der Subnetz-Verfügbarkeitszone anzusehen Also habe ich dieses eine B, ein C, ein A. Ich kann verstehen, dass es drei gibt, also sollte es ein B, ein A sein. Also konfiguriere ich hier zuerst ein Subnetz und wähle dann hier ein Und dann kannst du den Apfelweinblock hier drüben sehen, also sollte es derselbe IPDreso 32 sein Punkt Null Punkt Null Schrägstrich 16. Für das erste sollte es dasselbe sein, aber Sie können hier selbst ein weiteres Subnetz hinzufügen Es ist nicht erforderlich, dass Sie alle drei Elemente hinzufügen. Ich muss nicht drei hinzufügen. Sie können nur zwei hinzufügen , das ist auch völlig in Ordnung. Aber mindestens zwei sollten als Teil einer VPC vorhanden sein. Also, wenn das ein niedriges Gleichgewicht hat und, Sie wissen schon, ausfalltolerant Sie können diese IP-Adresse eigentlich nicht noch einmal angeben. Wenn Sie hier und hier dieselbe IP-Adresse angeben, blockiert der Apfelwein auch den Estin, den Sie für diesen erstellen, sodass er zur Auswahl dieser er zur Auswahl bestimmten Availability Zone dieselbe IP-Adressserie verwendet, die etwa 65.000 IP-Adressen hat , wenn Sie diese wählen Das Problem ist jedoch, dass auch dieselbe IP-Adresse verwendet wird Es wird also ein Problem werden. Es wird es nicht akzeptieren. Wenn Sie auf Erstellen klicken, wird die Meldung Adressüberlappung angezeigt. Das musst du ändern. Sie können diese Leiste verwenden und sie auf die nächste verfügbare ändern. Das ist komisch. Das ändert sich normalerweise, also kann ich hier drüben auf 16 gehen. Ich weiß nicht, warum es aus irgendeinem Grund nicht funktioniert. Aber du kannst es so ändern. Wenn Sie auch den vorherigen sehen , wird er dasselbe sagen. Also 310, 311-63-1302. Für jeden Apfelwein müssen Sie die Erweiterung dieser IP-Adresse angeben, damit Sie die spezifische Anzahl an IP-Adressen zur Verfügung haben Jetzt gebe ich nur noch zwei davon und habe es auf 16 geändert. Jetzt sollte ein Klick auf Subnetz erstellen eigentlich funktionieren. Mal sehen, was hier das Problem ist. Ich glaube, ich muss 22 geben. Lassen Sie mich das für eine Sekunde bestätigen. Ja, ich muss hier 20 geben, nicht 16. Sorry. 20 hier drüben, 20 hier als Bob. Deshalb hat es sich nicht geändert. Wenn es also auf Standard gesetzt wird, denke ich, dass es sich jetzt ändern wird. Ich kann mir vorstellen, dass sich das 0-16 ändert. Der Fehler tut mir leid. Jetzt siehst du, dass 4.096 IP-Rs verfügbar sind, weil ich 16 angegeben habe, nicht funktioniert Die Reichweite ist so riesig, Sie gesehen haben, dass sie bei 65.000 IPR liegt, die wir nutzen können. Deshalb hat es bei mir nicht funktioniert. Jetzt ist es behoben, Nutricons erstellen ein Subnetz und Sie haben hier zwei Subnetze erstellt Insgesamt haben Sie also drei Subnetze für drei verfügbare T-Zonen in der Region Mumbai und Jetzt haben wir die Erstellung des Subnetzes abgeschlossen und es der VPC zugewiesen Wenn wir nun zu VPC gehen und die VPC auswählen, wird die Ressourcenübersicht angezeigt Sie haben das Subnetz für eine Routing-Tabelle konfiguriert, aber wir haben die Routing-Tabelle nicht richtig konfiguriert Bevor Sie jedoch zur Routing-Tabelle wechseln, konfigurieren Sie das Internet-Gateway. Andernfalls erreicht Ihr Dienst , der unter dieser VPC gehostet wird , keinen Zugang zum Sie können also zum Internet-Gateway wechseln und ein neues Internet-Gateway erstellen Und dann den Latenztest IGW, den ich als Internet-Gateway-Namen gebe In diesem Internet-Gateway müssen Sie jetzt eine Konfiguration vornehmen Sie müssen eine VPC für das Internet-Gateway anhängen. Wählen Sie die VPC und die Latenztest-VPC aus und klicken Sie auf Anhängen. Wenn Sie nun zu VPC gehen und die Ressourcenzuweisung überprüfen, sehen Sie diese Was Sie jedoch nicht sehen werden, ist das Anhängen dieser Routentabelle und des Internet-Gateways Wenn Sie diesen hier sehen, sehen Sie, dass er hier angehängt ist. Es gibt also eine Mitteilung. Also, um das anzuhängen, gehen Sie zu Route Table. Ich habe bereits eine Routentabelle, sodass Sie sie von hier aus sehen können. Da steht Routentabelle. Sie können einfach darauf klicken, um die Routentabelle zu öffnen , dann die Registerkarte. Jetzt können Sie sehen, dass dies eine Standard-Routing-Tabelle ist, die dieser speziellen Latenztest-VPC zugewiesen ist Dies ist nun die Standardkonfiguration, die in jeder Routentabelle Hier erfahren Sie mehr über die 17232-Serie. Klicken Sie nun auf Routentabelle bearbeiten. In dieser Routentabelle müssen Sie angeben, was Sie weiterleiten möchten. Klicken Sie zunächst auf. Ändere das lokale nicht, lass es so sein. Lass uns hier auf Route hinzufügen klicken und nach einer Verbindung suchen, die mit dem Internet verbunden ist. Was möchten Sie mit dem Internet verbinden? Alles, die gesamte IP-Adresse, die sich in dieser speziellen VPC befindet, sollte Internet-Gateway-Zugriff haben Wählen Sie hier Internet-Gateway aus und geben Sie das Internet-Gateway an , das wir gerade erstellt Was jetzt passiert ist, dass das markiert wird. Diese Routentabelle wird also über dieses Internet-Gateway Bescheid wissen , das wir erstellt haben. Wenn Sie jetzt zur VPC wechseln, wählen Sie die VPC aus. Wenn Sie zu Resource Maps gehen, werden Sie feststellen, dass hier gerade eine Verbindung besteht hier gerade eine Verbindung Also jede Art von Service EC 2-Instanz, die Sie jetzt erstellen werden, stellt eine Verbindung zu diesem Internet-Gateway her. Wenn Sie diese VPC als Teil der EC Two-Instance ausgewählt haben als Teil der EC Two-Instance Jetzt haben Sie zwei Optionen zur Auswahl für VPC. Ich muss diese VPC auswählen, wenn ich diese, ähm, Sie wissen schon, Kopplungsverbindung verwenden möchte , weil sie diese Reihe von IP-Adressen verwenden wird Wenn Sie also etwas erstellen, zeige ich Ihnen das, ich zeige es Ihnen schnell, ähm, also jetzt bin ich hier auf der VPC Ich bin hier auf der EC-2-Instanz. Es gibt keine Instanz, die als eine Instanz läuft, die beendet ist. Klicken Sie auf Launch Instance und testen Sie dann einfach eine Instanz. Testen Sie eine Instanz, die die Standard-VPC verwendet. Standard-VPC ist nicht das, was wir konfiguriert haben, sodass Sie die Standard-VPC sehen können Wenn ich hier wieder diese Standard-Version auswähle, müssen Sie hier ein neues Schlüsselpaar für diese bestimmte Region erstellen ein neues Schlüsselpaar für diese bestimmte Keypair ist völlig anders. Sie müssen hier ein weiteres Schlüsselpaar erstellen und dieses herunterladen Denken Sie daran, PPK zu wählen , wenn Sie planen, auf den Server ich aber nicht auf den Server zugreifen werde, also werde ich es nur als Demo tun Wenn ich diesen Server jetzt erstelle, ist sein Server im Betriebszustand, aber Sie sehen die IP-Adresse, sie ist 17231 Ich kann das Pairing nicht durchführen , wenn es denselben IP-Adressbereich hat Es muss einen anderen IP-Adressbereich haben. Dafür muss ich diese Instanz nur erneut beenden. Dieses Mal muss ich die Instance starten. Das Gleiche, Latenztest. Dann werde ich dieses Mal auf klicken. Ich habe Weblogik als Schlüsselnamen ausgewählt. Ich werde diese Netzwerkeinstellung bearbeiten und die Latenztest-VPC ändern Diesmal können Sie sehen, dass entweder APA oder B ausgewählt wird entweder APA oder B ausgewählt Sie können die gewünschte verfügbare Zone auswählen. Und dann hier, um die IP-Adresse zuzuweisen, aktivieren Sie sie. Dies bedeutet im Grunde, dass Sie eine öffentliche IP-Adresse erhalten. Klicken Sie auf Launch Instance , hier wird eine Instanz erstellt. Nun, diese Instanz wird sehr bald laufen. Klicken Sie also einfach auf Onda Fresh. Jetzt kannst du sehen , dass es läuft. Jetzt läuft diese Instanz auf 17232, eins. Das wollten wir haben. Jetzt, wo Sie mit dieser IP-Adresse arbeiten, können Sie diese IP-Adresse tatsächlich kopieren Versuchen Sie, es vom Server aus North Virginia aus zu pingen, aber es würde kein Ping ausgeführt werden, da wir keine Konfiguration vorgenommen haben Das ist eine Peering-Konfiguration. Wir haben noch kein Paring durchgeführt. Lassen Sie uns jetzt weitermachen und die Pairing-Konfiguration vornehmen. Um nun die Pairing-Konfiguration vorzunehmen, müssen Sie nur noch zu einem der Dienste gehen , beide sind in Ordnung Ich würde also empfehlen, zu North Virginia VPC zu gehen , sobald Sie in der North Virginia VPC Hier gibt es eine Pairing-Verbindung Klicken Sie einfach auf Peering-Verbindung und erstellen Sie dann Wählen Sie den Namen der Kopplungsverbindung aus, was auch immer Sie wählen, und wählen Sie dann diese bestimmte VPC aus, wählen Sie eine andere Region als Ziel aus, wählen Sie die Region Mumbai oder eine andere Region die Neue VPC, kopieren Sie die neue VPC-ID, die auf 17232 gehostet wird Weil hier eine andere IP-Adressserie verwendet wird. Klicken Sie nun auf Kopplung erstellen. Kehren Sie jetzt zur Peering-Verbindung zurück. Jetzt können Sie diese initialisierte Anfrage sehen, sodass diese Ausgabe anders ist Jetzt wurde sie zu „ Ausstehende Annahme“ geändert. Jetzt, wenn Sie einfach zu Ihrer VPC in Mumbai zurückkehren, wenn Sie hier zu Peering-Verbindungen wechseln Wenn Sie dies einfach aktualisieren, können Sie die ausstehende Verbindung sehen, und hier finden Sie Informationen Sie können die ausstehende Verbindungsanfrage in einem anderen Aktionsmenü annehmen oder ablehnen . Oder heute ist es an der Zeit, dies zu tun. Also geh hier rüber, handle, nimm die Anfrage an. Jetzt wird diese Anfrage akzeptiert und es wird die Cider-Kommunikation von der 17231-Serie zur 17232-Serie herstellen Cider-Kommunikation von der 17231-Serie zur 17232-Serie Akzeptiere die Anfrage. Lassen Sie uns nun sehen, ob es Vorräte sind. Und Sie können sehen, dass es gerade aktiv ist. Sie haben also die Quelle, fordern einen Apfelwein an, haben CIDR hier akzeptiert, richtig? Also, noch eine Sache, die Sie tun müssen, bevor Sie darauf zugreifen. Ich glaube nicht, dass es jetzt auch funktionieren wird. Das Einzige, was Sie noch tun müssen, ist, dass Sie auf der EC zwei Ebenen Ihrer Sicherheitsgruppe einrichten müssen . Sicherheitsgruppe muss also aktualisiert werden , da sie derzeit nur 22 Portnummern für alle Quellen akzeptiert, oder? Sie müssen ihr also sagen, dass sie den ICMP-Ping akzeptieren soll , auch weil sie sich ohne den ICMP-Ping nicht selbst pingen kann, auch weil sie den ICMP-Eingang nirgends zulässt ICMP ist Ihre Ping-Anfrage. Klicken Sie nun auf Regeln für eingehenden Datenverkehr bearbeiten und wählen Sie dann ICMP, IP-Version vier, und dann geben Sie einfach Klicken Sie dann auf Regel speichern und dies sollte ICMP-Regeln als eingehende Verbindung zulassen Ich glaube, ich habe es als solches ersetzt. Tu das nicht. Sie müssen eine neue Regel hinzufügen, indem Sie auf eine neue Regel klicken oder sie hinzufügen. tut mir leid. Ich glaube, ich habe ersetzt. Aber für unser Training ist das egal, äh, es ist völlig okay. Sie haben immer noch keinen Zugriff darauf. Lassen Sie mich bestätigen, ob dies die von mir verwendete IP-Adresse ist oder nicht, da sich die IP-Adresse geändert hätte , wenn Sie eine andere erstellt hätten. Es sieht so aus, als wäre es derselbe, gib mir eine Sekunde. Okay. Eine weitere Sache, die wir tun müssen, ist das. Nun, da Sie Ihre Pairing-Verbindung aktiviert haben , Ihre Routing-Tabelle auf der Pairing-Verbindung leer . Siehst du das? Es gibt also keine Möglichkeit, dass das Routing über VPC erfolgt. Sie müssen also eine Routentabelle erstellen, und wenn Sie sich diese Routentabelle ansehen, sollten Sie Teil der vorhandenen Routing-Tabelle sein, die Teil Ihrer VPC ist Wenn Sie also zu Ihrer VPC gehen, zu Resource Mapping gehen, haben Sie hier die Routing-Tabelle, klicken Sie darauf und öffnen Sie ein weiteres Fenster In diesem Fenster müssen Sie, genau wie Sie das Internet-Gateway konfigurieren, die Route bearbeiten und eine Regel hinzufügen In dieser Regel können Sie dieselbe Instanz hier nicht wiederholen . Sie können dieselbe Instanz nicht wiederholen. Ich versuche das einfach und stelle dann hier die Pairing-Verbindung her. Das ist die Pairing-Verbindung. Es sagt Ihnen also , welche Verbindungen Sie vorbereiten müssen , und Sie erhalten den Vorschlag hier. Das ist die, die derzeit, ähm, du weißt schon, benutzt wird. Wählen Sie also diese Kopplungsverbindung aus und speichern Sie die Änderungen. Nun hieß es, dass es bereits existiert. Ich habe also gesagt, dass Sie nicht dieselbe IP-Adressserie verwenden können. Sie können also auch 0.0.0.16 angeben. Klicken Sie also einfach auf Speichern und Sie können das tatsächlich sehen. Sie können also alternativ, äh, diese anstelle von dieser angeben, Sie können auch die Remote-Adresse angeben. Sie können also 17231 Punkt Null Punkt Null Schrägstrich 16 angeben , aber wenn Sie 0.0.0.16 angeben, ist das Es bedeutet alles in dieser Serie auf dieser bestimmten Seite Das kannst du auch geben und auf O Speichern klicken. Wenn Sie nun zur Peering-Verbindung zurückkehren und diese Kopplungsverbindung auswählen, gehen Sie zur Routentabelle. Die Routeninformationen werden hier angezeigt . Das sagt Ihnen ziemlich genau , dass die Routentabelle erstellt wurde Lassen Sie uns jetzt weitermachen und sehen, ob es passt. Okay, gib mir nur eine Sekunde. Das Letzte, was wir tun sollten, um das zum Laufen zu bringen, ist, da wir das Hinzufügen der Routentabelle auf dem Zielserver, der Mumbai ist, abgeschlossen haben dem Zielserver, . Jetzt müssen Sie dieselbe Routentabellenerweiterung für, Sie wissen schon, den PCX-Zusatz vornehmen, wie pro Verbindungserweiterung auch auf Ihrem Quellserver Hier haben wir also die Quellserverinformationen angegeben, denen es sich um Ihre Quell-Cider-Informationen und die PCX-Daten auf dem Jetzt müssen Sie hier in dieser Routing-Tabelle dasselbe angeben Gehen Sie jetzt zu VPC, wir verwenden die Standard-VPC, gehen Sie zu Resource Map und Sie erhalten hier die Abkürzung für Ihre Routentabelle Wenn Sie sich für diese Methode entscheiden, werden Sie sich nicht irren, denn manchmal gibt es riesige Routing-Tabellen, von denen Sie nicht wissen, um welche es sich handelt Wenn Sie die VPC herausfinden und die Karte sehen gelangen Sie tatsächlich zur eigentlichen Routing-Tabelle, der richtigen Dann haben Sie in der Routing-Tabelle diese Routen hier , bearbeiten Sie diese Route Und dann füge eine Regel hinzu und gib dann die IP-Adresse des anderen Endes an. Es ist 32320 Punkt Nullpunkt Schrägstrich 16. Wenn Sie sich das ansehen, nehmen Sie hier ein Beispiel. Hier haben Sie die Peer-Verbindung mit 31 eingefügt, das ist Ihr Quellserver. Jetzt müssen Sie hier den Zielserver angeben und erneut die Peer-Verbindung herstellen und die Peer-Verbindungs-ID verwenden. Sie können also auch sehen, dass dort US IND steht. Dies ist die Peer-Verbindungs-ID auf dem Remote-Ende. Das ist also etwas , das Sie aufnehmen und dann die Änderungen speichern. Nachdem Sie die Änderungen gespeichert haben, können Sie einfach versuchen, die IP-Adresse zu pinnen , und Sie werden eine Antwort vom Server erhalten. Das bedeutet, dass Sie eine Antwort von dieser bestimmten Serverinstanz erhalten . Auf diese Weise müssen Sie also eine regionsübergreifende Pairing-Verbindung verwenden , damit Sie einen Server auf einem Remote-Host erreichen können einen Server auf einem Remote-Host erreichen Jetzt können Sie SSSARH auch mit dem Remote-Host ausführen. Sie müssen es nur in der Service-Sicherheitsgruppe aktivieren , Sobald Sie also in der Sicherheitsgruppe sind, Sicherheitsgruppe hinzugefügt haben, fügen Sie Regel S hinzu, und dann können Sie angeben, dass 172 u eins gesetzt 231 Punkt Null Punkt Null Schrägstrich 16 Serie 31, jeder kann SS so machen. Wenn Sie jetzt die Regel hier speichern, ist SSSuch ab dem 31. erlaubt Ich werde ssSuch machen, ohne den Schlüssel zu haben, also werde ich mich nicht einloggen können, aber du kannst sehen, dass das die Verbindung für mich akzeptiert Ich habe den Schlüssel nicht, also werde ich mich nicht einloggen können. Aber wenn ich den Schlüssel habe, kann ich den Schlüssel hier ablegen und mich einfach anmelden, weil ich diese Verbindung zu dieser iPre-Serie hergestellt habe diese Verbindung zu dieser , weil ich sie von der Region North Virginia bis zu dem Server durchsuche von der Region North Virginia , der in der Region Mumbai gehostet wird Sobald der Peer verbunden ist und Sie die Route zum Peer hinzugefügt haben , ähm, wenn Sie den Peer zur Route hinzugefügt haben, wird es für Sie sehr einfach sein eine Sicherheitsgruppe zu konfigurieren. Jetzt können Sie auch eine Sicherheitsgruppe für diesen Zweck erstellen . Und dann verwenden Sie jedes Mal, wenn Sie eine EC Two-Mission erstellen, diese Sicherheitsgruppe anstelle der Standardsicherheitsgruppe, die jedes Mal erstellt wird, wenn Sie eine EC Two-Instance erstellen , weil Sie jedes Mal, wenn Sie eine EC Two-Instance starten , eine neue Sicherheitsgruppe erhalten, Sie haben so viele Sicherheitsgruppen weil jedes Mal, wenn Sie eine EC Two-Instance starten, im Grunde genommen eine neue erstellt wird. Um dies zu vermeiden, können Sie einen Standard erstellen und ihn als Standard aufrufen. Und jedes Mal, wenn Sie eine EC Two-Instance erstellen, können Sie diese bestimmte Sicherheitsgruppe auswählen. Okay. Das ist also nur ein Video, um zu zeigen wie es über eine andere VPC kommunizieren kann Denken Sie jetzt daran, dass die VPCs auf der Grundlage der Anzahl der VPCs berechnet werden auf der Grundlage der Anzahl der VPCs berechnet Eine VPC wird kostenlos sein. Wenn Sie also mehrere VPCs haben werden, wird das ein Problem sein Entfernen Sie also zunächst die Pairing-Verbindung durch Aktion. Lösche die Pairing-Verbindung. Wählen Sie auch die direkte Routing-Tabelle aus. Dadurch wird die Tabelle an beiden Enden durcheinander gebracht, und dann können Sie sehen, dass sie gelöscht Sobald Sie das getan haben, löschen Sie die VPC und prüfen Sie, ob sie Ihnen das erlaubt Nein. Es braucht immer noch die, ähm, ich glaube, die Ressource muss beendet werden. Also das ist unsere, äh, EC Two Instance. Also werde ich einfach unsere EC Two-Instance hier drüben herunterfahren. Also das wird uns etwas Geld sparen. Also je früher du es schaffst, desto eher nimmst du es ab, richtig? Es wird nicht aufgeladen, da es zu jedem Zeitpunkt 1 Stunde dauern kann , also ist es besser, es abzunehmen. Also entferne einfach die Subnetze. Das sind die zusätzlichen Subnetze, die ich mit dem Namen D erstellt habe . Subnas ist also gelöscht Ich glaube, ich kann jetzt versuchen, mit dem PC zu löschen. Es kann ein bisschen dauern. Dann entfernen wir auch die Routentabelle. Die Dürretabelle, aber sie geht nicht, also ist sie die Haupt-Routing-Tabelle. Es kann eine Weile dauern diese Boot-Class-Suns gelöscht werden Dretke, lass uns versuchen, es zu entfernen. Okay. Jetzt geht es runter, sobald du das Subnetz löschst VPC ist jetzt gelöscht, und Sie sollten auch mit den Routentabellen gut Dies wird also ebenfalls entfernt und Ihre Pairing-Verbindung wird ebenfalls Dadurch werden Ihnen Gebühren oder zusätzliche Gebühren berechnet. Also hier, die Pairing-Verbindung, wenn Sie sie in der Region Mumbai löschen, wird sie auch hier gelöscht Sie müssen es also nicht separat angeben. In Bezug auf die Route wird die Route ebenfalls entfernt. Also Subnetz, wir haben keine VPC erstellt, wir haben keine erstellt Das sollte also all die Arbeit, die wir bisher gemacht haben, zunichte machen und es wird verhindern, dass Ihnen am nächsten Morgen etwas berechnet Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wenn Sie Fragen haben, hinterlassen Sie diese im Fragenbereich. Ich freue mich sehr über Ihr Feedback denn durch Ihr Feedback werde ich sicherstellen, dass ich meine Arbeit verbessere und darauf aufbauend mein Training verbessere. Nochmals vielen Dank. Wir sehen uns auf der 60. Einführung in Labs Regionen: Hallo, Leute. Willkommen zurück zum nächsten Video. In diesem Video werden wir die Beziehung zwischen Regionen, verfügbarer T-Zone und Edge-Standort verstehen die Beziehung zwischen Regionen, verfügbarer T-Zone und Edge-Standort verstehen . Dies ist das erste Thema in den Aufgabenstellungen von 3.2, sodass wir jede dieser Komponenten verstehen können, und dann werden wir die Beziehung zwischen ihnen verstehen. Um weiter fortzufahren, habe ich Ihnen die Weltkarte hier gegeben. Sagen wir einfach, dass wir die Weltkarte auch in Bezug auf AWS auf ihrer Website selbst überprüfen werden. Aber lassen Sie uns einfach annehmen, dass dies Ihre Weltkarte ist. Auf dieser Weltkarte ist eine der Regionen auf Ihrer Weltkarte US-IP und er ist eine. Das ist der Name der Region , der von, Sie wissen schon, AWS so angepasst hat, dass er als Regionsname beibehalten wird. In diesem Video werden Sie zunächst die Region verstehen und dann gehen wir zu den Availability Zones und dann zu den Edge-Standorten über. Lassen Sie uns also zunächst mit der Region beginnen. Was ist Region? Region ist im Grunde genommen ein allgemeiner Begriff und bezieht sich auf einen bestimmten Ort auf Ihrer Karte. Amerika ist zum Beispiel eine Region, und ich meine, in Amerika haben Sie Südamerika, Sie haben Nordamerika, was wiederum Regionsklassifizierungen bedeutet Als die Araber also Regionen erwähnen wollten, wollten sie sicherstellen dass die Regionen jetzt hier durch Namen getrennt sind. In diesem Namen hier drüben können Sie den Osten der USA sehen Das bedeutet also, dass es nach Osten zwei und nach Osten drei gehen auch nach Osten zwei und nach Osten drei gehen kann, sodass sie die Anzahl der Regionen innerhalb dieses US-Ostens tatsächlich erhöhen können. Jetzt können Sie die USA als die Vereinigten Staaten und Sie können sehen, dass der Osten sagt, er läge im Osten. Die New Yorker Seite wird also im Grunde als Ostseite bezeichnet . Die Westseite besteht im Grunde aus Los Angeles und Las Vegas. Diese gelten als die Westseite oder das Westende der USA. Und dann sind die zentralen Regionen im Grunde Texas oder, Sie wissen schon, was in der Zentralregion liegt. Also, was sie getan haben, ist wie im Osten, sie haben es zu einem gemacht, ist der erste Standort dem aus die AWS mit ihren Diensten begonnen hat. Das ist also im Grunde eine Region. Wird als USC bezeichnet, die über mehrere Rechenzentren verfügt. Die Mindestanzahl von Rechenzentren, die eine Region haben sollte, beträgt also zwei Dies ist die Mindestanforderung für AWS, um eine Fehlertoleranz zwischen zwei Rechenzentren zu gewährleisten. diesem Grund Aus diesem Grund wird jedes Mal, wenn eine neue Region entsteht, sichergestellt, dass diese Region mindestens zwei hat oder dass mindestens zwei als Rechenzentren als Teil der Region beibehalten werden . Rechenzentren werden als Verfügbarkeitszone bezeichnet , worauf wir im nächsten Video eingehen werden. Gehen wir nun zu den globalen Rechnungs-Futures, gehen wir zu Google und geben Sie globale Infrastruktur ein. mit meiner Kehle tut mir leid. Also geht jemand zu AWS Global Infrastructure und er wird tatsächlich auf diese Website gehen, nämlich awstoramazon.com Und hier werden Sie die globale Infrastruktur sehen . Sobald Sie sich hier in der globalen Infrastruktur befinden, können Sie all diese Informationen sehen z. B. wie viele Regionen es gibt, Availability Zones es gibt CloudFrind-Pops Jetzt werden wir ausführlich über jeden dieser Punkte sprechen , machen Sie sich also keine Sorgen Aber denken Sie daran, ähm, wenn Sie über Regionen sprechen. Die Fragen würden sich nicht darauf beziehen wie viele Regionen es in AWS gibt. Die Fragen wären nicht so, weil die Regionen ständig wachsen, also werden sie Sie nicht fragen, wie viele Regionen es in AWS gibt. Diese Art von, wie die Anzahl der Regionen, die Anzahl der verfügbaren IT-Zonen, wäre also Anzahl der Regionen, die Anzahl der nicht die Frage. Aber sie würden Sie fragen, welche Mindestverfügbarkeitszonen Teil einer Region sind. Das ist also eine zwingende Anforderung, wissen Sie, dass AWS selbst festlegt, dass es eine Mindestanzahl von zwei Availability Zones haben sollte eine Mindestanzahl von zwei Availability Zones , um Redundanzen und Fehlertoleranz in Bezug auf den Ausfall eines Rechenzentrums gewährleisten zu können Fehlertoleranz in Bezug auf den Ausfall eines Rechenzentrums gewährleisten Wenn Sie jetzt runterkommen, werden Sie sehen, dass es sich tatsächlich um Nordamerika handelt Sie können sehen, dass das Südamerika ist. Sie können sehen, das ist aus Ostasien, und dann haben Sie Westasien hier drüben. Asien ist also zweigeteilt, weil es quasi Europa und auch Ihren afrikanischen Kontinent und Ihren Mittleren Osten einschließt . Und dann, ähm, wissen Sie, es tut mir leid, das ist Westasien und das ist Ostasien. Es tut mir leid. Das tut mir leid. Falls ich dich nur verwirrt habe. Damit du das hier sehen kannst, du hast Regionen hier drüben, die in blauer Farbe auftauchen, tut mir leid, grüner Farbe Und das sind im Grunde Regionen. Die Regionen hätten eine bestimmte Anzahl verfügbarer T-Zonen wie Sie hier sehen können. Ich habe also mindestens zwei gesehen, aber ich sehe derzeit nichts, welche zwei verfügbaren Te-Zonen verfügbar sind. Ich sehe nur, dass es sich bei den meisten von ihnen um drei verfügbare T-Zonen handelt. Diese spezielle Region befindet sich in Brasilien und diese in Südafrika. Und diese beiden befinden sich in Australien, wie Sie sehen können, und hier bauen sie Daten auf, ich meine, eine Region mit mindestens zwei Rechenzentren, Verfügbarkeitszonen in Auckland. Sie haben eine in Jakarta, Indonesien, Sie haben in Singapur, Sie haben eine in Malaysia, dann kommt eine in Thailand und Sie haben eine, die in Taiwan kommt Taiwan ist im Grunde, äh, wissen Sie, Taipeh, ich denke, das sollte der Ort sein , an den es kommen wird Und Sie haben einen in Hongkong, und dann haben Sie drei in China, zwei in China, einen in Südkorea, Seoul, und Sie haben zwei in Japan. Sie haben auch zwei in Indien. In Russland gibt es hier nicht viel. Diese Region ist Russland, Mongolei ist hier quasi völlig leer. Diese Länder wie Afghanistan, Pakistan auch nicht, und da drüben gibt es nichts Haben Sie einen in Bahrain, Sie haben einen in den Vereinigten Arabischen Emiraten und Sie haben demnächst einen in Saudi-Arabien. Wenn ich also jede Region markiert habe, können Sie die Anzahl der verfügbaren Zonen sehen. Sie haben auch eine in Tel AV, das ist Israel, und Sie haben eine in Irland, eine im Vereinigten Königreich Jetzt können Sie sehen , dass Großbritannien auch drei Verfügbarkeitszonen hat. Also mehr oder weniger hat alles standardmäßig drei Verfügbarkeitszonen. Und Sie können auch eine interessante Sache namens Startdatum sehen . Als diese Availability Zone entstand, sodass Sie Irland sehen können viel früher als das Vereinigte Königreich selbst, sie viel früher als das Vereinigte Königreich selbst, denn ich wette, das liegt daran, dass der Landerwerb und der Bau von Rechenzentren in den Vereinigten Staaten einfach ein wenig kostspielig sind. Dann vielleicht in Irland. Das könnte der Grund dafür gewesen sein , dass es spät auftaucht. Nun, die einzigen zwei Orte, an denen Sie mehr verfügbare Zonen haben , sind im Grunde Ihre Zone in den USA Ost , also Ihre Nord-Virginia, ähm, und diese hat sechs Verfügbarkeitszonen Die andere ist Oregon. Dieser hat also ungefähr vier Verfügbarkeitszonen. Abgesehen davon habe ich nicht gesehen, welche Zone mehr Verfügbarkeitszonen hat, aber das könnte sich in Zukunft ändern Nun, ähm, ist es besser, mehr als drei Verfügbarkeitszonen zu haben Nein, ist es nicht. Wenn Sie zwei Verfügbarkeitszonen haben , wäre das ausreichend. Drei dienen nur dazu, das Gleichgewicht zu brechen. Wenn du zwei hast, wenn du drei hast, bricht das Gleichgewicht. Deshalb werden drei mehr oder weniger überall bevorzugt, und das ist der Standardbetrag. Aber zwei allein reichen aus, denn Sie haben das primäre Rechenzentrum und Sie haben die Backup-Rundanz für den Fall , dass das primäre Rechenzentrum Probleme haben sollte Das sind also die Regionen, und Regionen haben einen Namen Wenn Sie also zur AWS-Konsole gehen, werden Sie hier alle Regionen sehen. Einige sind für Sie aktiviert, andere nicht. Wenn du also siehst, dass es 13 Regionen gibt, ist das für meinen Account nicht aktiviert, also kann ich einfach mit der mittleren Maustaste darauf klicken. Okay, der Mittelklick hat nicht funktioniert, also gehst du einfach zum unteren Bildschirmrand und klickst dann auf Verwaltete Regionen. Okay, jetzt wird dieser Bildschirm geladen und Sie werden sehen, dass die Regionen gerade deaktiviert wurden. Jetzt können Sie diese Region tatsächlich aktivieren, indem Sie diese Regionen auswählen und auf die Schaltfläche Aktivieren klicken. Aber ich verwende die Region nicht, also möchte ich, dass sie deaktiviert wird. Und auch die Regionen , die Sie nicht verwenden, können Sie, Sie wissen schon, deaktivieren. Aber das ist etwas, was Sie mit den Standardanwendungen nicht tun können. die Standardprodukte, die Sie da draußen haben, müssen Sie also , wissen Sie, das aktiviert sein, das ist standardmäßig aktiviert , was bedeutet, dass Sie sie nicht wirklich deaktivieren können, aber Sie können diese zusätzlichen Artikel aktivieren und deaktivieren , wenn Ihr Kundenstamm hier drüben ist. Das ist also der Grund, warum es standardmäßig nicht aktiviert ist, also können Sie es zu einem späteren Zeitpunkt aktivieren. Aber das ist die Region. Jede Region wird einen Namen haben. Sie können also sehen, dass Ost eins Ost zwei ist und dann Westbound West zwei da ist Sie haben also Ost eins, das ist Ihr Nord-Virginia und dann Ohio Das sind also zwei Orte in Ihrer Ostseite. Und dann auf der Westseite haben Sie Kalifornien und Nordkalifornien und Oregon. Das sind also zwei Standorte, die Sie haben. Also haben Sie hier verschiedene Standorte, zum Beispiel, äh, Asien-Pazifik, Sie haben Mumbai, das ist AP South One, und dann HydraDrRegion wird Süd-Zwei sein, schätze ich, hier drüben Beispiel, äh, Asien-Pazifik, Sie haben Mumbai, das ist AP South One, und dann HydraDrRegion wird Süd-Zwei sein, schätze ich, hier drüben Süd-Zwei sein, schätze ich, Also ja, AP South bis zur Region Hyderabad. Also das ist in Indien. Ebenso versuchen sie, die Zahl zu nutzen, um sie weiter zu erhöhen, sodass sie mehrere Regionen in mehreren Städten haben können . Das wird ihnen also wirklich helfen, sich zu globalisieren und auf der ganzen Welt präsent Nun, wie ich Ihnen sagte, dies sind Regionen. Im nächsten Video werden wir also verstehen, was Verfügbarkeitszonen sind. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Ich werde dich sehen 61. Wellenlänge des Labors, lokale Zonen, Latenz in der Praxis: Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir über Latenz sprechen. Was ist nun Latenz? Latenz ist im Grunde die Langsamkeit, die Sie erleben, wenn Sie eine Website besuchen oder eine Anwendung öffnen oder wenn Sie etwas in das System eingeben und dann eine spätere Antwort erhalten, Sie erhalten eine langsamere Antwort vom Server Wenn Sie zum Beispiel Enter eingeben, führen Sie hier einen großen Befehl aus. Sie listen die Dateien nicht wie 10.000 Dateien in diesem Ordner auf. Sie drücken einfach die Eingabetaste. Wenn Sie die Eingabetaste selbst drücken, werden Sie feststellen, dass Ihre Antwort langsamer wird. Die reibungslosere Reaktion ist also im Grunde genommen, wenn ich die Eingabetaste drücke Sie sollte sofort ausgeführt werden Aber wenn es eine Verzögerung von Millisekunden gibt, Sie Wenn es eine Verzögerung von Sekunden gibt, werden Sie anfangen, den Unterschied zu bemerken, weil, äh, Ihre Augen- und Handkoordination sich ein wenig von dem unterscheiden, was Sie Das ist also eine Erfahrung, bei der Sie sehen können, ähm, Sie können den Begriff Latenz sehen Also, diese Latenz kommt, wenn ich das tippe, okay? Aber es gibt eine Möglichkeit, die Latenz tatsächlich zu messen. Schauen wir uns zum Beispiel an, wie es aussieht, wenn Sie keine Latenz haben. Also habe ich ein Diagramm vorbereitet. Okay. Also habe ich ein Diagramm erstellt, also werde ich langsam dieses spezielle Dokument aufdecken , das Sie hier sehen Zunächst ist es also wie bei der IntraEZ-Kommunikation, die unter minus einer oder unter einer Millisekunde bis zwei Millisekunden liegt Die schnellste Kommunikation, die in derselben Availability Zone verfügbar ist. Jetzt kann ich es dir noch schneller zeigen , wenn du einen lokalen Gastgeber bezahlst. Loclos bedeutet sich selbst. Es ist die Loopback-IP-Adresse. Sie wird jetzt standardmäßig als Oculos bezeichnet , da ihr ein Hostname Wenn ich also die Oculos anpinge, kannst du sehen, kannst du sehen Das ist also die schnellste, die Sie je sehen können, weil es ungefähr 0,0.026 Millisekunden dauert Es ist so schnell, dass es sich selbst erreichen kann. Das ist also perfekt, oder? Aber Sie werden diese Art von Reaktion in keinem anderen netzwerkbezogenen Bereich sehen können . Auch wenn du das selbst anpingst. Ich gehe zum Beispiel hier rein, ich habe bestimmte EC Two-Instances gestartet. Ich werde dir das zeigen. Nennen wir laufende Instanzen. Ich habe also drei Instanzen, die hier laufen. Ich bin tatsächlich an der Basis-CLI angemeldet und kopiere die private IP-Adresse. Okay, ich verwende die öffentliche IP-Adresse derzeit nicht. Ich werde es später benutzen. Wenn ich die private IP-Adresse dieses bestimmten Servers an diesen Server anhefte, werden Sie hier eine geringe Latenz feststellen, die fast der entspricht, die Sie hier sehen. Hier drüben sind es also alle 26. Es ist 27 und 28 wird kommen. Ebenso sehen Sie, äh, die gleiche Latenz, weil es dieselbe IP-Adresse auf demselben System ist. Was ist nun, wenn ich ein anderes System anhefte, das sich in derselben Availability Zone befindet. Also kannst du das sehen. Dies ist ein weiteres System, das ich für den Latenztest erstellt habe, und es wurde tatsächlich in derselben Availability Zone erstellt. Okay? Sie können also die verfügbare Zone ändern, wenn Sie sie erstellen Ich habe es dir auch schon gezeigt. Also benutze das, um, ähm, du weißt schon, deine Verfügbarkeitszone dort einzurichten. Es ist also eine sehr einfache Startinstanz. Und dann bearbeiten Sie dies in der Instanz einfach und wählen dann aus, welche verfügbare IIT-Zone Sie Auf diese Weise können Sie ganz einfach auswählen, welche Verfügbarkeitszone Sie möchten Sie ganz einfach auswählen, welche Verfügbarkeitszone Kopiere das, pinke das. Dies ist der nächste Server , den wir erstellt haben, aber er befindet sich auf derselben AZ. Sie hier in diesem Diagramm, das eigentliche Diagramm beginnt hier, die Kommunikation innerhalb von AZ Kommunikation in der Verfügbarkeitszone. Ich kann sehen, dass es in eine Millisekunde kommt, also ist es im Grunde nicht 0,0, richtig, weil es nicht hineinzahlt, manchmal sind es 0,9 Aber meistens sind es etwa 1,5, 1,6, 1,8, Wenn Sie also den Durchschnitt nehmen, wird es ein Durchschnitt von etwa 1,1 — 0,5 sein. Sie können sehen, dass der Durchschnitt bei 1,44 liegt. Hier hat er sich bereits gemittelt. Aber hier liegt der Durchschnittswert bei 0,025. Also ist es ziemlich schnell, sehr offen zu sein, okay? Also, weil es eine Verbindung zu einem Server direkt nebenan herstellt. Okay? Also, das ist der erste, den du gerade gesehen hast. Die nächste ist wie eine Cross-Availability-Zone. Also habe ich diesen Server in einer anderen Availability Zone mit einem F erstellt . Okay? Also starte die Instanz und erstelle sie auf einer F. Das ist also eine weitere Availablet Zone Lassen Sie uns also weitermachen und diese anpingen. Jetzt können Sie sehen, dass, wenn es sich in einer anderen verfügbaren Zone befindet, es sich in einem anderen Rechenzentrum Sie sehen, dass ein bisschen davon etwas mehr Zeit in Anspruch nimmt, aber es liegt immer noch im Durchschnitt Also haben wir es um 16 Uhr geschlossen, also werden wir es wohl um 16 Uhr schließen. Sie können sehen, dass der Durchschnitt hier ein wenig von eins.44 auf eins.799 gestiegen hier ein wenig von eins.44 auf eins.799 gestiegen Das bedeutet, dass es etwas mehr Zeit in Anspruch nimmt, aber keinen großen Unterschied in Bezug auf Ihre durchschnittliche Lebenszeit Es tut mir leid, durchschnittliche Zeit, es erhält eine Antwort vom Server. Das sagt dir also im Grunde , dass die Avabit-Zone auf der anderen Seite auch in Ordnung ist, okay? Ähm, lass uns jetzt über die Region sprechen. Dies ist eine zusätzliche Konfiguration, die ich für die Regionskonfiguration vorgenommen habe. Wenn ich also zu IFI gehe, klicke mit der mittleren Maustaste auf EC Two und ändere diese Region auf Asia Pacific Mumbai Ich habe hier drüben einen Dienst eingerichtet, tut mir leid, EC Two Instance, und dieser läuft auf AP South One A. Das ist die Availability Zone Ich habe die VPC-Routentabelle konfiguriert und dann die Kommunikation zwischen ihnen konfiguriert . Deshalb funktioniert es Wenn Sie denken, dass es bei Ihnen nicht funktioniert , sondern wenn Sie es nur erstellen, würde es nicht funktionieren, weil es eine Menge Arbeit im Backend erfordert. Das nennt man Peer-to-Peer-Kommunikation. Jetzt müssen Sie also überlegen oder sehen, was das Ergebnis ist, das Sie tatsächlich erhalten werden. Weil diese spezielle IP-Adresse immer noch die eigene IP-Adresse von AWS ist, wie Sie sehen können, habe ich sie genauso abgeglichen. Ich habe hier eine andere Serie gegeben, 17231. Das ist 172, 32, sonst würde es keine Verbindung herstellen, es wird ein Fehler ausgegeben , wenn es sich im selben Netzwerkbereich befindet, derselbe Apfelwein Wenn ich das anhefte, kannst du sehen, dass es hier viele Millisekunden Also hier sind es 187 Millisekunden. Also das nennt man Kreuzregion, ähm, lass es bei 16 kommen Regionsübergreifendes AWS. Okay? Also, du kannst sehen, dass 187 Millisekunden durchschnittlich sind. Sie können also tatsächlich eine Verbindung zu einem anderen AW-Service herstellen, der in einer anderen Region gehostet wird Aber das einzige Problem ist, äh, die Kommunikation hier wird, ähm, Sie wissen schon, so sein, als ob es hier eine Menge Verzögerung gibt. Es tut mir leid, ähm, ja, die Latenz wäre da. Es tut mir leid. Ich gehe hier ein bisschen runter, Kreuz. Eine Kommunikation dauert ein, zwei, äh, zehn Millisekunden Intra AZ, wir haben es überprüft. Cross AZ, wir haben es überprüft. Region zu Region, da Sie sehen können, dass es zwischen 50 Millisekunden und 300 Millisekunden liegt Es geht uns also immer noch gut, weil wir zwischen 50 und 300 sind. Wir haben das Maximum von 300 nicht erreicht. Vielleicht, wenn ich einen Service an der Ecke eingerichtet hätte , vielleicht in der Region Tokio oder, ähm, in dieser Region, vielleicht in der Region China oder vielleicht in Australien. Dann könnte es 300 Millisekunden dauern, Unterschied, das könnte es sein. Also wissen wir es nicht Also müssen wir das versuchen. Okay. Als Nächstes geht es um den Standort am Rand, vor der Cloud. Nun, hier braucht es ein bisschen, du weißt schon, Gegenstand von dir. Hier haben Sie also die Cloud-Front mit der Edge-Position. Wenn Sie in dieser Situation Cloud-Front erstellen wollen , ja, dann erhalten Sie quasi eine Antwort mit einer Millisekunde bis 20 Millisekunden Jetzt wird diese Latenz reduziert und der Endbenutzer, wenn sich dieser Endbenutzer in der Nähe der Cloud-Front befindet Das ist also auch ein Lichtzustand , denn wir sehen diesen Plan, wissen Sie, Cloud Friends gibt es nicht überall. Okay? Also, wenn ich das sage, wenn ich es in Indien sehe, richtig? Also überprüfen wir den Standort am Rand, richtig? Also in Indien, also in Indien, es ist Pune, dort Mumbai, es ist Neu-Delhi, ihr Chennai, das Bangalore, dort ist Arabad Wenn also jemand von keinem dieser Standorte aus surft, sondern von Kerala aus, schätze ich, vom anderen Southend aus, dann geht sondern von Kerala aus, schätze ich, vom anderen Southend aus, anderen Southend aus, er Und dann gehen sie zuerst zum Mumbai-Server, holen sich diese Ressource zum ersten Mal und dann wird sie in der Cloudfront in der Region Chennai zwischengespeichert Aber dann bekommen sie immer noch die Verzögerung hier drüben oder die Latenz hier drüben, weil sie immer noch Jen durchgehen müssen , weil es nicht so ist dass die Leute, die in Jane surfen, viel schneller sind als im Vergleich zu Kiera oder dort drüben. Also genauso, wenn du zum südlichen Ende gehst, dann wirst du ein Problem bekommen wirst du auch in dieser Perspektive immer noch Latenz haben Also wirst du auch in dieser Perspektive immer noch Latenz haben. Aber weißt du, es ist besser, als aus Mumbai zu kommen, oder? Also diese Latenz haben sie hier in 20 Millisekunden angegeben hier in 20 Millisekunden Also ein bis 20 Millisekunden. Es kann also bis zu einer Millisekunde schneller sein , wenn es eine Randposition gibt und der Endbenutzer Aber wenn sie weit weg sind, kann es bis zu 20 Millisekunden Das haben wir also bisher gesehen. Und dann in Bezug auf lokale Zone und Wellenlänge. Das sind zwei Dinge, die ich dir gesagt habe , wir werden es später überprüfen, oder? Das sind im Grunde lokale Zonen, ich zeige es Ihnen hier. Jetzt werden Sie lokale Zonen nicht mehr als Regionsnamen oder Ortsnamen sehen können , wie Sie den H-Standort sehen, aber dann können Sie lokale Zonen hier sehen. Lassen Sie uns nun zunächst verstehen, was eine lokale Zone ist. Nun sind sowohl Wellenlängen- als auch lokale Zonen darauf ausgelegt, die AWS-Infrastruktur näher an Endbenutzer und Geräte zu erweitern Sie dienen jedoch leicht unterschiedlichen Zwecken und zielen auf unterschiedliche Anwendungsfälle ab. Lassen Sie uns zunächst etwas über die Wellenlängenzone erfahren. Nun, die Wellenlänge, wenn es um Wellenlänge geht oder jemand Wellenlänge zu dir sagt oder bei der Frage, denke an fünf G. Fünf G ist eine Wellenlänge, also die, die sich durch eine Welle bewegt. Eine AWS-Wellenlänge ist also eine spezialisierte AWS-Infrastruktur, die den AWS-Rechen- und Speicherservice in einen Telekommunikationsanbieter integriert, wie das Rechenzentrum am Rand eines Fünf-G-Netzwerks Dadurch wird die Latenz minimiert, die durch Weiterleitung des Datenverkehrs vom Five-G-Netzwerk zur Sie verwenden das Fünf-G-Telekommunikationsnetz, um die Daten in die Cloud zu übertragen, was viel schneller ist Kennst du die Geschwindigkeit von fünf G? Es ist wirklich schnell. Nicht viele Orte haben diese Wellenlängenzone. Jetzt wird die Wellenlängenzone für Dienste mit extrem niedriger Latenz verwendet . Die Wellenlänge wird für extrem niedrige Latenzen verwendet, was bedeutet, dass sie sehr teuer sein wird , da sie fünf G verbraucht . In welchen Situationen würden Sie extrem niedrige Latenz verwenden? Anonymes Fahren eines Fahrzeugs. Wenn Sie sich Los Angeles und andere Teile Kaliforniens ansehen, werden Sie feststellen, dass Autos ohne Fahrer auf der Straße fahren werden , oder? Wenn Sie das gesehen haben, verwendet es die Five-G-Technologie, um eine extrem niedrige Latenz zu erreichen. Wir sprechen hier nicht von niedriger Latenz. Wenn Sie dieses Diagramm hier sehen, sprechen wir von extrem niedriger Latenz, die weniger als zehn Millisekunden beträgt Das ist, als ob Sie direkt neben dem Server wären. Also hier siehst du das Kreuz A-Z. Cross AZ ist das , das dir tatsächlich ein bis zehn Millisekunden gegeben hat dir tatsächlich ein bis zehn Millisekunden Was Ultra-Ultra-Linsenzonen vielversprechend ist, sind weniger als zehn Millisekunden, oft weniger als fünf Millisekunden vielversprechend ist, sind weniger als zehn Millisekunden, oft weniger als fünf Millisekunden. Im Grunde verwendet es also die fünf G-Anwendungen, die von Ihrem Datenanbieter oder Telekommunikationsanbieter bereitgestellt werden, z. B. wenn Sie über AT&T sprechen oder wenn Sie über Verizon sprechen AT&T Also nutzen sie diese Netzwerke auch für eine schnellere Bereitstellung von Daten mit extrem niedriger Latenz für anonyme Fahrzeuge, AR VR als argumentierte Realität oder virtuelle Realität und als Echtzeit-Gaming-Zweck Ebenso haben Sie verschiedene Situationen, in denen Sie Ihre Art von Waveland-Zone nutzen werden Wenn Sie also das globale Diagramm hier sehen, haben Sie nicht an allen Orten so viele Wellenlängen Sie haben also acht Waveland-Zonen in Nord-Virginia und einige Jetzt konzentrieren sich diese Waveland-Zonen also hauptsächlich auf die Region Kalifornien sowie auf den Bundesstaat New York, wie hier die Region Kalifornien sowie drüben Damit soll sichergestellt werden, dass heutzutage viele autonom fahrende Autos kommen, und Robo-Taxis kommen auch Für diese Situationen wird es also verwendet, ebenso wie AR VR Also hier, Sie können in London sehen, Sie haben auch Wellen, ähm, es gibt zwei Wellenlängenzonen. Nun, das wird auch Teil Ihrer Availability Zone sein , aber es bietet eine kritische Infrastruktur für Ihre Anwendung. Lassen Sie uns nun über die lokale Zone sprechen. Nun, wenn Sie über lokale Zonen sprechen wollen, ist die lokale Zone nicht so schnell wie eine Wellenlängenzone mit niedrigerer Latenz, aber sie ist immer noch gering, wenn Sie über AZ-übergreifende Kommunikation sprechen. Nun, wie Sie diese, Sie wissen schon, niedrige Latenz erreichen können , indem Sie ein mobiles Rechenzentrum oder ein Rechenzentrum in der Nähe von Metropolen haben. Wenn Sie beispielsweise Nord-Virginia sehen, haben Sie hier 14 lokale Zonen. Nun, diese 14 lokalen Zonen werden in viele Orte aufgeteilt. Ich bin mir ziemlich sicher, dass man im New York, äh, wissen Sie, im New York Strip, sowie in den Regionen von Oregon, Bo hier drüben sieben lokale Zonen sehen kann. Sie haben keine lokalen Zonen, was London angeht. Okay, aber Sie haben hier lokale Zonen. Also, was ist eine lokale Zone? Wie ich Ihnen bereits sagte, erweitert die lokale Zone im Grunde Ihren AWS-Service. Also, was ist der erweiterte Service? Sie berechnen Speicher, Datenbank. Diese drei Dienste werden also erweitert, und wo sie erweitert werden, sie näher an NDCER, da sie an einem bestimmten geografischen Standort platziert werden sie an einem bestimmten geografischen Standort Das sind sehr dicht besiedelte Gebiete, okay, sehr dicht besiedelte Gebiete, wo auch immer Sie sich befinden, Sie werden sehen, ob die lokale Zone in der Region Japan liegt Sie können sehen, dass es eine lokale Zone gibt , weil Tokio sehr dicht besiedelt ist. Also haben sie dort drüben eine lokale Zone. So können sowohl die Kunden als auch die Leute, die AWS verwenden, tatsächlich schneller reagieren . Mal sehen, ob Mumbai eine lokale Zone hat Mumbai hat hier auch zwei lokale Zonen, die wiederum für eine schnellere Kommunikation verwendet werden, und die Benutzerbasis wird viel schneller auf Ihre Anwendung zugreifen können, weil Sie näher an der lokalen Zone sind. Nun, die Region Mumbai hat keine Waveland-Zone, das muss daran liegen, der Five G kürzlich in Indien veröffentlicht wurde oder daran liegen könnte, dass kein autonomes Fahrzeug oder ARVR gibt, das so beliebt ist . Sobald es also populär wird und die Leute anfangen, Dinge damit zu entwickeln, und wenn das Echtzeit-Gaming ins Spiel kommt, dann wird AA Blas auch Waveland-Zonen veröffentlichen Im Moment wissen wir also , was wir bisher verstanden haben, ist, dass der Datenbankdienst für den Datenverarbeitungsdienst, der Speicherdienst , näher an den dicht besiedelten Gebieten gehostet wird näher an den dicht besiedelten Gebieten gehostet , was lokale Zonen angeht Dadurch wird die Latenz für Anwendungen, die einen Zugriff mit niedriger Latenz auf ein zugesagtes Rechenzentrum oder auf Benutzer an bestimmten Standorten erfordern zugesagtes Rechenzentrum oder auf Benutzer an bestimmten Standorten Lokale Zonen sind nützlich für Workloads, die eine Kommunikation mit sehr niedriger Frequenz erfordern, aber nicht unbedingt eine extrem niedrige, äh, Wellenlängenlatenz Das sind also die tatsächlichen Unterschiede zwischen beiden, und genau so sieht die Latenz aus, wenn man das macht Jetzt haben wir all diese Latenzprüfungen durchgeführt. Lassen Sie uns eine Latenzprüfung für unsere öffentliche IP-Adresse durchführen. Jetzt weißt du, dass diese öffentliche IP-Adresse hier keine öffentliche IP-Adresse hat, ignoriere sie Nehmen wir also die öffentliche IP-Adresse hier. Also nehmen wir eins davon. Es spielt keine Rolle , für welchen du dich entscheidest. Wenn Sie also einfach die öffentliche IP-Adresse des Servers anpingen, werden Sie feststellen, dass er hier die Latenz hat, aber sie ist sehr gering. Nimm die öffentliche IP RS von diesem und versuche, diesen zu pingen. Es funktioniert aus irgendeinem Grund nicht. Lass uns das einfach auffrischen. Lass uns das hier versuchen. Ja, 1,554 Das ist also im Grunde Ihre öffentliche IP-Adressantwort. Aber was Sie herausgefunden haben, was für Sie sehr gut zu verstehen ist, ist, dass Sie das bekommen, wenn Sie von Region zu Region gehen. Jetzt können Sie auch versuchen, google.com zu pingen, und Sie können hier auch die Zeit abrufen , die Sie benötigen, um zu antworten Sie können auch auf awsotmazon.com nachschauen und Sie können die Uhrzeit hier überprüfen. Das ist also viel schneller als google.com. Das siehst du Das kommt also wieder von cloudfront.net. So kommt es also im Grunde. Also auch hier kommt es von, ich glaube, es kommt auch von so etwas wie einem CloudFrint, der vom Google-Dienst Also, weißt du, es geht im Grunde darum, ähm, du weißt schon, wie man die Latenz herausfindet , so wie sie von Cloudfrint kommt Das ist ein sehr gutes Beispiel. Sie können sehen, dass es viel schneller ist. Als tatsächlich unter einer öffentlichen IP-Adresse zu surfen. Hier surfe ich, ich meine, tut mir leid, dass ich hier eine öffentliche IP-Adresse habe, die 1,25 und 1,54 ist Der Durchschnitt wird hoch sein, aber hier liegt er bei 1,25 und manchmal kommt er mit einem Nullpunkt von 0,8, und das wird den Durchschnitt reduzieren Sie können sehen, dass 11 hier drüben sind und der Durchschnitt hier bei 13 liegt Was bedeutet, dass Cloud Friend wirklich funktioniert. Ich bin gerade am Standort London, die Cloud-Front kommt im Moment vom Standort London. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Ich hoffe, es war hilfreich für Sie zu verstehen, wie Latenz funktioniert und wie Ihre Anwendung in Bezug auf die Latenz funktioniert. Wir haben auch hier eine direkte Verbindung, was wir nicht erklärt haben. Jetzt können Sie sehen, dass das öffentliche Internet hier das höchste ist, wo Sie aufgrund der Netzwerkverbindung und des Routing eine höhere variable Latenz haben eine höhere variable Latenz aufgrund der Netzwerkverbindung und des Routing Und der direkte Anschluss, über den wir gesprochen haben. Das bedeutet also, dass, ähm, Ihre AWS-Infrastruktur direkt mit Ihrer, äh, privaten Infrastruktur verbunden ist. Also auch in dieser Situation man etwa eine Millisekunde bis zehn Millisekunden Also, ich meine, die Wellenlängenzone ist viel schneller als, äh, äh Du siehst, wie beliebt die beiden gerade werden. Bei diesen beiden handelt es sich um neue Einschlüsse. Deshalb haben sie es zu einem Teil dieser Zertifizierung gemacht. Diese werden also im Rahmen dieser Zertifizierung hinzugefügt. In diesem Skill gibt es zwar keine Fragen zu ihnen, aber es ist trotzdem sehr gut, etwas über diese beiden neuen Dienste zu wissen . Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns im nächsten 62. Labs Auto Scaling Group mit dynamischer Richtlinie – Praxisbeispiel: Hallo, Leute. Willkommen zurück zum nächsten Video. In diesem Video werden wir über einen der wichtigsten Services auf AWS sprechen , nämlich Ihr Auto-Skilling Autoski ist nun Teil Ihres EC Two, und es wird meistens als EC two bezeichnet. Autoskilling werden wir uns ansehen, weil es da draußen auch noch andere Auto-Skillings gibt, und darüber draußen auch noch andere Auto-Skillings gibt, reden wir nicht Wenn Sie also hier zur EC Two-Konsole gehen, werden Sie hier unten Autoscaling-Gruppen sehen Nun, das gibt Ihnen eine kurze Vorstellung von Auto Scaling, was es ist, und Sie können die Dokumentation lesen, Sie können sich über und Sie können die Dokumentation lesen, die Vorteile und ähnliches Aber wir wissen bereits, was Autoscaling ist. Wir haben Autoscaling bereits in den vorherigen Videos konfiguriert Autoscaling bereits in den vorherigen Wir haben Auto Scaling auf ECS-Instanz konfiguriert, als wir der ECS-Instanz konfiguriert, als wir Auto Scaling dazu gehörten, und es gab keine Option für Sie, es zu deaktivieren, und nur so geht es weiter Lassen Sie uns die Auto Scaling-Gruppe hier erstellen. Geben Sie nun hier einen Namen für diese Auto Scaling-Gruppe ein. Ich gebe das als HTTP-Server AG, AG als Auto Scaling an. Denken Sie jetzt daran, dass Sie eine Startvorlage benötigen , um eine Auto Scaling-Gruppe zu erstellen. Was ist nun eine Startvorlage? Warum brauchen wir es plötzlich? Ähm, lass mich dir das erklären. Wenn Sie zu Easy to Console wechseln, laufen dort mehrere Instanzen, oder? Also wenn Sie sich diese ansehen, ähm, ignorieren Sie alle beendeten Instanzen Aber wenn jetzt bestimmte Instanzen laufen, können Sie diese Instanzen dann zu einem Teil Ihres Auto-Skillings machen ? Das können Sie nicht Wenn Sie bereits Instances ausführen, können Sie sie nicht zu einem Teil einer Auto-Skilling-Gruppe machen Sie müssen Instanzen mithilfe einer Auto-Skilling-Gruppe von Grund auf neu erstellen mithilfe einer Auto-Skilling-Gruppe von Grund auf neu Das ist die ganze Agenda von Auto-Skilling. Das bedeutet, dass ich keine bestehende Gruppe von Instanzen zur Auto-Skilling-Gruppe hinzufügen kann bestehende Gruppe von Instanzen zur Auto-Skilling-Gruppe Zweitens, wenn Sie sich erinnern, haben wir das ECS gemacht Also mussten wir auch in diesem ECS-Cluster neue Auto-Skiing-Server durch Auto-Skiing über ECS einrichten, genau wie die Server, was Teil der Bereitstellung von Containern ist. Wir mussten eine neue Auto-Scaling-Gruppe erstellen, sodass Sie dann in der Lage sein werden, Umfragen und dann Container innerhalb dieser Gruppe zu erstellen . Hier gilt dasselbe oder dieselbe Logik. Ihre bestehenden Instanzen kommen nicht in Frage. Aber was Sie tun können, ist, wenn Sie eine bestehende Instanz laufen lassen und Sie möchten, Sie wissen schon, einen solchen Instanztyp als Vorlage erstellen möchten, können Sie diese auswählen und mit der rechten Maustaste darauf klicken. Gehen Sie dann zu Image und Template und erstellen Sie eine Vorlage aus dieser Instanz. Es wird also eine Vorlage erstellen, genau wie diese Instanz im Vorlagenbereich. Und diese Vorlage, sobald Sie sie erstellt haben, können Sie hierher kommen und dann die Vorlage auswählen, die Sie erstellt haben. Es tut mir leid, die Sie erstellt haben. Wenn Sie noch keine Startvorlage haben, klicken Sie einfach auf Startvorlage erstellen und wir werden sofort eine neue Startvorlage erstellen. Ich habe bereits eine Vorlage für die Markteinführung, die genau dieser Vorlage entspricht, dieser speziellen Startvorlage. Wir werden uns also ansehen, wie das geht. HDDPI EC Two war also der Name dafür. Das ist also eine Startvorlage. Und sehr einfache Details , die Sie zur Startvorlage angeben werden. Es ist nicht so, ähm, es ist ein komplexes Zeug für alle. Also geben wir einer Startvorlage den Namen. Wir geben den Instanztyp an. Dazu gehören die Instanzgröße und die Instanzfamilie. Wir werden hier auch die Anleitung zum Auto-Skifahren spezifizieren Anleitung zum Auto-Skifahren , ob Sie dafür eine Anleitung benötigen. Lassen Sie es aktiviert sein, wir werden mit den Standardfunktionen weitermachen. Sie werden auch einen Schnellstart auswählen , Betriebssysteme, was diese spezielle Vorlage als Betriebssystem haben soll, also werden wir das auswählen. Dann wählen wir hier im Instanztyp die kostenlose, berechtigte Instanz oder die Instanz, die Sie auswählen möchten, und geben dann Keypare oder die Instanz, die Sie auswählen möchten, auf Kepare ist wichtig, weil Diensten, die im Rahmen des automatischen Scannens erstellt wurden, wir bei den Diensten, die im Rahmen des automatischen Scannens erstellt wurden, hier dasselbe Schlüsselpaar verwenden Jetzt müssen Sie keine Netzwerkeinstellungen angeben, wir können das auch später tun Es werden keine Volumen benötigt. Da Sie sehen können, dass das Allzweck-Volume hier bereits zugewiesen wurde, können Sie es auf etwa 20 GB erhöhen , sodass Sie auf jedem System und jedem Server mehr Dateigröße aufnehmen können . Erstellen Sie also hier eine Startvorlage. Sie sollten es für dich erstellen, aber dieser Name existiert bereits, also werde ich ihn einfach ignorieren. Ich gehe hier rüber und wähle die Instanz hier aus. Ich habe es genauso erstellt , wie ich es dir gerade gezeigt habe. Haben Sie ein Schlüsselpaar, äh, Sie müssen hier mikroskopieren. Es ist kein Spot-Instance. tut mir leid. Klicken Sie also hier auf Weiter und Sie werden die Anforderungen in Bezug auf die Startoptionen hier sehen die Anforderungen in Bezug auf . Hier hat sich also nicht viel geändert. Dies wurde aus Ihrer Startvorlage importiert. Okay. Also aus deiner Vorlage, die dort berichtet wird, oder? Von da an sind diese Einstellungen also wichtig. Eine der wichtigen Einstellungen, die Sie sehen werden, ist die Netzwerkeinstellung. Hier werden wir die Standard-VPC verwenden und hier werden wir alle verfügbaren T-Zonen auswählen Unser Service wird also immer dann in einer der verfügbaren Zonen erstellt , wenn wir die Erstellung des Dienstes anfordern Nun, hier versucht das Auto Scaling nach bestem Wissen und Gewissen für die Availability Zone automatisch , die gesündeste verfügbare Zone einzustellen Wir behalten das als Standardoption bei, fahren Sie mit der nächsten Seite fort Dies sind nun die Optionen für Ihre erweiterten Autoscaling-Optionen hier. Denken Sie nun daran, dass diese Optionen auch zu einem späteren Zeitpunkt geändert werden können . Sie können sie also jetzt hier oder auch später konfigurieren Wir haben also noch keinen Load Balancer, von dem wir nicht erfahren haben, was den Load Balancer angeht Wir werden uns zu einem späteren Zeitpunkt damit Wenn Sie jedoch einen Load Balancer haben und planen, einen vorhandenen Load Balancer hinzuzufügen, können Sie Dieser Load Balancer wird Teil Ihrer Auto-Skilling-Gruppe Dann geht es bei VPC-Salat im Grunde um die Möglichkeit, Ihre VPC-Last-Zielgruppe der Auto-Skilling-Zielgruppe zuzuordnen, was es einfacher macht, die Netzwerkverfügbarkeit zu verbessern, die Netzwerkkapazität und -fähigkeit zu verbessern, und es ist auch einfach zu skalieren Auto-Skilling-Zielgruppe zuzuordnen, was es einfacher macht, die Netzwerkverfügbarkeit zu verbessern, die Netzwerkkapazität und -fähigkeit zu verbessern, und es ist Wenn Sie jetzt jedoch die Option An die VPC angehängt auswählen, müssen Sie eine VPC-Lats erstellen lassen, aber wir sind noch nicht damit fertig, also verwenden wir einfach die Standardoption. Nun, hier im Gesundheitscheck werden wir die Standardoption hier verwenden. El Check ist standardmäßig für die EC Two aktiviert. Sie werden einen Monitoring-Bereich haben in dem Sie sich die Überwachung all Ihrer EC Two-Instances sowie Ihrer Auto Scaling-Gruppe jetzt ansehen können. Aktivieren Sie die Verfügbarkeit fehlerhafte Knoten ersetzen Standardmäßig wird es jedoch aktiviert oder erneut aktiviert, sodass Sie sich darüber keine Gedanken machen müssen Hier handelt es sich um einen verteilten Dienst und das Volumen wird angehängt und es wird dafür verwendet, aber es wird wieder eine separate Gebühr berechnet. Bezug auf die Überwachung sollten Sie die Standardüberwachung verwenden, die im Lieferumfang der Autoscaling-Gruppe enthalten Wir werden derzeit keine Überwachung auf Cloud Watch oder Instance Warm Up aktivieren keine Überwachung auf Cloud Watch oder derzeit keine Überwachung auf Cloud Watch oder Instance Warm Up da alles separat berechnet wird Also werden wir den nächsten durchgehen. Dann ist die gewünschte Kapazität, Mindestkapazität ist eins und die maximale Kapazität ist fünf. Lass uns darüber sprechen. Was ist die gewünschte Kapazität? Gewünschte Kapazität ist im Grunde genommen die aktuelle Kapazität, wenn Sie eine automatische Gruppierungsinstanz erstellen Wie hoch ist die aktuelle Kapazität der automatischen Gruppierung Sie können nicht auf Null gehen, da Ihre Mindestkapazität eins ist Wenn Sie „Gewünscht“ gleich Null und „Minimum“ Eins auswählen, erstellen Sie eine Serverinstanz mit einer Kapazität von Null. Das wird für Sie nicht funktionieren, also sollte es immer das Minimum sein, und der gewünschte Wert sollte bei der Erstellung derselbe sein. Aber was dann passiert, ist, wenn das System feststellt wir nach der Konfiguration der Richtlinie dass wir nach der Konfiguration der Richtlinie derzeit keine Richtlinie Wenn wir eine Richtlinie auf der Grundlage der Richtlinie konfigurieren , würde sich die gewünschte Kapazität ändern Wenn ich eine Richtlinie spezifiziere, z. B. eine gezielte Richtlinie auf dynamischer Ebene, sage ich, dass Sie mehr Service einrichten müssen, um diese Anfrage zu bearbeiten, wenn mein CPO-Durchschnitt 50 Prozent erreicht Sie mehr Service einrichten müssen, um diese Anfrage zu bearbeiten Wenn Sie sich jetzt in einem solchen Szenario befinden, Ihre Richtlinie aktiviert und es wird nach der CPU-Tisierung Wenn es 50 überschreitet, wenn es 50 überschreitet, dann wird die Kapazität automatisch erhöht Das basiert also auf den Richtlinien, die Sie anwenden werden. Also, wenn es für zwei geht, dann ist Ihre gewünschte Kapazität zwei. Ihr Minimum ist eins, das Maximum sind fünf, was bedeutet, dass es in Bezug auf die gewünschte Kapazität bis zu maximal fünf sein kann . Okay? Also das ist es, was wir hier als unsere Regel festlegen. Sie können also auf einer Skala von 1 bis 5 skalieren und wieder auf eins zurückskalieren, da dies die gewünschte Mindestkapazität ist. Hier in der Wartungsrichtlinie haben wir mehrere Optionen angegeben. Dies bedeutet im Grunde, wie viele Server verfügbar sein sollten , wenn eine Instanz gewartet werden muss. Zum Beispiel gibt es einige Wartungsarbeiten, die in Bezug auf die Aktualisierung von Instanzen durchgeführt werden, und es wird festgelegt, wie viele Instanzen maximal verfügbar sein sollten. In dieser Situation gibt es derzeit also keine Richtlinie, was bedeutet, dass es sich um eine neu ausbalancierte Richtlinie handelt, was bedeutet, dass die neuen Instances gestartet werden , bevor andere bestehende Instances beendet Hier gilt dasselbe: Starten Sie vor dem Beenden, was bedeutet, dass eine neue Instance gestartet wird und wartet bis sie bereit sind, bevor die andere Instanz beendet wird Es handelt sich also um eine vorrangige Verfügbarkeit, weshalb dies empfohlen wird Gleichzeitig können Sie gleichzeitig starten und beenden. Aber das beinhaltet ein bisschen, Sie wissen schon, es ist eine Kosteneinsparung, aber dann ist es auch mit ein bisschen Ausfallzeit verbunden. Es ist also immer besser, die Verfügbarkeit zu priorisieren, denn das ist das Ähm, das ist ein bisschen Geld Sie ausgeben müssen, weil Sie diese Instanz hinterlegt haben und warten , bis die Instanz bereit ist, bevor Sie sie beenden, was bedeutet, dass Sie eine zusätzliche Instanz haben werden, die bereit sein wird. Und wenn sie dann bereit ist, wird sie beendet Also das ist immer bereit, es tut mir leid, das ist immer empfehlenswert, wenn man mit einer Registrierung in Echtzeit arbeiten will. Alles klar Das ermöglicht also einen skalierbaren Schutz. Wenn Sie ihn aktivieren, wird Ihr Server immer dann, wenn er versucht, nach oben zu skalieren, vor Skalierung geschützt Das bedeutet, dass sich die Servergröße nicht verringert , da dieser Schutz aktiviert ist Also deaktiviere das ab sofort und klicke auf Weiter. Sie können hier ein SNS-Thema für diese speziellen Fälle hinzufügen , in dem Sie senden können Benachrichtigungen mit einem einfachen Benachrichtigungsdienst Klicken Sie auf Weiter. Das brauchen wir momentan nicht. Fügen Sie hier Steuern hinzu, wenn Sie Text hinzufügen möchten, und klicken Sie dann auf Auto Scaling-Gruppe überprüfen und erstellen. Wir haben eine größere Auto-Scaling-Gruppe. Jetzt ist die Kapazität aktualisiert. Eine Instanz muss erstellt werden. Sie können in der Instanzverwaltung sehen, welche Instanzen hier erstellt werden. Es wird also eine Instanz erstellt und eine Instanz läuft. Um eine gute Übersicht zu haben, können Sie das EC-Dashboard mit den beiden C-Instanzen aufrufen und dort die eine Instanz sehen , die gerade läuft. Nun, das ist dieselbe Instanz , die hier konfiguriert ist. Dies wird also im Grunde durch diese spezielle automatische Skalierung verstärkt Sie können also auf dem Aktivitätsbildschirm sehen, wie die Kapazität tatsächlich um 0-1 erhöht wird Kapazität tatsächlich um 0-1 erhöht Bis jetzt haben wir hier noch keine Richtlinien festgelegt, dies sind die Standardoptionen, die wir eingerichtet haben Was auch immer die Standardoptionen hier sind, Sie können diese Optionen ändern. Sie können Lats sehen. Sie können das Balancing sehen, Sie können Gesundheitschecks sehen. Sie können die Wartungsrichtlinien für Instanzen hier einsehen. Sie können sich die erweiterte Konfiguration in Bezug auf die Summe ansehen, mit der Autoscaling-Gruppe arbeitet Nun, wo ist die Richtlinie? Richtlinie gilt hier Die Richtlinie gilt hier für Auto-Skiing oder automatisches Skinning Hier gibt es drei verschiedene Arten von Richtlinien. Eine davon ist die dynamische Qualifizierungspolitik, prädiktive und geplante Sie können aus einer dieser Richtlinien wählen, wodurch diese Kapazität auf der Grundlage von, ähm, Sie wissen schon, Instanz, ähm, Auslastung und Durchschnittswert der von Ihnen konfigurierten Richtlinie erhöht oder verringert werden kann auf der Grundlage von, ähm, Sie wissen schon, Instanz, ähm, Auslastung und Durchschnittswert der von Ihnen Instanz, ähm, verringert Sie haben den Monitoring-Bildschirm hier, hier können Sie die Überwachung Ihrer Auto Scaling-Instances sehen und Sie können die beiden EC-Instances hier sehen. Wenn Sie mehrere EC Two Instances haben, wird eine konsolidierte Version davon angezeigt. Denken Sie jetzt daran, dass die Überwachung dieser Instances etwas Zeit in Anspruch nehmen würde , bis sie Daten gesammelt hat, denn jedes Mal, wenn Sie eine neue Instance starten, würde es einige Zeit dauern, bis die Daten dieser Instances hier eingetragen sind. In Ordnung. Also lass uns jetzt über die Richtlinien hier drüben sprechen. Die erste Richtlinie, über die ich sprechen möchte, ist die Schaffung einer dynamischen Skalierungspolitik. eine dynamische Skalierungsrichtlinie klicken auf eine dynamische Skalierungsrichtlinie klicken, gibt es hier drei Richtlinientypen. Sie haben die Skalierung der Zielverfolgung. Sie haben die schrittweise Skalierung , also lassen Sie uns zunächst über die Skalierung der Zielverfolgung sprechen . In diesem Fall werden Sie nun eine bestimmte Art von Ressource oder Metriken in Ihrer EC Two-Instance überwachen . Zum Beispiel die durchschnittliche CP-Auslastung. Wenn Sie also sehen, dass die durchschnittliche CPU-Auslastung einen Zielwert von 50 prozentual übersteigt. Es wird eine neue Instanz erstellt oder es wird horizontal skaliert. Jetzt können Sie eine Art Warmup-Instanz erstellen. Aufwärminstanz besteht im Grunde darin, dass bestimmte Zeitpläne, z. B. in Sekunden , vorgibt damit sich die Instanz aufwärmen und dann in den Auto Scaling-Dienst oder Teil des Auto-Scaling-Dienstes sein kann Dieses Beispiel kann ich Ihnen in Bezug darauf geben wann Sie mit Anwendungen arbeiten, was nach dem Start der Instanz etwa fünf bis zehn Minuten dauert nach dem Start der Instanz In solchen Situationen ist es dann immer empfehlenswert, ist es dann immer empfehlenswert diese bestimmte Sekunde fünf bis zehn Minuten vorzugeben, diese in Sekunden umzurechnen und sie hier anzugeben. Dadurch wird sichergestellt , dass die Instanzen nicht in die Auto Scaling-Gruppe gelangen, es sei denn, sie werden, Sie wissen schon, diese 300 Sekunden oder welche Sekunden auch immer Sie hier angeben werden , durchlaufen diese 300 Sekunden oder . Also, das ist der erste hier drüben. Die zweite ist Step-Scaling. schrittweisen Skalierung wird im Grunde die Integration mit Cloud Watch Alarm verwendet. Wenn Sie nun einen Cloud-Watch-Alarm erstellen und dieser Alarm ausgelöst wird, wird die Aktion im Grunde hier übernommen. Jetzt können Sie hier mehrere Optionen hinzufügen , in denen Sie Schritte hinzufügen können. Die schrittweise Skalierung erfolgt grundsätzlich Schritt für Schritt mit der Skala. Wenn mein Alarm zum Beispiel 50 Prozent erreicht, möchte ich hier eine Kapazität oder eine Einheit hinzufügen. Stimmt das? Und dann sage ich hinzufügen und dann wähle ich Cloud Wash habe gerade nichts. Du kannst die Wolke sehen, da ist niemand. Wenn Sie also diesen hinzufügen, können Sie hier einen weiteren Schritt hinzufügen. Und der nächste Schritt könnte das Herunterskalieren sein. Es ist also so, als ob Sie, wenn es am Tag 40% erreicht , herunterskalieren möchten. Es kann also auch dazu dienen, Kapazität zu erhöhen oder Kapazität zu entfernen. Ebenso können Sie mithilfe Ihres Cloud-Wash-Alarms je nach Schritt nach oben oder unten skalieren . Die nächste ist die einfache Skalierung. Also das benutzt auch eine, äh, du weißt schon, Cloud, die, ähm , die gleiche Sache, die gleiche Sache hinzufügt , entfernt, aber du wirst hier nur eine Option haben, das zu tun. Das ist also eher eine einfache Skalierung. Lassen Sie uns also mit der gezielten Skalierung in diesem Artikel fortfahren und dann 20% als Zielwert verwenden, sodass es für uns einfach ist, dies zu tun. Lilicon erstellt und sie sollten Ihre Tracking-Richtlinie erstellen Und mit dieser Tracking-Richtlinie wird die durchschnittliche CPU-Auslastung Ihrer Instanz-Instanz hier nachverfolgt . Derzeit liegt Ihre durchschnittliche CPU-Auslastung bei etwa 2%. Jetzt haben wir hier einen Befehl, der verwendet werden kann, um die Belastung des Systems zu erhöhen Sie können das Pseudo-EmiPhony-Installationsproblem verwenden. Das ist also ein Tool, und dann können Sie diesen Befehl ausführen stressiphon Iphon CPU.to dauert 60 Sekunden, oder Sie können ihn auch zu 600 Sekunden machen oder Es hängt also davon ab, wie schnell Ihre Anwendung gestartet wird. Gehen Sie dazu einfach hierher, wählen Sie Ihre Instanz aus, klicken Sie mit der rechten Maustaste und verbinden Sie Ihre Instanz. Sobald Sie mit Ihrer Instance verbunden sind, können Sie sowohl diese Befehle zur Installation von Stress als auch zur Ausführung der Belastung ausführen ausführen. Also installiere ich gerade Stress. Lassen Sie mich Stress ausführen. Nun, das wird 600 Sekunden lang Stress für eine CPU ausführen, da es sich um 600 Sekunden lang Stress für eine CPU eine T Two-Mikroinstanz handelt. Sie hat also nur eine CPU. Sie können es also selbst hier auf diesem Überwachungsbildschirm überprüfen , ob es erhöht wird oder nicht. Es ist also nicht aktiviert. Okay, es ist also angekommen. Sie können das auch hier auf der EC Two unter Autoscaling Group Passport sehen Two unter Autoscaling Group Passport Wir gehen also davon aus, dass dies zunehmen wird, wenn wir diesen Befehl ausgeführt haben Mit diesem Befehl wird die Last für 600 Sekunden auf eine CPU übertragen. sollte also noch ein paar Minuten dauern, fünf bis zehn Minuten, tut mir leid, Es sollte also noch ein paar Minuten dauern, fünf bis zehn Minuten, tut mir leid, zwei bis 3 Minuten, bis diese Zahlen in Ihrer Überwachung berücksichtigt , bis diese Zahlen in Ihrer Überwachung werden. Dann sollten Sie die erhöhte Auslastung sehen können , und wenn sie 20 Prozent überschreitet, werden Sie feststellen, dass sich die gewünschte Kapazität erhöhen würde. Also werde ich zu Ihnen zurückkommen und irgendwann werde ich das Video pausieren und eine Pause einlegen und Ihnen zeigen, wie das gemacht wird Hey, Leute. Willkommen zurück. Ich war in einer kleinen Pause unterwegs. Also, als ich diesen Befehl ausführte, war das, als ob ich eine kleine Pause machen wollte, also eine kleine Pause wie in mehr als 15, 20 Minuten. Was also passiert ist, ist die Kapazität auf 1—4 erhöht wurde, wie Sie sehen können, und dann auf vier bis fünf gehalten wurde. Dann war die Ausführung des Skripts beendet und dann fing es an, 5-4 zu beenden, und dann können Sie vier bis drei und dann drei bis zwei und dann zwei zu eins sehen dann drei bis zwei und dann zwei zu Es begann, es zu reduzieren und fing an, diese Instanzen zu löschen und zu beenden, was nicht erforderlich ist, da das Skript abgeschlossen wurde und dann das Dateisystem Ich denke, bei der Überwachung werden Sie die genauen Statistiken darüber sehen, was passiert ist Leider wurde die Überwachung nicht durchgeführt. Okay. Sie können es also nicht finden, aber das ist das Gesamtbild der CPU-Statistiken. Ich werde das einfach noch einmal machen. Dies ist die laufende Instanz, also werde ich den CPO auf dieser erhöhen Ich werde nur noch einmal eine Verbindung zu dieser speziellen Instanz herstellen. Ich werde diese beiden Befehle dort ausführen. Also lass uns einfach darauf warten. Also gut, jetzt wird dieser Befehl ausgeführt, also werden Sie die Änderungen sehr bald sehen . Ich werde aktiv sein. Ich war einfach stark abgelenkt, deshalb habe ich das hier gelassen Mal sehen, ob das die Belastung des Systems erhöht. Sparen Sie bei mir. Es sollte sehr schnell reinkommen. Also begann die Last aufzutreten. Ich denke, das ist die AM-Installation, weil die AM-Installation eines Pakets gestresst ist, oder? Also das Netzwerk, weißt du, es gab Eingabe und Ausgabe. Deshalb ist es im Netzwerk aktiv. Aber die CPU sollte momentan aktiv sein. Lassen Sie mich dieses Video pausieren und warten wir, bis die CPU hochgefahren ist Okay, Leute, ich kann also sehen , dass das Update gerade stattfindet. Sie können also in der Überwachung hier sehen, die ACPU-Instanz 49% erreicht hat Wenn Sie also die Aktivität hier drüben sehen, laufen sie hier 1—3 Es hat also verstanden, dass die Zielverfolgungsrichtlinie verletzt wurde, also wurde ein Alarm ausgelöst und aufgrund dessen das Incident Management, Sie sehen, dass zwei weitere Instanzen gebildet wurden und es in Betrieb ist Wenn Sie zur Autoscaling-Gruppe zurückkehren, stellen Sie fest, dass aus der gewünschten Kapazität automatisch drei geworden sind , ohne dass wir Jetzt, wenn die 60 oder 600 Sekunden vorbei sind, oder wenn ich die Steuerung C ausführe, werden Sie feststellen, dass die erstellten Instanzen automatisch beendet werden, und dann werden Sie sehen, dass die Dienste als Einheit in den gewünschten Zustand zurückversetzt Ich habe es storniert. Wenn Sie die Überwachung durch EC Two sehen, werden Sie feststellen, dass es jetzt allmählich abnimmt, und dann werden Sie anfangen, Aktivitäten wie ein automatisches 3:1 -Spiel ohne unser Zutun zu sehen . Lassen Sie mich dieses Video pausieren und Ihnen das auch zeigen. Lass es uns jetzt ansehen. Also werde ich mit der Überwachung beginnen. Also ist die Ladung gesunken. Mal sehen, wie viele Instanzen wir gerade haben. Wir haben drei Instanzen. Lassen Sie mich sehen, ob es einen Plan gibt, es zu Fall zu bringen. Irgendwann nach ein paar Minuten sollte es also heruntergefahren sein, sodass nicht die laufende Skalierung ausgelöst wird, sondern Sie können die Instances vor der Skalierung schützen , sodass Sie tatsächlich aktiv werden und den Skalierungsschutz einrichten können . Das wird also vor Skalierung geschützt sein, wird verhindern, dass dieser spezielle Server skaliert aber ich weiß nicht, warum das jemand tun würde, aber ich sage es Ihnen nur. Es gibt hier auch eine weitere Option, mit der Sie die Skalierung der älteren Umfrage beenden können. Hier muss es irgendwo eine Option geben. In diesem speziellen Punkt, der als Kündigungsrichtlinie bezeichnet wird, kann die Kündigungsrichtlinie so etwas wie in der alten Instanz festgelegt werden. Diese Richtlinie sieht im Grunde vor, dass die Reihenfolge der Kündigung im Grunde die neueste Instanz ist , was bedeutet, dass die neueste Instanz , die erstellt wurde, tatsächlich zuerst beendet wird , tatsächlich zuerst beendet und nicht die alte Instanz. alte Instanz würde dort ewig laufen, bis sie nicht wirklich beendet werden muss. Und hier können Sie Instances für Skalierung und Schutz aktivieren . Jede neue Instanz wird standardmäßig erstellt. Wir werden weitermachen, wissen Sie, Hautschutz, den wir nicht benötigen, weil wir ihn skalieren wollen , wenn es nicht wirklich erforderlich ist. Das ist also der Sinn der Dynamik, bei der man nach oben skaliert und wieder rein skaliert, wenn nicht viel Geld für eine Anfrage ausgegeben wird. Wir geben der Sache etwas mehr Zeit, um zu sehen, ob sie skaliert, weil sie das früher getan hat, also ich denke, es sollte, es ist nur eine Frage der Zeit. Warten wir einfach, bis es mit der Skalierung beginnt. Ordnung, Leute, ich will euch nicht weiter aufhalten , aber das wird, ihr wisst schon, reduzieren und dann werde ich ein weiteres Update dazu posten , wenn ich ein weiteres Video mache. Damit ich euch das zeigen werde. Aber normalerweise dauert es etwa 5 Minuten, fünf bis 10 Minuten, bis es feststellt, dass das System nicht mehr belastet wird , und dann beginnt es zu skalieren, also mach dir darüber keine Sorgen. Ich werde es dir im nächsten Video zeigen. Bevor ich mit dem Video anfange, gebe ich dir nur ein kurzes Update dazu , um dir zu zeigen, dass es das getan hat. Im nächsten Video werden wir über die beiden anderen Richtlinien sprechen, und dann werden wir zur Schließung von Auto Scaling-Gruppen kommen . Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns im nächsten. 63. Labs AutoScaling Load Balancer – Praxisanleitung: Meine Herren, wir kommen zurück zum nächsten Video in diesem Video, wir werden über Load Balancer sprechen In diesem Video werden wir nun weiter vorgehen. Zuvor haben wir den Easy to Load Balancer konfiguriert. Ich habe meine Instance und auch die Load Balancer-Konfiguration dominiert und auch die Load Balancer-Konfiguration In diesem Video werden wir nun mit unserem Load Balancer hier arbeiten . Derzeit habe ich einen Load Balancer und lasse mich diesen löschen In Ordnung, ich habe den Regisseur. In dieser Load-Balancing-Sitzung werden wir die Autoscaling-Gruppe als unseren Load Balancer verwenden als unseren Load Balancer Im Moment haben Sie also keine Autoscaling-Gruppe Es ist kein Load Balancer für Sie verfügbar. eine Autoscaling-Gruppe zu erstellen, was wir zuvor getan haben, müssen Sie eine Vorlage starten Lassen Sie uns jetzt eine Vorlage starten. Klicken Sie auf Vorlage starten und lassen Sie mich diese Vorlage dann als Web-Iphon benennen diese Vorlage dann als Web-Iphon Es ist für AG, dann gebe ich As Autoscaling, Autoscaling Group, ASG an. Wir können es so benennen und dann die Vorlage starten, also machen wir es ASG an. Wir können es so benennen und dann die Vorlage starten, also machen wir es als Startvorlage LT. Das wird nun unsere Webstartvorlage für unsere Autoscaling-Gruppe sein Wenn Sie nun eine Vorlage für eine Auto Scaling-Gruppe erstellen , wird empfohlen, die Autoscaling-Anleitung hier zu aktivieren . wird Ihnen helfen, die Vorlage für EC Two Autoscaling einzurichten die Vorlage für EC Two Autoscaling Das ist das Erste, was du tun wirst. Danach wählen Sie hier den Schnellstart und dann Amazon Linux. Dann erstellen Sie einen Instance-Typ , für den ich T Two Micro und dann das Standardschlüsselpaar, das ich verwenden werde, wählen werde. Und hier können Sie hier eine bestehende Sicherheitsgruppe auswählen . Also werde ich die Standardeinstellung wählen, die jeden Datenverkehr zulässt sodass ich mir keine Gedanken über die Gruppen hier machen muss. Subnetze, Sie können standardmäßig zwei Subnetze oder ein Subnetz auswählen , oder Sie können es einfach so belassen, dass es in Startvorlagen enthalten ist. Das funktioniert also auch Sie müssen sich darüber also keine Gedanken machen und können dann die Netzwerkkonfiguration entfernen. Ich brauche es nicht. Wählen Sie nur die Sicherheitsgruppe aus, die Internetzugang hat. Wählen Sie hier die GB-Größe aus, sodass sie zehn GB beträgt. Jetzt müssen Sie endlich auf die Vorabdetails hier drüben gehen auf die Vorabdetails hier drüben In diesen Details werden Sie diesen Artikel hier kopieren und einfügen. Das vorherige Update 11t statt Hello von EC Two Instance habe ich Hello von Easy auf Auto Scale gesetzt Kopieren Sie das, fügen Sie hier ein und klicken Sie dann auf Vorlage starten Dadurch wird nun eine einfach zu startende Vorlage erstellt. Das ist ziemlich einfach. Die Startvorlage wird erstellt. Lassen Sie uns das überprüfen. Jetzt wurde die Startvorlage erstellt. Als Nächstes wird eine Autoscaling-Gruppe erstellt. Jetzt können Sie Ihren Load Balancer für die Autoscaling-Gruppe bereit halten, falls er vorhanden ist, aber Sie können hier selbst in der Autoskiing-Gruppe einen Load Balancer erstellen , sodass Sie sich darüber keine Gedanken machen müssen Wählen Sie „ Auto-Skining-Gruppe erstellen“ und geben Sie der Autoskeing-Gruppe einen Namen Verwenden Sie dann hier Auto-Skiing-Gruppe von Webfen Dann werden die Df-Details hier geladen. Klicken Sie auf Weiter. Jetzt müssen Sie hier VPC auswählen und die Verfügbarkeitszone auswählen Ich werde hier alle verfügbaren Zonen auswählen, damit mein Service auf alle verfügbaren Zonen verteilt werden kann . Klicken Sie auf Weiter Hier können Sie nun eine Autoskilling-Gruppe ohne Load Balancer auswählen oder einen vorhandenen Load Balancer anhängen, wo Sie aus dem vorhandenen Load Balancer auswählen können, oder Sie können einen wo Sie aus dem vorhandenen Load Balancer auswählen können neuen Load Balancer erstellen Autoskilling-Gruppe ohne Load Balancer auswählen oder einen vorhandenen Load Balancer anhängen, wo Sie aus dem vorhandenen Load Balancer auswählen können, oder Sie können einen neuen Load Balancer erstellen. Wenn Sie jetzt einen neuen Load Balancer erstellen, können Sie mit der Auto-Skilling-Gruppe nur noch entweder einen Network Load Balancer erstellen können Sie mit der Auto-Skilling-Gruppe nur noch entweder einen Application Load Balancer oder einen Network Load Balancer erstellen. Da es sich um einen Anwendungsinhalt handelt, erstellen wir einen Application Load Balancer, und dann wird der Load Balancer-Name HSLB oder ALB sein erstellen wir einen Application Load Balancer, und dann wird der Load Balancer-Name HSLB oder ALB sein. Das heißt, das ist Application Load Balancer. Interner Internetanschluss Wählen Sie Internetanschluss. Sie können diese Subnetze nicht deaktivieren, da wir aus allen Subnetzen oder Availability Zones eine Auto-Scan-Gruppe erstellt haben Auto-Scan-Gruppe allen Subnetzen oder Availability Zones Alle Availability Zones sind für Ihren Load Balancer ausgewählt Und dann haben Sie hier die HTTP-Portnummer, Sie können auch andere Portnummern hinzufügen Sobald Sie dies nicht gerade erstellt haben, aber sobald Sie es erstellt haben, können Sie zur Load Balancing-Konsole gehen und dem vorhandenen Load Balancer weitere Listener hinzufügen Aber bei der Erstellung können Sie hier nur einen Listener hinzufügen, das sind acht Listener, das ist ein Standardlistener . Dann können Sie hier die Zielgruppe auswählen. Jetzt können Sie eine bestehende Zielgruppe auswählen oder eine neue Zielgruppe erstellen. Dadurch wird tatsächlich ein TG erstellt. Ich gebe hier nur einen Namen. Ich erstelle automatisch eine Zielgruppe. Du musst sie nicht spezifizieren. Wenn Sie sich erinnern, haben wir in der vorherigen Version eine Zielgruppe erstellt. In dieser Zielgruppe haben wir, ähm, wir hatten eine Liste von Instanzen, die erstellt wurde, und dann haben wir die bestehende Instanz in unsere Zielgruppe importiert und dann diesen bestimmten Instanzteil der Zielgruppe gespeichert oder registriert . Jetzt müssen Sie das nicht mehr tun, denn wenn Sie AG um oder Auto-Skilling-Gruppe erstellen , werden Sie unabhängig den Auto-Skilling-Gruppeninstanzen sein, automatisch zu dieser Zielgruppe hinzugefügt werden Sie müssen nicht wirklich jede Instanz hinzufügen oder jede Instanz Ihre Zielgruppe registrieren Ich sollte automatisch hinzugefügt werden. Deshalb habe ich gesagt, dass Sie im Rahmen der Load-Balancing-Konfiguration eine Zielgruppe erstellen Rahmen der Load-Balancing-Konfiguration eine Zielgruppe . Sobald Sie damit fertig sind, sagen wir hier, dass wir Lets VPC nicht benötigen , und dann gehen wir zur Standardkonfiguration über, aktivieren irgendeinen dieser Überwachungsdienste oder so, weil es zusätzlich berechnet wird zusätzlich berechnet Klicken Sie auf Weiter Diese Kapazität ist eins, Mindestkapazität ist eins, maximale Kapazität ist fünf Also Auto-Skiing-Richtlinie optional, Ziel Auto Scaling. Hier haben Sie also die Möglichkeit, auszuwählen welche Art von Richtlinie Sie auswählen möchten. Es gibt also die Option „Kein Auto-Skiing“, bei der Sie wie wir das später tun können, oder wir können uns für die Standardrichtlinie wie wir das später tun können, oder wir entscheiden, die auf gezielte automatische Skalierung und einen CPU-Durchschnittswert von 80 Prozent basiert Sobald der CPU-Durchschnittswert also 80% erreicht, werden neue Instanzen gestartet Okay. Priorisieren Sie jetzt die Verfügbarkeit, indem Sie sie vor dem Beenden starten, eine Instance starten und sie registrieren lassen, bevor Sie sie aus Wartungsgründen beenden Und dann wollen wir den skalierbaren Schutz nicht aktivieren. Wir haben also bereits in den vorherigen Videos darüber gesprochen . Gehen wir zum nächsten Bildschirm, und dann wollen wir kein SNS Gehen wir also zum nächsten Bildschirm. Wir möchten keine Tags hinzufügen und dann auf Automatische Screening-Gruppe erstellen klicken. Jetzt wird diese Auto-Skilling-Gruppe erstellt, und dann wird Ihr Load Balancing erstellt Also werden all diese Aktionselemente erstellt. Sie können sehen, dass eine Autoscaling-Skilling-Richtlinie, Load Balancer, eine Zielgruppe, ein Listener und auch eine Sie werden also sehen, dass jetzt eine Instanz läuft. Okay? Wenn die Instanz als erste Instanz erstellt wird, ist es ein gewünschter Zustand. Load Balancer hätte erstellt, damit Banza erstellt wurde, Zielgruppe wäre erstellt worden, wie Sie hier sehen können Lassen Sie mich den alten entfernen, das sorgt nicht für Verwirrung Dann hast du die Auto Scaling-Gruppe erstellt. Wenn Sie in die Autoscaling-Gruppe gehen, stellen Sie fest, dass sie die gewünschte Kapazität erreicht minimale und maximale Kapazität wird hier definiert. Sie haben alle anderen Konfigurationselemente. Wenn Sie zur Skalierungsrichtlinie wechseln, haben wir die dynamische Skalierung aktiviert. Das ist für 80 Prozent hier , CPU-Auslastung. Instanzverwaltung, wir haben nur eine Instanz konfiguriert, das ist die gewünschte, und dann Überwachung und anderes dann Überwachung und Wir gehen zum Load Balancer, er nennt ihn Load Balancer Sie werden sich die Regeln für die Zuhörer besorgen. Der Standard-Listener konfiguriert also und fügt bei Bedarf zusätzliche Listener Und beim Netzwerk-Mapping können Sie sehen, dass diese Zuordnung allen Zonen , allen Verfügbarkeitszonen, die in der Region verfügbar sind, zuordnet Wenn Sie dieses Ressourcen-Mapping sehen, der HTTP-AT-Listener Verbindung zur Regel der Zielgruppe her, und dann wird die Zielgruppe angezeigt und innerhalb der Zielgruppe ist die Serverinstanz, die wir und dann wird die Zielgruppe angezeigt und innerhalb der Zielgruppe ist die Serverinstanz, die wir konfiguriert haben, bereits aktiviert Also musstest du hier nicht wirklich etwas tun. Die Zielgruppe hat also automatisch auf diese spezielle Instanz verwiesen , die hier läuft. Schauen wir uns die Website an, um zu sehen, ob sie funktioniert. Zuerst werden wir diese einzelne Website durchsuchen und sehen, ob eine funktioniert. Kopieren wir die hier eingefügte IP-Adresse. Da hast du's. Hallo von Autoscale Einfach automatisch zu skalieren. Die Instanz funktioniert. Mal sehen, ob die URL für den Lastenausgleich funktioniert oder nicht. Kopieren Sie den DNS-Namen hierher und geben Sie ihn dann dort aus. Prüfen Sie, ob die Load-Balancing-URL einwandfrei funktioniert und ob die Low-Balancing-URL ebenfalls einwandfrei funktioniert. Das ist eine gute Nachricht. Sie können es sowohl von der Instance als auch vom Load-Balancing aus direkt aufrufen. Nun, wenn es eine Anforderung gibt dass der Server hochskaliert werden muss oder, es tut mir leid, nach unten skaliert werden muss, können Sie das autonom tun, können Sie das autonom tun weil Sie eine Richtlinie festgelegt haben, was bedeutet, dass Sie, wenn Ihre CP-Auslastung 80 Prozent erreicht, 80 Prozent erreicht, mehr Instanzen einrichten werden, um die Last zu bewältigen, und sie wird auch skaliert , weil , dass der Server hochskaliert werden muss oder, es tut mir leid, nach unten skaliert werden muss, können Sie das autonom tun, weil Sie eine Richtlinie festgelegt haben, was bedeutet, dass Sie, wenn Ihre CP-Auslastung 80 Prozent erreicht, mehr Instanzen einrichten werden, um die Last zu bewältigen, und sie wird auch skaliert , weil wir das nicht tun aktivieren Sie den Schutz durch Skalierung des Schutzes Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben, um die Autoscaling-Gruppe zu entfernen, sodass die meisten Elemente verloren gehen würden Und dann müssen Sie möglicherweise Ihren Um, Ihre Zielgruppe und Ihren Load Balancer manuell löschen Zielgruppe und Ihren Load Balancer Sie müssen Ihre Startvorlage ebenfalls manuell löschen. So müssen Sie also ein Rollback durchführen. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns beim nächsten. 64. Labs EC2 Load Balancer – Praxisanleitung: Hallo Leute. Willkommen zurück zu einem anderen Video. In diesem Video werden wir über die praktische Erfahrung mit Load Balancer sprechen die praktische Erfahrung mit Load Balancer Im vorherigen Video hat M verstanden, dass der Load Balancer unter dem EC Two Service Dashboard verfügbar ist Und darunter werden Sie den Load Balancer haben. Jetzt werden Ihnen mehrere Load Balancer zur mehrere Load Balancer Also werden wir zunächst den Application Load Balancer über eine separate EC Two-Instance konfigurieren Application Load Balancer über eine separate EC Two-Instance Lassen Sie uns nun weitermachen und eine EZ Two-Instance erstellen, mit der wir arbeiten können Nun, diese EC-2-Instance sollte etwas zu, wissen Sie, etwas haben , das darauf gehostet wird, sodass wir sie leicht durchsuchen können. Oder um darauf zuzugreifen. Nehmen wir an, HTTP ist ein sehr verbreitetes Beispiel , das wir normalerweise verwenden, weil es das einzige ist, was Sie auf unserer Website tatsächlich durchsuchen können . Das ist also viel einfacher. Also, was ich in diesem Video machen werde , ist, dass ich zuerst eine Instanz von EC Two starte und sie dann als Webpon-Server oder Siphon One erstelle Webpon-Server oder Siphon Das ist also die erste Instanz von Web EC 21. Es wird dringend empfohlen, dass Sie hier Auto Scaling verwenden, anstatt einen EC-2-Instance-Start durchzuführen denn wenn Sie eine Instance starten, bedeutet das im Grunde, dass Sie nur eine Server-Instance davon haben. Kein Problem, Sie können einen weiteren Server hinzufügen und ihn dann Teil der Gruppe machen. Das ist also auch da. Aber wenn Sie einen Dienst wie diesen manuell erstellen, besteht eine gute Chance, dass ihn jemand anderes auch löscht weil selbst Sie einen Löschschutz und all diese Dinge haben , aber ein einzelner Dienst wie dieser nicht unter Lastenausgleich oder Hochverfügbarkeit fällt Das ist also etwas, das Sie in Betracht ziehen sollten. Aber in diesem Beispiel werden wir das tun. Im nächsten Beispiel werden wir über Autoscaling und das Hinzufügen des Load Balancers sprechen Autoscaling und das Hinzufügen des Load Balancers Wir werden uns diese Perspektive ansehen, also werden wir uns für Amazon Inuxie entscheiden Wir werden D bis Micro wählen. Wir werden den Standardschlüssel wählen , den ich hier habe. Wir werden eine bestehende Sicherheitsgruppe auswählen, die wir bereits verwendet haben, die sogenannte Standardsicherheitsgruppe, die die Verkehrsverbindung von überall aus ermöglicht. Wenn wir also auf Gruppenregel vergleichen klicken, können wir sehen, dass damit jeder eine Verbindung zum Server herstellen kann. Es tut mir leid, eine Verbindung zu Ihrer Infrastruktur herzustellen, unabhängig davon die Sicherheitsgruppe zugewiesen ist Also habe ich einfach auf Abbrechen geklickt. Also, jetzt ist die Sicherheitsgruppe etwas, auf das wir überall zugreifen werden. Dann werde ich hier Story Ten GB konfigurieren. Es wird nicht so viel Platz benötigt. HGB funktioniert gut, aber ich werde das tun. Starten Sie die Instance jetzt nicht. Da wir das tun werden. Es gibt zwei Möglichkeiten , das zu tun, okay? Sie können die Instance starten und dann eine Verbindung zur Instance herstellen und dann HTTP installieren und dort HTTP konfigurieren. Auf der Instanz. Aber anstatt das zu tun, werden wir es nur mit diesem machen. Wenn Sie hier auf Erweiterte Details klicken und wenn Sie nach unten kommen, stehen Ihnen optionale Benutzerdaten zur Verfügung. Hier können Sie Hash und dann Exclamatory Bin Bash eingeben, und dann können Sie um update, IPhony eingeben Dadurch wird ein allgemeines Update durchgeführt, und dann installiere ich IPhony HTTPD. Dies ist der Prozess, den wir installieren und dann wiederholen möchten installieren und dann Dies ist die GVO-Seite von EC Two Instance H. Sie können H One auch hier eintragen, dadurch wird es hervorgehoben. Dann H GMO Du kannst das kopieren und es auch auf die Vorderseite setzen und den Schrägstrich entfernen Das wird also in einer Datei wiedergegeben, die im Grunde der Standard-Seitenindex für HMO, Unterwäsche, W GMO , Index H GMO Das ist also die Datei, auf die es aktualisiert wird. Und dann System CTL, starte HTDPD-System CTL, aktiviere HTDPD Dadurch wird der HTTPD-Dienst gestartet und auch der HTTPD-Dienst aktiviert . Wenn das System neu gestartet wird, wird es also im Grunde gestartet. Ich habe diesen hier drüben hingelegt. Sie können einen Screenshot davon machen. Das ist im Grunde der Befehl. Es ist ein sehr einfacher Befehl, hier gibt es keine Komplikationen. Im Grunde aktualisiere ich Yum, installiere HTTPD, erstelle diese spezielle Zeile und ersetze sie im Standardindex Ich starte und aktiviere HTTPD. Das ist es. Klicken Sie jetzt einfach auf Launch Instance. Wenn Sie jetzt die Instance starten, müssen Sie nicht wirklich eine Verbindung zur Instance und HTTP installieren, da diese Elemente im Rahmen der Instanzerstellung ausgeführt werden . nach dem Start dieser Instanz Wenn Sie nach dem Start dieser Instanz einfach zu den laufenden Instances wechseln und diese aktualisieren und dann diese auswählen und die öffentliche IP-Adresse haben, kopieren Sie diese öffentliche IPRRSPase hierher und geben Sie einen HTTP-Doppelstrich ein. Es wird erwartet, dass Sie die Seite sehen, über hierher und geben Sie einen HTTP-Doppelstrich ein. Es wird erwartet, dass Sie die Seite sehen die Es kann einige Zeit dauern, da es möglicherweise Yam aktualisiert und dann die Komponenten installiert, sodass es etwas Zeit in Anspruch nehmen kann Aber das solltest du dir ansehen. Hallo von Easy to install. Lassen Sie Control aktualisieren. Ich glaube, ich habe es von „hello“ von „easy“ auf „instance“ ersetzt. Ich glaube, ich habe es ersetzt, indem ich es woanders kopiert habe. Das sind also die Formulierungen, die wir endlich aufgenommen haben. Hallo von easy to instance, und das sind die gleichen Seiten hier unter dieser IP-Adresse auftauchen Perfekt. Nachdem wir die Konfiguration der Instanz abgeschlossen haben, konfigurieren wir den Load Balancer Jetzt wählen wir den Standard-Load Balancer für jede Anwendung aus, bei dem es sich um Ihren Application Load Balancer handelt Ihren Application Load Balancer Hier nennen wir es Webby Fin ALB Jetzt müssen Sie sicherstellen, dass Sie mit dem Internet verbunden sind, da Sie sonst nicht darauf zugreifen können Sie werden die DNS-Adresse nicht erhalten und Sie werden nicht von meinem Desktop aus durchsucht Stellen Sie also sicher, dass es mit dem Internet verbunden ist und dass es sich um eine IP-Adresse handelt Version vier ist aktiviert Dual-Stack bedeutet, dass Sie Version vier und Version sechs erhalten , und Dual-Stack ohne Version vier bedeutet , dass Sie nur die IP-Adresse der Version sechs erhalten . Das ist so ziemlich, dass wir uns im Moment für Version vier entscheiden werden . Das mit den Hintergrundgeräuschen tut mir leid. Also hier habe ich die VPC-Konfiguration hier drüben. Jetzt, in dieser VPC, habe ich diese ganze Availability Zone Es ist zwingend erforderlich, dass Sie Zone auswählen mindestens zwei verfügbare Zonen und jeweils ein Subnetz pro Sie können auch alle Zonen auswählen. Es gibt keine Probleme damit. Ihr Service, der in dieser Hinsicht anwendbar ist, wird also Teil davon sein, und Ihr Low-Balancer wird ebenfalls Teil aller Zonen sein Lassen Sie mich also zwei oder drei Zonen auswählen, die benötigt werden. Also werde ich mich hier für vier Zonen entscheiden. Die Sicherheitsgruppe ist dieselbe, die für die Standardgruppe ausgewählt wurde, also ist die Standardgruppe ausgewählt. Dann ist hier die Listener-Konfiguration. Das ist der sehr wichtige Teil davon. Nehmen wir zum Beispiel an, Ihre Anwendung funktioniert auf HTTP oder sie funktioniert auf HTTPS, entweder. Aber wenn Ihre Anwendung sowohl auf HTTP als auch auf HTTPS funktioniert , ist das kein Problem. Sie können hier einen weiteren Listener hinzufügen, z. B. Listener hinzufügen. In diesem können Sie HTTPS konfigurieren. Sie können 443 sehen und dann eine Zielgruppe auswählen. Aber meine Anwendung läuft derzeit nur auf HTTP. In diesem Szenario möchte ich keinen weiteren Listener für HTTPS hinzufügen Aber was Sie tun müssen, ist, dass wir hier etwas auswählen müssen , das als Zielgruppe bezeichnet wird Sie werden keine Zielgruppe sehen. Ich bin mir nicht sicher, warum ich hier die Zielgruppe sehe. Dann entferne ich diese Zielgruppe. Ich glaube, ich habe Aktion D entfernt. Sie wurde entfernt. Lass mich das auffrischen. Ich hab's. Zielgruppe, was ist eine Zielgruppe? Warum müssen wir eine Zielgruppe erstellen? Jetzt erstellen wir den Load Balancer? Aber in dieser Load Balancer-Konfiguration, die wir bisher gemacht haben, gibt es keine Methode zur Angabe des Ziels, oder? Wir sagen, dass mein Load Balancer mit dem Internet verbunden sein sollte, sodass Benutzer aus dem Internet darin surfen können sollten Wir sagen, die Netzwerkkonfiguration für meinen Lastenausgleich sollte mein Lastenausgleich in diesen, ähm, vier Verfügbarkeitszonen in dieser VPC eingerichtet werden ähm, vier Verfügbarkeitszonen in dieser VPC Aber wir sagen nicht, wohin es gehen muss, wohin die Anfrage weitergeleitet werden muss In unserem Fall ist das unsere Anfrage, an unsere Instanzen weitergeleitet zu werden , hier drüben Derzeit läuft nur eine Instanz, was im Internet einfach zu handhaben ist Nun, wie ich das von der Roadbalancer-Seite aus angehen werde das von der Roadbalancer-Seite aus Das nennt man eine Zielgruppe. Eine Zielgruppe zielt entweder darauf ab, ich zeige es dir, wenn ich auf Erstellen klicke. Wenn ich auf Create klicke, siehst du, dass es entweder auf Instances abzielen kann. Sie können mehrere Instanzen auswählen und sie zu einem Teil des Roadbalancers machen. Es wird jedoch dringend davon abgeraten, dies zu tun, aber das ist die wichtigste Methode, die Sie verstehen sollten Wenn Sie den Load Balancer konfigurieren, ist dies das Erste, was Sie tun müssen Um den Balancer über Instanzen und dann über Auto Scaling und dann über die Lambda-Funktion zu konfigurieren , was auch immer Sie tun möchten, Sie können es später tun Dies unterstützt nun den Lastenausgleich von Instanzen innerhalb einer VPC oder einer bestimmten VPC und erleichtert auch die automatische Skalierung von EC Two Wir werden später über Tochterskalierung sprechen Wie werden wir den Load Balancer für einen späteren Zeitpunkt konfigurieren Load Balancer für einen späteren Zeitpunkt Oder Sie können eine IP-Adresse auswählen, unter der Sie auch Load Balancer-VPC und On-Promises-Ressourcen unterstützen können unterstützen auch Load Balancer-VPC und On-Promises-Ressourcen Außerdem erleichtert sie das Routing mehrerer IP-Adressen und mehrerer IP-Adressen Anstelle von Instanzen können Sie auch eine IP-Adresse wählen. Sie können auch Lambda-Funktionen oder auch den Application Load Balancer auswählen Application Load Balancer gehört ebenfalls zur Zielgruppe Wenn Sie also den Network Load Balancer verwenden, können Sie die Zielgruppe verwenden, um den Application Load Balancer gezielt anzusprechen Dann können Sie dem Application Load Balancer hier Informationen darüber geben , welcher Teil der Zielgruppe ist, welche die nächste ist Wir haben noch keinen Application Load Balancer erstellt, wir sind dabei, ihn zu erstellen Ich habe nicht auf die Schaltfläche Load Balancer erstellen geklickt, daher wurde er noch nicht erstellt Also werden wir uns für die Option Instanzen entscheiden. Hier werde ich es als Web-iPhone-Zielgruppe schaffen, Iphone TG sagt Zielgruppe. Und hier konzentriere ich mich auf meine Zielgruppe, die sich auf diesen TCP-Port von 80 konzentrieren wird. Meine Anwendungen, die in dieser Instanz ausgeführt werden, werden unter diesem speziellen, ähm, Protokoll und, ähm, der Portnummer laufen. Sie haben auch die Möglichkeit, direkt HTTPS auszuwählen. Okay, was ist also auf die AD-Portnummer ausgerichtet. Anstatt TCP auszuwählen, können Sie also direkt HTTPS auswählen, tut mir leid, HDDP Wenn Sie also HTTPS in Ihrer Anwendung aktiviert haben, können Sie HTTPS auswählen Aber in diesem Vanilla-HTTP ist nur HTTP aktiviert. Okay, nicht HTTPS. Nun, hier können Sie die Standard-VPC sehen. Sie können das HTTP-Protokoll sehen. Hier können Sie einige der Attribute des HTDPelTH-Prüfprotokolls sehen , das Kontext-Root, das Ihr Stammverzeichnis ist Ebenso sehen Sie hier einige Standardoptionen und klicken dann auf Weiter Jetzt müssen Sie hier Ihre Ziele auswählen oder registrieren. Ab sofort ist die verfügbare Instanz, die sich im laufenden Zustand befindet, diese bestimmte Instanz. Hier haben wir unseren Web-HTTP-Server gehostet Klicken Sie unten einfach auf Include pending. Jetzt unten als ausstehend einschließen. Wenn Sie das tun, können Sie sehen, dass diese verfügbare Instance zu Ihrer Zielinstanz wird. Sobald sie zu Ihrer Zielinstanz geworden ist, können Sie auf Create Target Group klicken. Sobald die Zielgruppe erstellt ist, sehen Sie hier die Gesamtzahl der Ziele als ein einziges und derzeit unbenutztes und erstes Ziel. Im Moment wurde sie noch keinem Load Balancer zugeordnet, aber wir werden das tun Nachdem Sie die Zielgruppe erstellt haben, können Sie diese schließen und dann zu Ihrem vorherigen Bildschirm zurückkehren , auf dem Sie die Zielgruppe auswählen müssen Klicken Sie einfach auf Aktualisieren und wählen Sie dann die Zielgruppe aus, die Sie erstellt haben. Nachdem Sie die Zielgruppe ausgewählt haben, können Sie weitermachen und auf Balancer erstellen klicken Es gibt einige erweiterte Optionen für die Zielgruppe, auf die wir zu einem späteren Zeitpunkt eingehen werden wenn dies erforderlich ist. Aber ab sofort können Sie sehen, dass der Zuhörer und die Regel hier drüben besagt , dass sie das GDB-Protokoll AD haben, das an Ihre Web-Zielgruppe weitergeleitet wird Web-Zielgruppe wird die Instanzen haben , die Teil davon sein werden Stickyession ist Stickiness ist Stickiness ist nichts anderes als eine Ressource. Wenn eine Anfrage an eine bestimmte Serverinstanz weitergeleitet wird, wird dadurch sichergestellt, dass diese Jedes Mal, wenn diese Information oder das Browser-Cookie eingeht dieser bestimmte Benutzer die Anfrage ständig aktualisiert, landet er auf demselben Server , der zum ersten Mal verarbeitet wurde Das wird als Sticky Session bezeichnet. Das muss auf Zielgruppenebene aktiviert werden. Das ist deaktiviert, das ist okay. Jetzt können Sie sehen, dass Sie 100% erhalten, was bedeutet, dass der Dienst , der konfiguriert ist diese Zielgruppe konfiguriert ist, zu 100% verfügbar ist. Dann gibt es noch eine Regel, und wenn Sie auf die Regel klicken, können Sie die Regelinformationen verstehen, zum Beispiel, wie das Routing abläuft. Eines der wichtigsten Dinge, die ich Ihnen im Load Balancer zeigen möchte , ist das Netzwerk-Mapping In der Netzwerkkartierung können Sie all diese, ähm, Sie wissen schon, Server sehen , oder tut mir leid, all die verfügbaren T-Zonen und Subnetze für diese verfügbaren T-Zonen sind hier abgebildet. Eine weitere wichtige Sache, die ich Ihnen zeigen möchte, ist die Ressourcenzuweisung hier drüben. Die Ressourcenzuweisung zeigt Ihnen deutlich, wie sie zugeordnet ist. Wenn also jemand reinkommt und auf diesen DNS-Namen zugreift, wird er zu diesem HDP-AD gelangen und dann gibt es hier im Grunde eine Regel, die hier im Grunde eine Regel, an die Zielgruppe weiterleitet Der Name der Zielgruppe ist Web iPhone TG, und diese Zielgruppe hat ein Ziel innerhalb dieser bestimmten , äh, Gruppe und es gibt nichts Ungesundes und die Zielgruppe ist diese spezielle Instanz ausgerichtet, die EC Two-Instanz Es gibt Ihnen die vollständige Hierarchie und wie die Anfragen an die nächste Person weitergeleitet werden. Diese grundlegenden Informationen geben Ihnen Informationen darüber, wie die Informationen weitergegeben werden. Jetzt können Sie sehen, dass die Überwachung nicht so weit fortgeschritten wäre, aber die Überwachung informiert Sie über die Leistung der ELB, wie viele, 500 Fehler, 400 Fehler und all die Fehler, die genauso fokussiert sind oder die Sie gerade erhalten haben Sie können es auch in andere AW-Dienste integrieren , was wiederum zusätzliche Kosten verursacht, wie WAV oder Config oder Global Ich werde Ihnen auch die vollständigen Informationen zu diesen Aktionspunkten Wir sind nicht hier, um all diese Dinge zu konfigurieren. In Sicherheitsgruppen haben wir die SG, die wir standardmäßig in den vorherigen Videos erstellt haben , dieselbe Sicherheitsgruppe, die wir hier auswählen. Das fasst die Konfiguration ziemlich gut zusammen. Lass uns weitermachen und das durchstöbern. Zum Surfen kopiert es den DNS-Namen und ersetzt dann einfach diesen anstelle der IP-Adresse. Wenn Sie die Eingabetaste drücken, wird HTTPS aufgerufen. Achten Sie nur darauf, dass Sie HTTP auswählen. Ich glaube, es kam auf HTTP. Jetzt nur um die Aktualisierung zu steuern und Sie können sehen , dass diese Instanz hierher kommt. Das ist so ziemlich das, was ich Ihnen zeigen möchte , wenn Sie zum Beispiel eine weitere Instanz erstellen . Was wir tun werden, ist, ein weiteres Web-iPhone EC zu erstellen , zwei oft zwei. In diesem Fall werden wir dann alles als Standard belassen. In diesem Fall werden wir dasselbe kopieren und einfügen und dann sagen, wie beim Ken-Server hier. Wir werden hier zusätzliche Informationen geben , die besagen, dass es sich um einen zweiten Server handelt, also wähle ich das Schlüsselpaar aus und starte es. Jetzt startet es also die Instance. Jetzt haben wir unserem bestehenden Server eine neue Instanz hinzugefügt . Warten wir nun, bis die Instanz initialisiert ist, also wird sie initialisiert Nun, was wir nach der Initialisierung tun , werden wir diese Instanz durchsuchen, um zu sehen, ob diese Instanz einzeln einwandfrei funktioniert Äh, huh. Ich glaube, es kommt immer noch Ja, es würde einige Zeit dauern, bis es verfügbar ist und dann lecker aktualisiert wird und Komponenten und all diese Dinge installiert Es wird ein bisschen Zeit in Anspruch nehmen. Also lass uns einfach sehen , ob das gut funktioniert. Ich werde dieses Video pausieren sobald es fertig ist. Ich will dich nicht aufhalten Nun, es funktioniert nicht wegen der Sicherheitsgruppenkonfiguration, also werde ich das einfach ändern. Also werde ich die Sicherheitsgruppe einfach auf eine andere ändern , die wir normalerweise verwenden. Also gehe ich einfach zur Sicherheit und ändere die Sicherheitsgruppe. Und dann werde ich das einfach entfernen und ich wähle den Standard aus und füge ihn hinzu. Also das sollte das Problem beheben. Also, ja, sag hier. Jetzt hast du den Namen der zweiten Instanz hier drüben. Wenn Sie also die erste Instanz durchsuchen, erhalten Sie diese Instanz, und dann wird der zweite Server diese Instanz aufrufen. Ab sofort durchsuchen wir sie also einzeln auf dieser IP-Adresse direkt auf dem System. Jetzt werde ich hinzufügen, alles, was ich tun muss, ist, dass ich die Straßenbalance hier nicht ändern muss. Ich muss nichts tun. Gehe zur Zielgruppe. Ähm, wählen Sie die Zielgruppe aus und dann muss ich nur noch dieses Ziel registrieren. Klicken Sie einfach auf Ziel registrieren und wählen Sie die zweite Instanz aus, die hier drüben ist. erste Instanz ist bereits da, wählen Sie eine zweite Instanz der ausgewählten aus und fügen Sie sie dann unten in die Liste ein und registrieren Sie dann ausstehende Ziele. Jetzt haben Sie zwei Ziele. Nun, das ist ein sehr gutes Beispiel Ich möchte Ihnen zeigen, wie Sticky Session funktioniert. Standardmäßig Sticky Sessions auf SP, was bedeutet dass ich standardmäßig keine Sticky Session habe, was bedeutet, dass, wenn ich das aktualisiere, richtig, also ich einen zweiten Server bekomme, wenn ich ihn erneut aktualisiere, werde ich ihn vom ersten Server bekommen. Das ist also die Sache, wenn die Sticky Session deaktiviert ist. Sie bekommen tatsächlich jedes Mal, wenn Sie aktualisieren , Ihre Anfrage, Sie wissen schon, an einen anderen Server gesendet. Das ist im Grunde die Round-Robin-Methode. Wenn Sie also sehen, dass ALB standardmäßig konfiguriert ist , Round-Robin-Methode Das bedeutet also, dass Ihre Anfrage eine nach der anderen bearbeitet wird Äh, auf jeden Server, den es hat. Also das ist die Deform-Methode, bei der Ihre Anfrage als Teil der Methode weitergeleitet wird Hier können Sie sehen, dass die Überwachung begonnen hat zu funktionieren. Es wurden zwei Überwachungen eingeführt. Erstens die Antwort, Entschuldigung, Anfrage, die Anzahl der eingegangenen Anfragen und die Antwortzeit. Dann sind ein paar andere in Bezug auf Fehler hierher gekommen. Es gibt also diesen 404-XX-Fehler, was bedeutet, dass etwas, das damit zusammenhängt es Erlaubnis verweigert oder die Datei , die Erlaubnis verweigert oder die Datei nicht gefunden wurde oder etwas Ähnliches, könnte 400 X sein. Also 404403 würden all diese Ausnahmen kommen und hier angezeigt werden und dir sagen, wie viele Ausnahmen von deinem Load-Balance auf dich zukommen deinem Load-Balance auf Also eine sehr nützliche Methode, ihn zu identifizieren. In Bezug auf die Zielgruppe verfügt die Zielgruppe über alle Informationen darüber , wie Ihre Anfrage weitergeleitet werden soll Okay, im Moment hat diese Availability Zone zwei Ziele, sodass Sie diese Informationen von hier abrufen können Sie können auch die Überwachung dieser virtuellen Maschinen sehen und wie viele Hosts Sie als Teil dieser Zielgruppe hinzugefügt haben und welchen Status sie haben. Also haben wir eins bis zwei hinzugefügt und alle diese beiden sind gesund. Deshalb ist es so weit. Wenn es nicht gesund ist, wird es sinken. Es gibt hier also keinen ungesunden Wirt. Sie können den Durchschnitt gesunder Gastgeber sehen. Sie können auch die angestrebte Antwortzeit und all die Dinge sehen , die aus diesem Bereich kommen. Ebenso erhalten Sie sozusagen all diese Details. In den Zielgruppen haben Sie jetzt die Einstellungen für den Gesundheitscheck hier. Hier geht es also um zwei aufeinanderfolgende Fehlschläge bei der Gesundheitsprüfung die als ungesund angesehen werden Und dann wird dieser Host als fehlerhaft markiert und er wird nicht Teil Ihres Load Balancers sein Fünf aufeinanderfolgende Gesundheitschecks sind also ein Erfolg. Wenn also ein ungesunder Host in einen ungesunden Zustand übergeht, muss er fünf Zustandsprüfungen durchführen um wieder in den gesunden Zustand zurückzukehren Das Intervall beträgt also 30 Sekunden , das Timeout 5 Sekunden und der Erfolgscode ist und der Erfolgscode 200, hauptsächlich in HTTP-Sprache, bedeuten also Erfolg. Dann gibt es hier ein paar Attribute , was Klebrigkeit angeht Hier können Sie Klebrigkeit aktivieren. Hier können Sie Ihren Modus für das Ertrinken von Runden tatsächlich auf den gewichteten Durchschnitt oder einen anderen Modus ändern Ihren Modus für das Ertrinken von Runden tatsächlich auf den gewichteten Durchschnitt oder einen anderen Modus . Klicken Sie einfach auf Bearbeiten Sie haben die wenigsten ausstehenden Anfragen gewichtet nach dem Zufallsprinzip, und Sie haben Round Robin. Das ist die Standardeinstellung. Dann haben Sie hier die Klebrigkeit, sodass Sie die Klebrigkeit auswählen können, wenn Sie möchten , dass diese Klebrigkeit verfügbar Jetzt habe ich gerade die Klebrigkeit ausgewählt . Die Dauer der Klebrigkeit beträgt einen Tag. Jetzt können Sie es auch sieben Tage lang schaffen Sekunden und Minuten vertragen auch kaum Es wird immer empfohlen, eine eintägige Sticky-Session abzuhalten. Wie soll die Sticky Session Road Balance Generator-Cookies oder anwendungsbasierten Cookies bestehen anwendungsbasiertes Cookie bedeutet, dass Ihre Anwendung einen eindeutigen Cookie-Namen hat und Sie die Straßenbilanz verfolgen können. Das ALB wird den Namen des Cookies nachverfolgen und dann im Grunde genommen die Bindung daran beibehalten Load Balancer Track bedeutet, dass es automatisch eine Cookie-Sitzungs-ID generiert und diese Sitzungs-ID nachverfolgt wird Speichern wir jetzt einfach die Änderungen und schauen uns dann gleich unsere Website an Jetzt aktualisiere ich das. Derzeit stecke ich nur bei dieser einen Serverinstanz fest. Jetzt ändert sich die Instanz nicht mehr so oft. Sie können sehen, dass ich bei der zweiten Serverinstanz feststecke der zweiten Serverinstanz egal wie oft ich aktualisiere. Das ist es, was Sticky Session bedeutet. Es hat eine Weile gedauert , bis es diese Änderung durchgemacht hat. Aber in dem Moment, in dem die Veränderung vollzogen ist, können Sie sehen, dass ich erfrischend bin, Sie können sehen, dass es sich ändert, was auch immer wir gesagt haben dass ich erfrischend bin, Sie können sehen, dass . Da ich eine kontrollierte Aktualisierung durchführe, halte ich sowohl die Steuerung als auch die FI zusammen. Jetzt können Sie sehen, wie oft ich es noch aktualisiere, und das geht nicht auf den ersten Server. Es bleibt nur beim zweiten Server. Das wird Sticky Session genannt. Ich habe dir all diese Dinge über den Load Balancer gezeigt. Im nächsten Video werden wir dieselbe Load Balancer-Konfiguration für, ähm, über die Auto-Skilling-Gruppe vornehmen, und dann werden wir sehen, was der Vorteil davon ist Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns beim nächsten Mal. 65. Labs ECS Entfernung – praktische Schritte: Hey, willkommen zurück zum nächsten Video. Das Entfernen könnte aufgrund der Arbeit, die wir geleistet haben, kompliziert sein . Also werde ich Ihnen zeigen, wie man die Komponenten des ECS entfernt. Wählen Sie also einfach den Cluster aus. Lassen Sie uns zuerst eins nach dem anderen gehen. Wir müssen uns dem besten Gegenstand hier zuwenden, den Bereitstellungen. Also müssen wir die Bereitstellungen beenden, ähm, die Aufgabe löschen Ich meine, beenden Sie die Aufgabe, ähm, löschen Sie die Aufgabe, und dann müssen Sie den Dienst im Cluster löschen Also mussten wir den umgekehrten Weg einschlagen. Als wir angefangen haben, haben wir mit der Bereitstellung von Cluster-Taskdiensten begonnen, dann müssen Sie rückwärts vorgehen Gehen Sie einfach zu Service, dann zu Deployments, und dann werden Sie sehen, dass Deployment 7 gerade läuft Sie benötigen jetzt den Aktualisierungsservice. Ich stelle sicher, dass Ihre gewünschte Aufgabe Null ist Dadurch wird sichergestellt, dass keine Aufgabe ausgeführt wird Dies entspricht dem Beenden der gesamten Aufgabe, denn wenn Sie die Aufgabe beenden, gibt es in der Aufgabendefinition die Option, Ihre Aufgabe zu beenden. Wenn Sie die Aufgabe beenden, wird sie automatisch erneut gestartet. Als Erstes wird verhindert, dass Ihre Bereitstellung eine Aufgabe auffüllt, sodass Ihre Bereitstellung auf Null gesetzt wird, sodass Sie sehen können, dass sie nicht mehr bereitgestellt Sobald Sie nicht mehr bereitgestellt sind, können Sie zur Aufgabe übergehen Sie können sehen, dass es hier keine Aufgabe gibt. Das ist gut. Gehen Sie zu Ihrer Aufgabendefinition, wählen Sie die Aufgabendefinition aus, und ich denke, Sie müssen zu jeder dieser Aufgaben gehen und sie auswählen. Aktion abmelden, Sie müssen sie alle registrieren. Sie können sehen, dass jetzt alles weg ist, das sollte gut sein. Gehen Sie zurück zum Cluster. Geben Sie einen Clusternamen ein und löschen Sie dann den Dienst. Wenn Sie das tun können, dann sind Sie auf der sicheren Seite, jetzt sind Sie auf der sicheren Seite. Wir registrieren uns, wir haben die Bereitstellung aufgehoben und den Dienst gelöscht. Und dann können Sie zur Aufgabe gehen. Ich denke, es wird jetzt automatisch weg sein. Ja, es ist weg. Wählen Sie als Nächstes den Cluster aus, löschen Sie den Cluster, kopieren Sie ihn, fügen Sie ihn ein und ändern Sie das D in ein kleines D und klicken Sie auf die Schaltfläche Löschen, um kleines D und klicken Sie auf Ihren Cluster zu löschen. Ich meine, wenn wir die Load-Balancing-Sitzung durchführen, werden wir sie erneut erstellen. Aber dieses Mal werden wir es manuell tun, weil wir nicht möchten, dass diese Serverinstanz bis zu diesem Zeitpunkt läuft. Das Löschen des PCS-Clusters kann also etwas Zeit in Anspruch nehmen . Sobald dies erledigt ist, werden wir auch den Namespace entfernen , da das Entfernen des Namespace für uns sehr wichtig ist Entfernen des Namespace für uns sehr wichtig Ich werde dieses Video pausieren. Nun, das Löschen des Clusters bedeutet, dass auch Ihre EC Two-Instance entfernt wird Ihre EC Two-Instance , weil Ihr Auto-Skilling beim Löschen des Clusters entfernt würde , sodass Sie sehen können, dass es keine Auto-Skiing-Gruppe mehr gibt Das ist also im Grunde das Löschen des Clusters. Sie werden hier einen Link haben, der Ihnen sagt , dass Sie zu Ihrer Cloud-Formation weiterleiten sollen. Jetzt können Sie sehen, dass es erfolgreich gelöscht wurde. Es hat ungefähr 5 Minuten gedauert, ich glaube 2 Minuten für mich. 5 Minuten. Also jetzt denke ich, dass das weg sein sollte. Ja, bitteschön. Namensraum, wählen Sie den Namensraum, ähm, und Sie haben den Namen hier drüben. Nun, der Namespace fällt unter Cloud-Mapping, also ist es im Grunde der Namensraum im Namen des Namespaces. Dann drücken Sie einfach die T-Taste. Es kann ungefähr ein paar Minuten dauern , bis es als PLL abgeschlossen sodass Sie sehen können, wie es sich abdreht Lassen Sie es so, wie es ist, schließen Sie einfach den Tab, es wird datiert und es ist nicht wirklich wichtig für uns , dass das sofort entfernt wird Lassen Sie es sich also Zeit nehmen, um das zu erledigen. so ziemlich geklärt all die Dinge, die wir gerade geschaffen haben, so ziemlich geklärt. Wir haben keinen Cluster, wir haben keine Aufgabe, wir haben nichts, was wir gerade getan haben. Wir haben weder die Autoskiing-Gruppe die Instanz für uns verfügbar Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns im nächsten. 66. Labs ECS Setup Teil 1 Praxisorientierte Anleitungen: Hallo Leute, wir kommen zurück zum nächsten Video in diesem Video, wir werden über ECS sprechen. Dies ist das erste Thema, mit dem wir beginnen werden, um Ihren AWS-Rechenservice zu verstehen. Wir haben bereits mehrere Standorte gesehen , die einfach zu instanzieren sind, also werden wir nicht darüber sprechen, sondern wir werden eine ECS-Instanz erstellen und dann damit arbeiten. Jetzt bietet die ECS-Instanz zwei Optionen. Entweder können Sie sich für Fargate oder EC Two Instance entscheiden. In diesem speziellen Video werden wir das ECS mit EC Two Instance anstelle von Fargate verwenden mit EC Two Instance anstelle von Fargate Später werden Sie in diesem speziellen Abschnitt sehen, diesem speziellen Abschnitt sehen wir über ECS mit Fargate und die Arbeit mit ECS auf Fargate sprechen werden und die Arbeit mit ECS auf Das ist im Grunde ein serverloser Rechendienst. Ordnung, also lassen Sie uns diesen Pfad für das ECS mit Est Rufen Sie also den Dienst ECS auf und klicken Sie dann mit der mittleren Maustaste darauf, um ihn in der neuen Registerkarte zu öffnen. Denken Sie daran, dass dies eine mehrteilige Konfiguration ist, also werden wir hier mehrere Elemente konfigurieren, und schließlich werden wir unseren Cluster zum Laufen bringen, okay Das ist also das Erste, womit ich in diesem Video beginnen werde Zunächst werden wir einen Cluster konfigurieren . Klicken Sie auf Cluster erstellen So können Sie mit dem ECS-Service interagieren , indem Sie einen Cluster erstellen Jetzt bietet Ihnen der Cluster die Infrastruktur , Sie einen Container ausführen können, aber wir werden keinen Container erstellen , während wir einen Cluster erstellen. ersten Schritt erstellen wir eine Infrastruktur wie einen Cluster, in dem wir die Anzahl der Instanzen angeben , die auf einem Cluster ausgeführt werden sollen. Und dann werden wir eine Aufgabendefinition erstellen. In dieser Aufgabe werden wir angeben, welche Art von Container wir als Teil dieses Clusters ausführen möchten. Und wir werden auch einen Dienst unter dem Cluster konfigurieren und die Aufgabe integrieren und dann diese Aufgabe ausführen lassen und dann den Cluster. Der Dienst innerhalb des Clusters wird mit Containern Klicken wir auf Create Cluster. Der erste Schritt besteht darin, einen Cluster zu erstellen. Ich gebe HTTP, äh, ECS-Cluster. Nun, das wird der Name meines Clusters sein. Das wird mir sagen, dass es sich um ein HTTP handelt, bei dem ich diese Anwendung , die GeneX-Anwendung für HTTP-Anfragen, ECS, in Worten, verwende, es ist das, was wir als Container-Service anbieten Und dann ist es ein Cluster. Also das ist nur, um das zu definieren. Wenn Sie einen Clusternamen erstellen, wird Ihnen auch der Namespace zugewiesen, sodass Ihnen dort ein Namespace zugewiesen wird In dieser Situation entscheiden wir uns jetzt für EC Two und nicht für Fargate Bei Fargate müssen Sie im Grunde keine EC-Two-Serve-Instance wie diese angeben . Wenn du das auswählst Sie können sehen, dass automatisch ein serverloser Rechendienst erstellt oder generiert wird , der wartungsfrei ist In Bezug auf EC Two Instance ist jedoch Wartung erforderlich, wenn Sie tatsächlich den EC Two Instance Creator haben werden tatsächlich den EC Two Instance Creator haben Das mit den Hintergrundgeräuschen tut mir leid. Hier haben Sie also die ASG, das ist also nichts anderes als eine Autoscaling-Gruppe Auto Scaling-Gruppe werden wir zu einem späteren Zeitpunkt sprechen Ich denke, es wird hier behandelt. Wir werden also viel detaillierter über äußere Skalierungsgruppen sprechen , aber hier nur einen Überblick. Wir werden also Autoscaling-Gruppen erstellen und diese schrittweise skalieren Daher werden wir normalerweise die minimale und die maximale gewünschte Kapazität definieren die minimale und die maximale gewünschte Kapazität Okay? Minimal bedeutet also, dass die Anzahl der Server mindestens eingerichtet werden muss, sie sollte immer beibehalten werden, was bedeutet, dass sie nicht vom Minimum herunterskaliert wird, sondern bis zum Maximum hochskaliert wird. Oder Sie können sagen, auf das Maximum zu skalieren und auf das Minimum zu skalieren. Minimum, wir können es bei eins belassen und Maximum können wir bei fünf belassen. Dadurch wird sichergestellt, dass die maximale Anzahl von Diensten , die erstellt werden können, fünf beträgt und die Mindestanzahl, die ständig beibehalten wird, eins ist. In Bezug auf das Bereitstellungsmodell für Ihre Auto-Skilling-Gruppe gibt es hier zwei Optionen . Eine ist On-Demand - und Spot-Instance. Das sind die Arten von Instanzen, okay? Wir haben also genug darüber gesprochen. Bei der On-Demand-Instanz handelt es sich im Grunde um eine nutzungsabhängige Bezahlung, für die keine langfristigen Verpflichtungen oder Vorabkosten erforderlich sind. Das bedeutet , dass Sie eine EC-2-Instanz erstellen, indem Sie zu EC Two wechseln handelt es sich im Grunde um eine nutzungsabhängige Bezahlung, für die keine langfristigen Verpflichtungen oder Vorabkosten erforderlich sind. Das bedeutet , dass Sie eine EC-2-Instanz erstellen, indem Sie zu EC Two Das ist also im Grunde eine On-Demand-Instanz, Sie wissen schon, oder? Also das Gleiche machen wir hier drüben. Also müssen wir diese Last die ganze Zeit laufen lassen, und das ist für Webinhalte, richtig? Also brauchen wir es. Mit Spot-Instance können Sie jedoch 90 Prozent sparen, was einem Rabatt entspricht, der Ihnen gewährt wird. Das einzige Problem ist jedoch, dass ungenutzte ECR-Ressourcenkapazität genutzt wird Aber die Auslastung steigt, und Sie wissen schon, es gibt keinen ungenutzten Speicherplatz, dann müssen Sie natürlich auch keinen Service mehr entsorgen Es besteht also die Gefahr, dass Ihnen, Sie wissen schon, kein Service zur Verfügung steht. Also wollen wir auf das Risiko verzichten, weil wir mindestens einen Dienst benötigen , der ständig läuft, und Sie werden in diesem Fall auf Abruf gehen. Im nächsten geht es um das Container-Instance-AMI. Was diese Container-Instance angeht, gibt es zwei Formulierungen wir zu einem späteren Zeitpunkt sehen Der eine ist der Container und die Container-Instance. Container-Instance ist im Grunde der Ort, an dem die Container gehostet werden. Dies ist wirklich erforderlich , damit Sie hier den Instanztyp auswählen können. Ich habe das mit diesem T two micro gemacht, aber es ist sehr langsam, also werde ich mich für T two large oder medium entscheiden . Medium ist viel besser. Also werde ich mich für T Two Medium entscheiden, das zwei CPs und vier GB RAM hat zwei CPs und vier GB RAM Jetzt hier drüben werde ich neue Rollen erstellen verwenden. Also, wenn Sie nichts haben und es standardmäßig ist , eine neue Rolle zu erstellen, dann ist das sehr gut. Also mach einfach damit weiter. Es kommt einfach, weil ich es schon versucht habe, und das ist der Grund, warum es in diesem Namen bereits eine Rolle gibt. Also einfach eine neue Rolle erstellen sollte kein Problem sein. Bedingungen für das Schlüsselpaar, verwenden Sie einfach die Standardtastatur , die Sie haben Ich wähle hier einfach Tom Cad , weil ich das Schlüsselpaar Ich habe auch Docker Cub, das werde ich wählen. Was auch immer wir bisher gemacht haben, wir haben mit solchen Tastaturen gearbeitet wählen Sie einfach das und Was die Netzwerkeinstellungen angeht, werden Sie die Standard-VPC und alle verfügbaren Subnetze verwenden , also alle verfügbaren T-Zonen , also alle verfügbaren T-Zonen Diese fünf Instanzen können für alle diese fünf Availability Zones erstellt werden alle diese fünf Availability Zones erstellt Also bestehende Sicherheitsgruppe, ich habe das gerade angegeben, habe gerade die Standardsicherheitsgruppe genommen. Wenn Sie sich diesbezüglich nicht sicher sind, gehen Sie zu EC Two. Gehen Sie zu Sicherheitsgruppe und suchen Sie dann nach der Sicherheitsgruppe. Dann verstehen Sie, dass dies die gesamte Datenverkehrssicherheitsgruppe ist. Der gesamte eingehende Verkehr wird standardmäßig akzeptiert. Ordnung. Nun, da wir diese Aufgabe abgeschlossen haben. Lassen Sie uns nun mit der automatisch zugewiesenen öffentlichen IP-Adresse fortfahren . Im Grunde genommen wird nur eine Subnetzeinstellung verwendet. Wir wollen hier keine bestimmte Einstellung angeben . Die Überwachung ist optional, und ich möchte mich nicht für eine Überwachung entscheiden, da während der Überwachung Gebühren anfallen können. Auch hier ist die Verschlüsselung für Ihren verwalteten Shop sowie für Fargate FM und Ihr Geschäft optional Ihren verwalteten Shop sowie für Fargate FM und Ihr Geschäft Daher verwenden wir Fargate derzeit nicht. Äh, wenn du es verschlüsseln willst, erstelle einen KMS-Schlüssel und dann kannst du diesen, du weißt schon, KMS-Schlüssel hier wählen . Das heißt also, wir verschlüsseln die Daten mit dem Schlüssel, aber wir brauchen ihn nicht Im Moment benötigen wir keine Verschlüsselung. Wenn Sie für diesen Cluster Tags angeben müssen, können Sie diese Tags hier hinzufügen. Klicken Sie auf Erstellen Okay, jetzt wird der Cluster klar, du weißt schon, erstellt Nun, die Clustererstellung kann etwa fünf bis zehn Minuten dauern. Für mich ist es also immer noch im Gange, und Sie können sehen, dass die Clustererstellung, Aufgabendefinition, die Serviceerstellung, alles durch Cloud-Bildung erledigt wird, weil die Cloud-Bildung im Grunde das Sprungbrett jeder einzelnen ECS-Konfiguration ist, weil ECS aus kleinen Komponenten und diese kleinen Komponenten zusammen ausgeführt werden, und wie es ausgeführt wird zusammen entsteht durch Wolkenbildung Sie werden also fast überall Wolkenbildung sehen . Nachdem Sie den Cluster erstellt haben, klicken Sie einfach auf den Cluster und Sie können tatsächlich einige Details über den Cluster sehen in der Übersicht tatsächlich einige Details über den Cluster sehen. Sobald die Clustererstellung abgeschlossen ist, erhalten Sie viel mehr Details . Äh, Sie werden Dienste, Aufgaben, Infrastruktur und Infrastruktur sehen Aufgaben, Infrastruktur und Infrastruktur Es muss diesen einen Server bereitstellen, also stellt es immer noch diesen einen Server bereit, die ähm, Container-Instance Das wird hier auftauchen, sobald es das getan hat. Und dann wird Metric herkommen und dann die Aufgabe planen. Nun, Aufgabe ist im Grunde die Art und Weise, wie wir Container erstellen. Das nennen wir im Grunde eine Aufgabendefinition, wir werden es gleich erledigen. Aber was eine Aufgabendefinition ist, ist im Grunde genommen eine Aufgabe, die nichts anderes als ein Entwurf Ihrer Anwendung ist nichts anderes als ein Entwurf Ihrer Anwendung Es ist im Grunde eine Textdatei im JSO-Format, die die Parameter beschreibt , die der Container haben muss Ich kann angeben, welche Art von Starttyp verwendet werden soll Und es kann das Docker-Image haben, das Sie als Teil des Containers ausführen möchten Wie hoch ist die CPU-Speicherauslastung, Statistiken, wie viel CPU-Speicher soll jedem Container zugewiesen werden wie viel Speicherplatz auch erwähnt werden, wie viel Speicherplatz Sie benötigen. Sie haben Soft Limit und Hard Limit und dann, auf welchem Betriebssystem es ausgeführt werden soll, ähm, Betriebssystem, ähm, Docker-Image, es ist alles dasselbe Und es geht auch um die Login-Konfiguration, sodass Sie Logs verwenden können, um, Sie wissen schon, alles zu vermitteln, um zu verstehen , Sie wissen schon, woran gearbeitet wird Und dann könnte es um Umgebungsvariablen gehen , die ausgeführt werden müssen. Sie können auch festlegen, ob Sie mehrere Container haben Sie können auch festlegen , dass jeder Container zuerst gestartet welcher zuerst gestartet werden soll. All diese Dinge sollten in einer Aufgabe definiert werden. Und die Aufgabe wird über einen Dienst ausgeführt. Der Dienst ruft diese Aufgaben auf und dieser Dienst führt die Aufgabe aus. Bisher haben wir also eine Infrastruktur für den Betrieb Ihrer Container geschaffen. Jetzt können Sie sehen, dass die Container-Instance erstellt wurde. Dies ist die Instanz-ID. Das wird also im Grunde genommen an die zweite Instanz von EC gehen. Wenn Sie Zero instance, if instance sehen , werden Sie sehen, dass diese Instanz gerade läuft. Ich habe bereits welche hier getestet. Dieser ist also derjenige, den ich für dieses spezielle Beispiel erstellt habe . Wenn Sie also einfach diese Instanz-ID kopieren und sie hier suchen, können Sie sehen, dass sie übereinstimmen. Das ist also die Instanz-ID, die sie erstellt hat. Jetzt ist die Bereitstellung abgeschlossen, oder? Deshalb kommt es jetzt auf uns zu. Diese besondere Wolkenbildung ist also ebenfalls abgeschlossen, die Schöpfung ist abgeschlossen. Das ist also auch getan. Die Wolkenbildung ist also abgeschlossen. Instanz, Ihre Container-Instance ist erstellt und Sie sind bereit , eine Aufgabendefinition zu erstellen. Also klicken Sie auf die Aufgabendefinition. Erstellen Sie eine neue Aufgabendefinition. Also hier erstelle ich eine Aufgabendefinition für meinen HTTP-Dienst am. Aufgabe. TDP-Aufgabe. Und hier müssen Sie dieselbe auswählen, bei der es sich um eine EC-Two-Instance und nicht um einen Fargate-Compute-Container handelt nicht um einen Fargate-Compute-Container Denken Sie jetzt daran, dass Sie, wissen Sie, wenn Sie Fargate auswählen, auch den Clustertyp als Fargate hätten wählen sollen , sonst wird es Es ist also besser, dasselbe auszuwählen. Also, es ist auf EC Two Instance hier drüben. Dies ist nun die Infrastrukturanforderung für Ihre Aufgabe, bei der Ihr Container erstellt wird. Jetzt sprechen wir also nicht über Ihren Family-Instance-Typ und Instance-Familie oder Ihren Instance-Typ, tut mir leid, Größe. Hier geht es also darum, was der Container sein muss. Das ist die Zuteilung des Containers. Das ist also die Infrastrukturanforderung eines Containers. Hier ist der Netzwerkmodus also AWSVPC, die Betriebssystemarchitektur ist CPU ist eine CPU und ich nehme ein GB RAM. Meine virtuelle Mission, mittlere virtuelle Mission, besteht also aus drei GB RAM. Also werde ich mich für eine virtuelle CPU und einen Speicher entscheiden. Hier muss ich nichts über die Aufgabenrolle oder die Aufgabenausführung auswählen , Sie ignorieren es. Und hier wirst du diesen Spruch hören , dass du hier eine neue Rolle erstellst. So wird es sein, lass es so wie es ist. Im nächsten geht es um den unverzichtbaren Behälter. Dies ist der Behälter , der als Teil Ihrer Aufgabe kommen wird . Sie haben die Aufgabenanforderungen für diese Aufgabendefinition angegeben . Wenn Sie also diese spezielle Aufgabe auf einem Cluster ausführen möchten , sollte dieser Cluster über eine virtuelle CPU, einen Arbeitsspeicher und Linux X 86 verfügen. Das ist die Anforderung. Sobald Sie die Anforderung erfüllt haben, sollte sie den Anforderungen Ihres Clusters entsprechen. Ihr Cluster hat drei GB Arbeitsspeicher, aber ich habe einen GB als Anforderung angegeben. Ihre Anforderung ist erfüllt. Ich validiere die Anforderung anhand Ihrer aktuellen Clusterkonfiguration und es wird angezeigt, dass sie erfolgreich ist. Der zweite ist im Grunde dein Container. Container ist im Grunde das, was Sie auf Ihrem Container haben oder ausführen werden. Also zunächst werden wir sagen, dass ich Nginx oder HTTP Service oder Nginx ausführen werde Und dann müssen Sie eine vollständige Repository-URL angeben . Nun sollte diese Repository-URL aus einem sogenannten Elastic Container, ähm, Repository stammen . Das ist also der ECR, das können Sie sehen. Wenn du einfach darauf klickst, öffnet sich ein neuer Tab. Elastic Registry, leider kein Repository. Die Registrierung enthält alle Repositorys, sowohl öffentliche als auch private Repositorys Was bedeutet das? Das heißt, wenn Sie hier ein Nginx-Image angeben möchten, können Sie entweder ein privates Repository oder ein öffentliches Repository erstellen Okay? Nun, da Ihnen diese beiden Optionen hier zur Verfügung stehen, müssen Sie nur noch diese URL hier eingeben. Aber du bist gerade auf der URL. Sie müssen also die URL von Nginx von diesem speziellen Um das aus diesem öffentlichen Repository zu bekommen, klicken Sie einfach auf diese drei Schaltflächen Sie werden also tatsächlich die vollständige Liste oder die Optionen unter ECR Gehen Sie unter ECR zu Public Repository und Repository und Sie können ein öffentliches Repository erstellen Wenn du hier auf Repositorien klickst, erstellst du eine private Registrierung Hier werden Sie ein öffentliches Register erstellen. Wenn Sie jedoch alle öffentlichen Register sehen möchten, die auf AWS bereits in ECR verfügbar sind , können Sie darauf klicken Suchen Sie dann nach IngenX. Jetzt können Sie sehen, dass Engine X gestartet wurde und es sich um ein verifiziertes Konto handelt ist von Nginx Es ist von Nginx selbst und hat 1,3 Sie können also hier auf Nginx klicken. Dann gibt es diese Optionen hier wo Sie die Beschreibung, die Nutzungsbedingungen und dann die Bild-Tags und alles haben dann die Bild-Tags und Derzeit ist Stable Pearl die aktuelle Version Sie können die URI bereits hier sehen. Die URA ist auch hier. Klicken Sie also einfach auf Kopieren. Und fügen Sie diese URA in diesen Bild-URI-Speicherort und machen Sie ihn zu einem unverzichtbaren Container. Essentieller Container bedeutet, dass dies ein obligatorischer Container ist und dass dies der Standardcontainer sein wird. Sie können auch andere Container hinzufügen, sodass Sie einen weiteren Container erstellen können, indem Sie auf „Einen weiteren Container hinzufügen “ klicken und hier einen weiteren hinzufügen. Okay? Die beiden Container werden also im Rahmen dieser Aufgabe erstellt. Okay. Jetzt, wo das abgeschlossen ist, werde ich das Port-Mapping hier drüben für Port Nummer 80, TCP, verwenden . Und das HTTP-Protokoll. Also wird auch diese Portnummer hinzugefügt. Jetzt können Sie das Root-Dateisystem auch schreibgeschützt machen , das liegt also an Ihnen. Virtuelle CPU ist eine. Ein Test und eine virtuelle CPU und ein festes Limit von einem GB und ein Soft-Limit von 0,5 GB Das bedeutet , dass ein hartes Limit bedeutet, dass die maximale Auslastung dieses Prozesses oder dieses speziellen Containers einem GB liegen wird, und dieser Wert von 0,5 ist ein Soft-Limit für dasselbe Sie können die römische Variable cfVith hinzufügen. Die Protokollierung ist mit Cloud Watch aktiviert. Ich deaktiviere sie, weil sie zusätzliches Geld erfordert. Hier können Sie den Neustart aktivieren, wenn Sie auf den Exit-Code klicken, oder Sie können den Reset-Zeitraum des Exit-Codes sehen Sie können auch einige Parameter oder Shell-Dateiskripte verwenden , um sie als Höllencheck auszuführen. Sie können auch vom Start abhängig sein, wenn Sie mehr als ein Container verwenden. Sie können die Einstellungen für das Container-Timeout auch hier haben . Netzwerkeinstellungen docken eine Konfiguration an. Wenn sich beispielsweise jemand anmeldet, welcher Befehl muss ausgeführt welchen Ordnern Sie arbeiten oder in welchem Verzeichnis, ebenso der Einstiegspunkt. Dann ist die Ressourcenbegrenzung für das UD-Limit die Standardeinstellung, aber Sie können hier ein U-Limit hinzufügen. Sie können sowohl Labels als auch einen Teil dieses Containers hinzufügen. Speicher oder Standardüberwachung sind Standardsteuer. Wenn Sie möchten, können Sie sie hinzufügen. Klicken Sie auf Erstellen. T sollte deinen Container erstellen. Es tut mir leid, erstelle eine Aufgabe. Sobald diese Aufgabe erstellt ist, sehen Sie, dass sie das Container-HTTP-Image aus diesem Repository verwendet . Dies ist also das weiche Limit und das harte Limit, das wir hier angegeben haben. Der Container würde maximal eine virtuelle CPU verwenden , und ein GB würde den gesamten RAM-Verbrauch auf der Container-Instance bieten . Nun, das ist so ziemlich das, was wir hier konfigurieren wollten , und das sind alle Elemente. Diese Aufgabe wird nicht ausgeführt. Sie benötigen einen Dienst, um diese Aufgabe jetzt auszuführen. Die Aufgabe wird erstellt. Für mich heißt es Revision vier. Für Sie wird es Revision eins heißen , weil ich das nicht zum ersten Mal mache. Das ist mein viertes Mal, dass ich es mache. Also habe ich es für andere Zwecke und so gemacht. Ebenso haben Sie den Namensraum automatisch erstellt, und Sie haben den Cluster. Gehen Sie in den Cluster, wählen Sie den Dienst klicken Sie auf Erstellen. Dadurch wird ein Dienst für uns erstellt. Bei dieser Serviceerstellung haben wir nun all diese Optionen , was für uns bei der Erstellung des Dienstes hilfreich sein wird. Gehen wir eins nach dem anderen. Jetzt sind wir hier, um einen Service zu erstellen. Um den Dienst zu erstellen, lassen Sie mich einfach den Themencode für Cluster wiederholen Wählen Sie den Clusternamen aus und unten haben Sie einen ersten Tab, der den Dienst aufruft und klicken Sie dann auf Dienst erstellen Sobald Sie im Dienst sind, können Sie sehen, dass dieser Dienst blockiert ist , da dies der Name Ihres Clusters sein wird. Und auch hier ist es blockiert , um zu sagen, dass es einfach zu instanzieren ist , weil Ihr Cluster auf Einfach zu instanzieren konfiguriert ist. Hier gibt es zwei Optionen für Ihre Rechenkonfiguration. Eine ist die Strategie zur Bereitstellung von Kapazität, eine andere ist die Auswahl des Starttyps. Wenn Sie den Starttyp auswählen, können Sie sich tatsächlich für EC Two entscheiden , da dies die Bereitstellungsmethode für Ihren Cluster ist. Wenn Sie die Strategie bereitstellen, wenn Sie die Strategie „Kapazität zur Verfügung stellen“ auswählen. Hier geht es darum, Ihre Strategie für Ihre Aufgabe zu starten. Sie können diese Strategie nun , indem Sie mehrere Kapazitätsanbieter für Sie haben . Standardmäßig haben Sie nur einen, nämlich Ihren Kapazitätsanbieter, wie in diesem Cluster. Das wäre also Ihre Kapazität, die Komponente innerhalb Ihres Clusters. Sie können dies auch alternativ mit einem Fargate-Dienst und einer Fargate-Spot-Instance kombinieren einem Fargate-Dienst und Fargate-Spot-Instance Und Sie können auch Prioritäten setzen. Also werden wir das jetzt nicht tun, wir werden in diesem Programm die Standardeinstellung verwenden Und dann ist die Bereitstellungskonfiguration so, dass, ob Sie es für eine Aufgabe oder einen Dienst bereitstellen möchten , ähm , wenn Sie es für eine Aufgabe tun, es hauptsächlich für Batch-Jobs empfohlen wird, aber nicht für Webveröffentlichungen, so etwas wie das, was wir erreichen werden. Weil diese Aufgabe im Grunde genommen ausgeführt wird und dann beendet wird und dann, wissen Sie, zurückkommt, und wenn Sie die Aufgabe erneut ausführen möchten, wird sie, basierend auf Ihrem Zeitplan, erneut ausgeführt. Das ist also wie ein Batch-Zeitplan. Aber ein Dienst ist ein Prozess, der auf unbestimmte Zeit weiterläuft , bis Sie ihn beenden Also werden wir uns hier für den Service entscheiden. Jetzt können Sie hier die HTTP-Aufgabe auswählen. Die Revision ist aktuell, und dies ist die neueste Version hier. Und hier müssen Sie den Namen des Dienstes angeben. Es ist verpflichtend. Hier gebe ich den HTTP-HTTP-Hyphen-Service an Das wird der Name des Dienstes sein. Hier werde ich sagen, Replikate, platzieren und verwalten Sie eine gewünschte Anzahl von Aufgaben in Ihrem Cluster Ich gebe nur eine, das ist die einzige Aufgabe, die ich erledigen werde Was die Bereitstellungsoption anbelangt, so wird das fortlaufende Update standardmäßig zu 100% als minimale laufende Aufgabe und als maximal ausgeführte Aufgabe dargestellt zu 100% als . Ist die minimal ausgeführte Aufgabe, die maximal ausgeführte Aufgabe. Wenn ich die gewünschten Aufgabendaten als vier habe und wenn ich beide als 200 oder beide als 100 habe, so ist das egal Beides als 100 bedeutet, dass insgesamt vier Jobs gestartet werden. Es wird nicht darauf warten, dass ein Job abgeschlossen und erfolgreich ist, und dann zum nächsten Job übergehen, wie bei einer Aufgabe, die erledigt werden muss , und dann wird es nicht zu der Aufgabe übergehen. Es startet, Sie wissen schon, alle Aufgaben zusammen, was die Belastung Ihres Systems erhöht, was, wissen Sie, wenn bei der vorherigen Aufgabe ein Fehler auftritt, sie nicht stoppt, also so etwas in der Art. Wenn Sie also eine Abweichung von 100 Prozent angeben , oder, Sie wissen schon, eine Variation wie diese, wird eine Aufgabe nach der anderen beginnen. Das ist also der Grund, warum wir diese Variante angeben. Wir haben einen Bereitstellungsfehler , bei dem auf die vorherige Version zurückgesetzt wird , wenn Sie bereits eine bestehende Version haben und diese aktualisieren. Dann einige der Optionen hier in Bezug auf Service Discovery und Service Connect. Hier werden wir hier dieselbe Sicherheitsgruppe verwenden . Optionen für den Lastenausgleich werden hier erwähnt. Wir verwenden keine Load-Balancing-Option, sie wird automatisch skaliert und dann ist die Lautstärke abgeschlossen und das Tagging ist abgeschlossen. Das ist so ziemlich alles und dann klicken Sie auf Erstellen. Dies sollte den Dienst erstellen. Jetzt kann es einige Zeit dauern, da es wieder zur Cloud-Formation wechselt und mit dem Schreiben beginnt und einige Programme ausführt, um den Dienst für Ihre Anwendung zu erstellen. Das wird einige Zeit in Anspruch nehmen. Es kann wieder etwa fünf bis zehn Minuten dauern, bis das alles geklärt ist und Sie wieder einsatzbereit sind. Derzeit können Sie sehen, dass hier kein Fortschritt zu verzeichnen ist Die Ausführung der Aufgabe wurde noch nicht gestartet. Wenn Sie auf die Aufgabe klicken, können Sie sehen, dass sie sich immer noch im Status „Ausstehend“ befindet. Langsam und sicher wird es mit der Ausführung der Aufgabe beginnen, die im Grunde die Aufgabendefinition ist , die Sie hier erstellt haben. Das ist also eine Aufgabendefinition hier drüben. Das ist also im Grunde das Erstellen des Containers , der aus diesem Repository der GDP-Engine X-Container ist. Dies steht also noch aus, daher kann es einige Zeit dauern , bis dies abgeschlossen ist. Also läuft keine Aufgabe, ich glaube, sie ist erledigt. Also klicken Sie einfach darauf und Sie sehen diese Container-Instance hier drüben. Sie haben also einen Container-Ersteller. Das siehst du. Es ist gerade im Betriebszustand. Bei der Bereitstellung kann es einige Zeit dauern, bis die Änderungen übernommen Klicken Sie nun auf Contena Instance und Sie werden die gesamte Instanz hier sehen Es ist die öffentliche IP-Adresse und alles andere über die Ressourcen und das Netzwerk hier drüben, Aufgaben, Attribute und so Es kommt also hier rein. Der Status der Container-Instance. Lassen Sie uns einfach den Cluster codieren. Wir müssen ihn nur laufen sehen. Es kann eine Weile dauern, bis der Status angezeigt wird, aber die Aufgabe ist abgeschlossen. Sehen wir uns die Wolkenbildung an. Immer noch Schöpfung und Fortschritt. Lassen Sie uns etwas Zeit damit verbringen. Ich sollte mir noch ein paar Minuten Zeit nehmen und dann mit einem richtigen Status reinkommen. Ich pausiere das Video , bis es fertig ist. Ordnung, Leute, ich möchte dieses Video mit dem Hinweis beenden In Ordnung, Leute, ich möchte dieses Video mit dem Hinweis beenden, dass wir es erfolgreich eingesetzt haben. Und wenn Sie versuchen, es zu durchsuchen, würde es auf der Website auf der EngineX nicht funktionieren, wenn Sie versuchen, es von der EC Two-Konsole aus zu durchsuchen Die Instanz hier würde für dich nicht funktionieren, weil es nicht so ist, ich meine, es gibt ein paar Korrekturen, die ich machen muss, damit das funktioniert Also werde ich es im nächsten Video machen, aber wenn Sie wirklich daran interessiert sind, diese Reise mit ECS fortzusetzen und das zum Laufen zu bringen, können Sie dem nächsten Video folgen und das erledigen. Aber denken Sie daran, dass es nicht Teil Ihrer Prüfung sein wird. Das praktische Mitmachen an sich ist also nicht Teil Ihrer Prüfung. Das ist nur aus meiner Neugier. Ich gebe Ihnen einige praktische Hinweise Ähm, also wie dem auch sei, ich habe Ihnen die Themen für die Prüfung behandelt Aber wenn Sie noch mehr wollen, dieses und das nächste Video wirklich helfen Ihnen dieses und das nächste Video wirklich helfen, auf ECS zu glänzen Denken Sie jetzt daran, dass es nicht funktionieren wird, wenn Sie versuchen, es zu durchsuchen. Ich versuche es einfach hier, es würde für mich funktionieren, weil ich es repariert habe. Also würde diese Seite nicht für dich kommen. Sie werden auch keine Verbindung zu diesem Server herstellen können. Wenn Sie also mit der rechten Maustaste klicken und versuchen, eine Verbindung herzustellen, funktioniert es nicht, aber für mich stellt es eine Verbindung her. Also, jetzt habe ich es repariert. Ich werde im nächsten Video zeigen, wie ich es behoben habe. Nochmals vielen Dank, dass Sie sich das denn es ist schon seit einiger Zeit so. Ich möchte dem nächsten Video die Möglichkeit geben Problem zu beheben und Ihnen zu zeigen, wie das Problem behoben werden kann. Nochmals vielen Dank für Ihre Zeit und Geduld. Wir sehen uns beim nächsten. 67. Labs ECS Setup Teil 2 Praxisorientierte Anleitungen: Hallo Leute, zurück zum vorherigen Video, ich werde dieses Problem eins nach dem anderen beheben. Erstens, damit wir daran arbeiten können. Zunächst müssen Sie über ein mobiles Exterm eine Verbindung zu dieser EC Two-Instance herstellen, über ein mobiles Exterm eine oder Sie müssen mit der rechten Maustaste klicken und eine Verbindung herstellen Verwenden Sie diese Verbindungsoption. Beides würde im Moment nicht funktionieren, es liegt am Sicherheits-Gateway, dem Standard-Gateway. Alles, was Sie tun müssen, ist, ob es für Sie bereits gut funktioniert, wenn es nicht für Sie funktioniert, folgen Sie einfach der Lösung, die ich Ihnen geben werde. Gehen Sie entweder zu dieser Sicherheitsgruppe, oder Sie können auch von hier aus zu dieser Sicherheitsgruppe gehen oder was auch immer Sie dafür konfiguriert haben. Beide werden identisch sein , da beide dasselbe Auto-Skiing verwenden und beide dieselbe Sicherheitsgruppe verwenden. Klicken Sie einfach mit der mittleren Maustaste darauf, es öffnet sich ein neuer Tab. Also, was auch immer hier drüben ist, bearbeite einfach die Regeln für eingehende Nachrichten, wähle was auch immer hier drüben aus, lösche es Suchen Sie nicht danach, weil es der Sicherheitsgruppe selbst zugewiesen ist Klicken Sie auf Regel hinzufügen und wählen Sie dann All TCP aus und sagen Sie dann Anywhere IP Version vier und klicken Sie auf Regel speichern. Dies sollte nun Ihre Verbindung zur EC-Two-Instance auslösen , und Sie sollten auf die EC-Two-Instanz zugreifen können. Sie müssen lediglich eine neue Sitzung erstellen. Geben Sie in dieser neuen Sitzung select als Suchbegriff ein geben Sie die öffentliche IP-Adresse der ECS-Serverinstanz der Serverinstanz hier ein, die öffentliche IP-Adresse, die Sie hier kommentieren. Geben Sie dann für die erweiterte Einstellung „privaten Schlüssel verwenden“ ein. Ich habe die Docker Cub PBK-Datei verwendet, also habe ich das getan und dann den Benutzernamen als ECT eingegeben, und dann sollten Sie mit diesem bestimmten Server verbunden sein also habe ich das getan und dann den Benutzernamen als ECT eingegeben, und dann sollten Sie mit diesem bestimmten Server verbunden sein. Sie können auch mit der rechten Maustaste auf Verbinden klicken, und dann können Sie auch auf diese Weise eine Verbindung herstellen Ich denke, es sollte funktionieren, denke ich. Nein, bei mir funktioniert es nicht als Suchverbindung. Es funktioniert also aus irgendeinem Grund nicht für mich , aber es sollte für Sie funktionieren. Okay, also für mich funktioniert das. Also das ist genug für mich, damit ich damit arbeiten kann. Nun, wie habe ich diese Website repariert? Darauf komme ich jetzt zurück. Schließen Sie zunächst alle Tabs, was für uns momentan nicht relevant ist , da Sie auch keine Instanzen benötigen. Alles, was Sie jetzt tun müssen , ist, zum Cluster zurückzukehren. Jetzt haben wir einige Konfigurationen an unserer Aufgabendefinition vorgenommen, oder? Das bereitet uns also tatsächlich ein Problem. Also werde ich es neu definieren und ich werde Ihnen zeigen, wie Sie anstatt alles zu löschen, wie Sie zum vorherigen zurückkehren können, ich meine, wie Sie wissen schon, eine neue Konfiguration erstellen Sie müssen also nur Ihre Aufgabendefinition auswählen und Ihre Aufgabendefinition jetzt ändern Wählen Sie also hier die Aufgabendefinition aus. Im Moment haben Sie also nur eine Aufgabendefinition, also habe ich verschiedene, um mich zu ignorieren. Wenn Ihre Aufgabenanweisungen also HTDP-Aufgabe Ce und eins lauten, wählen Sie einfach das aus Okay? Also für mich ist das Letzte Aufgabe sechs, und dann erstelle ich diese neue Version. Jetzt wird diese neue Version auf meiner alten Version basieren, nämlich Version sechs, HTTP-Aufgabe, okay? Sie müssen also nichts ändern. Ändere das Netzwerk einfach mehr von AWSVPC auf Standard, okay Das ist also die Änderung, die erforderlich ist, damit wir das erledigen können Sie müssen nichts anderes ändern. Stellen Sie einfach sicher, dass Ihre Host-Portnummer 80 und Container-Portnummer 80 lautet. Das bedeutet also, dass Sie die Host-Port-Nummer 80 und die Container-Portnummer 80 verwenden werden . Das bedeutet also, dass dieser spezielle Container , den ich haben werde, meine Host-Portnummer 80 und hier dann eine Container-Portnummer von ATO verwenden meine Host-Portnummer 80 wird. Das ist so ziemlich die Konfiguration. Sonst muss nichts geändert werden. Klicken Sie auf Erstellen. Jetzt sollten Sie eine neue Version Ihrer HTTP-Aufgabe erstellen, die Colon Seven heißt. Jetzt, da Sie die neue Version der HTTP-Aufgabe haben, müssen Sie zum Cluster zurückkehren, den Cluster auswählen, den Dienst auswählen und innerhalb des Dienstes haben Sie Bereitstellungen Wenn Sie zu den Bereitstellungen gehen, werden Sie feststellen, dass derzeit eine für Ihre Revision 1 ausgeführt wird eine für Ihre Revision 1 ausgeführt Für mich läuft es also sechs. Das ist okay. Klicken Sie auf Service aktualisieren. dann unter Update Service den neuesten aus Wählen Sie dann unter Update Service den neuesten aus, nämlich sieben, was für Sie zwei sind. Dann ist die gewünschte Aufgabe eine, dieselbe, jede Konfiguration ist gleich, weil wir das Zeug auf Netzwerkebene und die Portnummer geändert haben. Das sollte als sieben kommen und dann auf Update klicken. Jetzt wird es erneut bereitgestellt, sodass Sie sehen können, dass dies derzeit aktiv ist Und einer läuft und einer ist erwünscht. Wenn Sie also diese Daten aktualisieren, sollten Sie sehen, dass dies gewünscht wird, wenn Sie einen ausführen, und dann wird es zu 100 Prozent und dieser Wert wird zu Null Prozent, und dann wird das aktiv. Das ist es also, wonach wir suchen. Sie können also sehen, dass der Server mit dem Branding beginnt, was bedeutet, dass er den Server bereitstellt. Also wird der Server jetzt sofort laufen. Ich werde den Server starten. Und sobald es im laufenden Zustand ist, wird es auf 100 Prozent kommen, und dann wird es auf Null Prozent gehen. Es kann einige Minuten dauern , bis dieser gesamte Vorgang abgeschlossen ist. Sobald dieser Vorgang abgeschlossen ist, können Sie sehen, dass die Bereitstellung im Gange ist, was bedeutet, dass Ihre Anwendung bereitgestellt wird. Was wir tun werden, ist, wenn wir den Lastenausgleich konfigurieren, werden wir wieder darauf zurückkommen. Wir werden erneut eine weitere EC Two-Instance konfigurieren. Dieses Mal werden wir mehrere Instanzen Ihrer Anwendung ausführen . Wir werden also mehrere Container laufen lassen und auch mehrere Aktionselemente laufen lassen, also warten wir nur darauf, dass die Bereitstellungen abgeschlossen sind Ich werde das Video anhalten und es anhalten, sobald es fertig ist. In Ordnung. Jetzt ist das abgeschlossen, und Sie können sehen, dass es die ersten 100 Prozent sind, und das ist auf Null gegangen. Das bedeutet, dass es für mich auf die neueste Version migriert wurde , für Sie sind es sieben Es könnte auch einer sein. Sobald dies abgeschlossen ist, ist Ihre Bereitstellung so gut wie abgeschlossen. Sie können sehen, dass die Erfolgsmeldung hier angezeigt wird und Sie müssen nur zu Ihrer Aufgabe zurückkehren . Sie sollten sehen, dass hier vor 41 Sekunden neue Instanzen gestartet wurden. Dies wird langsam heruntergefahren. Das ist die, ähm, Container-Instance. Das wird also langsam heruntergefahren. Diese beiden Container werden tatsächlich in diesem Container laufen. Wenn ich nur rede oder PSI und A mache, können Sie sehen, dass das alles ausgefallene Maschinen sind, und das ist die, die gerade 12 Minuten lang für bis zu 12 Minuten läuft gerade 12 Minuten lang für bis zu 12 Minuten Ich warte nur darauf, dass du Bindestrich Null gibst. Bindestrich TRUNC. Kein Kofferraum. Nun, das gibt mir die IP-Adresse und die Portnummer, falls IPRs und Ich muss sehen, ob eine neue virtuelle Maschine erstellt wurde. Lass uns das überprüfen. Lass uns zu EC zwei gehen. Lassen Sie uns sehen, ob eine virtuelle Maschine erstellt wurde. Jetzt können Sie sehen, dass eine weitere virtuelle Maschine erstellt wurde. Die Otis Killing Group hat eine weitere virtuelle Mission erstellt Diese Instanz würde in dieser virtuellen Mission laufen . Das könnte der Grund sein Ich muss das nur duplizieren und dann die Sitzung bearbeiten, die IP-Adresse ändern. Setzen Sie auch ein Lesezeichen, ich muss die IP-Adresse ändern. Ordnung. Schauen wir uns jetzt diesen Fall an. Docker PSF und A, F und F und O. Betrunken. Ich bin also in einer anderen Instanz, oder? Nein, ich bin in derselben Instanz. Das ist komisch. Ich versuche es nochmal. Es ist 181, zwei, und das ist 18. Okay, es ist derselbe. Lass mich das nochmal kopieren. Nein, es heißt, dass hier etwas Falsches passiert. Okay, es lässt mich nicht, weil ich mein Limit erreicht habe. Das muss daran liegen. Okay, lass uns versuchen, das zuzulassen. Ich bin mir nicht sicher, was los ist. Lass es mich nochmal versuchen. Noch einmal. Es scheint, als ob ich dieses Mal das Richtige getan habe. Das liegt an den Sessions, an denen ich teilnehmen kann. Das muss der Grund sein, warum das passiert ist. Schauen wir uns BS Ip und A an. Okay, jetzt habe ich das neue Bild. Mal sehen, das iPhone wird nicht gekürzt. Lass uns sehen. Jetzt können Sie sehen, dass es die Portnummer 80 abhört . Wenn ich beim Start die Option „Zuhören“ habe, sollte hier die Portnummer 80 laufen. Sie können sehen, dass die Portnummer A zuhört. Dieses System, Ihre Container-Instance hat keine Anwendung, die auf der AIPort-Nummer läuft Es ist nur so, dass der Container die 80-Port-Nummer ausführt und diese 80-Port-Nummer über Ihren EC-Two-Computer projiziert . Das heißt, ich sollte sehen, dass ich in der Lage sein sollte , diese Anwendung mit dieser IP-Adresse hier zu durchsuchen mit dieser IP-Adresse hier Genau da. müssen Sie Ihre Bewerbung durchsuchen. Sie müssen wissen, wo diese Docker-Instanz läuft, und dann müssen Sie sie dort ausführen Das ist so ziemlich das, was ich dir zeigen möchte und so kannst du das erledigen Ich habe Ihnen sowohl die Bereitstellung als auch einen Teil dieses speziellen Videos gezeigt , wie Sie eine neuere Version Ihrer Anwendung, Ihrer Aufgabe oder Ihres Containers für Ihre Anwendung bereitstellen können. Das ist so ziemlich auch, ich habe dir gezeigt , dass ich nur eine Weile gewartet habe und dann wurde es bei der ersten Instanz ausgeschaltet. Also, weißt du, es hat das Auto Scaling geschlossen und die erste Instanz geschlossen. Die zweite, bei der, Sie wissen schon, das Bild als Talker-Image läuft, also lief es einfach weiter Also ähm, diese URL funktioniert immer noch einwandfrei und ohne Probleme. Die andere Instanz, die es hatte, wurde erneut beendet. also daran, dass Auto Scaling die Instanzgröße wieder auf 2:1 reduziert . Das ist also der Grund, warum es nicht auf dem anderen Knoten bereitgestellt wurde , weil es weiß, dass es ihn herunterfahren wird. Das könnte der Grund sein, warum White einen neuen Knoten erstellt und ihn auf diesem bereitgestellt hat. Wie dem auch sei, Base, das ist die Autoskilling-Entscheidung, die getroffen werden muss. So müssen wir also dafür sorgen, dass Ihr ECS, all Ihre Anwendungen und auch die Tests funktionieren Nochmals vielen Dank, dass Sie sich dieses Video haben. Wir sehen uns im nächsten Video. 68. Labs EKS Pods und praktische Anleitungen zur Bereitstellung: Hey Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir mit AWS und, ähm, dem AWS Communities Service arbeiten AWS Communities Service und Engine Export erstellen. Bevor wir jedoch Engine Export erstellen, müssen wir zunächst eine Verbindung zum vorhandenen AWS-Service herstellen. Von der Befehlszeile aus. Es gibt zwei Methoden. Sie öffnen die AWS-CLI und verwenden dann AWS. Es gibt eine Option , bei der wir AWS mithilfe der Sicherheitsanmeldedaten konfigurieren . Ich habe es Ihnen bereits als Teil des vorherigen gezeigt. Ist eine Methode, es zu tun. Eine schnellere Methode besteht im Grunde darin , in Ihre Konsole zu gehen und die CloudShell zu öffnen Jetzt ist Cloud Shell eine der einfachsten Methoden, um mit AWS CLI und all diesen Uberntis zu arbeiten AWS CLI und all diesen Uberntis da Cloud Shell automatisch die Kubernetes- und Cube-CTL-Befehle bereits im Build hat die Kubernetes- und Cube-CTL-Befehle , also ähm, darüber nachdenken, können Sie damit Alles, was ich jetzt tun muss, ist das in einem neuen Tab zu öffnen. Standardmäßig wird Cloud Shell mit einer kleineren Schriftgröße geliefert. Wenn Sie also zu der Einstellung hier gehen, können Sie sie auf große Schriftgröße und Hell- oder Dunkelmodus ändern , Sie können sie ändern. Derzeit habe ich die größte Größe. Bitte haben Sie Geduld mit mir, wenn Sie es nicht klar sehen können. Ich gebe den Befehl ein. Das ist der erste Befehl, den Sie eingeben müssen. Sie müssen keine der Anmeldeinformationen konfigurieren , da Sie bereits in Ihrem Konto sind und von Ihrem Konto aus die CloudShell öffnen Jetzt muss ich nur noch AWS, EKS, IP und iPhonRgion ausführen und dann sagen, in welcher Region Ich bin in USE Spawn. Und dann muss ich Update Hyphen Cub Config Bindestrich als Bindestrich angeben , und dann gebe ich den Namen des Hier gehe ich rüber , um den Namen des Clusters zu bekommen und füge ihn hier Clusters zu bekommen und füge ihn Das ist der Name meines Clusters. Wenn Sie das jetzt tun, wird ein neuer Kontext hinzugefügt. Jetzt ist der Kontext erstellt und er weiß, dass der EKS-Cluster mit diesem Namen läuft. COV auf Ihrer Kontonummer. Dies ist Ihre Kontonummer, Ihr Cluster, Ihr Clustername, und das ist SEs weil es sich um eine Region handelt, die Sie verwenden, und es handelt sich um ARN AWS EKS Das heißt also, es hat im Grunde eine URO oder URI gebildet und diese URI in diese Konfigurationsdatei in Ihrem Home-Verzeichnis eingebunden . Nun, Cup Control, hol Pots Phen A. Jetzt, wenn du diesen Befehl ausführst, kommen all diese Pots-Berichte von deinem Community-Cluster, der sich hier drüben befindet. Wenn du diesen siehst, wird es dasselbe sein. Das sind die Töpfe, die hier zu sehen sind. Lassen Sie uns nun die Nginx-Konfiguration erstellen. Lassen Sie uns also weitermachen, ein Deploy-Nginx erstellen und auf TO bereitstellen Darin werden wir Sachen kopieren und einfügen, einfach aus dem Notizblock nehmen Ähm, es gibt ein Problem in VI, statt VI benutze ich cat greater than symbol und füge es dann Und dann drücken Sie Enter und drücken Sie Strg D. Damit wird die Datei gespeichert und beendet. Es gibt ein Problem mit den VIs, im Grunde genommen wird die Formatierung in Cloud Shell nicht korrekt wiedergegeben. Wie dem auch sei, SCAT ist da, um uns zu helfen. Also erstellen Sie jetzt einen Service ph und setzen Sie Dot GMO ein. In diesem Dienst kopieren wir ihn aus der Servicedatei und fügen ihn dann aus Control D ein. Jetzt haben Sie zwei Dateien erstellt Verwenden Sie Coop Control und wenden Sie FNF an, um diese beiden Dateien bereitzustellen. Oki. Engine bereitstellen, Bereitstellung ist abgeschlossen, und dann Service bereitstellen, Bereitstellung ist abgeschlossen. Jetzt, Cop Control. Holen Sie sich Pots, stellen Sie den Service bereit. Jetzt habe ich aufgrund der Bereitstellung standardmäßig zwei Pots erstellt . Deployment hat zwei von zwei, weil wir hier gesagt haben Replicas zwei haben und es das EnginexImage hat Der Dienst wird ebenfalls bereitgestellt. Einer ist der Community Service, das ist ein Standard, ein anderer ist der Engine-Service. Wenn Sie das sehen, haben wir diesen Dienst als Load Balancer bereitgestellt Das bedeutet, dass er die externe IP-Adresse automatisch und die URL des Load Balancers angegeben hat Nun, nur um sicherzugehen, dass das gut funktioniert, kopieren Sie einfach die URL, legen Sie sie auf den Webserver und geben Sie dann einfach AntaTry und es kann ein paar Minuten dauern, geben Sie dann einfach AntaTry und es kann ein paar Minuten dauern bis sie repliziert ist, um den Cluster zu erstellen, Bereitstellung dieser Cubonuts, Bereitstellung dieser Cubonuts Wenn Sie also zum gesamten Namensraum wechseln oder zur Standardeinstellung wechseln, werden Sie die beiden neuen Bereitstellungen, die gerade durchgeführt wurden, im POT-Bereich sehen . Und wenn Sie zu Service und Networking gehen, wenn Sie zu Service gehen, werden Sie den Enginx-Dienst hier sehen Wenn Sie auf den Engine X-Dienst klicken, können Sie die URL des Load Balancers sehen Er ist immer noch nicht verfügbar, also gib ihm etwas Zeit und lass uns dann versuchen, ihn zu durchsuchen Es sollte gut funktionieren. Sie können die Endpunkte hier sehen. Endpoints sehen gut aus, daher kann es einige Zeit dauern , bis sie bereitgestellt sind. Das könnte der Grund sein Oder es sucht nach HTTPS. Versuchen wir es mit HTTP. Das ist auch einer der Gründe, warum es nicht funktioniert. Geben wir uns noch ein paar Minuten Zeit und dann werden wir es erneut versuchen. Ich pausiere das Video und pausiere es, sobald es funktioniert. Nach ein paar Minuten können Sie sehen, dass Sie diese Seite erhalten. Willkommen bei EnginX. Ich wusste nichts Ich habe mir nur ein bisschen Zeit genommen , weil es auch einen DNS-Dienst einrichten muss. Und dieser CB-DNS-Dienst ist entstanden. Danach fing es an zu funktionieren. Das ist also auch nicht von mir selbst erstellt. Dies ist ein autonomer Dienst, der ausgelöst wird, wenn Sie Ports erstellen. Jetzt funktioniert auch diese bestimmte URL, der EngineX-Dienst hier drüben. Also der EngineX-Dienst, wo Sie darauf klicken, stellen Sie sicher, dass es nicht HTTP ist, da es HTTP ist , weil EnginX auf HTDPpot Nummer 80 läuft und dieser standardmäßig auf HTTPS geht und dieser Wenn Sie also einfach den Link kopieren fügen Sie ihn ein und ändern Sie ihn dann Ich sollte gut funktionieren. Das ist alles Leute. Hoffentlich verstehen Sie, wie Sie Instanzen auf Ihrem ECS erstellen und wie Sie sie mit Kubernetes ausführen lassen Nochmals vielen Dank für Ihre Geduld und Zeit. Ich werde dich auf einem anderen Video sehen. 69. Praxisorientierte Übungen zum EKS-Setup von Labs: Hallo Grasp, komm zurück zum nächsten Teil dieses Videos, wir werden über den Elastic Kubern Service sprechen Dies ist eines der Themen, über die wir uns hier mit EKS befassen. Das ist also eine praktische Sitzung dafür. Nochmals, diese praktische Sitzung hat nichts mit Ihren eigentlichen AW-Zertifizierungen zu tun , sondern sie dient lediglich einer praxisorientierten Einführung in das Thema. Hier werden wir den EngineX-Dienst jetzt auf Kubernts hosten , um das zu tun, um Ihren Entschuldigung, Nginx-Dienst zu hosten und ihn erfolgreich auszuführen, müssen wir zuerst nach müssen wir zuerst Und Sie haben hier einen separaten Dienst für EKS, und dann klicke ich auf Denken Sie daran, das ist wieder so, es gibt ein paar Teile dieses speziellen ähm Videos. Der erste Teil ist, dass wir einen Cubons-Cluster erstellen Sobald wir den Cluster erstellt haben, werden wir ihm Knoten hinzufügen So wie wir Knoten zu Ihrem bestehenden Cluster hinzufügen, bei Ihren Coberats genauso gehen wir bei Ihren Coberats genauso vor, indem wir Knoten als Teil des Clusters hinzufügen Jetzt gibt es zwei Möglichkeiten, Knoten hinzuzufügen. Sie können ein Fargate verwenden. Auch hier wird Fargate für serverlose Knoten verwendet , oder Sie können EC Two Instance verwenden Zuerst werden wir uns mit der EC-2-Instanz befassen und dann werden wir uns den Fargate-Datenzeitpunkt ansehen Um einen Cluster zu erstellen, haben Sie, sobald Sie auf den EKS-Dienst zugegriffen haben, die Möglichkeit , hier einen Cluster zu erstellen Sie haben eine weitere Option, bei der Sie EKS Anywhere und ECS Anywhere ebenfalls haben. Das ist also im Grunde ein abonnementbasiertes Produkt, bei dem der Vorteil darin besteht, dass Sie für ein Abonnement bezahlen müssen, und Sie erhalten rund um die , bei dem der Vorteil darin besteht dass Sie für ein Abonnement bezahlen müssen, und Sie erhalten rund um Uhr Support von AWS, tut mir leid, der Fachexperte SME für EKS. Das ist im Grunde Teil Ihres Pakets. Das ist also, ähm, ein Paket auf Abonnementbasis. Es ist dasselbe, was auch in ECS verfügbar ist. Auch für den Elastic-Antennenservice. Wir sind nicht daran interessiert , danach zu suchen , denn wenn Sie wissen, wie man einen Cluster konfiguriert, ist das so ziemlich dasselbe. Lassen Sie uns weitermachen und einen Cluster erstellen. Lassen Sie uns hier einen Cluster erstellen und wir werden diesen HTTP-EKS-Cluster nennen . Jetzt müssen wir hier eine IAM-Rolle erstellen. Jetzt haben wir bereits diese EKS-Admin-Rolle. Wenn Sie keine EKS-Administratorrolle haben, klicken Sie einfach auf diese Konsole für IAM, und dann können Sie hier auswählen, hier können Sie den AWS-Service auswählen, von hier aus EKS auswählen und Sie können den EKS-Cluster auswählen Dies wird automatisch ausgewählt, da dieser Link, äh, zu diesen spezifischen Anforderungen umgeleitet wird Sie können sehen, dass dies genau die tatsächliche Anforderung ist, auf die es gerichtet ist Wenn Sie also auf Weiter klicken, können Sie sehen, dass eine bestimmte Richtlinie ebenfalls als Teil davon geladen wird , weil diese spezielle Auswahl mit dieser Richtlinie geliefert wird . Klicken Sie dann auf Weiter und geben hier einen Rollennamen ein und klicken Sie dann auf Rolle erstellen Denken Sie jedoch daran, dass diese Rolle bereits vorhanden sein muss , was bedeutet, dass Sie sich das CKS Mendroll besorgen sollten Wenn nicht, erstellen Sie sie einfach mit demselben Namen, und Sie werden das hier sehen können. Sie müssen es nur hier aktualisieren und Sie werden diese Rolle sehen. Rollen sind also wichtig für Services, denn wie bereits erwähnt, Rollen für Services vorgesehen, also für den Zugriff auf andere Services oder den Zugriff auf andere Services innerhalb von AWS. Hier ist die Version von Huberts. Die aktuelle Version ist eine. 31. Und zwei Arten von Support für diese spezielle Version stehen zwei Arten von Support zur Verfügung. Der eine ist der Standardsupport , der 2025 ausläuft, was bedeutet, dass Sie nach diesem bestimmten Zeitplan auf die nächste Version aktualisieren müssen , und der Support, der als erweiterter Support bezeichnet wird. Das ist also bis 2026 verfügbar. Die schrittweise Regelung beträgt also 14 Monate und 26 Monate für erweiterten Support 14 Monate, Sie müssen nichts extra bezahlen. Es fallen keine zusätzlichen Kosten an. Wenn Sie jedoch für 26 Monate arbeiten, müssen Sie hier extra zahlen, wobei Sie den Support tatsächlich am Enddatum verlängern dem der Cluster automatisch auf die nächste Version aktualisiert wird. Ebenso müssen Sie dafür zusätzliche Stundenkosten zahlen. Ich entscheide mich für Standard One. Cluster-Achse hier drüben dient im Grunde dem Zugriff auf Ihren Cluster. Aktion zur Clusterverwaltung zulassen, die Standardoption, also machen Sie damit weiter. Hier für den Cluster-Authentifizierungsmodus dient dies zur Konfiguration der Quelle, des Clusters, den Sie für die Authentifizierung über IAM verwenden werden für die Authentifizierung über IAM Wir verwenden die EKS-API, die hier die Standardoption ist. Wir werden hier keine Verschlüsselung einschalten, also lassen wir sie einfach deaktiviert. Dann haben wir die ARC-Zonenverschiebung. Nun, ARC-Zonenverschiebung ist im Grunde genommen, ähm, wissen Sie, es ist im Grunde das , was wir Application Recovery Controller nennen Die Zonenverschiebung erfolgt also, um sicherzustellen, dass Sie auch dann noch verfügbar sind , wenn es Ihrer speziellen Zone zu einem Notfall Sie können dies aktivieren, aber ich würde es lieber deaktivieren, da dies wiederum zusätzliche Kosten verursacht. Deshalb möchte ich es im Moment nicht aktivieren, da es zu Testzwecken dient Warum machen wir das? Zone and Shift wird verwendet, um die Cluster-Umgebung so einzurichten, dass die Ausfallsicherheit bei einem Ausfall der Availability Zone im Voraus gewährleistet ist. Im Falle einer Availlabilty Zone wird sie automatisch verschoben, aber das passiert sehr selten, also werde ich das Klicken Sie auf die nächste Option. Die Netzwerkoption ist hier drüben. Dies sind die Subnetze , für die wir unsere Cluster erstellen werden, und das sind die IV-Version, die wir auswählen werden Sicherheitsgruppe, wir wählen die Standardgruppe aus, die wir bereits geändert haben Wenn Sie im vorherigen Video am ECS-Setup gearbeitet und im zweiten Video zur Behebung dieser Probleme, hätten wir jetzt diese Standardsicherheitsgruppe erstellt. Sie können das also verwenden. Oder wenn Sie möchten, können Sie eine neue Sicherheitsgruppe erstellen , den gesamten Datenverkehr öffnen, und dann können Sie einfach auch diese Sicherheitsgruppe auswählen. Hier ist der Punktzugriff öffentlich und privat. Klicken Sie auf Weiter. Die nächste ist die Beobachtbarkeit Observability stellt sicher, dass Sie hier Optionen haben, mit denen Sie Ihre Daten Ihrer Clusterinformationen an Prometheus senden können Ihre Daten Ihrer Clusterinformationen an Prometheus Aber auch hier gilt: Alles, was Sie hier auswählen, ist extra kostenpflichtig. Seien Sie vorsichtig, was Sie wählen, denn auch das ist etwas, das extra zu zahlen ist, wenn es um die Arbeit mit diesen Aktionspunkten Ich werde nichts davon aktivieren. Ich werde hier die Standardeinstellungen aktivieren. CDN, CNI, Cupxy und dann EKS Prod Identity Agent. Das ist also etwas , das standardmäßig ist. Wenn Sie dies also erneut auswählen möchten, ist dies dafür verantwortlich, dass eines anfällt. Dies ist eine Schutzaufgabe für die EKS-Laufzeitüberwachung. Aktivieren Sie also nichts , was extra ist, sondern klicken Sie einfach auf Weiter. Und dann ist das im Grunde die Version, die Sie installieren müssen. Es wurde also bereits die stabile Version ausgewählt, sodass Sie die Auswahl von Versionen für diese zusätzlichen Komponenten ignorieren können , sodass Sie auf Weiter klicken können. Nun, hier sind wir auf der Übersichtsseite und hier werden wir sie überprüfen und erstellen. Das ist so ziemlich das , was wir bisher ausgewählt haben Klicken Sie auf die Schaltfläche Erstellen . Ich gehe davon aus, dass gerade eine Ausnahme auftaucht. Hier drüben heißt es, dass der HTTP-EKS-Cluster nicht erstellt werden kann, da EKS das Erstellen einer Kontrollebeneninstanz nicht unterstützt. Ähm, US East One E. Darin steht, dass Sie in dieser Region keine Kontrollebene erstellen können. Also das sind sehr einfache Wege. Das heißt, Sie können es auf jedem davon erstellen , außer auf, ähm, einem E. Also das ist es, was es aussagt. Zum Beispiel müssen wir zu den Netzwerkeinstellungen gehen und auf Bearbeiten klicken. Dann müssen Sie herausfinden, dass E diese bestimmte Availability Zone ist, diese Availability Zone entfernen und dann weiter, weiter, weiter Klicken Sie dann auf Jetzt erstellen. Sobald Sie diese bestimmte Verfügbarkeitszone entfernt haben, können Sie sie erstellen. Dies ist ein Standardverfahren. Wenn Sie mit einer der Regionen arbeiten, die in der T-Zone verfügbar ist, können Sie Ihre Kontrollebene nicht wirklich erstellen. Denken Sie also daran, dass dies ein Standard für AWS ist. Jetzt wird der Cluster gerade erstellt, sodass Sie sehen können, dass der Cluster gerade erstellt wird. Dieser Vorgang kann etwa zwei bis 5 Minuten dauern da er für mich ungefähr 2 Minuten gedauert hat und ich hier einige Details erhalte , sobald ich den Cluster vollständig erstellt habe. Sobald der Cluster erstellt ist, werde ich dieses Video pausieren, sobald es fertig ist Dann machen wir den zweiten Teil dieses Videos. In der zweiten Phase geht es im Wesentlichen um die Konfiguration des Knotens, und wir werden auch einige der Konzepte untersuchen, die Teil Ihres EKS-Clusters in dieser Konsole sind. Ich gebe das Video weiter und pausiere es, sobald es fertig ist. Also der Clustercode wurde in 10 Minuten erstellt, also lasst uns in den Cluster gehen. Dieser Cluster enthält Informationen, zum Beispiel sein Datum und die Version des Uberuts und des Anbieters EKS Es verfügt auch über den API-Serverendpunkt, über den eine Verbindung zum API-Serverendpunkt hergestellt und mit diesem gearbeitet werden kann, sowie über einen offenen Verbindungsanbieter Dies sind Kommunikations- und Authentifizierungsmethoden. Diese sind also hier aufgelistet. Und es gibt kein Gesundheitsproblem, hier drüben gibt es ein gewisses Setting. Die Versionseinstellung ist Standard. Das haben wir ausgewählt, und die Verschlüsselung ist ausgeschaltet und es gibt auch keine Zonenverschiebung Was die Ressourcen angeht, ist das sehr wichtig. Was wir auf den Cummints und der Befehlszeile sehen, können Sie hier sehen. Sie können Workloads sehen, Sie können, ähm, Pots, ähm , Replikatsatz, Deployments, Status Full Set usw. sehen , Replikatsatz, Deployments, Status Full Set Deployments, Status Sie werden die Notizen sofort sehen, äh, in diesem Aber du siehst nichts , weil wir keine Notizen konfiguriert haben. Das ist der zweite Teil, zu dem wir gehen werden. Namensräume und dann API-Dienste, Leasingverträge. Ebenso sehen Sie einige Standardfunktionen. Es gibt also schon das Cluster-Setup. Es gibt also bestimmte Elemente, bei denen es sich um Pots handelt, die im Cub-System-Namespace konfiguriert Das sind die Co-DNS-Dienste. Jetzt wartet alles darauf, dass wir die Knoten erstellen , damit die restlichen Elemente hier angezeigt werden. Um also die Knoten zu erstellen oder eine sogenannte Knotengruppe hinzuzufügen, erstellt, werden beim Hinzufügen einer Knotengruppe automatisch Knoten da es keine Möglichkeit gibt, Knoten zu erstellen Das sind die Knoten. Es gibt keine Möglichkeit, Knoten zu erstellen, aber Sie können die Knotengruppen erstellen. Jetzt erstellen Sie entweder Knotengruppen und dann oder Sie erstellen das Fargate-Profil hier drüben. Wir werden später darüber sprechen. Zuerst werden wir die Knotengruppen erstellen, und dann werden Sie sehen, wie die Knoten hier gefüllt werden. Wenn Sie also hier auf Knotengruppe hinzufügen klicken, müssen Sie die Summe, den Typ oder den Namen der Knotengruppe auswählen . Jetzt gebe ich HTDP IP und NG als Knotengruppe an. Dann haben Sie hier Moment keine EKS-Richtlinien dabei Ich habe es, weil ich es erstellt habe Ich habe einen Testlauf durchgeführt, um sicherzustellen , dass alles einwandfrei funktioniert. Sie werden hier also nichts finden, klicken Sie einfach auf IM-Regel erstellen, wenn Sie darauf klicken, erhalten Sie den AWS-Service und dann geht es zu EC zwei, ändern Sie es in EKS, also lasse ich mich zuerst den löschen, den ich habe, viel besser. Ich lösche gerade die Node-Policy-Rolle. Ich werde das einfach tun. Ich habe es entfernt. Nun, wenn du das einfach aktualisierst, solltest du es nicht finden, es wird so sein. Dann erstellen Sie eine neue Rolle und dann EKS, dann gibt es hier eine Option für die Knotengruppe, wählen Sie diese aus, wählen Sie Weiter und dann erhalten Sie hier einen Standardnamen und klicken dann auf Rolle erstellen. Jetzt heißt es, dass es bereits vergeben wurde, der Name existiert bereits. Aber selbst wenn du es auf deiner Seite erstellst, wirst du das hier nicht sehen können . Dies ist hier ein bestimmtes Kriterium. Sie können tatsächlich dazu gehen, mehr zu erfahren und dann die Kriterien sehr detailliert zu verstehen . Aber ich kenne die Kriterien, also werde ich selbst eine Rolle erstellen . Erstellen Sie jetzt eine Rolle. Klicken Sie auf Rolle erstellen und wählen Sie dann hier nichts aus. Wenn Sie dies tun, werden es vorgewählte Richtlinien sein. Die Berechtigungen werden angewendet. Klicken Sie auf eine dieser Optionen und dann auf EC zwei. Lass uns das nicht tun. Lass uns einfach rüber gehen. Wir machen es von Anfang an. Lassen Sie uns auf Rolle erstellen klicken und dann einfach den AWS-Service auswählen und auf Weiter klicken. Es erlaubt uns nicht, oder? Halte durch. In Ordnung. Lass uns das so machen. Klicken Sie einfach auf Rolle erstellen und wählen Sie Benutzerdefinierte Vertrauensrichtlinie aus. Und dann entscheiden wir uns einfach für den nächsten. Und dann fügen Sie hier vier Dienste hinzu. EKS-Dienste suchen nach EKS-Richtlinien. Es tut mir leid, keine Servicerichtlinien. Also EKS-Richtlinie, Sie müssen EKS auswählen EKS Ich werde den EKS-Worker-Knoten auswählen. Also Worker-Node-Richtlinie, diese hier drüben. Sie können auch die Mindestrichtlinie auswählen. Also, dem einen geht es gut. Also, wenn Sie die Node-Policy wählen, wird nicht minimal benötigt. Also A, die eine ist in Ordnung, also würde ich mich für die Node-Policy entscheiden. Und dann können Sie den anderen auswählen, nämlich EKS, CNI Es tut mir leid. Das tut mir leid. Also die CNI-Richtlinie hier drüben, Sie können diese auswählen. Und dann können Sie hier so ziemlich eine andere auswählen, nämlich die EC Two Container Registry Hier können Sie also Container-Registrierung, schreibgeschützten Zugriff auswählen und dann auf Weiter und dann auf Rolle erstellen klicken. Geben Sie hier nun einen Namen ein. Es ist eine Knotenrichtlinie. Und dann klicke ich einfach auf Rolle erstellen. Ich sage, mein Hauptname fehlt. Lassen Sie mich sehen, ob das der richtige Weg ist. Gib mir nur 1 Sekunde. Lass mich das kopieren und einfügen. Lass uns sehen, ob ich das ändern kann. Ja, also werde ich es einfügen , auf einen Notizblock legen und es auf das setzen , was ich gerade kopiert habe Was ich also kopiere und eingefügt habe, ist die Vertrauensrichtlinie. ECS-Note-Richtlinie hat also diese Vertrauensbeziehung, und sie muss einen Prinzipalnamen wie diesen haben, der besagt, dass es sich um einen Service E bis aw amazon aws.com handelt Und dann muss es sagen, dass STS die Regel annimmt. Dies ist die Vertrauensbeziehung , die mit diesem Dienst aufgebaut werden muss. Das sollte Teil Ihrer Node-Richtlinie sein , da der Node für die Kommunikation eine Verbindung mit der EC Two-Instance herstellen muss. Denken Sie daran, dass dies verpflichtend ist und dass Sie es haben sollten. Wenn Sie nicht alle diese drei Richtlinien sowie diese Beziehung zum Trust haben , wird es hier nicht angezeigt. Jetzt können Sie sehen, dass die EKS-Knotenrichtlinie bald verfügbar ist. Schauen Sie sich also einfach die Notiz an. Ich werde die Notiz auf dasselbe Video unter dem Video platzieren. Und dann können Sie darauf zugreifen und, Sie wissen schon, dieselbe Vertrauensrichtlinie kopieren und auch in diese Regeln einfügen. Jetzt, wo Sie das abgeschlossen haben, können Sie das Standardmaterial verwenden. Sie müssen nichts ändern. Wenn Sie jedoch Etiketten, Flecken und Etiketten haben , können Sie sie hier anbringen und dann auf Weiter klicken. Jetzt entscheiden wir, welche Art von, ähm, Arbeitslast, ähm, Sie wissen schon, Verteilung der Arbeitslast Sie in Bezug auf Rechenleistung und Ski-Optionen vornehmen werden. Hier entscheiden wir uns für Amazon Linux Two, und wir entscheiden uns für On-Demand-Instance statt Spot-Instance, und wir wählen T Three Medium. Wie unsere Produktfamilie und der Typ der Größe der Instance. Den Instanztyp, den wir hier wählen, geben eine Festplattengröße von 20 GB an und wir erstellen hier zwei Knoten als gewünschte Größe, ein Minimum sind erstellen hier zwei Knoten als gewünschte Größe, zwei und das Maximum sind zwei Knoten. Maximal nicht verfügbar, es heißt in jedem Fall oder in jedem Szenario, Sie wissen schon, ob es zu Ausfallzeiten kommen wird oder ob es ein Upgrade auf Ihre Version der aktuellen Version von Uberts geben wird, wie viele Knoten nicht verfügbar sein oder ausfallen können Sie haben hier also eine Zahl eingegeben und eine gegeben. Sie können auch einen Prozentsatz wie 50 Prozent angeben. Es bedeutet auch eins, wenn du nach Prozent gehst. Nun hier einer, was bedeutet, dass ein Knoten ausfällt und dann zum Upgrade-Prozess übergeht und der andere Knoten zu einem späteren Zeitpunkt aktualisiert wird. Klicken Sie auf Weiter und das sind die Subnetze, in denen Ihre Notizen gehostet werden, und ähm, fahren Sie einfach fort mit Ähm, geben Sie Ihnen nur 1 Sekunde Ich habe hier auch den E-Node hinzugefügt , sodass meine Nodes auch auf dem e1e-Node erstellt werden können auf dem e1e-Node erstellt Also eine E-Verfügbarkeitszone. Gehen Sie also einfach hierher und klicken Sie auf Erstellen. Da hast du's. Das eine E ist also egal ob du Knoten darauf erstellst, aber es ist wichtig, ob du ihm Glanz verleihen willst Okay? Das ist also der Unterschied zwischen einem Cluster und einer Knotengruppe. Nun, da der Cluster nicht auf einer E, einer variablen T-Zone, erstellt werden kann, sondern es können auch Knoten normal auf einer E erstellt werden. Deshalb habe ich das ausgewählt. Jetzt bin ich also in der Knotengruppe. Gehen wir also zurück zum Cluster. Und lassen Sie uns hier wieder zur Datenverarbeitung zurückkehren. Das kann etwas Zeit in Anspruch nehmen, und wie Sie sehen können, handelt es sich dabei um eine Verarbeitung. Und wenn Sie die EC Two-Instance öffnen, werden Sie nach einiger Zeit Instances sehen, die für Ihre Knotengruppe unter diesem Cluster, dem ECS-Cluster, erstellt wurden . Also wird die EC Two-Instance erstellt. Wenn Sie sich für Fargate entscheiden, erstellt Fargate eine serverlose Registrierung Aber da das auf EC Two sein wird, wird es auf EC Two Instance sein Sie werden sehen, dass eine Instanz auftaucht. Es kann weitere fünf bis zehn Minuten dauern, bis die Instances gestartet, all diese Deployments durchgeführt, all diese Deployments durchgeführt, Pots erstellt werden und so weiter Ich pausiere das Video und pausiere es, sobald das alles abgeschlossen ist Dies ist abgeschlossen und wie Sie hier sehen können, habe ich hier zwei Notizen als Teil dieser Knotengruppe konfiguriert. Jetzt werden diese beiden Knoten mit mir an allen Anwendungen arbeiten , die ich für Covenants bereitstellen werde Und auf denen werden sie bereitgestellt. Was die Ressourcen angeht Wenn Sie jetzt zu Workload gehen und sich Pots ansehen, werden Sie feststellen, dass viele Pots erstellt werden. Nun, all diese Teile sind Teil des Cup-System-Namespace, der nichts anderes ist als Ihre Kernsysteme, Namespace-Pots hier drüben Sie haben standardmäßig auch nichts , weil es nur etwas ist, das wir im dritten Teil erstellen müssen Den dritten Teil werde ich auf das nächste Video setzen. Äh, wo ich Pots für unseren Nginx erstellen werde, und dann werden wir den EngineX-Dienst über dieses Port-Cloth-EKS-System durchsuchen dieses Port-Cloth-EKS-System Als Nächstes geht es um die Bereitstellung von Replikatgruppen und all diese Dinge. Standardmäßig ist nichts vorhanden, aber wenn Sie zum Coop-System gehen, werden Sie Sie haben die Cluster-Konfiguration den Knoten, die Teil des Clusters Und dann die verfügbaren Namespaces und all diese Elemente hier in Bezug auf Servicenetzwerke, Konfigurationszuordnungen und Geheimnisse, Speicher, Authentifizierung, Autorisierung, Richtlinien und Erweiterungen. Sie werden all diese Dinge bekommen, die die Cubants in AWS anbieten, aber es ist viel einfacher zu verwalten weil Sie das alles auf einer Konsole sehen werden Aber wenn Sie mich fragen, was der beste Weg ist, Pods zu erstellen? Da Sie hier keine Möglichkeit haben, einen Pod zu erstellen, gibt es keine Möglichkeit, einen Pod zu erstellen. Das bedeutet, dass Sie die Befehlszeile verwenden müssen. Im nächsten Video zeige ich Ihnen, wie Sie mit der Befehlszeile arbeiten und Pods mit diesem speziellen Befehlszeilentool erstellen . Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns beim nächsten. 70. Labs Fargate – praktische Anleitung: Hey Leute, das nächste Video. In diesem Video werden wir über AWS Fargate sprechen. Wir werden ECS mit AWS Fargate konfigurieren. Das ist so ziemlich das, was wir in diesem Video nicht tun können Lassen Sie uns also weitermachen. Ich bin bereits im ECS-Service und habe bereits auf den Cluster geklickt, und Sie können auf Create Cluster klicken Jetzt werden Sie mir tatsächlich dabei zusehen , wie ich Fargate erstelle. Ich meine, die Instanzen über Fargate und Sie werden sehen wie einfach das ist, wenn man es mit der EC Two-Instance vergleicht Also werde ich jetzt HDDPiphenECS erstellen. Fargate-Bindestrich ECS. Es tut mir leid, lassen Sie es uns einfach dort beenden Das ist also HTPiphens Bindestrich Fargate. Das ist also im Grunde der Clustername. Und hier werde ich Fargate für weniger Server verwenden Fargate für weniger Server Ich muss also keine Details über den EC-Two-Instance-Typ oder ähnliches angeben den EC-Two-Instance-Typ oder ähnliches Also kann ich all diese Dinge überspringen, weil Fargate im Grunde alle Instanzen laufen lässt, die Sie haben, und es ist sehr nützlich für Workloads und winzige Batches und Workloads wie Webserver und Aber es wird dringend empfohlen , sich für EC-2-Instances zu entscheiden, wenn Sie eine konsistente und große Arbeitslast haben, aber das ist nur eine Demo, also werde ich Fargate hier einfach verwenden Denken Sie daran, dass Fargate nicht kostenlos ist, daher können Gebühren anfallen , wenn Sie sich dafür entscheiden Klicken Sie also einfach auf Erstellen. Jetzt wird hier drüben ein Cluster erstellt . In einiger Zeit werden Sie sehen, wie der Cluster auftaucht. Aber lass uns nicht darauf warten. Gehen wir zur Aufgabendefinition. Erneuern Sie die Aufgabendefinition. Dies ist die Aufgabendefinition für HTTP, Iphon Gate. Iphone-Aufgabe. Also hier wähle ich Fargate als Starttyp Und hier ist der Netzwerkmodus deaktiviert und er ist genauso geeignet wie VPC, sodass Sie ihn nicht ändern müssen Also, ich habe die Anforderungen an die Instanzinfrastruktur als Standard angegeben Und hier bei den Container-Details habe ich die Container-Details wie den Ginex-Container-Namen und dann die URL RO angegeben wie den Ginex-Container-Namen und dann die URL RO Sie müssen sie von hier aus der Container-Registry abrufen GeneX kopiere es, füge es hier ein, nichts anderes muss geändert werden Portnummer, Container-Protokoll, Portnummer. Ich glaube, es sind auch 80. Das ist im Grunde die Portnummer, sorry, Portname, sorry, DPI und 80. Das ist optional. Du musst es nicht wirklich geben, also ist es automatisch. Ich werde die Cloud-Uhr deaktivieren. Und dann werde ich kreieren. Nun, das hat die Aufgabe für Fargate erstellt. Clustererstellung ist abgeschlossen, sodass Sie sehen können, dass der Cluster erstellt wurde Gehen wir in den Cluster hinein. Lassen Sie uns einen Service erstellen. Hier stehen nun automatisch AWS fargt und der Name des vorhandenen Clusters In Bezug auf die Strategie zur Bereitstellung von Kapazität können Sie sehen, dass Fargate bereits ausgewählt ist und es keine Möglichkeit gibt, die Standardstrategie zu verwenden können der Spot-Instance auch eine weitere Kapazität hinzufügen und ihr mehr Gewicht verleihen Also gebe ich fünf zu eins. Ich meine, ich möchte, dass mehr Instances auf der Fargate-Spot-Instance erstellt werden, aber ich benötige auch mindestens eine Instanz auf Fargate, um sicherzustellen , dass einige Server dauerhaft verfügbar sind und einige Server verfügbar sind, wann immer es nötig ist Also werde ich 51 ist zwei erstellen, wobei der Spot-Instance mehr Priorität eingeräumt wird Also wird hier die neueste Version von Fargate verwendet. Das ist also die neueste Version, und ich werde den Service hier nutzen. Siehe FargateTask. Und dann hier der Dienstname, ähm , HTTP sein wird Fargate-Telefondienst. Ich werde eine gewünschte Aufgabe erstellen und dann auf Erstellen klicken Damit wäre der Bereitstellungsprozess erstellt worden, und es wird einige Zeit dauern , bis die Anwendung bereitgestellt ist. Sobald die Anwendung auf Fargate bereitgestellt ist, komme ich zurück und zeige Ihnen, wie Sie sie durchsuchen Ich schätze, fast alle Aufgaben sind erledigt. Lass uns das überprüfen. Gehen Sie zu Ihrem Cluster, dem Clusternamen und dort zum Service. Sie können die IP-Adresse von Fargate nur erhalten , wenn Sie derselben Anweisung folgen Sobald Sie im Dienst sind, gehen Sie in der Aufgabe zur Aufgabe, Sie werden tatsächlich den Aufgabennamen sehen. Wenn Sie darauf klicken, werden die Fargate-Details hier angezeigt. Dies sind im Grunde die Fargate-Details, die Teil Ihrer Aufgabe Diese Aufgabe wird ausgeführt, und dadurch wurde eine Fargate-Spot-Instance erstellt Da wir der Spot-Instance mehr Priorität eingeräumt haben, eine Spot-Instance erstellt, aber machen Sie sich keine Sorgen Wenn es ein Problem gibt, wenn es ein Problem gibt , bei dem die Ressource nicht verfügbar ist, wird die Instanz tatsächlich auf Fargate erstellt Weil wir im Rahmen des Balancings beide Optionen angegeben haben Rahmen des Balancings Fargate Spot bietet Ihnen mehr Rabatt, da es die verfügbaren Ressourcen nutzt , die nicht genutzt werden ist so ziemlich der Grund, warum es Fargate Spot heißt und aus diesem Grund haben wir Fargate Spot mehr Priorität oder mehr H eingeräumt , damit es eine Fargate-Spot-Instance erstellt Hier ist die öffentliche IP-Adresse. Kopieren Sie die öffentliche IP-Adresse, die Sie hier eingefügt haben. Und Sie sehen die Ex-Seite „ Willkommen auf Engine“. So ziemlich können Sie konfigurieren und durchsuchen Ihre ECS-Instanz auf Fargate Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Ich sehe dich beim nächsten Mal und davor, wenn du die EC Two siehst, läuft hier nichts drüber. Es werden keine EC-2-Instances laufen, weil das bei Fargate läuft Fargate ist ein serverloser Computerdienst, was bedeutet, dass er ohne Schnittstelle läuft was bedeutet, dass er ohne Schnittstelle läuft. Nochmals vielen Dank, Leute Wir sehen uns im nächsten Video. 71. Labs Lambda praktisch: Willkommen zurück zum nächsten Video in diesem Video Wir werden eine praktische Sitzung über Lambda machen Erinnern Sie sich noch daran , dass dies eine sehr kurze, einfache Sitzung zu Lambda mit PHP ist? eine sehr kurze, einfache Sitzung zu Lambda mit Wir werden Hello World mit Lambda drucken. Ordnung, um das zu tun, müssen Sie sich in Ihrer AWS-Konsole befinden Sobald Sie sich in der AWS-Konsole befinden, können Sie zum Service Lambda wechseln Dies ist also ein separater Service, der für Sie verfügbar Klicken Sie mit der mittleren Maustaste darauf, damit er in einer neuen Registerkarte geöffnet wird Sobald Sie sich auf dieser Registerkarte befinden, können Sie die verfügbaren Optionen tatsächlich sehen. Jetzt werden Sie in erster Linie sehen, was es ist. Es ist ein Computer. Es ist also eine Art Rechenleistung. Es ist also eine serverlose Rechenleistung. Dies ist entscheidend für Ihre geringe Menge an Codierung, die im Hintergrund ausgeführt werden muss Jetzt können Sie damit beginnen, hier eine Funktion zu erstellen. Sie können hier auch eine Testfunktion mit verschiedenen Programmen ausführen . Im Grunde funktioniert es so, dass Sie Ihr Programm eingeben und es dann ausführen. Jetzt bekommst du die Nachricht hier drüben. Der Code, den Sie eingeben werden, ist also im Grunde Python-Code. Wählen Sie also den Python-Code aus und kopieren Sie die Werte, die wir hier haben. Also ich denke, du kannst es kopieren und einfügen, denke ich. Ja, du kannst es nicht bearbeiten. Also das ist nur ein Demo-Zeug, also kannst du es einfach laufen lassen. Also, was wir tun werden, ist, eine Funktion zu erstellen. Wir werden die Lamb Do-Funktion aufrufen. einige kostenlose Lamb Do-Anrufe Hier finden Sie einige kostenlose Lamb Do-Anrufe, damit Sie sie ausprobieren Sie können sehen, dass die ersten 1 Million Trans-Anfragen pro Monat kostenlos und die ersten 400 GB pro Sekunde pro Monat kostenlos sind. Danach werden pro Anfrage 0,20$ pro 1 Million und pro GB 16 $ kosten Weitere Informationen zu den Lambda-Preisen finden Sie hier. Sie können auch den Preisrechner verwenden, um zu verstehen, wie das auf Ihrer globalen Infrastruktur funktionieren wird auf Ihrer globalen Infrastruktur funktionieren Klicken Sie nun auf Funktion erstellen. Damit sollten Sie nun eine neue Funktion erstellen können. Jetzt können Sie von Grund auf neu schreiben, was bedeutet, dass Sie Ihre Lambda-Funktion von Grund auf neu erstellen können , ohne dass Sie bereits über einen vorhandenen Blueprint oder einen Container verfügen , den Sie über Lambda bereitstellen müssen Also hier ist Ihr Blueprint. Hier können Sie tatsächlich einen vorhandenen Blueprint verwenden und dann diesen Blueprint als Teil davon ausführen Ebenso gibt es die Standardversionen, bei denen das Erstellen von Microservices, Hello-World-Funktion und dann einige API-Interaktionen hier ebenfalls gegeben werden, und dann werden hier auch Streams und ID-Automatisierung bereitgestellt Daher sind dies einige der Blueprints, bei denen es sich um eine Variable handelt, Sie den vorhandenen Entwurf modifizieren und nach Ihren Wünschen improvisieren können den vorhandenen Entwurf modifizieren und nach Ihren Wünschen improvisieren Sie haben also das Container-Image hier drüben, Sie können die Container-URL angeben und führt im Grunde die Lambda-Funktion aus, würde einen Container ausführen, und die Logik in diesem Container würde als Teil dieser AmbdaFunction ausgeführt werden Sie können die Container-URL angeben und führt im Grunde die Lambda-Funktion aus, würde einen Container ausführen, und die Logik in diesem Container würde als Teil dieser AmbdaFunction ausgeführt werden. Oder Sie können tatsächlich einen anderen Benutzer verwenden, den Autor von Grund auf neu verwenden , wo Sie Ihr komplettes Lambda-Erlebnis von Grund auf neu erstellen können Ihr komplettes Lambda-Erlebnis von Grund auf neu erstellen Lass uns Torio am nächsten kommen. Lass uns hier einen Funktionsnamen öffnen. Ihr Funktionsname als Hello World-Funktion. Also jetzt wird diese Funktion nur für Hello World sein. Jetzt müssen Sie hier die Laufzeit auswählen. Runtime ist im Grunde der Ort, an dem diese Funktion ausgeführt werden würde. Wenn Sie sich also entschieden haben und einen Code auf PHP haben und versuchen, ihn auf Nodejs auszuführen , wird er nicht funktionieren Also ähm, nicht PHB, tut mir leid, Python. Sie haben Python-Code und müssen die richtige, Sie wissen schon, Laufzeitumgebung für Ihren Code auswählen . Sie haben also Java 11, Java 17, äh, Dot Net und andere Frameworks. Was Sie hier tatsächlich verwenden können. Denken Sie daran, dass Sie, wenn Sie Java-Codierung haben, diese hier ausführen können. Sie können es in der Anwendung zur Ausführung des Java-Programms verwenden . Aber die Sache ist, dass es ein bisschen teuer weil es auf der Grundlage der Anzahl der eingehenden Anfragen berechnet wird, also wird es ein bisschen teuer sein , weil es serverlos ist Wählen Sie hier Python aus, 321 Entschuldigung eine, zwei Versionen, und wählen Sie dann die Architektur aus, auf der dieser Code ausgeführt werden soll . Basierend auf dieser Architektur wird also Ihre gesamte Lambda-Funktion erstellt Hier gibt es zwei Optionen, ARM oder Intel in dieser Situation Ich entscheide mich für Intel und hier sind einige DFO-Berechtigungen zum Hochladen auf Ihre Cloud-Überwachung und für Ihre Protokollierungszwecke, und dann haben Sie die Ausführungsrolle, sie wird eine neue Rolle für grundlegende Lambda-Berechtigungen erstellen für grundlegende Wenn Sie dann die Codesignaturfunktion aktivieren möchten, gehören Sie ebenfalls zu den Drittanbieterdiensten, die mit dieser Lambda-Funktion verknüpft Sie können sie aktivieren. Das wollen wir jetzt nicht tun. Lassen Sie uns weitermachen und die Funktion erstellen. Was wir bisher gemacht haben, ist, dass wir diese Funktion benannt haben. Wir haben gesagt, wie wird die Laufzeit aussehen? Diese Funktion wird es sein. Und bei dieser Funktionserstellung, also stellen wir den Code hier tatsächlich bereit. Nun, dieser Standardcode ist bereits in Hello World enthalten. Das ist so ziemlich das, was wir verwenden wollen. Das ist also im Grunde genommen das Drucken von Hello von Lambda, sodass Sie es in Hello World ändern können. Ebenso. Also so ziemlich die gleiche Funktion wir für diese Python-Datei verwenden möchten. Sobald dies erledigt ist und Sie einen benutzerdefinierten Code haben, der hochgeladen werden muss, können Sie ihn auch als Zip-Follow von S Three hochladen . Alles, was Sie tun müssen, ist sobald dies erfolgreich erstellt wurde, Sie müssen sich nur noch, ähm, Sie wissen schon, Ihre Konfigurationsdatei ansehen. Derzeit haben Sie nur eine Python-Datei , die hier ausgeführt wird. Als Nächstes haben Sie, Sie wissen schon, Änderungen rückgängig gemacht, also können Sie einfach darauf klicken Zunächst können Sie das testen. Wissen Sie, wenn Sie das mit einem Testereignis testen möchten , können Sie es erstellen. Testen wir es nicht mit einem Testereignis. Also lasst es uns einfach direkt einsetzen. Sie können also sehen, dass die Bereitstellung von Code und die anschließende Bereitstellung erfolgreich waren. Jetzt sind wir damit so ziemlich fertig, wir haben diese Funktion bereitgestellt. Jetzt müssen wir die Tests für dasselbe durchführen. dies zu testen, um es ganz einfach von oben zu testen, haben Sie diese Option auf der Konfigurationsseite. Dort können Sie es testen. Jetzt müssen wir einen Test erstellen. Aus diesem Grund habe ich dir gesagt, lass uns den ersten Test behalten , weil wir ihn sowieso erstellen müssen. Testen Sie Hello World. Es wird der Name sein. Nun, hier ist das Even Share im Grunde dazu da, dieses Event nur für die Lambda-Konsole auf dem Creator zu teilen dieses Event nur für die Lambda-Konsole auf dem Creator Wir bleiben bei den grundlegenden Vorlagen und hier ist die Vorlage, die wir für die Tests verwenden werden . Dann klicken wir hier auf die Testschaltfläche und dann war der Even-Flow erfolgreich Wenn Sie auf das Detail klicken, können Sie den geraden Ablauf sehen und sehen, wie lange es gedauert hat, diese Funktion zu testen. Also so ziemlich das, was wir sehen wollten, ist diese Gegend hier drüben. Dies besagt, dass es sich ein Vier-KV-Ausführungsprotokoll handelt und dass es erfolgreich ausgeführt wurde. Dieser Test war erfolgreich. Es gibt auch eine andere Möglichkeit, dies zu testen. Dies ist nur mit Ihrer, Sie konnten dies mit dieser GI-Konsole testen . Sie können es auch über die Befehlszeile, die CLI-Methode, testen . Also, wenn Sie die AWS-Konfiguration installiert haben. Das ist also Ihre Überwachungssitzung. Also die einen Daten würden in einiger Zeit reinkommen , weil die AMTA-Funktion ziemlich neu ist Die Überwachung würde also einige Zeit in Anspruch nehmen und sie kämen dann hier Und das ist Ihre Konfiguration, Sie wissen schon, Ihrer Lambda-Funktion Also Layouts und Version deiner Funktion. Das ist quasi eine Einführung in die Lambda-Funktion Wir werden hier nicht näher auf die Funktionen eingehen hier nicht näher auf die Funktionen Denken Sie also daran. Eine andere Möglichkeit dies auszuführen, ist Ihre CLI-Methode. In dieser Situation werde ich die CloudShell verwenden, um diese spezielle Funktion zu testen Lassen Sie mich den Funktionsnamen kopieren, damit er für mich nützlich Sie können hier einen Befehl geben, AWS Lambda invoke. Dadurch wird eine Funktion aufgerufen, indem der Funktion ein Telefonname und dann der Name der Funktion und dann der Name der Und dann werde ich das in eine Textdatei namens Ausgabetextdatei einfügen das in eine Textdatei namens Ausgabetextdatei Holen Sie sich jetzt einfach diesen Ausgabetext. Sie können die Welt, die wir geschaffen haben, tatsächlich sehen. Dies ist so ziemlich ein erfolgreicher Test , den Sie auch über die CLI-Methode ausführen können. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Ich hoffe, es war hilfreich für Sie , mit Lambda zu beginnen. Nochmals vielen Dank. Ich schaue zu , ich werde dich auf einem anderen Video sehen. 72. Labs Andere Skalierungsrichtlinien in ASG – Praxisorientierte Anleitungen: Willkommen zurück zum nächsten Video. In diesem Video werden wir uns ansehen, was gestern passiert ist, bevor wir weitermachen. Ungefähr 20 Minuten später, 25, 24, 23 Minuten, ich schätze, 24 Minuten später, können Sie sehen, dass die Kapazität um 1-3 erhöht wurde. Und danach, als es feststellte, dass die Last nach 23 Minuten gesunken ist, richtig? Deshalb wurde beschlossen, die Kapazität auf 3 bis 2 zu reduzieren und dann irgendwann zwei zu eins Uh, in einem Intervall von einer Minute wurde sie auf 3—21 reduziert, zwei Ich schätze, diese 20 Minuten, 23 Minuten beinhalten die Zeit, in der wir die Belastung des Systems unterbunden haben, bis dahin Ich denke also , dass ungefähr zehn bis 15 Minuten die Reduzierung der Skalierung ausgelöst hätten was das Fachwort Skalierung bedeutet, also die Reduzierung der Kapazität auf den gewünschten Wert von eins , weil das die Mindestkapazität ist, die hier benötigt wird Das ist die gewünschte Mindestkapazität, also geht es zurück zu dem einen Zustand Schauen wir uns nun die beiden anderen Typen an. Sie werden sie nicht konfigurieren. Ich meine, es ist einfach so, als ob es der dynamischen Skalierungsrichtlinie fast ähnlich ist. Wenn Sie also wissen, wie das geht, ist es sehr einfach, auch vorausschauende und geplante Maßnahmen zu ergreifen Schauen wir uns die Richtlinie zur vorausschauenden Skalierung an. Dies ist einer dynamischen Skalierungsrichtlinie ähnlich, hat aber eine nette Funktion Dies wird als Skalierung bezeichnet, die auf Prognosen basiert. Nun, es wird sich die Prognose Ihrer Anwendung ansehen , den bisherigen Anstieg in Bezug auf Ihren automatischen Skalierungsmechanismus. Und dann skaliert es im Grunde vorhersehbar und prognostiziert die Kapazität Und die Skalierung wird auf der Grundlage dessen ausgelöst , was sie zuvor erlebt hat Also nutzt sie das, ähm, um das zu verstehen. Es wird also keine Skalierungsaktion sein , die auf Vorhersagen basiert, wenn sie ausgeschaltet ist, aber wenn Sie sie einschalten, wird die Skalierung, Sie wissen schon, ähm, zu einem bestimmten Zeitpunkt aktiviert. Es werden also prädiktive Informationen verwendet, die in Ihrer Vergangenheit vorhergesagt und diese werden verwendet, um das zu tun Sie können dies deaktivieren und trotzdem für die CPU-Zielauslastung entscheiden Es ist also dasselbe wie das vorherige. Sie werden also die CPU, das Netzwerk im Netzwerk und den Load Balancer Das sind also vier Punkte, die sich bereits auf Dynamics befinden, also ist es einfach dasselbe Aber hier gibt es eine zusätzliche Metrik , eine benutzerdefinierte Metrik. Jetzt kann eine benutzerdefinierte Metrik eine bestimmte Cloud-Watch-Metrik auslösen , oder Sie können die Standardmetrik verwenden, die es gibt Und das nennt man dann Lademetriken und Skalierungsmetriken. Also, wie möchten Sie den Burst-Prädiktor dafür nutzen? Also durchschnittliche CPU oder ist wie eine Gesamt-CPU. Ebenso verwenden Sie die benutzerdefinierten Metriken dafür. Wenn Sie also die CP-Auslastung auswählen, entspricht dies dem, was wir bei der dynamischen Skalierung getan haben. Und hier ist einer der Vorteile oder eine Sache, die sich von der Dynamik unterscheidet, im Grunde so, als ob eine Instanz vor dem Start gestartet wird. Nun, das können Sie einer Instance vor dem Start ermöglichen , wo es sich vorher um eine Vorhersage handelt, richtig, oder es ist eine Prognose, richtig? Es schaut sich also im Grunde die Prognose an und hält diese Maschinen dann 5 Minuten vor dem Auslösen einer Prognose bereit . Das verschafft Ihnen einen Vorteil gegenüber der Dynamik, da Dynamic Ihren Service bereit machen muss , wenn es um eine Auslastung oder einen bestimmten Verstoß in Ihren Kennzahlen geht. Aber hier nutzt es die Prognose, um das fertig zu machen, die Instanz ist 5 Minuten vorher fertig, oder, Sie wissen schon, welches Timing Sie angeben würden. Aber das Maximum von 60 ist das , was hier angegeben ist. Sie können also eine Instanz vor 60 Minuten fertig haben. Und das zwischenspeichern lassen. Sie können also auch die maximale Pufferkapazität aktivieren. Es wird also tatsächlich maximale Kapazität von dem haben, was Sie bei Ihrem automatischen Scannen angegeben haben, also wird es bis dahin zwischenspeichern. Das ist also eine Option hier drüben. Eine andere ist geplante Aktion. Planen Sie also im Grunde, dass Sie sagen, dass ich diese Kapazität benötige , und zwar alle 30 Minuten, jeden Tag oder jeden Tag in einer Woche oder jede Woche in einem Monat. Also spezifizieren Sie, was Sie wollen. Wiederholungsbedingungen : Sie sagen, dass ich jeden Freitag einen riesigen Verkauf bekomme, und ich werde sagen, okay, ich möchte jeden Tag, an dem Sie den Starttag angeben können , hier oder Freitag und dann können Sie hier die Uhrzeit festlegen Jeden Tag wird es an einem bestimmten Tag eines Monats , einer Woche oder eines Monats wiederhergestellt bestimmten Tag eines Monats , einer Woche oder eines Monats Das heißt, jeden Freitag hier. Wenn du jeden Freitag in der Woche hier bist, werde ich das von 00 bis 00 Uhr von Mitternacht an meinem Freitag bis zum Samstagmorgen beginnen lassen . Es ist also wie Null, Null , Null oder 23 59. Also das heißt, von Freitagabend um Mitternacht bis, du weißt schon, Samstag um Mitternacht. Das wird also im Grunde ein Zeitplan sein , der auf einer bestimmten Kapazität läuft. Zum Beispiel sind es derzeit eins, fünf und eins, oder? Du kannst also sagen, für diesen Zeitpunkt möchte ich fünf. Alle fünf sollten verfügbar sein. Und bis zu diesem Zeitpunkt wird es abnehmen und wieder auf das Minimum von eins zurückgehen, nämlich eins. Das ist es also, was wir sagen. Also hier testest du einfach und dann erstellst du das. Das wird also eigentlich ein Zeitplan sein, in dem Sie sowohl die dynamische Qualifizierungsrichtlinie als auch den ersten Zeitplan haben als auch den ersten Zeitplan Was also passieren wird, ist, wenn die dynamische Qualifizierungsrichtlinie maximal fünf beträgt und Sie dies geplant haben In diesem Zeitraum werden es fünf werden. Also das wird inaktiv, also wird es wie, du weißt schon, etwas, mit dem man nicht zufrieden sein kann, weil man zu diesem Zeitpunkt schon das Maximum erreicht hat. Aber wenn Sie maximal zehn Instanzen konfiguriert haben maximal zehn Instanzen und diese sagt hier fünf, und diese sagt zehn, es standardmäßig zehn, weil das das Maximum ist, das es ist. Aber hier sagst du nur fünf. Ich werde mir die Auslastung dieser fünf Systeme ansehen und sie dann im Grunde auf zehn erhöhen. Es ist sinnvoll, sowohl eine dynamische Politik als auch eine geplante Aktion zu haben eine dynamische Politik als , die besagt, dass ich in den Tagen maximal fünf haben möchte. Und dann wird diese dynamische Richtlinie im Grunde Ihre CPU-Auslastung weiter verfolgen Wenn es über diesen Punkt hinausgeht, werden neue oder immer noch zehn Instanzen gestartet Das macht also Sinn, wenn Sie zehn Instanzen haben und hier fünf konfigurieren werden. Das macht also auch Sinn. Es geht also um das Verhältnis oder darum, wie die Auslastung sein wird, Sie Ihre Situation sehen und wie viel Geld Sie bereit sind auszugeben, Ihre Kunden bereit sind, auszugeben. All diese Dinge hängen von Ihrer Auto-Skilling-Gruppe ab. Alles klar. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Ich hoffe, dass Ihnen das hilft, Auto Scaling zu verstehen. Bitte hinterlassen Sie Ihre Bewertung. Ihre Bewertung bedeutet mir alles. Ich versuche nur, Tag und Nacht hart daran zu arbeiten , Ihnen einen praxisorientierten Ansatz zu vermitteln und Ihnen das Echtzeit-Szenario zu erklären Ihnen das Echtzeit-Szenario wir tatsächlich auch in unserem Unternehmen anwenden. Nochmals vielen Dank. Ich werde dich auf einem anderen Video sehen. 73. Praxisorientierte Arten von EC2-Instanzen: Hallo Leute, willkommen zurück zum nächsten Video in diesem Video Wir werden hier über einen der Hands-Ons sprechen Hier geht es um die verschiedenen EC-Instanztypen. Wir werden einige der Easy Two-Instanztypen verstehen und vergleichen. Öffnen Sie unsere AWS-Konsole und öffnen Sie die EC Two-Instance. Jetzt sollten Sie die EC Two-Instance hier finden. Klicken Sie hier einfach auf den Instanztyp und Sie sollten zu dieser Seite gelangen. Wenn Sie nun eine dieser Instanzen auswählen, erhalten Sie einige Details zu dieser Instanz. Zum Beispiel werden Ihnen der Familienname und die Größe mitgeteilt. Es wird Ihnen nicht sagen, ob es sich um einen allgemeinen Typ oder einen rechneroptimierten Typ oder etwas Ähnliches handelt. Sie müssen es nur selbst anhand des Familiennamens herausfinden . Was Sie in den Details hier finden können, ist, dass Sie den Typ der Instanzfamilie und dann sehen können, welcher Hypervisor für die Erstellung dieser Instanz verwendet wird Sie können sich auch ein von SM unterstütztes Root-Gerät wie EBS ansehen Elastic Block Storage wird das Root-Dateisystem sein Das Kernbetriebssystem wird auf EBS installiert. Unabhängig davon, ob es sich um einen dedizierten Host oder um Unterstützung für den On-Demand-Ruhezustand , finden Sie hier einige Details Dann sehen Sie hier einige Details zu Ihrem Computer. Sie können die Architektur sehen. Sie können hier auch die Speichergröße sehen, wie viele virtuelle CPs dieser bestimmten virtuellen Maschine zugewiesen würden dieser bestimmten virtuellen Maschine Sie können das Netzwerk auch hier sehen. Dies könnte Teil jeder verfügbaren T-Zone sein, und Sie können sehen, dass die Netzwerkleistung sehr gering ist. Bei diesem speziellen Computer handelt es sich um einen D-One-Mikrocomputer . Aus diesem Grund ist alles nur schwach konfiguriert. Hier in den Speicherinformationen können Sie sehen, dass Elastic Block Storage hier angegeben ist und dass es unterstützt wird, und dass die Verschlüsselung auf Elastic Block Storage unterstützt wird. Und was die GPU angeht, ist derzeit keine GPU aktiviert . Und Sie können auch die Preise sehen. Hier liegt der Preis für Linux auf Anfrage bei 0,02 USD pro Stück. Nehmen wir an, die Preise sind gleich, RSSal-Preise sind etwas hoch und Sie können sehen, dass der Windows-Preis auch fast dem Linux-Preis entspricht Gehen wir also einfach zur letzten Seite. Ich meine, lass uns zur letzten gehen und dann die letzte hier vergleichen. Also, jetzt bin ich gerade auf der letzten Seite. Also diese spezielle Maschine kostet 13$ pro Stunde. Also lass uns sehen Oh, es gibt auch 26$ pro Stunde. Okay, lass uns sehen, warum es hier 26$ pro Stunde kostet Lassen Sie uns also zuerst zu den Details hier gehen. Das ist X Two IEDN Metal. Das ist der Familienname hier drüben. Lass uns über die Rechenleistung sprechen. Es hat also 64 Kerne, was 182 virtuelle CPUs bedeutet und das sind 182 CPUs, also zwei Threads pro Kern Sie können sehen, dass es ungefähr 4.009 hat, ich meine 4.096. GB Speicher. Es sind ungefähr 4 Terabyte Speicher, die Sie hier haben Lassen Sie uns über Netzwerke sprechen Es sind 100 Gigabyte Netzwerk, was wirklich schnell bedeutet, und Sie haben eine IP-Adresse pro Schnittstelle, 50 IP-Adressen pro Schnittstelle, und die IP-Adressversion sechs ist Lassen Sie uns hier über Speicher sprechen. EBS wird unterstützt. Es verfügt bereits über 3.800 Gigabyte Speicher und enthält SSD als Teil des Speichers bereits über 3.800 Gigabyte Speicher und enthält SSD als Teil Sie können sehen, dass für diesen 3.800 Speicher zwei Festplatten aufgeteilt sind für diesen 3.800 Speicher zwei Festplatten aufgeteilt Es gibt keinen Beschleuniger. Hier gibt es keine GPU und der Preis beträgt 26$ für zwei, und dann haben Sie Option vier, also verkaufen Sie NX und die normalen Linux-Varianten ist es also teuer, 32$ pro Stunde für Windows und RHEL Ebenso ist dies eine der wirklich hochwertigen, Sie wissen schon, Versionsmaschinen Aber ich schätze, es gibt auch eine Maschine mit noch höherem Wert , auf der diese GPU steckt. Also suche ich nur nach etwas mit einer GPU. Lassen Sie uns über einige GPU-orientierte Missionen sprechen. GPU entspricht 16. Okay, also dieser G6E, 24 groß. Also, das hat definitiv eine GPU hier drüben. Ich habe darauf geklickt, also habe ich in diesen speziellen Computer kommuniziert Wenn Sie jetzt einfach zum Beschleuniger gehen, können Sie sehen, dass er über NVDSGPU verfügt was etwa 176 GB Arbeitsspeicher GPU-Speicher) für Und Sie können sehen, dass es fast dasselbe ist wie das vorherige Es hat ungefähr 768 Speicher auf dem System. Und Sie können sehen, dass das 15$ pro Stunde kostet. Aber ich denke, Sie haben auch Optionen für eine GPU, die 16 entspricht. GPUs entsprechen 16. Ja. Also, ich glaube, das wird sehr teuer, und das sind ungefähr 15. Ja, der Fensterpreis beträgt hier etwa 17$. Aber die Sache ist, dass es hier 16 GPs hat, ungefähr 12 GB RAM Ihres GPU-Speichers Ebenso. Sie haben verschiedene Konfigurationen für den hier also verschiedene Konfigurationen für den Instanztyp. Wenn Sie also mehr über den Instanztyp erfahren möchten, ist es am besten, hierher zu kommen und sich darüber zu informieren. Sie können es auch nach Ihren Anforderungen sortieren. Wenn also mein Speicherplatz erforderlich ist , kann ich hier Speicher eingeben. Dann kann ich , ob und nach welcher Größe ich in Bezug auf den Speicherplatz suche. Ich möchte 60 GB Speicherplatz. Jetzt haben Sie auch Mon Small, das 160 GB Speicherplatz in HHD hat und das etwa 0,075 pro R kostet . Oder Sie haben MT Two X Large, das SSD statt HDD hat und das ungefähr 1$ pro Stunde kostet Andererseits werden die Preise für den Sparplan und die Reserved Instance deutlich niedriger sein, da Sie tatsächlich für die jährliche Preisspanne zahlen werden tatsächlich für die jährliche Preisspanne zahlen werden Das bedeutet, dass Sie einen gewissen Rabatt erhalten, oder noch einmal vielen Dank, dass Sie sich SweDee angesehen haben. Ich sehe dich 74. Praxisorientierte Techniken von LB in AWS: Hey Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir über Low Balancer sprechen. Nun, um Low-Balancer und Hands-On zu verstehen, können Sie EC 2 öffnen, und wenn Sie EC 2 öffnen, werden Sie die Low-Balancer hier auf EC Two haben , so wie hier Dann können Sie auf Create Low Balancer klicken. Jetzt haben Sie hier drei Optionen. Tatsächlich gibt es hier vier Möglichkeiten, einen Low-Balancer zu erstellen Jetzt ist ein klassischer Low-Balancer , der in der vorherigen Generation vorhanden war , der in der vorherigen Generation vorhanden war, gewissermaßen abgeschrieben und er wird Und der klassische Roadbalancer wird hier durch drei andere Loadbalancer-Typen ersetzt Loadbalancer-Typen Der erste ist also ein Application Load Balancer, und dann haben Sie Network Load Balancer und Gateway Load Balancer Load Balancer Was ist ein Application Load Balancer? Lassen Sie uns einfach detaillierter auf jeden von ihnen eingehen und sie dann einfach miteinander vergleichen Erstens wird der Application Load Balancer hauptsächlich für Ihre Webanwendungen verwendet Das ist der Name des Application Load Balancers, der ins Bild kam Es wird also für Webanwendungen, Microservices oder alles verwendet , Anwendungsframework verwendet In Bezug auf den Network Group Balancer wird er für Anwendungen mit niedriger Latenz und hohem Durchsatz verwendet, bei denen Sie eine sehr gute Reaktion Ihrer Anwendungen benötigen Ihrer Da würden wir das also verwenden. Der Gateway Load Balancer hingegen wird für Sicherheitsgeräte, Verkehrsinspektoren und jede Art von Anwendung verwendet , die eine Drittanbieteranwendung verwendet und die Last zwischen ihnen ausgleichen möchte die Last zwischen ihnen ausgleichen möchte Also im Fall von IO oder ähnlichem. Das ist im Grunde ein Gateway Load Balancer. Wir werden also ein Beispiel oder eine Demo eines der Load Balancer machen und Ihnen nur zeigen wie Sie diese Load Balancer-Konfiguration erstellen diese Load Balancer-Konfiguration und wie Sie sie Vorzugsweise führen wir im nächsten Video einen Lastenausgleich für Anwendungen durch und richten eine Anwendung darauf Aber hier in diesem Video werden wir versuchen, die Unterschiede zwischen ihnen zu verstehen. Erstens ist der Application Load Balancer ein Layer-7-Load-Balancer für Anwendungen, und der Network Load Balancer ist Schicht vier und der Gateway-Load Balancer Jede Ebene trägt also zu kleinen Unterschieden zwischen ihnen bei. Ein Layer-7-Load-Balancer wird hauptsächlich für pfadbasiertes und hostbasiertes Routing verwendet So sieht beispielsweise ein herkömmlicher Load Balancer aus wie ein Network Load Balancer , bei dem es sich um einen Layer-Roadbalancer handelt Eine Ebene für den Load Balancer würde also funktionieren, wenn eine Anfrage an den Road Balancer kommt, sodass der Load Balancer die Anfrage direkt an etwas weiterleitet, das sich dahinter befindet weiterleitet , das sich Sie werden also normalerweise sagen, dass es sich dabei um Dienste handelt, die über den Load Balancer hinausgehen Und alles, was der Roadbalancer tun wird ist ein Flaschenhals Ich werde einen Engpass für die eingehende Anfrage erstellen und die Anfrage dann an verschiedene Anwendungen weiterleiten Okay. Also im Grunde ist das , was Sie in dieser Architektur sehen, das, was passieren wird. Die Anfrage kommt also rein und durchläuft dann den Network Load Balancer, und dann können Sie direkt die darunter liegenden Elemente konfigurieren Es gibt eine Möglichkeit , die beiden EC-Computer direkt darunter zu konfigurieren , oder Sie können einen anderen ALB oder Application Load Balancer oder Application Load Und von dort aus kann es eine Verbindung zu mehreren Elementen herstellen. Also so oder so, du kannst es tun. Denken Sie jedoch daran , dass der Load Balancer ein sehr einfacher Load Balancer ist , bei dem er im Grunde erkennt, wenn eine Anfrage eingeht, die Last ausgleicht und an jeden sendet , dem er Bericht erstattet Es klassifiziert die Anfrage nicht. Klassifizierung der Anfrage erfolgt jetzt über den Lastenausgleich der Anwendung Anwendungslastenausgleich gleicht nicht nur die Last aus, sondern klassifiziert sie auch Wie ich Ihnen bereits sagte, was das Routing angeht, führt der Network Load Balancer hier ein IP-basiertes Routing durch, sehr einfach und unkompliziert ist Okay? Beim Anwendungslastenausgleich wird ein pfad - und hostbasiertes Routing durchgeführt. Was ist nun ein Pfad, der auf der Hostbasis basiert? Die URL, die der Kunde an diesen Load Balancer sendet Er analysiert die URL und es gibt zwei Optionen dafür Pfadbasiert oder hostbasiert. Pfadbasis bedeutet, dass der URL-Pfad geprüft wird Basierend auf dem Pfad können Sie den Application Load Balancer tatsächlich so konfigurieren, können Sie den Application Load Balancer tatsächlich so konfigurieren dass er auf ein benutzerdefiniertes Verzeichnis verweist Auf diese Weise wäre dieses benutzerdefinierte Verzeichnis also das Verzeichnis oder die benutzerdefinierte Anwendung aufgerufen wird, wenn man sich die URL ansieht Ein Großteil der Sortierung erfolgt also auf der Ebene des Anwendungslastenausgleichs und nicht auf der Ebene des Netzwerklastenausgleichs Network Load Balancer sendet die Anfrage direkt , ohne sich die URL ansehen zu Application Load Balancer schaut sich jedoch die URL an, sieht, welchen Pfad er anfordert, und nimmt dann einen Anruf entgegen Balancer findet also eine Urteilsfindung Hier beim Application Load Balancer findet also eine Urteilsfindung statt, die auf dem Network Load Balancer nicht stattfindet Das ist also der größte Unterschied zwischen dem Application Load Balancer und dem Network Load Balancer und dem Network Application Balancer leitet also nicht nur die Anfrage weiter, sondern analysiert auch die URL und entscheidet dann grundsätzlich Grundlage des Pfads auf der Grundlage des hostbasierten Routings, wobei in Bezug auf das Netzwerk lo Banste grundsätzlich ein IP-Routing durchführt, IP-basiertes Routing In Bezug auf das Gateway in dieser Hinsicht, der Gateway Balancer, ähm, Sie wissen schon, transparentes Routing durch Appliances, er führt ein transparentes Routing durch die Appliance durch und er versteht im Grunde die Firewalls und die Drittanbieteranwendungen darüber hinaus. Und im Grunde übernimmt er das Host-Routing Ihres, äh, Sie wissen schon, URS-eingehenden Anwendungsdatenverkehrs Andererseits verarbeitet der ALB oder Application Balancer HTTP- und HTTPS-Web-Sockets Network Load Balancer verarbeitet TCP-, UDP TLS-Routings und der Gateway Load Balancer verarbeitet Dies ist der Hauptunterschied zwischen all diesen. Wie ich Ihnen bereits sagte, wenn Sie Mikrodienste, Container, Anwendungen und Webdienste verwenden , werden alle möglichen Dinge von ALB unterstützt Wenn Sie jedoch nach etwas suchen, das extrem niedrige Latenz bietet und eine große Netzwerklast bewältigen kann, dann können Sie sich für den Netzwerklastenausgleich entscheiden, auch für Ihre Microservices und Container Denken Sie jedoch daran, dass dieser Network Load Balancer ein sehr einfaches Routing verwenden wird Das ist der Grund, warum er eine extrem niedrige Latenz hat, weil er keinen entscheidenden Faktor oder die Loadbalancer-Stufe hat, ob das Problem gelöst wird oder nicht entscheidenden Faktor oder die Loadbalancer-Stufe hat, ob das Problem gelöst wird oder Sie haben auch die Möglichkeit , den Network Load Balancer darunter konfigurieren. Sie können auch einen ALB konfigurieren, um detailliertere Informationen zu erhalten werden wir zu einem späteren Zeitpunkt sprechen, aber dies sind die Optionen, die bei Erstellung eines Load Balancers verfügbar Im nächsten Video werden wir uns ausführlich mit dem Load Balancer befassen Nochmals vielen Dank. Wir sehen uns im nächsten Video.