Transkripte
1. Einführung in den Kurs: Hallo Leute. Willkommen zurück
zum nächsten Video. In diesem Video werde
ich mich vorstellen, und dann werde ich damit beginnen, Sie mit den Konzepten der Themen, die
Sie ausgewählt haben, und der
Schulung, die Sie gewählt haben, vertraut zu machen den Konzepten der Themen, die
Sie ausgewählt haben, und der , und dann werden wir uns die Struktur der Schulung ansehen, wir werden sehen, wer die tatsächlichen Personen sind, die an diesem Kurs teilnehmen
werden, und wir werden einige
sehen Auch die Höhepunkte
oder Werte dieses Kurses. So ziemlich beginnen wir
mit meiner Einführung. Das ist Vancatrama hier. Ich habe 20 Jahre Erfahrung in
Middleware und auch in der Middleware und In den letzten 14 Jahren arbeite ich an Cloud-Technologie, und
diese Cloud-Technologie über die
ich in
diesem Video spreche, ist AWS Nun, AWS, in dieser Schulung geht es vor allem darum, mit AWS
zu
arbeiten die
Konzepte von AWS zu
verstehen. Und wissen Sie, mit
Echtzeitwissen über
AWS zu arbeiten, anstatt nur mit
einer Architektur oder einfach nur eine Vorstellung davon zu haben. Hier habe ich Ihnen also eine
umfassende praktische
Schulung zu AWS gegeben , und hier können
Sie praktisch das Wissen über
die Grundlagen von AWS bis hin zu den fortgeschrittenen Konzepten
von AWS erwerben. Hier werde ich über einen
Service sprechen und dann
den Service durchgehen und Ihnen eine
richtige Demo über einen Service zeigen
, über den ich
in diesen AWS-Kursen spreche. Dies wird
die Struktur der
Schulung sein , und hier
richtet sich
diese Schulung an alle, die neu bei AWS
sind
oder AWS
lernen möchten, weil wir mit den Grundlagen beginnen
werden Wenn Sie bereits über Grundkenntnisse verfügen und fortgeschrittenem Wissen
suchen, können
Sie
einige Kurse
am Anfang auch direkt überspringen , sodass Sie kennen die Konzepte von
AWS bereits , sodass Sie zum Abschnitt für
Fortgeschrittene übergehen können. Nun, die Werte dieses
Kurses sind im Grunde, wissen
Sie, wie ich Ihnen gesagt habe, Sie
vom Anfang bis zum
Expertenlevel sehr
gute Erfahrungen mit AWS sammeln werden und die Projekte
werden zu einem vom Anfang bis zum
Expertenlevel sehr
gute Erfahrungen mit AWS sammeln werden und die Projekte späteren
Zeitpunkt erstellt, damit Sie an den
Projekten
arbeiten und dann Werte und
Informationen
zu den AWS-Elementen in Echtzeit abrufen können. Im nächsten Video es darum, wie
Sie mit AWS loslegen können. Ich freue mich sehr,
mit der Schulung auf AWS zu beginnen. Wir sehen uns im
nächsten Video. Pass auf dich auf.
2. Thema 1 – Einführung in AWS Teil 1: Hallo Leute, willkommen zurück
zum nächsten Video. In diesem Video werde ich über Cloud Computing
sprechen. Aber bevor wir
mit diesem Thema beginnen, denken
wir einfach an, ich meine, uns selbst, wenn wir
über Computer sprechen Was ist das Erste
, das Ihnen einfällt, wenn Sie über Computer sprechen,
Ihre Laptops, richtig habt Mobiltelefone, euer iPad
und, ihr wisst schon,
Tablets und so? Also das sind quasi Computer. Wenn Sie also entscheiden, dass
Sie einen Computer wollen, wie Ihren Laptop oder so, gehen
Sie in ein Geschäft
und sagen ihnen, was für einen Laptop
Sie brauchen, richtig? Also sagst du ihnen, ich
möchte einen Laptop für
Spielzwecke kaufen oder ich möchte einen Laptop
kaufen, weil
ich viel reise und ich
ihn auf Reisen benutzen möchte, also sollte es
so sein, als hätte ich
eine lange Akkulaufzeit. Es sollte eine gute
Netzwerkkonnektivität haben, wie WLAN und so. Es wird etwa
einen Fernseher mit Speicherplatz haben. Uh, es muss einen
iFive-Prozessor haben , weil ich nicht auf einen I 7 oder
I 9 Prozessor in meinem Laptop setzen
will I 9 Prozessor in meinem Laptop setzen ,
weil das zu teuer sein wird Also entscheide ich mich für einen Fünf-Prozessor und dann brauche ich ein
Windows-Betriebssystem Ebenso geben Sie Spezifikationen an
und kaufen einen Laptop
, der Ihrem
Budget entspricht, nicht wahr? Und es entspricht auch
Ihren Anforderungen. Also das ist im Grunde das, was wir als physische, äh,
du weißt schon, physische Anlage
bezeichnen . Dieser Laptop ist also ein physischer , der einen
Platz in Ihrem Zimmer einnimmt, und Sie können darauf zugreifen, indem Sie physisch dorthin
gehen und den Laptop in
die Laptoptastatur
eingeben oder wenn
Sie eine externe Tastatur verwenden Das ist also im Grunde ein
sogenannter physischer Vermögenswert, und der existiert in Ihrem
wirklichen Leben, nicht wahr? Nun, wenn Sie
über Unternehmen sprechen, wenn Sie über Unternehmen sprechen, haben
Sie Mitarbeiter. Und diese Mitarbeiter werden das darin enthaltene System
verwenden. Es gibt also zwei
Arten von Systemen. Lass uns darüber reden. Ich spreche nicht von physischen
Laptops oder so. Ich spreche von zwei
Arten von Schnittstellen. eine Schnittstelle wird
von Ihrem Mitarbeiter zugegriffen, und diese Schnittstelle
wird zu einem Tool weitergeleitet, über das der Mitarbeiter
auf seinen Providence-Fonds Sie werden auf sein
Gehalt, seine Gehaltsabrechnung und so weiter zugreifen. Er wird Urlaub, HRMS
und all diese anderen Dinge beantragen, und all diese anderen Dinge beantragen, wie das Gehaltsabrechnungssystem Also diese Art von Schnittstelle, über die Mitarbeiter mit
dem Mitarbeiter
kommunizieren kann, oder? Also, ähm, und es
gibt noch eine andere Art von Schnittstelle mit der
Kundenschnittstelle, richtig? Der Kunde
greift also auf Ihr Produkt zu. Nun, wie Sie
sich dem Kunden präsentieren möchten. Sie werden eine Website haben, oder? Und diese Website wird
Informationen über Ihr Produkt enthalten, der
ein Kunde
das Produkt auf Ihrer Website kauft . Es gibt also zwei verschiedene
Arten von Schnittstellen. Nun, wenn Sie ein solches Unternehmen haben und diese Art von
zwei verschiedenen Schnittstellen betreiben, eine für Ihre Mitarbeiter, eine für, Sie wissen schon, Ihre Kunden, wo werden
Sie diese hosten? Sie werden
das als Teil
eines Systems hosten , richtig? Ein Computer. Also das Gleiche, was
das Unternehmen macht, ist, anstatt dass Sie zu
einem Laptop-Händler wie Apple oder HB oder was auch immer
Sie gehen, wenn Sie
ein Gamer sind oder einen Laptop kaufen
wollen, geht
das Unternehmen zu Dell, HP oder einer Art von Apple selbst Also stellen sie Server her. IBM, sie stellen
einen Service her, richtig? Also gehen sie zu diesen Herstellern
und fragen sie, ich möchte diese
Mitarbeiterbasis aufnehmen, und ich habe Tausende
von Mitarbeitern. Ich möchte quasi eine
Infrastruktur aufbauen lassen, ein Rechenzentrum bauen, und ich möchte sozusagen Service in ihnen
haben. Und das wird tatsächlich
meine mitarbeiterbezogenen Daten hosten. Und ich möchte es
schützen, weil ich nicht möchte, dass jemand anderes auf
meine Mitarbeiterdaten zugreift. Ich möchte nur darauf zugreifen. Also, was machst du, wenn du
das auf einer Prem-Datenbank aufbaust, tut
mir leid, auf einem Prem Data Center Nun, in diesem
On-Prem-Rechenzentrum müssen
wir von unten anfangen Sie werden
Netzwerkschnittstellen haben. Sie werden einen Speicher haben, der zum Speichern von Daten
gebaut ist. Server, die die Verarbeitung
übernehmen,
die eine Verbindung zu einem Speichergerät herstellen
,
wenn es sich um ein externes Speichergerät handelt, werden sie sich
einfach wieder
mit Ihrem Netzwerk verbinden. Es wird ein
Betriebssystem haben, oder? Es wird einige
Middleware-Komponenten haben, eine Datenbankkomponente, Ihre Kundendaten oder
Ihre Mitarbeiterdaten, also werden Sie
diese beiden verschiedenen
Datentypen unterscheiden diese beiden verschiedenen
Datentypen Und dann werden Sie
diese Kundenanwendung
oder Ihre
Mitarbeiteranwendung haben , richtig Das sind also Dinge, die
Sie als Unternehmen verwalten. Weil Sie diese Daten verwalten werden. Also
werden entweder Ihre Kundendaten oder Ihre Mitarbeiterdaten von Ihnen verwaltet. Aber um das zu verwalten, benötigen Sie eine Datenbank, Middleware, oder? Und um diese
Datenbank und Middleware zu hosten, benötigen
Sie ein
Betriebssystem versteht, was
Middleware und Datenbank sind
, Und das Betriebssystem
muss auf einem Server laufen, über CPU, Arbeitsspeicher, Festplatte für das
ursprüngliche Betriebssystem
und dann Komponenten für die Verbindung
mit dem Netzwerkkabel, Komponenten für den Anschluss
an Ihren Speicher und
externe Speichergeräte verfügt, richtig? Es braucht also solche Gegenstände,
damit es funktioniert, nicht wahr? Also da braucht
das Unternehmen eine Datenbank
vor Ort ,
tut mir leid, Rechenzentrum Wenn Sie jetzt
das Rechenzentrum haben, gibt es eine Menge Gemeinkosten Wenn Sie zum Beispiel einen Laptop kaufen, was
in diesem Fall passiert,
wenn Sie einen Laptop kaufen, müssen
Sie einen Platz
haben, an dem Sie einen Laptop aufbewahren Sie müssen also einen
Schreibtisch dafür kaufen, nicht wahr? Sie können Ihren
Laptop nicht immer auf Ihrem Schoß haben. Ihr Labor wird heiß werden, nicht wahr? Denn wenn Sie viele Daten
verarbeiten, wird
es richtig heiß. Sie müssen also einen Schreibtisch kaufen und Ihren
Laptop auf den Schreibtisch stellen und
dann den Kabelanschluss für Ihr Stromkabel bereitstellen
und dann
WLAN für das Internet bereitstellen. Und wenn
Sie einen externen Monitor wünschen, müssen
Sie dieses zusätzliche
Kabel an Ihr HDMI anschließen. Und wenn Sie dann Maus
und Tastatur griffbereit haben möchten
und Sie eine externe
Maus und Tastatur
benötigen, müssen Sie
eine Verbindung zu Bluetooth herstellen. Das ist also etwas
, das für Sie benötigt wird. Dies sind einige Dinge
, die Sie,
Sie wissen schon, berücksichtigen
oder zuweisen müssen Sie wissen schon, berücksichtigen
oder zuweisen Einfach einen
Laptop zu kaufen macht
keinen Sinn, es sei denn, Sie haben diese Geräte
dabei, oder Das Gleiche gilt
für ein Rechenzentrum, Sie müssen Platz
für das Rechenzentrum haben Zum Beispiel kann ein
Rechenzentrum groß sein, kann aber auch klein sein. Es kann sich also
auch innerhalb des
Firmengeländes befinden, bis es vor dem
direkten Zugriff
anderer Personen geschützt ist. Sie müssen also einen Raum erstellen. Sie müssen Platz
für das Rechenzentrum schaffen. Sie müssen die
Caches kaufen, wie das Chassis, tut mir leid, wo Sie
den Service dort einsetzen, müssen
Sie die
Netzwerkkabel kaufen Sie müssen Switches
für Ihr Netzwerk kaufen, oder? Sie
müssen also ebenfalls Vorkehrungen treffen und einige
Serveradministratoren behalten. Sie müssen zum Beispiel einige
Leute einstellen, um den Service zu verwalten. Wenn es einen Stromausfall gibt, brauchen
Sie eine
Notstromversorgung, oder? Ebenso
müssen Sie also nicht nur Service kaufen, sondern auch Infrastruktur
kaufen. Und hier
kommt AWS ins Spiel. AW wird einen Teil der Arbeitslast,
die
Sie da drüben haben, abnehmen. Also, welche Art von Arbeitslast wirst
du davon
befreit bekommen? AW hat also verschiedene
Dienste, die es anbieten kann. Es hat also diese zwei AWS
EC-Instanzen. Das ist das Erste,
was reingekommen ist. Es heißt Infrastructure
as a Service , bei dem AWS sich um die Rechenzentrumsfläche,
deren Vermietung, Verkabelung,
Verwaltung und andere Dinge kümmert deren Vermietung, Verkabelung,
Verwaltung und andere Dinge Verwaltung und andere Sie werden Ihnen also quasi ein Netzwerk geben.
Sie werden dir Speicherplatz geben. Sie geben dir
einen Server zum Hosten. Nun, was musst du
mitbringen? Sie müssen entweder, wenn Sie bereits eine
Betriebssystemlizenz bei sich haben, diese mitbringen. Wenn Sie ein
Open-Source-Betriebssystem verwenden, müssen
Sie das nicht wirklich tun. Okay? Also, wenn du ein Ubundu benutzt, das Open Source ist, kannst
du einfach
damit weitermachen, ohne etwas zu bezahlen Oder Sie gehen zu AWS und sagen ihnen, dass ich keine bestehende Lizenz
für
eines der
Betriebssysteme habe , aber ich möchte Windows für
mich oder Red Enterprise als Nächstes verwenden Wenn Sie das
Wort Enterprise sagen, bedeutet
das, dass dafür
eine Gebühr anfällt. Was AWS Ihnen also geben würde, ist dass sie
das Betriebssystem installieren, Ihnen
aber das Unternehmen in Rechnung stellen. Was auch immer sie verlangen, sie werden
von Red Hat in Rechnung gestellt. Sie werden
Ihnen also indirekt Gebühren berechnen, und das wird Teil
Ihres Abrechnungsprozesses sein. Und dann müssen Sie
Ihre eigene Lizenz für Ihre
Middleware-Datenbank,
Kundendaten und
Kundenanwendung mitbringen Ihre eigene Lizenz für Ihre
Middleware-Datenbank, Kundendaten und
Kundenanwendung Sie
müssen also weniger verwalten,
ja, wenn Sie das mit dem vergleichen, was Sie früher verwalten mussten Aber es hat
einen Nachteil. Lassen Sie mich
Ihnen kurz den Nachteil erklären. Ihnen gehört der Service nicht. Das ist eine gute Möglichkeit, bei der Sie den
Service
nicht kaufen müssen, indem Sie
eine Menge Geld geben , oder Sie müssen
keine Miete
für das Rechenzentrum zahlen. Das ist eine gute Sache,
aber das Problem ist, dass die AAWSoP, jederzeit
auf
diesen Service zugreifen kann die sich darin befindet, Aber normalerweise sind sie an die
Vereinbarung gebunden. Sie werden dort
nichts Illegales tun. Aber es steht immer noch nicht
unter Ihrer Aufsicht, also kann alles passieren. Das ist also etwas, dessen Sie sich bewusst sein
sollten. Also eine Menge Bankkram, sie speichern ihre tatsächlichen
privaten Daten nicht in einem Rechenzentrum, tut mir leid, in einer
öffentlichen Hosting-Cloud wie AWS oder Azore Also entweder
nehmen sie ein privates damit sie den
dedizierten Host dafür haben Es gibt eine Option dafür, denn der
ganze Service, den
Sie nutzen werden, oder? Alle diese Dienste, die Sie verwenden
werden, werden standardmäßig gemeinsam genutzt, es sei denn,
Sie fragen sie nach
einem dedizierten Host, was bedeutet, dass
ein bestimmter Host für Ihren Betrieb reserviert ist. Also werden wir später darüber sprechen. Es ist, als ob es sich nicht
um ein einfaches Konzept handelt
, sondern um ein wirklich
fortgeschrittenes Konzept. Aber es gibt eine Möglichkeit, das zu tun. AWS bietet Ihnen also
viele solche Optionen. Trotzdem
befindet sich der Server auf einer Website eines
Drittanbieters, nämlich AWS, was Amazon
ist, oder? Es gibt also Nachteile, aber auch diese Vorteile. Sie müssen nicht für einen Platz
bezahlen. Sie müssen keine Ausrüstung kaufen. Sie müssen nicht
die Gemeinkosten tragen, die entstehen, wenn ein Mitarbeiter
diesen Service verwaltet. Sie haben also auch nicht diese
Gemeinkosten. Also ist das Geld tatsächlich gespart. Und wenn Sie das für
einen Versuch und Irrtum verwenden, können Sie es eine Stunde lang verwenden und dann den Server
ausschalten, und es wird Ihnen nichts
berechnet. All diese Operationen werden also abgeschaltet und es fallen
keine Gebühren an. Das hat also auch einen guten
Vorteil. Und es gibt
noch einen weiteren Vorteil. Was ist, wenn ich den Service in Anspruch
nehmen
und im Voraus bezahlen möchte . AWS macht Ihnen also ein nettes Angebot , wenn Sie im Voraus bezahlen. Ich möchte den Service
zum Beispiel drei Jahre lang in
Anspruch nehmen. Okay, du zahlst mir
drei Jahre im Voraus und ich gebe dir
einen sehr guten Preis Es wird also viel billiger sein
als der Preis auf Anfrage. Also das ist sehr gut,
oder? Sie erhalten also Angebote, die auf den
Regionen basieren, die Sie auswählen, basierend auf dem Standort,
Sie erhalten auch Angebote. Infrastructure-as-a-Service bietet also viele Vorteile . Interessant, das
zu erfahren, oder? Im nächsten Video werden
wir dies fortsetzen und über
Platform-as-a-Service,
Software-as-a-Service
und Storage-as-a-Service sprechen . Aber ich hoffe, Sie
haben verstanden, wie sich ein
lokales Rechenzentrum von
einem Cloud-Computing unterscheidet. Stimmt das? Nun, warum sie Cloud sagen, liegt
es daran, dass es in der Cloud ist. Sie
verwalten eigentlich keine davon. Es ist also tatsächlich in der Cloud. Also brauchst du
ständig Internet. Aber wenn Sie vor Ort arbeiten, benötigen
Sie kein Internet Sie können direkt zum Standort
des Rechenzentrums gehen, das Kabel
anschließen und
schon können Sie über einen Monitor auf das
Objekt zugreifen Leider ist das mit einer Cloud nicht möglich,
da sie sich in der Cloud befindet. Sie benötigen also Internet, um eine Verbindung zur Cloud herzustellen und auf die Daten
aus dem Internet zuzugreifen. Das ist also das einzige Problem. Aber mach dir darüber keine Sorgen.
AWS ist im Grunde HTTPS. Die gesamte Transaktion
zwischen Ihnen und
dem Cloud-Anbieter ist also dem Cloud-Anbieter ist durch das Zertifikat
gesichert, das TLS-Zertifikate verwendet. Viel mehr Details
zum nächsten Video, Leute. Wir sehen uns im
nächsten. Hey, Leute, willkommen zurück zum nächsten Video. In diesem Video werden wir
über die Fortsetzung dessen sprechen , wo wir bei
den Servicemodellen
des Cloud-Computing aufgehört haben . Jetzt haben wir genug
über On-Prem gesprochen. Wir haben auch über
Infrastruktur als
Service gesprochen , bei Infrastruktur
von einem Dienstleister
wie Amazon,
Google oder,
sagen wir von einem Dienstleister
wie Amazon,
Google oder, , Microsoft Aaball Es gibt auch andere
Anbieter. Ich erwähne nicht, dass das nicht bedeutet, dass
sie nicht existieren. Derzeit gibt es so viele
Anbieter, die ihre
Infrastruktur als Service
anbieten, und alles, was Sie für
sie bezahlen müssen , sind die Infrastrukturkosten, und zwar
auf
Stundenbasis oder es
könnte ein vereinbarter Zeitrahmen sein,
etwa ein bis drei Jahre. Nun, AWS bietet Ihnen eine solche
Infrastruktur als Service an, aber AWS bietet Ihnen noch mehr
als das,
ähm, was
Platform-as-a-Service ist. Nun, was Platform-as-a-Service
angeht, wie Sie hier sehen können, bietet Ihnen
AWS bis
zur Middleware auf
Datenbankebene, okay? Sie müssen also nur Ihre Kundendaten oder
Ihre Mitarbeiterdaten Und dann fügen Sie es in eine
bestehende Anwendung , die auf einer bestimmten,
Sie wissen schon, Codezeile laufen kann , okay. Und im Grunde
können Sie Ihre Daten verwenden, und das, was mit
Amazon EKS ausgeführt werden kann , ist
eines der Beispiele. Es gibt so viele andere
Plattformangebote von AWS. EK ist eines der guten Beispiele dafür, dass
EKS, Sie wissen schon, Elastic
Kubernetes-Service ist und Ihnen den
Kubernetes-Service für Ihre Anwendung
bietet Sie müssen also nur Ihren Anwendungscode eingeben
, und dann kann er Ein ECS ist ein vollständig verwalteter Dienst, was bedeutet, dass Sie
nicht wirklich den Overhead
eines Administrators konfigurieren
müssen, der das EK,
also Overhead
eines Administrators konfigurieren
müssen die KubInt-Seite der Dinge, konfigurieren muss, da dieser von einer Konsole
verwaltet wird Diese Art von
Platform-as-a-Service wird Ihnen also auch
angeboten, und es gibt noch so
viele andere Dinge die wir später noch
eingehen werden In Bezug auf Software
als Service ist
Software as a Service
ein sehr gutes Beispiel dafür, ist
Software as a Service
ein sehr gutes Beispiel dafür Ihr Google Sheet
ein sehr gutes Beispiel für
Software als Service ist ein sehr gutes Beispiel für
Software als Service bei dem Sie eigentlich
keine der Logiken besitzen,
die hinter der Ausführung
dieses Google-Sheets Aber wenn Sie dann
zu sheet.google.com gehen, erhalten
Sie das Google Sheet, die
Google-Tabelle Und alles, was Sie tun müssen,
ist die Daten einzugeben, die Daten auf Google zu
speichern, und dann ist
das so ziemlich, Sie wissen schon, das ist Ihre Software
als Service,
was bedeutet, dass Sie sich nicht
wirklich mit irgendwelchen Codierungen
oder
irgendwelchen
Entwickleranforderungen herumschlagen müssen Codierungen
oder
irgendwelchen Entwickleranforderungen Sie als Organisation müssen also
kein Abonnement
kaufen, das auch
auf einem System installiert werden
muss Zum Beispiel,
wenn Sie
Google Sheet mit
Microsoft Excel vergleichen , oder? Microsoft Excel
hat derzeit eine Webversion davon, wie eine
Softwaredienstversion davon. Aber vorher
mussten Sie es herunterladen und auf einem System
installieren, was bedeutet, dass Sie
einen Computer besitzen müssen und dieser physisch auf Ihrem System
installiert sein muss. Aber im Moment müssen Sie das nicht wirklich
mit Google Sheet tun. Warum? Weil Sie zum Internet Center oder
zum Browsercenter gehen und
tatsächlich settoggle.com öffnen,
sich mit Ihrer ID anmelden und Ihre Excel bearbeiten können sich mit Ihrer ID anmelden und Ihre Excel bearbeiten Und dann speichern und beenden, und Sie müssen nicht einmal etwas
auf diesem System installieren und Sie müssen nicht einmal etwas
auf diesem System installieren. Sie können es also
temporär verwenden und dann Ihre Arbeit erledigen, es dann
zusammenpacken und stehen lassen. Das Gleiche gilt auch für
Ihren Lagerservice, oder? In dieser Situation gibt
es zum Beispiel eine
vordefinierte Software, gibt
es zum Beispiel eine
vordefinierte Software die auf Abonnementbasis
vermietet
wird Sie können diese Software abonnieren , indem Sie etwas Geld
bezahlen, und dann können Sie
von überall auf der Welt darauf zugreifen , wenn Sie nur einen Browser haben. Und das Gleiche gilt auch für
den Speicher. Sie entscheiden sich also für ein
Abonnement und greifen dann
lediglich auf den Speicher auf Google Drive oder Dropbox
oder auf jede Art von
Speicher als Service zu. Es gibt auch einen
dieser Dienste von
Amazon, der es geben wird, was zu diesem Zeitpunkt als
Beispiel angeführt werden kann. Und du kannst Dinge hochladen, von
überall auf der Welt
herunterladen, jedem Zugriff
gewähren, jedem Zugriff
gewähren betrachtet, oder
so, und dann kannst du
einfach den Link teilen, und jeder auf der ganzen
Welt kann ihn herunterladen. Sie müssen jedoch immer noch Abonnementgebühren für
diesen bestimmten Dienst zahlen , und dieser spezielle
Dienst stammt aus der Cloud. Das beste Beispiel ist also Google Drive. Also verwende ich immer Google Drive, um
meine Dokumente und
ähnliches zu teilen . Du kannst dir auch vorstellen, dass Git Hub
dieselbe Methode hat, wir unsere
Codes und Archive tatsächlich auf GitHub speichern können. Und das kann auch geteilt werden. GitHub kann also auch für uns
betrachtet werden, es ist eine Art Hybrid
zwischen Software als Service und Speicherdienst da es als Stand genutzt werden kann. Ebenso haben Sie
derzeit über das Internet
so viele Live-Beispiele auf der
ganzen Welt, und Sie können
zumindest eines davon finden , das Sie
tatsächlich täglich verwenden. Es
handelt sich also um Cloud-fähige Servicemodelle, und diese Modelle geben Ihnen
tatsächlich eine vollständige Vorstellung
davon, welche Fähigkeiten
Cloud-basierte Systeme bieten. Ich hoffe du hast das verstanden. Das wird für
Sie also sehr nützlich
sein, wenn Sie anfangen, mit
Cloud Base zu arbeiten , damit
Sie tatsächlich
unterscheiden können , was sich in
der Cloud befindet und was nicht. Okay? Ich denke also
, dass Sie zu diesem Zeitpunkt verstehen sollten, was sich in der Cloud befindet und was nicht. Und versuchen Sie einfach, die Dinge zu
verstehen, die Dinge, die Sie derzeit in
Ihrem täglichen Leben
verwenden,
herauszufinden, welche
in der Cloud enthalten sind und welche nicht, damit Sie den
Unterschied zwischen all dem verstehen können . Der beste Weg ist also, das selbst auszuprobieren und zu
verstehen. In Ordnung. Nochmals vielen Dank, dass Sie sich
dieses Video angesehen haben, ein anderes Video. Wir werden noch ein paar Beispiele
mit dieser Art von
Live-Beispielen sehen , ja. Hey, Leute, bucht
im nächsten Video zurück. In diesem Video
werden wir uns
die Vorteile der
Nutzung von Cloud Computing ansehen . Wie Sie auf dem Bild
sehen können, steht
Cloud Computing im Mittelpunkt,
und in der Umgebung
sehen Sie eine Menge
Dinge, die sich darum drehen. Eines der Dinge ist
Flexibilität und Agilität, daher ist es sehr wichtig, dass Sie wissen, ein Cloud-Anbieter flexibel und agil
ist. Nun, was
meinst du mit flexibel? Also wann immer ich will, kann
ich die Instanz beenden,
und wann immer ich will, möchte
ich die Instanz starten, entweder über Scripting, Befehlszeile oder
über die Konsole Flexibilität gibt mir also , wann ich sie brauche, und
wenn ich sie brauche, habe ich diese zusätzliche Leistung Nun, was ist Agilität? Agilität hilft mir, meine Implementierungen, wissen
Sie, schnell durchzugehen Wenn ich zum Beispiel Bereitstellung
sage,
was bedeutet das? Bereitstellung bedeutet, dass ich einen Server bereitstelle, wenn eine Anforderung
besteht. Und das muss schnell erstellt
werden. Flexibilität ermöglicht es mir also, die
Kapazität zu erhöhen oder zu verringern oder zu skalieren. Aber Agilität hilft
mir, es schneller zu machen. Also werde ich Ihnen zeigen, wie viel Zeit es dauert, eine Instanz zu erstellen
und auszuführen, okay? Das Erstellen einer Instanz kann manuell erfolgen und viel Zeit in Anspruch nehmen
, aber es ist eine automatisierte Methode, eine Instanz zu
erstellen, wie wenn ich
Ubunts in Bus verwende Ich möchte
sofort eine Instanz
erstellen , sobald ich
eine hohe Auslastung des Systems feststelle So funktioniert
Auto-Skifahren, oder? Wenn ich sehe, dass ein System stark
ausgelastet ist, möchte
ich sofort weitere Instanzen einrichten , um die Anfrage zu bearbeiten. Agilität hilft mir
hier also,
sofort
mehr Instanzen zu erstellen , wann immer es erforderlich
ist. Was die Innovation angeht, so kann ich damit neue Dienste hinzufügen. AWS fügt ständig weitere
Dienste hinzu und innoviert sich selbst. Sie können also sehen, dass wir über das
Interaktionstraining
gesprochen haben über das
Interaktionstraining
gesprochen Wir haben ein neues Zertifikat
für KI und Mission Learning gesehen. Ich spreche also von dieser Art von Innovation
. Ein Cloud-Partner sollte also in
Bezug auf Innovation
niemals Kompromisse eingehen Er sollte auch immer innovativ
sein die neuesten
Trends auf dem Markt
hinzufügen Der aktuelle Trend
ist derzeit KI. Der nächste ist kostengünstig. Es gibt also so viele
Kunden, die mich fragen, wie wir dieses
Projekt kostengünstig gestalten können. Als Cloud-Ingenieur oder
Infrastrukturingenieur müssen
Sie sich also eine kosteneffiziente Lösung
überlegen. AWS hilft Ihnen dabei,
die Kosten zu senken. Wenn Sie die
Kosten und den Energieverbrauch
Ihres
lokalen Rechenzentrums vergleichen Ihres
lokalen Rechenzentrums und das
mit der Cloud vergleichen, wird
es viel
einfacher ,
da Sie nur für das
bezahlen, was Sie tatsächlich nutzen. Stimmt das? Wenn Sie
es nicht nutzen müssen, zahlen Sie
auch nicht dafür. Als
Infrastrukturingenieur oder Cloud-Ingenieur müssen
Sie also festlegen, müssen
Sie also festlegen wie viele
Replikate oder wie viele Dienste zu
einem Zeitpunkt ausgeführt werden sollen , an
dem die Auslastung geringer ist Auf diese Weise können Sie
die Kosten für das Unternehmen
senken , wodurch Sie Ihrem Unternehmen tatsächlich mehr
Gewinn bringen
können Wir werden also zu
einem späteren
Zeitpunkt viel über die
kostengünstigen Methoden und
Strategien im Hinblick auf Skalierbarkeit sprechen einem späteren
Zeitpunkt viel über die
kostengünstigen Methoden und Strategien im Hinblick auf Skalierbarkeit .
Wir haben bereits über den
Flexibilitätsaspekt gesprochen. Skalierbare Anwendungen sind eine
der wichtigsten Anforderungen aller Cloud-Computing-Dienste Skalierbarkeit wird jetzt
von einem AWS bereitgestellt, und AWS unterstützt auch die Skalierbarkeit von
Drittanbietern Wenn ich Cobert also getrennt von, wissen Sie,
getrennt von der eingebauten
oder standardmäßigen Uberts-Engine,
die von AWS bereitgestellt wird, implementiere
, kann ich diese
Anwendung
trotzdem mithilfe von, Sie wissen schon, AWS-Services skalieren Sie wissen schon Auch wenn ich
die integrierten Cobert Services EKS nicht verwende , kann
ich meine Anwendung trotzdem skalieren, indem ich die Cubs, sorry, AW-Standards verwende Sicherheit angeht, Ähm, AWS bietet Ihnen viele verschiedene Möglichkeiten, Ihre Konsole, Ihren Zugriff auf die CLI,
Ihren Zugriff auf
Ihre Cloud-APIs
und Ihren Zugriff auf
den Service zu
sichern CLI,
Ihren Zugriff , und Ihren Zugriff auf
den Service zu Und auch
Server-zu-Server-Zugriff. Es ist sehr sicher. Die Dienste innerhalb von AWS verwenden
auch ein sicheres Protokoll
, um
miteinander zu kommunizieren , sodass es keine Hacks und Angriffe
auf AWS-Services Die nächste ist Zuverlässigkeit. Zuverlässigkeit, wenn ich über Zuverlässigkeit
spreche, kommen mir
die Themen Regionen und*** in den
Sinn. Jetzt hat
jede Region standardmäßig mindestens zwei As,
was bedeutet, dass es zwei
Mindestverfügbarkeitszonen gibt. Das bedeutet, dass Ihre Daten über
diese beiden Zonen hinweg
repliziert werden, aber die wichtigsten, Sie wissen schon, häufigsten genutzten Regionen mindestens drei oder mehr
Availability Zones, was Ihrer Zuverlässigkeit hier eine Menge Bandbreite
bietet Entwicklerfreundlichkeit angeht,
so ist
die Konsole, die Sie sehen werden , so entwicklerfreundlich, dass Sie der Konsole
viel Spaß haben
werden Zu einem späteren Zeitpunkt
werden wir uns also mit der Zuverlässigkeit befassen. Worüber wir auch immer gesprochen
haben, wir werden es uns tatsächlich eins
nach dem anderen ansehen. Also mach dir darüber keine Sorgen. Ich werde diese nicht im Detail
behandeln, aber das ist nur ein Überblick. In Bezug auf die
Hybrid-Cloud-Funktionen , in Bezug auf
AWS viele
Innovationen
unternommen um Ihnen diese
Hybrid-Cloud-Problemumgehung Wie
funktioniert die Hybrid Cloud sowohl mit Ihrem Rechenzentrum als auch mit AWS Das ist also möglich. Sie können also zwei Daten haben, einen sicheren in Ihrem
Onpromiss-Rechenzentrum
und die andere Hälfte sind
öffentliche Daten, auf die jeder
zugreifen kann und die auf AWS gehostet werden
können Hybrid Cloud wird also in
Bezug auf die Arbeit mit AWS
vollständig unterstützt Und dann sind das
Ökosystem
und die Community wichtig , die Anzahl
der AMIs, die Amazon
Machine Image genannt wird, und der Marktplatz, den Sie haben
, und der Community-Support für den Marktplatz und
die Dokumentation. Und Leute, wissen Sie, auf
der ganzen Welt
, die AWS verwenden , bieten eine Menge YouTube-Videos und -Dokumente und alles andere, wo
Leute das verwenden. Und Sie können,
Sie wissen schon, ihre Erfolgsformel Ihr Unternehmen übernehmen und
Ihr Unternehmen erfolgreich machen. Diese Art von
Community ist es also, wissen
Sie, die Grundlage für eine
stärkere Software. Und diese AWS wird
Ihnen das bieten. Richtig. Das sind also die
Vorteile der Nutzung von Cloud Company Sorry Cloud
Computing, insbesondere AWS. Danke, dass Sie
sich dieses Video angesehen haben. Ich hoffe, dass dieses Video für Sie
leicht zu verstehen war. Wenn Sie Fragen oder
Anregungen haben, hinterlassen Sie
diese bitte im Pin-Bereich. Ihre Bewertung bedeutet alles. Stellen Sie also sicher, dass
Sie eine Bewertung hinterlassen Wenn Sie
mit dem Training nicht zufrieden sind, können
Sie dies in der Bewertung angeben. Anstatt
es einfach zu bewerten, sag das einfach. Was
müssen Sie verbessern? Weil ich hier bin, um innovativ zu sein. Ich bin hier, um das Training auf
das nächste Level zu bringen. Nochmals vielen Dank.
3. Thema 1 Einführung in AWS Teil 2: Hallo Leute. Willkommen zurück
vom nächsten Video. In diesem Video werden wir
über die anderen
Cloud-Anbieter da draußen sprechen . Jetzt wissen Sie also, dass AW
einer der Cloud-Anbieter ist. Es gibt auch andere Anbieter
. Sie haben also
Microsoft Azore, Sie haben e Cloud von Appo Sie haben Citrix, Sie haben SAP. Sie haben A&E Cloud. Sie haben IBM Cloud. Sie haben Red Monk,
Amazon Web Services. Dell hat seinen eigenen Cloud-Service, HP hat seine eigenen Cloud-Dienste Ebenso entwickelt jedes Unternehmen auf
der ganzen Welt
seine eigenen Cloud-Dienste und bietet seinen Kunden
eine breite Palette von Angeboten und attraktive, Sie wissen schon,
kostenlose Dienste, die
für Schulungen und Schulungen sowie zur
Gewöhnung an
ihre Dienste genutzt werden können für Schulungen und Schulungen sowie . Ähm, ich habe gesehen, dass Google
Cloud viele Rabatte
für Unternehmen gewährt, zum
Beispiel, wenn Sie sich mit Ihrer,
Sie wissen schon,
Firmen-E-Mail-Adresse registrieren Sie wissen schon,
Firmen-E-Mail-Adresse Also, wenn sie wollen, dass du ihre Cloud
erlebst. Das ist der Grund, der
Hauptgrund, warum sie
Sie bitten , Erfahrungen
in ihrer Cloud zu machen. Und Azore macht auch
dasselbe, und AWS, wie Sie wissen
, haben wir bereits ein kostenloses Konto, das zu einem späteren Zeitpunkt
erstellt wird Ebenso haben Sie so
viele Cloud-Anbieter. Aber wenn Sie sich die
großen Cloud-Anbieter ansehen, die da draußen AWS sind, haben sie
natürlich 34 Prozent Marktanteil,
laut diesem Bericht von 2020, aber dann ist das schon jetzt fast ein
ähnlicher Fall wie WOW. AWS ist also immer noch Marktführer. Aber Azore von Microsoft versucht, ihre, Sie wissen schon,
Stärke zu nutzen, weil sie
nachgeben, sie viele Angebote, um
viele Kunden und sie haben
so viele Lösungen, genau wie AWS
Dienstleistungen anbietet, oder Sie haben also auch
ähnliche Dienste und sie haben Dokumentation Sie erstellen zum Beispiel eine Menge YouTube-Dokumentation,
damit die Leute mit ihrer Cloud-Cloud
vertraut sind , wissen
Sie, auch mit den Verbesserungen. Und dann haben Sie hier
Google Cloud. Google Cloud wird
auch berühmt und sie gewinnen auch, wissen Sie
, mehr Kunden. Hauptsächlich, wer auch immer gegen
Microsoft Office ist, oder? Sie entscheiden sich für das Google EnSut-System wie Google Sheets und Google
Word und alles andere Mit ihrem Produkt versuchen
sie also auch, diesen Kunden,
die Google Cloud, zu
verkaufen die Google Cloud, zu Also mein letztes Projekt, wir hatten Googles Google
Sheet und alles andere. Wir sind gegen Microsoft Office. Ähm, also Google hat
das gemacht , als wir unsere Umgebung
modernisieren wollten, also entschieden wir uns für Google also entschieden wir uns für Google und
nicht für Microsoft
Azore oder Amazon AWS, weil wir bereits
einen guten Vertrag mit
Google hatten , weil wir deren eigenes
System nutzten. Und sie haben tatsächlich eine Menge Rabatt gewährt,
weil wir, wissen
Sie, nicht zu
Azore oder AWS wechseln . Wir
wechseln zu ihnen. Das war also ein wirklich gutes Geschäft , das wir für den Kunden abgeschlossen haben. Und Google ist jetzt der gesamte ID-Anbieter der
vorherigen Projekte für die Google Cloud. Wenn Sie also
bereits Beziehungen zu
bestehenden Anbietern haben, besteht eine gute
Chance, dass diese
Ihnen einen guten Rabatt
oder ein gutes Schnäppchen ihre eigene Cloud anstatt zu
einem neuen Cloud-Anbieter zu wechseln Denken Sie jetzt daran,
dass dies 20221 ist. Es war 203000000000 Markt hier. Jetzt, 2024, wird es viel größer
sein. Ich werde versuchen, Ihnen einen späteren
Zeitpunkt zu geben, wissen Sie, einige Statistiken über 2024,
wie es zu einem
späteren Zeitpunkt aussieht. Aber wissen Sie, das ist etwas, das sich in Bezug auf den Beruf
nicht so
sehr ändert , sodass AWS immer noch führend ist , was
die Bereitstellung von
Cloud-Services angeht. Das mit den
Hintergrundgeräuschen tut mir leid, falls Sie
etwas hören können, das ich nicht kontrollieren kann. Auch das
wollte ich Ihnen in
diesem Video sagen, um Ihnen zu zeigen
, dass es verschiedene
Cloud-Anbieter
gibt , aber wir haben uns für AWS entschieden,
weil AWS auch jetzt noch
im Jahr 2024 einer der
führenden Anbieter ist . Nochmals vielen Dank für
diese Zeit und Geduld. Wenn Sie Fragen haben, hinterlassen Sie diese im Fragenbereich. Wir sehen uns im nächsten Video. Leute, willkommen zurück
zum nächsten Video. In diesem Video werden wir
über Regionen und AZ sprechen. Wir werden uns also zuerst auf Regionen
konzentrieren und dann
auf verfügbare T-Zonen umsteigen. Okay, weil diese miteinander
verwandt sind. Nun, bevor wir weitermachen und etwas über Regionen
erfahren, können Sie hier einfach über
ein Echtzeit-Szenario sprechen, was
für Sie sehr, sehr hilfreich ist ,
um dieses Konzept zu verstehen. Lassen Sie uns nun mit
unserer eigenen Firma beginnen. Sagen wir einfach, dass wir eine eigene Firma
haben. Und was wir tun, ist, dass wir E-Commerce-Geschäfte
machen. Und ich habe meine Kunden
in ganz Großbritannien. Mein Produkt wird also in ganz Großbritannien
verkauft, hauptsächlich in London und Manchester Sagen wir zum
Beispiel, das sind
zwei Standorte, von denen ich
die meisten meiner Kunden Jetzt habe ich zum Beispiel ein Büro in
London und mein
Rechenzentrum in London selbst. Nun, da war ein
schwerer Sturm in London, und ich habe diesen Stromausfall, und es ist so, weißt du,
seit ein paar Stunden,
mehr als vier oder fünf Stunden, mein Backup sogar ausgegangen Also wurde meine Firmenwebsite
komplett
abgeschaltet und es gab keine Nutzer
aus Manchester oder, Sie wissen schon, aus Schottland
oder Irland Sie können nicht
auf meine Website selbst zugreifen. der ganzen Welt ist
meine Website also komplett
ausgefallen, ist
meine Website also komplett weil der Dienst
, der eigentlich meinem Rechenzentrum
gehostet
wurde, ausgefallen ist. Also verstehst du es, oder? Also, nachdem der
Strom wieder da ist, verbinde
ich mich mit meinen Admins
und versuche zu verstehen, und versuche zu verstehen warum meine Website nicht verfügbar
war Und der Grund war ziemlich klar
wie bei Tageslicht, oder? Weil der Strom nicht da
war und die Notstromversorgung sogar
ausging. Ich hatte dieses Problem. Es gibt zwei Lösungen, ja, um ganz konkret zu sein, oder? Also die eine ist, ich kann mehr Reservekräfte
hinzufügen, und das wird mich eine Menge kosten. Aber das ist nur
Redundanz, oder? Wenn es
kein Stromproblem gibt,
irgendein Hack passiert
oder irgendein
Eindringling in meine Firma kommt
und dann meinen Server herunterfährt, dann ist das Die zusätzliche Stromversorgung bietet mir also keine wirkliche Lösung Also beschließe ich, dass ich eine weitere Zone
in Manchester
einrichten werde , das ist, wissen Sie, mein zweiter Ort dort drüben,
weil dort mein riesiger
Kundenstamm ist. Also erstelle ich dort eine weitere
Zone
, sodass beide Server
miteinander kommunizieren und an
einem Lastenausgleichsmechanismus
arbeiten können miteinander kommunizieren und an
einem Lastenausgleichsmechanismus
arbeiten . Wissen Sie, bei einem Notfall
in London werden Dienste in Manchester
gehostet, die sich sogar um meine Website
kümmern können, damit sie nicht dauerhaft ausgefallen ist. Also verstehst du das, oder? Das ist also das Beispiel, auf das
ich mich hier
auf das AWS-Konzept konzentrieren möchte . Nun, Regionen, nichts die tatsächlichen physischen
Standorte auf der ganzen Welt, und AZs oder Availability Zones sind die Rechenzentren an diesem, Sie wissen schon, an diesem Standort
am physischen Standort. Nehmen wir zum Beispiel US
East als Beispiel. Es gibt also eine Region
namens US East. Ich habe das gerade für euch
rübergebracht. Das sind also Regionen, ja. Also USA Ost ist im Grunde North
Virginia, Vereinigte Staaten. Uest ist im Grunde Irland. AP Southeast, einer davon ist Singapur. Also, genauso hat jede
Region einen Namen, einen Namen von AWS
bestimmt wird, indem man quasi,
Sie wissen schon, den
Namen des Kontinents hat und dann, welcher Seite er sich befindet, auf
der West- oder Ostseite oder auf der Central
Side oder auf der Central Side oder der
Südostseite, wie Pie. Also entscheiden sie das,
und dann geben sie eins, zwei an, wie bei Regionen. Sie können es also, wenn eine bestimmte Region
mehrere Regionen enthält, dann ist es wie
eins, zwei, so. Aber bis jetzt war es eines,
was ich bisher gesehen habe. Also, aber innerhalb der Region werdet ihr AZs haben. Nun, das sind die Rechenzentren. Ist Region also ein Rechenzentrum
oder AZ ein Rechenzentrum? AZs sind die Rechenzentren. AZs werden grundsätzlich
als Availabt-Zone bezeichnet,
was bedeutet, dass es sich um ein Rechenzentrum
handelt Nun, die größte Gruppe von Rechenzentren ist in der Region
EU Ost verfügbar, weil viele
Leute ihre Anwendungen
in der Region EU Ost hosten, weil sich viele Leute tatsächlich in dieser
Zone in diesem New York befinden, wissen
Sie, das ist Chicago, all diese Dinge kommen
in diese spezielle Aus diesem Grund haben sie sechs AZs, was
sechs Rechenzentren bedeutet. Jetzt können Sie zur
Amazon-Website gehen und sich das
tatsächlich ansehen. Sie sagen also AWS und
können sagen, wie Regionen. Und Sie werden
die Liste der
AWS-Regionen, die Sie haben werden,
hier bekommen AWS-Regionen, die Sie haben werden , Sie können die globale
Infrastruktur dort sehen, und Sie können
die Liste
der Regionen in AZs sehen , die
Teil der Welt sind. Sie können zum Beispiel sehen, dass
sie selbst dies in Nordamerika,
Südamerika, Europa und
Osten
aufgeteilt haben dies in Nordamerika,
Südamerika, Europa und
Osten
aufgeteilt . Sie können sich auch die
gesamte Welt ansehen. Ich bin mir nicht sicher wo, aber es sollte irgendwo
hier sein, ja. Also, wenn du einfach darauf
klickst, kannst du tatsächlich die
ganzen Regionen hier sehen . Sie haben also 34 Regionen mehreren
Verfügbarkeitszonen, was Ihr Rechenzentrum ist. Und dann CloudFront,
darüber werden
wir in einer
anderen Sitzung komplett sprechen darüber werden
wir in einer
anderen Sitzung komplett Also haben sie das
in mehrere Regionen aufgeteilt, wie Sie hier sehen können, und jede ist so, das ist Nordamerika, das ist Südamerika und
das ist Europa Und dann ist das Asien. Also haben sie diese Region ebenfalls
aufgeteilt. Und wissen Sie, jeder Ort hat hier eine oder
mehrere Regionen. Sie können also das Datum sehen, an dem
es gestartet wurde. Es wurde zum Beispiel 2009 auf den Markt gebracht. Sie können also sehen, dass
es einen über Irland gibt. Welches ist 2007 auf den Markt gekommen, und Sie haben eins für die Region
London. Und es hat drei
Verfügbarkeitszonen. Das bedeutet, dass
es drei Rechenzentren gibt. Nun, es gibt nicht viele Details
darüber, zum Beispiel, wo genau sich der Standort dieser Availability Zones
befindet, der bei ABS selbst gespeichert wird, aber dann sagen sie Ihnen, wie viele Availability
Zones es gibt,
sodass Ihre Daten repliziert
werden oder
mehrere Verfügbarkeitszonen sodass Ihre Daten repliziert
werden durchqueren Wenn es also eine
Katastrophe oder eine AZ gibt, das keine Auswirkungen auf
eine andere AZ, weil sie durch
eine gewisse Entfernung
voneinander getrennt ist , okay? Die Katastrophe würde also nicht überall
passieren. Also das ist der Grund dafür. Also, da sind diese roten
Farben, die sagen ,
du weißt schon,
bald in diesen Regionen. Ich kann mir also vorstellen, dass die großen
Städte eine Region haben, und jede Region wird mindestens zwei
Verfügbarkeitszonen
haben Ich habe in den meisten Regionen zwei
Verfügbarkeitszonen gesehen. Das ist also so ziemlich das, was ich dir in
diesem Video sagen
wollte. Und das ist so ziemlich das, was Region und
Verfügbarkeitszone sind. Ich hoffe, dass Sie auch
das Beispiel aus der realen Welt verstanden haben. Wir werden im Moment nicht
so detailliert
darauf eingehen , weil wir gerade erst anfangen. Im Moment
möchte ich nur, dass Sie
einen sehr umfassenden Überblick darüber haben , was Regionen
sind, was Klimazonen sind. Das ist alles, was momentan benötigt wird. Nochmals vielen Dank
für Ihre Geduld und Zeit. Wir
sehen uns im nächsten. Hey, Leute, willkommen zurück
zum nächsten Video. In diesem Video
werden wir uns schnell den Diensten
vertraut machen. Dies sind nun einige der
wichtigen Dinge in AWS, die
Sie lernen werden. Und jeder dieser
Dienste hat, Sie wissen schon, eine andere Bedeutung
und
auch unterschiedliche Gründe,
warum er existiert. Lassen Sie uns nun einfach
anhand eines
realen Beispiels über Dienste als Ganzes sprechen , und dann werden wir
dies mit tatsächlichen Diensten vergleichen. Nun, wenn Sie zum Beispiel über Dienste
sprechen, wie zum Beispiel in
Ihrem Handy, dann hat Ihr Handy eine Kamera. Ihr Handy hat Bluetooth. Ihr Handy hat das
Telefon für den Anrufzweck, richtig, GSM oder CDMA Das ist also der ganze Grund
für Mobiltelefone, oder? Es hat, es
kann Videos abspielen. Ich kann Audios abspielen. Aber wie können Sie überhaupt
auf diese Funktionen zugreifen? Wenn du eine Kamera auf meinem Handy haben
möchtest, z. B. nach hinten gerichtete oder nach
einem Freund gerichtete Kamera, wie gehst du damit um? Wie denkst du darüber nach
und dann öffnet es
sich? Nein, tut es nicht? Sie haben also Anwendungen für
jeden von denen, nicht wahr? Sie haben also eine Bewerbung
für eine Kamera. Sie haben eine Anwendung für das Telefon, die tatsächlich geht und
wählt und dann die CDMA-
oder die
GSM-Technologie verwendet , die sie Sie haben eine App, um
Bluetooth zu aktivieren, oder? Dann stellt es eine Verbindung
zu etwas her, oder? Das sind also Apps für
bestimmte Zwecke, nicht wahr? Das Gleiche bei AWS
sind diese Dienste. Wenn Sie nun die Entwicklung eines
Mobiltelefons sehen, die Kamera, das Telefon ,
die Videos, es
kam nicht alles auf einmal, oder? Wenn Sie zehn Jahre zurückgehen, würden
Sie ein Klapphandy benutzen, das hauptsächlich dafür verwendet wird,
Sie wissen schon, sich
mit einer anderen Person
über einen Telefonanruf zu verbinden , oder? Aber sonst kann man mit einem Handy nichts
machen. Aber dann die Addons, oder? Das sind so etwas wie
Addons, die immer wieder kommen. Du bekommst eine neue Version der Kamera, du bekommst mehr Megapixel-Sachen Wenn es also einen
neuen technologischen Fortschritt gibt,
wird dieser im Laufe der Zeit irgendwie
hinzugefügt, das Gleiche gilt für die
Dienste. Sie werden also sehen,
dass im Laufe der
Zeit mehr Services zu AWS hinzugefügt werden. AWS hat sich zuvor
etwa 100 Dienste ausgedacht . Jetzt verfügt es über mehr als
400 bis 500 Dienste, die aus
mehreren Gründen genutzt werden. Und das sind Dienste,
die im Laufe der Zeit hinzugefügt werden. Und dann sieht man irgendwie, wie diese
vielen Dienste auftauchen. Und diese Dienste haben unterschiedliche Gründe für ihre Existenz Auch wenn wir vielleicht nicht
den gesamten Service abdecken, wissen
Sie, den Nachlass von AW. Dann werden wir
auf einige der Dienste sie in einem
sehr umfassenden Überblick über SOT
betrachten. Wir werden
die meisten Dienste anhand ihres Namens verstehen und verstehen
, was
ihr Zweck ist. Und wir werden versuchen, Ihnen einige
Beispiele aus der Praxis zu geben, damit Sie den Namen
der Dienste und ihre tatsächliche Leistung in
einem Echtzeit-Szenario
wirklich zuordnen können den Namen
der Dienste und ihre tatsächliche Leistung in
einem Echtzeit-Szenario
wirklich zuordnen der Dienste und ihre tatsächliche Leistung ,
sodass Sie
diese Fragen beantworten können ,
wann immer diese Frage Ihrer Prüfung
auftaucht Denken Sie jetzt daran, dass es bei
unserer Prüfung nur darum
geht, dass es in diesem Dokument selbst steht, wie Sie in
Anhang A sehen können, wie Sie in
Anhang A sehen können,
also Technologie
und Konzepte stehen Das sind Technologien und Konzepte, die in
Ihrer Prüfung enthalten sind. Das sind also einige von
ihnen, die Dienstleistungen sind. Die meisten von ihnen sind eigentlich
Dienstleistungen. Sie können also sehen, dass die
Regionen und AZs, die wir, Sie wissen schon, vor einiger
Zeit zusammengefasst haben Und da ist diese
Cloud-Migration, und Sie haben Netzwerkdienste Sie haben hier einfach so viele
Dienste, die Teil Ihrer Prüfung sein werden
. Sie müssen also
die Unterschiede
zwischen diesen Diensten kennen und wissen,
was sie tatsächlich tun. Das ist alles, was sie
zu diesem Zeitpunkt benötigen , da es sich um eine grundlegende Zertifizierung
handelt Sie wollen nicht, dass du
die Einzelheiten weißt oder wie
man sie bedient oder, du weißt schon, einige fortgeschrittene Dinge Sie wollen nicht, dass du es
weißt, sie wollen, dass du einige grundlegende Dinge darüber
weißt, einige grundlegende Dinge darüber
weißt,
sodass sie sagen, okay, diese Person kennt sich
mit diesen Diensten aus, also werde ich sagen, er
hat die richtige Antwort gewählt. Es wird also nicht kompliziert sein. Ich habe Fragen zu Kursen
für Berufskurse, Kurse auf
Associate-Level
und
Kurse für Spezialisten gesehen , Kurse auf
Associate-Level , wissen Sie? Diese Fragen sind
so kompliziert, aber hier geht es nicht so sehr darum. Sie
müssen sich also nicht wirklich darüber Gedanken machen. Ich werde all
diese Dinge für dich erledigen. Ich werde Ihnen Beispiele aus der
Praxis geben
, damit Sie
das viel besser verstehen können. Ordnung? Das sind also einige Dienste, die
für unterschiedliche Zwecke verwendet Nehmen wir zum Beispiel 23 Dienste und versuchen, die
Relevanz dieses Dienstes zu verstehen. Es gibt zwei Instanzen, es heißt Elastic Cloud Compute. EC zwei. Warum es hier zwei heißt
Weil es zwei
Cs gibt , Elastic Cloud Compute. Deshalb
nennen sie es EC Two. Was ist also Elastic
Cloud Compute? Es verleiht
der Elastizität Rechenleistung mit zwei Induktion,
wann immer Sie sie benötigen Das ist also der Ort, an dem Ihre Server erstellt werden, okay? Das ist also dein
Grund, warum du bei AWS bist, okay? Das ist der erste
Service, und das ist quasi der einzige
Grund, warum Sie bei
AWS sein sollten , weil er Ihnen
Infrastruktur als Service bietet. Hier können Sie Server
auffüllen. Dann haben Sie den Kostenmanager. Der Kostenmanager
informiert Sie, wie
der Name schon sagt, über die Kosten. Außerdem
erfahren Sie, was bisher in
Rechnung gestellt wurde und wie
Ihre Prognose für die Abrechnung aussieht Also, ob du
das nutzen oder diesen Speicherplatz
verbrauchen willst, richtig Das ist Zeit, das wird
es sein. Das ist eine
Vorhersage, oder? Also fängt alles an. Abrechnung. Was macht Fakturierung? Der Name sagt schon, dass
Sie dort die monatliche Rechnung bezahlen, was auch immer Ihnen, Sie wissen schon, als
Kosten bei AWS angefallen sind. Was ist Elastic Load Balancer? Elastic Load Balancer
bietet Ihnen
Load-Balancing-Funktionen für Ihre Anwendung, die auf
AWS gehostet wird. So einfach ist das Stimmt? Viele Dienste hier haben die Begründung also
schon
im Namen. Also nochmal, dieses Video
ist nur ein Augenöffner. Wir werden
über keinen der Dienste sprechen, also müssen Sie nicht wirklich den Aufwand oder den Aufwand haben , den Oh, wir werden jetzt
über diesen Service sprechen. Wir werden uns diese Dinge einfach beiläufig ansehen und
schauen, wissen
Sie, welche anderen
Dienste verfügbar sind Also werde ich dir das einfach
zeigen. ist auch so einfach, wenn du
auf die Homepage gehst, richtig, du wirst hier eine
Menge Artikel sehen ,
die quasi
modular aufgebaut sind, okay? Es kommt also dieser
Kostenservice hierher, mir sagt, was meine Prognose oder Prognose
für diese monatliche Rechnung ist, was
am Monatsende sein wird. Und es sagt mir auch, wie hoch die aktuellen Kosten sind, die ich
im Moment zahlen muss. Wenn ich also alle meine Dienste lösche, wäre
das der
Betrag, den ich zahlen müsste. Okay. Also, es erzählt
mir auch von einigen vertrauenswürdigen Beratern, einigen Dingen hier drüben. Das alles kommt von
einem Dienst zum anderen. Okay. Also wir wollen im Moment
hier nicht einige Details
wissen. Sie können auch weitere Widgets hinzufügen. Sie können auch Daten
von verschiedenen Diensten abrufen . Diese Dinge sind also
auch verfügbar. Das ist dein Armaturenbrett, okay? Das ist, was Sie
sehen werden, wenn Sie, ähm, ein kostenloses Konto
erstellen
und sich bei AWS anmelden. Sie sich also keine Sorgen um
das kostenlose Konto, also werde ich Ihnen erklären, wie
Sie
Ihr kostenloses Konto erstellen und sich anmelden können. Und ich werde dafür sorgen, dass
Ihnen all diese
Dinge nicht in Rechnung gestellt werden, es sei denn , Sie tun
etwas selbst Aber ich werde Ihnen
all diese Vorbereitungen
für Sie treffen, damit Ihnen nichts in Rechnung gestellt wird und Sie das
Limit kostenlos nutzen
können Aber denken Sie daran , dass es einige Dinge gibt,
die wir erledigen werden, die möglicherweise eine Rechnung anfällt, aber Sie können sie sich ansehen, anstatt sie selbst
zu erledigen Also das ist etwas, was ich dir sagen
werde. Also,
was sind Dienstleistungen? Nun, das sind die Dienste. Sie können sehen,
dass es dort so viele Dienste gibt. Das ist nur
der Anfang. Jeder dieser Dienste wird
mehrere Dienste anbieten. Wenn Sie hier einfach
auf alle Dienste
klicken , können Sie
die Anzahl der Dienste sehen , die Sie hier
haben. Das siehst du. Es gibt so
viele Dienste , die AWS direkt nutzt. Und es gibt auch
indirekte Dienste, okay? Also was ist so, was wird nicht angezeigt, weil es indirekt ist und
innerhalb des Dienstes verwendet wird. Es gibt also auch
indirekte Dienste, die sehr weit fortgeschritten sind,
also mach dir darüber keine Gedanken. Was Sie hier also tun können, ist, sich um einige Hilfen
handelt, die
von AWS bereitgestellt werden, um die
Dinge schnell für Sie zu regeln. Wenn Sie also wegen Rechenleistung hier sind, dann geht es hier um ECT. Aber wenn du einfach darauf klickst, sind das einige der Optionen oder Dienste, die unter
Compute fallen, okay? Also, das Gleiche gilt für
Frontend-Webentwicklung, falls Sie danach suchen, das sind die Dienste, die sich dahinter befinden. Das sind also Kataloge, man kann sagen, welche
Dienste darin enthalten sind Okay? Es kann also mehrere Dienste geben, die sich auf diesen Katalog
beziehen. Sie können also tatsächlich
den Katalog auswählen und sehen, was tatsächlich als Dienste darin
enthalten
ist, die sich möglicherweise auf
diesen bestimmten Katalog beziehen. Ordnung. Also, das ist der Service Explorer, der Ihnen den
Katalog und die Dienste zeigt,
und das ist der einfachste Weg
, einen Service zu bekommen Sie möchten beispielsweise
ein Serviceticket bei AWS erstellen. Sagen Sie einfach Service oder Ticket
oder etwas Ähnliches und schon geht es an den Service,
Sie wissen schon, den
Incident-Manager-Support. Sie können sehen, dass es sich dabei
quasi um
Dienste handelt , die
bei der Eingabe von Tickets abgerufen werden. Sie möchten
also auch etwas Speicherplatz behalten. Sie geben hier also einfach
Speicher ein, und Sie können nicht
alle Dienste abrufen , die sich auf Speicher beziehen
, der häufig verwendet wird. Also, wenn du mich fragst, oh, okay, was ist mit anderen
Speicherdiensten? Sie können einfach auf
Mehr anzeigen klicken und Sie können tatsächlich
alle Speicherdienste
hier sehen alle Speicherdienste ,
weil Ihnen nur die am
häufigsten verwendeten angezeigt werden, wenn Sie Speicher eingeben. Wenn Sie hier nach
Datenbank suchen, geben
Sie einfach Datenbank und Sie
erhalten zuerst die Dienste , die sich auf
Datenbank beziehen. Und dann die Funktionen, die, Sie wissen schon, Teil der Dienste sind. Die Funktionen stellen sicher , dass es sich um einen
Katalog von Diensten handelt. Das sind also die Dinge, die
Sie mit einem Service tun können. Okay. Das ist also der eine und dann haben Sie Ressourcen,
in denen Sie Ressourcen öffnen und über sie
lesen und etwas über sie
erfahren können. Sie haben eine Dokumentation, mit der
Sie dasselbe tun können. Und Sie haben Wissensartikel , in denen Leute
Fragen zu einem bestimmten, Sie wissen schon, Dienst stellen
und wie das geht. Und dann werden
Leute darauf antworten, und Sie werden sehen, dass auch der
Vertreter von Amazon darauf reagiert. Und dann haben Sie hier
einen Marktplatz , auf dem Sie tatsächlich
die Leute von Drittanbietern sehen
können , von denen Sie das sehen können. Das ist aus Daten, Daten von Sunrise,
wissen Sie, Technologie. Das ist also ein Unternehmen, das eine solche Lösung
verkauft. Sie können also auch den
Marktplatz sehen. Sie werden auch
Oracle-orientierte Lösungen sehen. Wenn ihr also einfach nach dem Marktplatz
sucht, verkaufen viele Leute Sachen für euch, okay, damit ihr
damit arbeiten könnt. Sie haben natürlich Blogbeiträge, in denen die Leute Blogs
über ihre Erfahrungen bei der
Arbeit mit diesem
bestimmten Dienst oder einer
bestimmten Datenbankmigration
oder so etwas schreiben Arbeit mit diesem
bestimmten Dienst oder . Und dann gibt es Ereignisse. Ereignisse sind sehr wichtig , da
der Dienst manchmal
gewartet wird , weil
einige Leute daran
arbeiten, ihn zu umgehen. Diese werden also
auftauchen, für Veranstaltungen hier auftauchen
und dann gibt es Tutorials. Tutorials sind das Beste. Es ist also wie
eine Dokumentation, aber es ist Schritt für Schritt,
um ein bestimmtes Ziel zu erreichen. Also zum Beispiel das Erstellen und Verwalten einer nicht relationalen
Datenbank hier drüben. Wie man das macht, es wird Schritt für
Schritt erklärt, wie man damit arbeitet Ebenso ist die Suche mit vielen
nützlichen Informationen
gefüllt. Es ist nur so,
dass Sie über
all diese verfügbaren Optionen nachdenken müssen, wenn
Sie auf der
Konsole sind. Die Optionen sind da. Du musst nur darüber nachdenken. Für welche Option sollte ich mich entscheiden? Ordnung? Nun, Sie haben diesen Console
Home-Service hier drüben, Sie können
also auch
Elemente hinzufügen, z. B. sie
hier mit einem Lesezeichen versehen , damit Sie
diesen EC Two-Service hinzufügen können Ich habe das getan, weil ich dafür viele
Schulungen veranstalte Ich habe hier also bestimmte Dienste
laufen lassen, was nicht
unbedingt für Sie ist. Es wäre da. Es
wäre sauber für euch. Aber dann mache ich etwas
zu Trainingszwecken, damit ich all diese Dinge verstehe. Also hauptsächlich, ich bin in der Region hier drüben,
also das ist die Region Also USA, Ost-Nord-Virginia. Nun, ich bin derzeit in Großbritannien
ansässig, aber warum sollte ich
etwas wie North Virginia wählen, das ein bisschen
weit von mir entfernt ist, nicht wahr? Weil es die günstigste Region ,
in der ich Dienste zu einem wirklich günstigeren Preis
hosten kann als, wissen Sie , in London,
weil London, wie Sie wissen, Großbritannien wie eine Insel ist, und der
Platz im Rechenzentrum ist sehr klein. Also sind die Kosten
für mich höher. Deshalb habe ich mich für
North Virginia entschieden. Es gibt also strategische
Dinge, die Sie hier tatsächlich nutzen
können Darüber
werden wir
im weiteren
Verlauf dieses Programms und
auch in den zukünftigen
Programmen sprechen im weiteren
Verlauf dieses Programms und
auch in den zukünftigen
Programmen Deshalb werde ich mit Ihnen teilen wie wir Kosten senken werden und
wie wir auch Geld sparen werden, wie wir auch Geld sparen werden wenn wir anfangen,
Maschinen wie diese zu hosten. Das sind quasi größere
Instanzen von m5x Large. Also, wie wir
bei diesen Dingen Geld
sparen können, werde
ich auch Also das ist nicht nur
eine Ausbildung, und dann lasse ich
dir nichts dergleichen übrig. diese Schulungen
werden
meine zusätzlichen
Schulungen folgen , weil ich
die Erfahrung habe ,
mit mehreren Kunden zu arbeiten, und ich weiß auch, wie
sie mit
den Kundenbetreuern
von AW Azore umgehen auch, wie
sie mit
den Kundenbetreuern
von AW Azore Also werde ich Ihnen
all diese interessanten Dinge erzählen
und mit Ihnen teilen und es
für Sie in Zukunft sehr interessant
machen Nochmals vielen Dank für
Ihre Zeit und Geduld. Wir sehen uns im nächsten Video. Ich meine, wir gehen zurück
zum nächsten Video. In diesem Video werden
wir die
AWS-Supportoptionen
für AWS-Kunden identifizieren . Also werden wir hier über
mehrere Optionen
oder mehrere Services sprechen .
Das tut mir leid. Sie werden hier also über mehrere
Services
sprechen, was sich auf die
AWS-Kundensupport-Option bezieht. Lassen Sie uns nun zu
unserer Präsentation hier weitermachen. AWS-Supportoption umfasst also Kundenservice
und Communitys. Nun, hier im
Kundenservice und in den Communitys, also wir sprechen über die Bereitstellung von Basissupport für
all Ihre AWS-Kunden. Es spielt keine Rolle, ob Sie ein zahlender Kunde
sind oder nicht. Es bietet Ihnen Konten und Unterstützung bei der
Abrechnung. Es bietet Ihnen
Zugriff auf AWS-Community-Foren und Ressourcen wie AWS Repost
für Community-basierten Support Jetzt eignet es sich für kontobezogene Fragen und für die
Kontaktaufnahme mit
anderen AWS-Benutzern, Sie wissen schon, allgemeine Hinweise Im nächsten geht es um
den Entwickler-Support. Beim Entwickler-Support hier drüben, bei
der Support-Option
geht es,
Sie wissen schon, um technischen Support für Entwickler, die auf AWS aufbauen. Daher bietet es auch Anleitungen
zu bewährten Methoden, zur Fehlerbehebung und zur
Nutzung von AWS-Services. Es beinhaltet Support
beim Hauptkontakt. Leider ist
nur ein Hauptansprechpartner enthalten, was bedeutet,
dass dieser
Hauptansprechpartner Support-Fragen stellen kann. Hier greifen wir als
Best-Practice-Empfehlung auf Trusted Advisor zurück ist begrenzt und steht Entwicklern
nicht in vollem Umfang
zur Verfügung. nun den nächsten betrifft, der hier drüben ist
, tut mir leid, ich wurde durch einen Anruf
abgelenkt Bei der nächsten geht es also um
die Unterstützung von Unternehmen. Was die
Unternehmensunterstützung angeht, ist sie kostenpflichtig. Auch hier ist
es genau wie Developer kostenpflichtig. Aber das Übliche ist hier das
Grundlegende, nämlich der
Kundenservice und die Community, die für alle offen sind. Du musst nichts bezahlen. Derzeit nehme ich also an
diesem Supportplan teil, dem
Basis-Supportplan. Wenn Sie also ein Entwickler sind, können
Sie an diesem teilnehmen, und wenn Sie
ein Geschäftsanwender sind, können
Sie den
Business-Support in Anspruch nehmen. Jetzt hilft Ihnen der Business Support beim technischen Support für Unternehmen einer
Produktionsumgebung
laufen. Wenn Sie beispielsweise
Produktionsworkloads haben, können
Sie Support für Unternehmen in Anspruch Jetzt haben Sie
rund um die Uhr Zugriff
auf Cloud-Supporttechniker für technische Probleme Dies ist direkt von AWS. Sie erhalten vollen
Zugriff auf AWS Trust Advisor und das Personal
Health-Dashboard. Es unterstützt auch
mehrere Kontakte und Sie können es auch anwendungsfallspezifische
Anleitungen verwenden. Der Unternehmenssupport
wird also für Unternehmen verwendet oder ist für Unternehmen
geeignet, die rund um
die Uhr Support für
Produktionsanwendungen
benötigen . Aber wenn Sie
das planen, können Sie tatsächlich mit
dem AW-Support arbeiten. Das ist nicht möglich, weil der Support hier
begrenzt ist, obwohl er 24 Takte 7 hat, aber die Bearbeitungszeit ist enorm Deshalb werden wir im nächsten Video über die
Architektur sprechen. Dann werden Sie auch die
Bearbeitungszeit verstehen. Also hier, der nächste ist der AWS Enterprise
on RAMP-Support Dies bietet Ihnen
also proaktive Beratung, technischen Support und
betriebliche Überprüfungen. Es bietet rund um die Uhr
Zugriff auf Cloud-Supporttechniker
für schnelle Reaktionszeiten. Es hilft Unternehmen
auch den
Cloud-Betrieb
zu optimieren und auch kritische
Geschäftslasten zu
verwalten. Der letzte ist also der Unternehmenssupport,
der komplette Support. Das bedeutet also, dass es einen
umfassenden Support für große Unternehmen mit
geschäftskritischen Workloads Daher verfügt das Unternehmen auch über engagiertes DAM-Personal oder TAM als technischen oder Co-Manager
für personalisierten Support Darüber hinaus bietet es proaktive Überwachung, Architekturberatung und
Optimierungsempfehlungen Außerdem bietet es
rund um die Uhr Zugang zu erfahrenen Cloud-Technikern. Es verfügt also über
erfahrene Cloud-Ingenieure und eine schnellere Reaktionszeit. Auch hier werden wir im nächsten Video über die
Reaktionszeit sprechen . Also Anwendungsfälle für Unternehmen
, die tief in AWS und
technisches Engagement
und hohe Verfügbarkeit für
geschäftskritische Anwendungen benötigen . Das ist also die
Support-Option, die sich an
verschiedene
Geschäftskunden richtet , Sie wissen schon, grundlegenden Kundenservice und
dem Community-Support bis hin zu
umfassender Unterstützung auf Unternehmensebene für geschäftskritische Arbeitslasten Das ist also so ziemlich das , was wir in diesem Video
behandeln wollen Nochmals vielen Dank. Wir
sehen uns im nächsten Video. Hey, Leute, willkommen zurück
zum nächsten Video. In diesem Video werden wir über
den Unterstützungsplan sprechen. Nun, Sie sind
sich des
Unterstützungsplans im
Moment wohl nicht bewusst , weil Sie hier
noch nie einen Weg gekreuzt haben. Standardmäßig
kommt jeder zur Basisversion. Dann müssen Sie also ein Upgrade durchführen,
um, ähm, ein
Unternehmen aufzubauen. Nun, das sind drei verschiedene Gebühren,
wie 29 pro Monat, 100 pro Monat und 15.000 pro Monat. Was ist ein Supportplan? Im Support-Plan
erhalten Sie Support von AWS. Jetzt hat AWS quasi
verschiedene Pläne,
was bedeutet, dass
sich Ihr Support gerade
auch in einer anderen
Situation befinden wird . Wenn Sie sich also
für einen Entwicklerplan
mit 29$ pro Monat entscheiden möchten , erhalten
Sie innerhalb von 12 Stunden, 24 Stunden einen Support mit eingeschränktem
Support
, der Ihnen innerhalb von 12
Stunden, 24 Stunden zur eingeschränktem
Support Verfügung steht Das ist also die Standardversion
. Und wenn Sie sich dann für
einen Geschäftsplan entscheiden, werden
Sie ein
Produktionssystem herunterfahren lassen,
das heißt, innerhalb von 4 Stunden erhalten
Sie eine Antwort und das
Produktionssystem wird ausgefallen, was ungefähr einer Stunde Reaktionszeit entspricht. Innerhalb einer Stunde erhalten
Sie 100 Antworten pro Monat. Wenn Sie sich für einen
unternehmensbezogenen, Sie wissen schon,
Supportplan entscheiden und nur 15.000€ pro Monat
zahlen, was sehr teuer ist. Und Sie erhalten
innerhalb von 15 Minuten Support bei
kritischen Ausfallzeiten . Und es beinhaltet auch
andere Dinge. Das ist also der Sinn
dieser Erklärung
auf diese Weise. Also, welche anderen
Dinge wirst du bekommen? Nicht viel für Entwickler. Entwickler werden im Wasser
allein gelassen ,
weil der allgemeine
Support selbst mehr als ausreichend ist . Und wenn Sie sich für ein Unternehmen entscheiden, erhalten
Sie kontextbezogene
Anleitungen,
die auf dem Anwendungsfall basieren und zeigen, wie Sie
sich auf AWS verbessern können Und dann ein TAM-Team. TAM ist so, als ob ein technischer
Kundenbetreuer da wäre. Wer kann Ihnen also helfen Ihre Dienste in Anspruch
zu nehmen
und Ihnen zu helfen? Also, da ist ein Team für euch
da. Okay,
das Managementteam wird da sein. Okay. Also hier, was den Support für Unternehmen angeht
, die Seite für
eigenständiges Online-Lernen. eine Schulung Rahmen dieses Supports für
Unternehmen gibt es also
auch Das Paket mit
15.000€ Laborsitzungen und Schulungen zum Selbststudium Und dann wirst
du ein spezialisiertes,
du weißt schon,
Support-Team für dich haben , okay? Das Support-Team hilft
Ihnen also bei all Ihren
Fragen und so weiter. Anschließend erhalten Sie
eine beratende Überprüfung und Anleitung auf der Grundlage Ihrer
Anwendung und Lösung Also hier, kontextuell. Also hier ist eine
konsultative Überprüfung. Also werden sie
Ihre Infrastruktur überprüfen. Sie werden Ihnen zeigen,
was das Beste ist, welche Dienstleistungen Sie anbieten können und
wie viel Sie sparen können, all diese Dinge können
sie Ihnen zeigen. Sie erhalten einen
engagierten TAM-Manager. Sie erhalten also einen technischen
Kundenbetreuer nur für Ihr Konto, und diese Person wird
für Ihr Konto zuständig sein Das ist also etwas. Also bezahlst du sie tatsächlich
für eine viel nettere, du weißt schon,
Herangehensweise an deine Unterstützung Also werden sie dich tatsächlich
ausbilden. Sie werden Ihnen tatsächlich
ein Support-Team zur Verfügung stellen, und sie werden auch einen technischen
Kundenbetreuer haben, der
Ihnen bei Problemen seine Handynummer zur Verfügung stellt. Wenn Sie also Mitglied werden
möchten, können
Sie sich ebenfalls an Support wenden. AW-Unterstützung. Ich
glaube nicht, dass das der Richtige ist. Ähm, ja, also unterstütze den
Plan hier drüben. Derzeit ist es in Basic. Wenn Sie also Pläne unterstützen, können
Sie sich das hier ansehen. Der Basis-Supportplan nicht viele Funktionen
oder viele Funktionen Die anderen
Pläne finden Sie hier. Das Basic
kommt da nicht mal rein, okay? Das Grundlegende siehst du also nicht mehr. Sie haben
Entwicklergeschäft, Geschäft vor der Tür und Unternehmen. Also all diese Dinge, was
ich dir gesagt habe, ist hier drüben. Also, der Entwickler hat hier so ziemlich
zwei, drei Dinge, und bis auf das, ist
alles andere
hauptsächlich wie die Unternehmenslösung. Also hier haben Sie
die Support-Seite.
4. Einführung in Labs AWS: Hallo Leute, willkommen zurück
zum nächsten Video. In diesem Abschnitt werden
wir über einen neuen,
Sie wissen schon, brandneuen
Artikel namens AWS sprechen . Jetzt gebe ich Ihnen hier zwei
Optionen für Sie. Sie können Cloud-basiert verwenden, was Sie gerade sehen. In diesem Beispiel nehmen
wir AWS und erstellen Ihre Instanzen in AWS und lassen diese Instanzen in der Cloud
laufen. Denken Sie jetzt daran,
dass dies Sie
ein wenig mehr kosten wird , Sie für
die Cloud-Dienste
von AWS bezahlen müssen .
Das ist also eine Sache Die zweite Sache ist, dass ich Ihnen
einen Laptop geben
werde , auf dem
Sie, Sie wissen schon,
Ihre eigene Boson-Mission aufbauen und dabei kostenlose Waren
verwenden Das ist also auch eine weitere Option. Denken Sie jedoch daran, dass
Ihr Laptop zunächst
über mindestens 12 GB
Speicher verfügen muss . Acht GB, ja, du
kannst damit umgehen,
aber es hat immer noch ein bisschen Probleme. 12 GB werden also immer empfohlen. Aber Sie haben
diese Konfiguration nicht, und Sie haben etwas
Geld übrig. Sie können zum Beispiel
etwa 50 bis hundert
Dollar sparen , basierend auf, Sie wissen schon, Ihrer Nutzung, oder? Dann können Sie sich tatsächlich
für E W entscheiden. Also werde ich Ihnen
sagen, wie teuer es zu einem
späteren Zeitpunkt werden wird,
aber es ist so, wissen Sie,
wir werden versuchen, es so gering wie
möglich zu halten Wir werden versuchen, es als Aufwand für Sie unter
50$ zu halten. Wir werden die
Preisberechnung also später durchführen, und das hängt von den Anforderungen ab, die
Sie haben werden Äh, denken Sie daran, dass es drei verschiedene Möglichkeiten
gibt AWS-Uberni-Service zu nutzen Sie können sich entweder für einen
verwalteten oder einen nicht verwalteten Service entscheiden,
aber diese Schulung möchte, dass Sie sich
auf den verwalteten Bereich konzentrieren Ähm, ich meine, nicht auf Managed. Ich möchte, dass es so ist, du weißt schon, du musst das
ganze Ding konfigurieren. Sie sollten sich also für so etwas
wie einen selbstverwalteten Artikel entscheiden. Das bedeutet, dass Sie die
Instanzen selbst verwalten müssen . Also werden wir zwei
EC-Instanzen erstellen. Anstatt der verwalteten
Instanzen, die sozusagen in dem Sinne
verwaltet werden, dass
AWS die Instanz selbst verwaltet,
was bedeutet, dass Sie sich in diesem Szenario für
ECS oder EKS entscheiden können . Für dieses Training werden
Sie sich jedoch für eine
selbstverwaltete
Infrastruktur entscheiden, werden
Sie bei der
zwei EC-Instanzen verwendet werden, sodass
Sie tatsächlich
mehr über die Abläufe von Uberniti erfahren können mehr über die Abläufe von Uberniti erfahren Es geht also nicht nur
um Kubernetes, wir werden Ich
meine also, dass wir mit Docker beginnen werden,
also werden wir von hier
aus mit Docker beginnen und uns dann langsam Denken Sie also daran
, dass dieses Training beginnen
wird Und so können Sie ganz einfach den Server
für Docker einrichten und dann
all Ihre Hände darauf legen und dann einen weiteren Server hinzufügen und
diesen dann zu einem Teil von Kubernetes machen Sie können diese Sitzung also
in zwei Sessions aufteilen, zuerst ein paar Videos zum
Einrichten Ihres Basis-Masters
, den Sie mit Ihrer Docker-Installation und so weiter verwenden können Und dann, zu einem späteren Zeitpunkt, können
Sie eine weitere
EC Two-Instance hinzufügen, und dann können Sie
die Worker Note für Ihre Uberts
oder die Worker Note für
Ihren Doc-Sumpf integrieren die Worker Note für Ihre Uberts oder die Worker Note für
Ihren Beide Integrationen sind also möglich, zu
einem bestimmten Zeitpunkt. Also werde ich Sie wissen
lassen, Sie wissen schon, auf den Videos selbst, dass Sie das Programm Docu sofort starten
können und dann können Sie das Programm von Ubert
starten, sodass Sie
zurückkommen und es erneut aufrufen
und
es dann für Uber Itis übernehmen können es dann für Uber Itis übernehmen Aber wenn ich das aufteilen
will,
muss ich zwei
verschiedene Sessions erstellen, also möchte ich das nicht
tun, weil das nur noch mehr Verwirrung
stiftet nur noch mehr Verwirrung
stiftet Denken Sie also
daran, dass es sich um ein Add-On handelt,
also es wurde
ursprünglich nicht entworfen, aber später füge ich
das zu einem
bestehenden Programm hinzu ,
das bereits auf ,
Sie wissen schon, Ihrem Laptop
oder Ihrem kostenlosen Server läuft Sie wissen schon, Ihrem Laptop
oder Ihrem kostenlosen Server weil viele Leute Dienste auf AWS
anfragen. Also versuche ich nur, das zusätzlich
zu dem
bestehenden Programm hinzuzufügen . Denken Sie daran, dass
AWS mit einem kostenlosen Reifen geliefert wird, aber das ist irgendwie nutzlos für, Sie wissen schon, für unsere Sitzung. Lassen Sie mich Ihnen nun erklären, warum der kostenlose Reifen
einige kostenlos nutzbare Dinge enthält , die 12 Monate lang kostenlos erhältlich sind
. Sie müssen sich also darauf
freuen, das zu tun. Aber das klingt nach 50 Stunden
, das sind eigentlich 12 Monate. Wird nur für zwei
der EC zwei, ähm, Sie wissen schon,
Maschinen oder Computer angegeben , was Ihr T zwei Mikro
und T drei Mikro
ist. Denken Sie also daran, dass
der Gubernats standardmäßig empfohlen wird
, dass
Sie zwei CPUs und zwei GB
RAM pro Knoten mit 20
GB freiem Festplattenspeicher benötigen Sie zwei CPUs und zwei GB RAM pro Knoten mit 20
GB Also Diskspace ist momentan keine
große Sache, aber die zwei CP
und zwei GB sind ein
Problem für uns, denn wenn Sie sich die kostenlosen
Sound-Stunden ansehen, werden
Sie sehen, wenn Sie
innerhalb der AWS-Preise und
-Tags und des Instant-Typs reingehen , werden
Sie sehen, dass T drei
Micro mit
zwei virtuellen CPUs
und einem GB RAM geliefert wird. Und wenn Sie sich für zwei
Mikroserien entscheiden, gehört auch eine dazu. Wir zeigen CPU und
ein GB RAM. Also, was ist eine Art
Gurke, nicht wahr? Also, du
kannst das alles nicht akzeptieren. Ich würde also ein Two-Medium
empfehlen, das über vier GB
RAM und zwei CPUs verfügt Das passt perfekt zu
unseren Anforderungen. Aber denken Sie daran, dass das CPU-Guthaben, Sie wissen schon, 34 pro Stunde beträgt. Es ist sehr niedrig, also
nicht wirklich
hoch, weil es perfekt zu unserer
Rechnung passt. T zwei Mittel. Ich suche auch nach anderen Optionen
wie Three T Three Medium,
also schauen wir mal, ob das
für wie Three T Three Medium, uns passt, aber vom Preis her ist es fast
das
Gleiche , weil es dieselbe ähnliche
Konfiguration
hat, mit Ausnahme der unterschiedlichen
CPU-Architektur. Also bleibe ich einfach bei T zwei weil es in
vielen Situationen mehr
oder weniger verwendet wird ,
weil es
eine viel breitere
CPUsation hat und es, was
die anfängliche Rechenebene
angeht, sehr
kostengünstig ist , was
die anfängliche Rechenebene
angeht, sehr
kostengünstig . Es wird also viel kostengünstiger
sein wenn Sie es über einen
längeren Zeitraum betreiben Also das ist es, was ich hier
empfehle, was wir im
Rahmen der Schulung tun werden Zunächst werden wir
zwei Micro-Docker-Maschinen
als Master-Host für Docker erstellen ,
und später werden wir
sie in einen Kubernetes-Master umwandeln Anschließend erstellen wir
ein AOT-Zweimedium . Anschließend erstellen wir
ein AOT-Zweimedium für den Worker-Node. In Ordnung. Das ist also alles wir werden mit dem Docker beginnen und danach zu
Kubernetes gehen Es ist also so ziemlich das, was ich in
diesem Video behandeln möchte. Und das nächste Video ist dran. Ich werde mich zum Beispiel mit der
Erstellung Ihrer kostenlosen Konten befassen. Also werde ich Ihnen sagen,
was Sie eigentlich
tun müssen , um ein kostenloses
Konto zu erstellen, und Sie benötigen auf jeden Fall eine Kreditkarte, also halten Sie diese bereit bevor Sie ein kostenloses Konto
erstellen. Sie fragen mich vielleicht: Oh,
es ist ein kostenloses Konto. Warum brauche ich eine Kreditkarte?
Ja, so funktioniert es. Selbst wenn dort „Kostenloses Konto“ steht, heißt das nicht, dass Sie
zum Zeitpunkt der
Erstellung dieses Kontos
oder der Nutzung dieses Kontos nichts
bezahlen werden Zeitpunkt der
Erstellung dieses Kontos
oder der Nutzung dieses Kontos nichts
bezahlen , sondern sie wollen nur
eine Bonitätsprüfung durchführen , keine
Bonitätsprüfung,
aber dann wollen sie, Sie wissen schon,
überprüfen, ob Sie
eine gültige Kreditkarte haben indem sie eine Testtransaktion durchführen. Und sobald sie
die Transaktion durchgeführt und Ihre Kreditkarte
und Ihre Bestätigung
getestet
haben, müssen Sie auch Ihren Ausweis,
Ihren öffentlichen Ausweis,
wie eine Lizenz oder einen
anderen von der Regierung ausgestellten
Ausweis, verifizieren wie eine Lizenz oder einen anderen von der Regierung ausgestellten
Ausweis . Das musst du verifizieren. Sobald Sie also
alle Überprüfungen durchgeführt haben, können Sie Zugriff
gewähren und dann all diese anderen Dienste ausführen all diese anderen Dienste z. B. alle Instanzen erstellen
und ähnliches. Ja, zum Beispiel kostenlos, Sie müssen immer noch
dieselbe Überprüfung durchführen , bevor Sie
all diese Dinge tun können. Im nächsten Video werden wir sehen, ein kostenloses Konto
erstellt wird. Danach werden
wir uns mit
den Standardeinstellungen befassen. Die ersten Dinge, die Sie tun
müssen, wie die
Rechnungskonfiguration , da wir keine Abrechnungsbenachrichtigungen verpassen
möchten, richtig. Wir wollen nichts in
Rechnung stellen. Also wollen wir die Konfiguration der
Abrechnungswarnung vornehmen. Und dann werden wir
weitermachen und
eine Authentifizierung durch Dritte vornehmen , damit Sie den
Zugriff auf Ihr Konto nicht verlieren. Also werden wir, Sie wissen schon, auch die
Google
Authenticator-Autorisierung durchführen auch die
Google
Authenticator-Autorisierung Also nur um Ihr Konto zu sichern, viel mehr mit Authentifizierung durch Dritte,
Sie wissen schon Und dann werden wir mit der ECT-Instanz
arbeiten, Instanz
erstellen
und dann Software
installieren
, die wir benötigen Und dann werden wir ein paar Dinge lernen , die wir für Kubaits tun
müssen Nochmals vielen Dank für
Ihre Geduld und Zeit. Wir sehen uns im nächsten Video.
5. Kostenloses Konto Labs vor der Erstellung: Hey, Leute, willkommen zurück
zum nächsten Video. In diesem Video werden
wir uns nun AWS kostenlos ansehen. Im nächsten
Video werden
wir also kostenloses Konto erstellen, aber dann werden
wir uns mit der kostenlosen Instanz und dem kostenlosen Konto und
den Vorgängen vertraut der kostenlosen Instanz und dem kostenlosen Konto und den machen,
die Sie ausführen können ,
nachdem Sie dieses
Konto kostenlos erhalten Das werden
wir in diesem Video sehen. Jetzt google ich einfach kostenlos
nach AWS. Das bringt mir also
einige Links zu AWS, wodurch Sie den kostenlosen Reifen erhalten Nun, was ist ein Gratis-Reifen? Free Tire ist ein
Testprodukt, es gibt
also ein
Zeitlimit dafür, was
Sie tun können und wie viele Produkte Sie innerhalb dieser Zeitpläne tatsächlich
kostenlos verwenden
können dieser Zeitpläne tatsächlich
kostenlos Wenn Sie also
wissen wollen,
was die Details sind, können Sie tatsächlich
darauf klicken und
Sie können das
tatsächlich öffnen,
und Sie können verstehen, was tatsächlich
kostenlos ist , wenn Sie ein Konto eröffnen oder
ein Konto bei
AWS erstellen Jetzt können Sie sehen, dass dies Ihr kostenloser AWS-Tarif
ist. Wir nennen dieses Konzept
Gratis-Reifen. Hier sammeln
Sie praktische Erfahrungen mit
AWS-Produkten und -Services. Es ist wie eine Demo, die sie
Ihnen geben , damit Sie AWS
verstehen und
damit arbeiten können , bevor Sie tatsächlich eines der Produkte kaufen oder eines ihrer Produkte verwenden. Das ist der Hauptgrund. Erfahren Sie mehr über AWS Free Tire. Sie können sich das jetzt tatsächlich
ansehen. Nicht alles, alle Dienste,
die in AWS verfügbar sind, sind kostenlos. Denken Sie daran, dass es
die kostenlosen Testversionen
gibt, dass es 12
Monate kostenlos
gibt und dass es immer unendlich kostenlose
Artikel Dies sind drei
verschiedene Dinge, die Sie wissen
müssen, bevor
Sie tatsächlich fortfahren Wir werden uns diese drei Dinge nicht im
Detail ansehen. Es wird nicht etwas sein , das in Ihrer Prüfung
gefragt wird. Aber es ist gut, wenn
du über sie Bescheid weißt. Aber wenn Sie den Überblick kennen
, wird das für Sie
sehr hilfreich sein. Sie können auf
jeden dieser Artikel klicken, Sie können tatsächlich sehen, was die kostenlosen Testversionen
sind, was 12 Monate
kostenlos ist und so. Aber wenn du ein bisschen
runterkommst, bekommst du einen
Überblick über alles. Sie können also die
Artikel sehen, bei denen es sich,
Sie wissen schon, um Reifen handelt , die hier getippt wurden Also der vorgestellte Artikel, 12 Monate kostenlos,
immer kostenlose Testversion Sie können das also tatsächlich auswählen
und das können Sie leicht sehen. Was sind die Dinge, die
eigentlich versuchsweise sind. Auf Testbasis haben Sie ausreichend Zeit, um das Produkt auszuprobieren. Und hier ist Sagemaker
für zwei Monate kostenlos. Aber hier gibt es
Einschränkungen,
was hier in kleiner
Schrift geschrieben steht, dass Sie sich in
einem solchen Instanztyp befinden müssen, Sie wissen schon Also Instanztyp, wir werden später darüber
sprechen. Aber es ist eine Art Einschränkung für etwas, das sie
als Testversion oder kostenlos anbieten. Sie sehen also 12 Monate kostenlos, Sie haben EC Two Instance, Sie haben Speicher, Sie haben eine relationale
RDS-Datenbank, wie die traditionelle Datenbank
wie McQLPostGrace SQL, Sie haben die Maria DB
und Suche öffnen, APA-Gateway. Ebenso haben Sie
Produkte hier, was
ein Zeitlimit von 12
Monaten oder etwa 50 Stunden hat . Sie haben hier zwei
Einschränkungen, entweder 50 Stunden pro Monat oder
es werden 12 Monate sein. Ebenso haben Sie hier
diese beiden
Optionen , die Sie tatsächlich auswählen
können. Nun, da Sie wissen, welche Produkte tatsächlich innerhalb von
3 Monaten getestet werden. Es gibt also
immer etwas, das kostenlos ist. Also immer kostenlos ist, wo
Sie hier 25 GB DynamoDB und
Speicherplatz nutzen können, und hier haben Sie 1 Million Transaktionen
für Ihr Das ist also immer kostenlos
und es gibt kein
Zeitlimit Okay. Wenn sie also
sagen, immer kostenlos, heißt das nicht, dass
es kostenlos sein wird, kostenlos für welche
Nutzung auch immer, aber es gibt
kein Zeitlimit. Also auch nach einem Jahr kann
ich diese 25 GB
einer kostenlosen Dynamo-DV nutzen, ähm, du weißt schon, Speicher, sowie etwa 1 Million Wann immer ich
es nutzen möchte, etwa ein Jahr, zwei Jahre, spielt keine Rolle Aber wenn ich mit einer Million anfange,
wird es für mich quasi kostenlos sein. Okay? Also genauso, aber dieser 12-monatige Stopp sagt Ihnen
im Grunde, dass Sie
eingeschränkt werden, dass es für
den ersten Monat,
seit Sie sich für Ihr AWS-Konto
registriert haben, kostenlos sein
wird den ersten Monat,
seit Sie sich für Ihr AWS-Konto
registriert haben Ihr AWS-Konto
registriert haben Der Zeitplan
beginnt also hier. Also nochmal, auf derselben Grundlage, es wird so sein. Also, wenn dieses Angebot
da ist, musst du es nutzen. kostenlose Testversion ist im Grunde genommen eine
zweimonatige kostenlose Testversion, aber dann
gelten Einschränkungen. Das Gleiche gilt auch für
EC Two Instance. Das bedeutet also nicht, dass
Sie jede Art
von Instanz erstellen können , wenn
Sie EC Two erstellen. Es ist an
diese Instanzen gebunden, wie Sie hier sehen können. Ebenso haben Sie den Sound 50 Stunden
pro Monat unter Linux Es gibt also auch
Einschränkungen für Ihr
Betriebssystem
und dann T zwei Micro
oder T zwei Micro. Dies sind die beiden
Instance-Typen, die Sie verwenden können. einige Agenturen, die im
unbegrenzten Modus starten, können daher zusätzliche Gebühren anfallen Ebenso können Sie hier den
unbegrenzten Modus nicht verwenden ,
wenn Sie versuchen, ihn zu starten Es gibt also einige Einschränkungen
, denen Sie folgen müssen. Und ich werde
Sie bei diesem ganzen Prozess unter die Lupe nehmen und
sicherstellen, dass
Ihnen nichts davon in
Rechnung gestellt wird Rechnung gestellt Okay? Also das wird
etwas sein, was ich tun werde. Selbst wenn Sie angeklagt werden, werde
ich Ihnen sagen, wie Sie
sich einschränken können, und wenn Sie angeklagt werden
, können
Sie buchstäblich
vorsichtig sein, wenn Sie damit umgehen. Deshalb werde ich Ihnen einige
Anweisungen dazu geben. Aber wie dem auch sei, danke nochmal für deine
Zeit und Geduld. Gehen wir also
zum nächsten Video und erstellen den kostenlosen Account.
6. Labs AWS kostenlose Kontoerstellung: Hallo Leute, wir werden hier ein kostenloses Konto einrichten. Die meisten Artikel
sollten also von Ihnen ausgefüllt werden , da ich
meine tatsächlichen Informationen hier nicht angeben möchte. Daher würde ich Ihnen empfehlen ,
die meisten Artikel hier
auszufüllen. Dieses Video ist sehr kurz. Wenn Sie also zunächst
auf Kostenloses Konto erstellen klicken, wird
hier dieses Pop-up angezeigt, in dem Sie aufgefordert werden, sich bei AWS
anzumelden, sodass Sie
Ihre E-Mail-Adresse eingeben können , die Sie für dieses Konto
verwenden werden. Denken Sie daran, dass dies
als Root-E-Mail-Adresse bezeichnet wird, die zur Wiederherstellung
verwendet wird, falls Sie Ihr
Passwort vergessen haben oder etwas Ähnliches Und das ist auch ein
Administratorkonto, was bedeutet, dass Sie zu
100 Prozent
Zugriff auf die AWS-Konsole erhalten 100 Prozent
Zugriff auf die AWS-Konsole Das bedeutet also die
Änderung Ihres Namens, Ihrer primären E-Mail-Adresse, Ihres Passworts, Ihrer
Sicherheitsinformationen, Ihres Zugriffs auf IM. Das alles ist also nur für die
Root-E-Mail-Adresse
verfügbar. Und diese sind nur
für diese E-Mail-Adresse verfügbar. Denken Sie daran, eine richtige
E-Mail-Adresse anzugeben, über die Sie sozusagen die vollständige
Kontrolle haben. Für mich gebe
ich also Beyond Cloud AI an one@gmail.com, weil
Cloud-KI bereits da ist. Also gmail.com, und
dann werde ich hier
einen Kontonamen angeben, der über den von Cloud AI
hinausgeht Nun, das wird mir eine E-Mail
schicken und es wird
meine E-Mail-Adresse verifizieren,
dann muss ich hier nur den, Sie wissen schon, Bestätigungscode eingeben, unabhängig vom
Bestätigungscode, den ich aus meiner E-Mail erhalten habe, also verifiziere ich gerade
meine E-Mail-Adresse für den
Bestätigungscode, und ich habe Also werde ich
diese Bestätigungsnummer auf die Seite kopieren, es ist eine
einmalige Bestätigungsnummer Also wirst du hier ein Passwort eingeben, also wird das dein
Passwort für dieses Konto sein. Also werde ich hier einfach
ein zufälliges Passwort angeben, das ich dir natürlich nicht sagen
werde. Also tippe ich nur
das Passwort ein. Also ja, ich habe
ein großes Passwort. Also stimmt es eigentlich nicht überein. Also lass mich einfach den Bildschirm pausieren. In Ordnung, habe das Passwort
hier eingegeben, klicken Sie einfach auf Weiter. Nun, hier müssen Sie
auswählen,
welche Art von Nutzung Sie mit AWS planen, zum
Beispiel ein persönliches Projekt, ja, denn das dient dem
Lernen und Hier haben Sie also den vollständigen Namen
, der nicht mit Cloud AI zu tun hat. Hier müssen
Sie also eine beliebige
Nummer Ihrer Telefonnummer
oder eine Adresse angeben. Ich würde Ihnen daher empfehlen,
anzugeben , wo Sie gerade leben. Wenn Sie sich also
in Großbritannien befinden , sagen wir einfach, ich bin
in Großbritannien
und meine Nummer ist so, dass dies meine Nummer
ist, sagen wir, sagen wir, zum Beispiel, wählen Sie erneut
die Region aus,
als Großbritannien, und geben Sie
dann die Zeile hier
drüben an, testtest test test Also gebe ich hier einfach eine Zufallszahl ein und klicke
auf den nächsten Schritt Also, das wird es Ihnen ermöglichen,
die
Telefonnummer zu verwenden, sollte nicht wissen, dass
es keine gültigen Buchstaben sind. Also bei einer anderen Null hier drüben. Ja. Also lass uns
dir einfach den nächsten Schritt hier drüben geben. Und hier müssen
Sie Ihre Kreditkartendaten eingeben. Jetzt
sollten Sie diese Kreditkartendaten angeben
und Sie müssen
die Kreditkartendaten eingeben. Sobald Sie diesen Schritt ausgeführt haben, wird er auf Ihrer
Bank-Website angezeigt. Wenn eine Authentifizierung von
Ihrer Bank-Website aus erfolgen
muss, müssen
Sie
die Authentifizierung
auf der Bank-Website abschließen . Nach diesem Schritt
werden Sie nach ähm gefragt,
es wird Sie bitten , sich
zu bestätigen,
was bedeutet, dass Sie Ihren richtigen Namen angeben müssen
, und Sie müssen
eine ID angeben, ähm, ich meine, Ihres
Führerscheins oder
Wählerausweises, einige Länder, einige Länder haben
diese, ähm, Sie wissen schon, ähm, Steuernummern oder
Steuerkarten, so etwas. Sie müssen also diese Details angeben und sich dann selbst verifizieren Sobald dies erledigt ist, erhalten
Sie eine
E-Mail-Benachrichtigung
, dass Ihr Konto erfolgreich
verifiziert wurde. Sie erhalten es sofort, und dann können Sie mit dem
Ausführen beginnen oder zum nächsten Bildschirm wechseln.
Der nächste Bildschirm führt Sie zur Konsole. Es wird also zu
console.aws.com gehen. So läuft die
Kontoerstellung also ab. Ich versuche dir
so viel wie möglich zu zeigen. Aber darüber hinaus liegt es an meinen Grenzen, weil ich bereits ein anderes Konto
habe, also werde
ich dieses verwenden. Ich gebe alle Informationen ein,
aber
im Moment nichts Wichtiges, nur Ihre
Kreditbestätigung und um
sich als
Person oder Person zu verifizieren . Möglicherweise werden
Sie
gefragt, ob Sie eine Einzelperson oder ein Unternehmen sind.
Stellen Sie sicher, dass Sie
die richtige Option auswählen. Wenn Sie nur zu
Lernzwecken hier sind, können
Sie eine Einzelperson auswählen weil Sie
nur zur Schulung und,
Sie wissen schon, zu einem besseren Verständnis hier sind . Ihr könnt es also als Einzelperson auswählen, und es ist für den persönlichen Gebrauch bestimmt. Also, Sie
können es auch auswählen und sich dann selbst
verifizieren und dann mit dem nächsten Video fortfahren
, das auf der Konsolenseite fortgesetzt
wird. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Wir sehen uns im nächsten.
7. Labs AWS MFA und Budget: Hallo Leute. Nun, da
Sie Ihr Konto erstellt haben und sagen wir einfach, dass
Sie sich gerade abgemeldet haben. Jetzt erhalten
Sie also zwei verschiedene
Zugriffsarten. Sie werden zum Beispiel
sehen, dass, wenn Sie zu
Google und Type gehen und zum Beispiel,
dass ich sehen, dass, wenn Sie zu
Google und Type gehen und zum Beispiel, Bing verwende, ich sage
nur, dass ich Konsolenanmeldung bei
AWS sage und dann
im Grunde genommen auf
diese Website komme AWS sage und dann
im Grunde genommen auf , wo es heißt,
erstellen Sie ein kostenloses Konto. Anstatt jetzt ein kostenloses Konto
zu erstellen, klicken Sie
einfach auf Anmelden. Es gibt zwei verschiedene Möglichkeiten, sich in Ihrem Konto anzumelden. Zum einen geht
es im Grunde so, dass
Sie aws.com mit Google Console aufrufen Oder Sie können tatsächlich
Ihren eigenen Link zu aws.com haben
, den ich Ihnen gleich erläutern werde Das ist also der zweite Weg
mit Ihrer Konto-ID. Es handelt sich also um eine
sogenannte Konto-ID, die standardmäßig erstellt wird Sie können
also die
Konto-ID zwei verwenden, anstatt sich
mit Ihrer Root-E-Mail anzumelden.
Sie können sich
direkt mit der Konto-ID und dort
Ihren Kontonamen angeben. Wenn Sie sich erinnern, wurde bei der
Erstellung des kostenlosen Kontos nach dem
Kontonamen gefragt, oder? Also habe ich Beyond Cloud
eins gegeben , weil Beyond
Cloud bereits existiert. Du kannst das also nutzen und
du kannst dich auch einloggen. Das ist also eine andere
Methode der Protokollierung. Nun, mit welcher Methode melden
wir uns an? Wir melden uns
mit dem Root-Benutzer an. Jetzt gibt es zwei Benutzer, mit denen
Sie sich anmelden können, oder? Einer ist also ein Root-Benutzer, ein anderer ist ein IAM-Benutzer IM ist nichts anderes als Identitäts
- und Zugriffsmanagement, das ein wesentlicher Bestandteil
Ihres AWS-Service ist Mit IAM können Sie jetzt mehrere Benutzer zu
Ihrem AWS-Konto
hinzufügen , sodass Sie ihnen
unterschiedliche Rechte gewähren können Nehmen wir zum Beispiel an, ich besitze ein Unternehmen und habe nur wenige Mitarbeiter, die
tatsächlich an der
Verwaltung der Websites
oder Anwendungen arbeiten Verwaltung der Websites , die
in WS gehostet So kann ich individuelle
Logins für diese Leute erstellen und ihnen
eingeschränkten Zugriff darauf
gewähren , was sie in Bezug auf
IAM-Rechte dort
tun können in Bezug auf
IAM-Rechte dort
tun Wann immer sie
also eine Aktivität ausführen, können
sie
bestimmte Aktivitäten ausführen , die ihnen das
ermöglicht haben, denn
IM ermöglicht es mir, die Berechtigungen für das
zu kontrollieren ,
was sie mit AWS tatsächlich
erreichen können Im Moment
verwende ich den Root-Benutzer, da das
der einzige Benutzer ist, der
derzeit verfügbar ist, da wir das
Konto gerade erstellt und uns dann bei unserer AWS-Konsole
anmelden werden Sie geben Ihnen
die Auswahl des Root-Benutzers und geben dann den
Namen des Root-Benutzers ein, Ihr eigener sein
wird
: cloudai@gmail.com. Das ist also meine Website.
Versuche nicht, dich auf dieser Seite einzuloggen. Verwenden Sie Ihre eigene E-Mail-Adresse
und melden Sie sich mit Ihrer an Dann
müssen Sie hier ein Passwort eingeben. Ich werde das Passwort hier kopieren
und einfügen. Ich kopiere es einfach, füge es hier
ein und drücke auf
das Schild und die Schaltfläche Also, sag niemals für diese Seite. Perfekt. Ich glaube nicht daran
, das Passwort im Browser oder in
Chrome zu speichern,
weil es immer angezeigt wird, nicht jetzt, dann später. Jetzt kannst du also sehen, dass
das hier
so ziemlich meine Konsole ist. Ich habe hier zwei
Anwendungen besucht, die Teil
Ihrer AWS-Services, Abrechnung und Kostenmanagement sind. Auf der rechten Seite
sehen Sie hier die
Kontoinformationen, sodass Sie Ihre
eindeutige Konto-ID haben. So können Sie jetzt Ihre eigene Website
erstellen. Also werde ich dir in Kürze davon
erzählen. Aber denken Sie daran, dass
es einige, Sie wissen schon,
private Informationen gibt,
die so sind , als würden Sie sie hier
herausgeben , wenn Sie auf Konten
gehen. Seien Sie also vorsichtig, wenn
Sie
Ihren Bildschirm teilen und Ihre Konten aufrufen. Ich werde auch nicht vorsichtig
sein, wenn meinen Bildschirm
teile, während ich in das Konto
gehe. Sie können also davon ausgehen,
dass dieses Video mehrmals angehalten wird,
wenn meine privaten Daten
offengelegt Als Erstes müssen Sie hier
die Zwei-Faktor-Authentifizierung
oder die Authentifizierung durch Dritte
aktivieren. Also werde ich hier
zu IAM gehen. Geben Sie einfach IM, Identity
and Access Management ein. Unter Identitäts- und
Zugriffsmanagement gibt
es also ein Dashboard, das
Ihnen mitteilt , was in
Bezug auf die Sicherheit in Ihrem,
Sie wissen schon, Konto noch fehlt . Das ist also eine
Sicherheitsempfehlung. Nun wurde hier ein
kritisches Problem festgestellt, sodass Sie die
MFA-Multifaktor-Authentifizierung nicht aktiviert Sie können also einen Drittanbieter verwenden , um Ihre
Authentifizierung zu integrieren Anstatt also nur M und Passwort zu
verwenden, wird
es auch
Authentifizierungsinformationen enthalten. Nun, wie können Sie sonst
auf Ihre Konsole zugreifen? Wie ich Ihnen bereits sagte,
gibt es eine andere Möglichkeit ,
direkt auf Ihre
Konsole zuzugreifen , und zwar mithilfe dieser
eindeutigen Identifikation. Sie können auch einen RS erstellen
, auf den ich später noch eingehen werde. Aber das ist die URL, über die
ich gesprochen habe. also diese URL verwenden, müssen
Sie den Root-Namen wirklich nicht angeben. Wenn Sie diese URN also in
einem anderen Browser verwenden , wird
sie angezeigt. Lass mich hier ein
privates Fenster öffnen und dann diese URO durchsuchen, richtig? Und Sie können sehen, dass Sie
quasi mit Ihrer Con-Nummer reingehen und dann
müssen Sie nur noch Beyond Cloud hier drüben als den
IAM-Namen und dann das Passwort angeben Wenn Sie nun auch
andere Benutzer erstellt haben, was Teil Ihres IAM ist, können
Sie diese Benutzernamen
und das Passwort direkt
eingeben und Sie
müssen also wirklich
nirgends eine Root-E-Mail-Adresse angeben, da Ihre Konto-ID als
Root-E-Mail-Adresse fungiert, okay? Sie müssen
Ihre Root-E-Mail-Adresse also niemandem
mitteilen, sodass Sie Ihre
Root-E-Mail-Adresse sehr sicher aufbewahren können. Okay? Das ist also der Hauptgrund warum eine Konto-ID und nicht eine
Root-E-Mail-Adresse
erstellt wird . Damit jeder
auf Ihr Konto zugreifen kann ohne auf Ihre
Root-E-Mail-Adresse zugreifen zu müssen. Okay, das ist ein Grund für Sie, diese URN
zu haben, und Sie können diese
URL an all Ihre Freunde weitergeben, tut
mir leid, an Ihre Kollegen,
die Zugriff auf AWS benötigen Nun, Schulung eines MFA, also für Root-Benutzer, also klicken Sie auf MFA hinzufügen Jetzt werden
Sie auf die MFA-Seite weitergeleitet und es wird
wie ein Root-Benutzer angezeigt MFA. Das heißt also im Grunde , dass dies
Ihr Root-Benutzer-MFA ist Und hier haben Sie
mehrere Möglichkeiten. Ich werde die
Authentifizierungs-App auswählen, und ich habe sie noch nicht eingerichtet, also werde ich das jetzt
tun. Also installiere das auf dem
komprimierbaren Computer. Ich unterbreche die
Anzeige eines QR-Codes und verifiziere dann nur noch mein Konto. Sobald der Vorgang
abgeschlossen ist, mache ich die Pause wieder
rückgängig Um das ganz einfach zu machen, öffnen Sie Ihre Google
Authenticator-App auf Ihrem Telefon. Klicken Sie darauf Ich zeige Ihnen einen
Code, scanne diesen Code und Sie müssen den Code aus Ihrer
virtuellen Anwendung
eingeben. Das ist das
erste Mal Ihr Google
Authenticator und dann
nach 30 Sekunden noch
einmal mit dem nächsten Code Und dann klicken Sie auf MFA hinzufügen. Sobald Sie das getan haben, haben
Sie es eingerichtet. Lassen Sie mich den Bildschirm pausieren, es
erledigen und
Ihnen zeigen, wie es aussieht. Da hast du's. Sobald
Sie darauf klicken, können Sie sehen, dass
Ihre virtuelle ID hier hinzugefügt
wurde und die Daten hinzugefügt wurden. Es ist also ziemlich einfach, auf Ihre,
Sie wissen schon, MFA für den
Benutzer
zuzugreifen oder sie hinzuzufügen . Das ist also abgeschlossen Wenn ich einfach hier rübergehe
und diese Seite aktualisiere, die Empfehlung jetzt grün
geworden. Es wird jedoch immer empfohlen
, einen Benutzer zu erstellen und über
das Root-Konto
auf Ihre AWS zuzugreifen einen Benutzer und nicht über
das Root-Konto
auf Ihre AWS zuzugreifen. Es wird also immer
empfohlen, das zu tun. Darüber werden wir
etwas später sprechen. Aber ab jetzt müssen
wir zum Beispiel zur Kontoerstellung gehen und unsere Abrechnungsdienste
einrichten. Jetzt, unter den Konten, bist du eines der
wichtigsten Features, das sind im Grunde deine Daten, die du jetzt sehen kannst, was ich bei der Nachbearbeitung auf jeden Fall verwischen
werde Also ja, so ziemlich deine Daten sind etwas
, das berücksichtigt wird Auf der linken Seite haben Sie, Sie werden Abrechnung
und das Kostenmanagement haben Lass mich zurück zum
Startbildschirm gehen. Ähm, also gehen wir hier einfach zur Abrechnung und zum
Kostenmanagement über. Also das ist so ziemlich das, was
ich eigentlich behandeln wollte. Ich habe versehentlich darauf geklickt. Jetzt haben Sie also die Möglichkeit,
Ihr eigenes Testament oder Ihr eigenes Budget zu erstellen Im Rahmen der Budgetoption können
Sie
sehen, wie es funktioniert. Im Grunde
erstellen Sie also ein Budget, und genau das tun
Sie hier. Und wenn es dann
85 Prozent Ihres Budgets erhöht, wird eine Warnung ausgelöst, was bedeutet, dass Sie E-Mails erhalten
werden. Sie müssen also sicherstellen, dass
Sie Ihre E-Mails überwachen und dann im Grunde
genommen, wissen Sie, Sie können optimieren, was
genau das Problem ist Sie können entweder, Sie wissen schon, diese Anfrage
stornieren, was Wirklichkeit eher gegen Ihre Vorstellungen
verstößt Also das ist so ziemlich das
, was wir tun wollen. Also lass uns einfach weitermachen und hier ein Budget
erstellen. Und dann würden wir
mit der Vorlage weitermachen
, einer vereinfachten Methode zur Erstellung
eines Budgets. Und dann ist hier quasi
ein neuer Haushaltsplan, in dem von einem Nullausgabenbudget die
Rede ist. Sie möchten also nichts
für AWS ausgeben, also möchten Sie
die ganze kostenlose Reifenarbeit erledigen. Aber das Problem ist
, dass unsere Anwendung keine kostenlosen Reifenprodukte erstellt. Sie gehen also von einem
monatlichen Kostenbudget aus. Also hier werde ich maximal 20$
geben. Das bedeutet, dass
Sie
eine E-Mail erhalten, falls Sie
mehr als 20$ ausgeben. Es tut mir leid, 85 Prozent von 20$ Also hier ist, was erwähnt wurde. Sie werden benachrichtigt
, wenn Sie
das Ausgabenlimit tatsächlich erreicht haben und
85% erreicht haben. Das ist das erste Szenario. zweite Szenario ist, dass Ihre Ausgaben tatsächlich 100 Prozent
erreichen. Sie werden also zwei Benachrichtigungen
erhalten, eine bei 85 und eine bei 100 Prozent. Sie erhalten auch eine
Warnung, wenn Sie Ausgaben prognostizieren, so wie ArabS prognostiziert,
dass Sie dieses Mal 100
Prozent erreichen könnten, wenn
Sie in diesen Bereich gehen ,
es versteht, dass Sie auf dem Weg
sind, 100 Prozent zu
erreichen, und
es wird Sie in Alarmbereitschaft versetzen Das sind also drei verschiedene Situationen, in denen Sie gewarnt werden, aber das Budget wird Ihre Ausgaben niemals
aufhalten Wenn Sie also Ihre E-Mail verpassen, wenn Sie es versäumen,
Ihre Ausgabenzuweisungen für
Ihre Artikel neu zu konfigurieren Ihre Ausgabenzuweisungen für , wird das
nicht aufhören Okay, es kann also über diesen zugewiesenen Prozentsatz hinausgehen
, aber Budget wird Sie
im Grunde, Sie wissen schon aber Budget wird Sie
im Grunde, Sie wissen schon,
benachrichtigen, wenn
so etwas passiert, aber es wird niemals
Ihre Ausgaben blockieren oder die Dienste
oder ähnliches einstellen Es wird Sie nur benachrichtigen, wenn solche Dinge handelt Ordnung, weiter unten , klicken Sie auf E-Mail Also ich würde sagen: Jenseits von
Cloud One bei mail.com. Und wenn ich dann
zusätzliche E-Mail-Adressen habe, können
Sie jederzeit Befehle geben, dann können Sie
mehrere E-Mail-Adressen eingeben Klicken Sie dann auf Budget erstellen. Dadurch wird
ein Budget für euch erstellt, und es wird eine E-Mail
versendet,
wenn es um einen Prozentsatz
der Gesamtauslastung handelt. Für Anfänger können
Sie es jetzt auch ab einem Budget von 10$ anbieten. Das wird Ihnen helfen
, wissen Sie,
sicherzustellen, dass Sie irgendwie kontrollieren,
wohin Sie gehen
und wie hoch Ihre Summen sind, wo Sie undichte Ausgaben tätigen, sodass ich diese
Schwachstellen finden und sie dann beheben kann. So ziemlich das, was ich in diesem Video behandeln
möchte, wir haben ein paar
Punkte behandelt,
die die Zwei-Faktor-Authentifizierung
oder Multi-Faktor-Authentifizierung ermöglichen die die Zwei-Faktor-Authentifizierung . Wir haben
unser AWS-Konto
in Google, Google
Authenticator, integriert Google, Google
Authenticator, Nun, die zweite,
die Sie gesehen haben ist, dass wir auch
meine Kontoinformationen gesehen haben , von denen nicht erwartet
wird, dass ich sie zeige, aber sie werden verschwommen sein Wie dem auch sei, danke. In der
nächsten, die Sie gesehen
haben,
geht es auch um die Abrechnung und
das Kostenmanagement Das ist also so etwas wie ein
Budget, das wir gerade gesehen haben und bei dem wir eine E-Mail-Benachrichtigung
erhalten, wenn das Budget, wissen
Sie, unsere
Erwartungen übertrifft Nochmals vielen Dank. In
einem anderen interessanten Video werden
wir im nächsten Video sehen, wie ein Benutzer eingerichtet wird
, sodass wir mit unseren
eingeschränkten Rechten und nicht mit allen Rechten
,
die wir derzeit haben, auf AWS zugreifen
können mit unseren
eingeschränkten Rechten und nicht mit allen Rechten
,
die wir derzeit haben, auf AWS . Und danach werden wir damit
arbeiten, du weißt schon, AC zwei Instanzen zu
erstellen
und uns das Budget anzusehen, wie es sein wird, wenn
es für die nächsten 4 Stunden oder 8 Stunden läuft , wie viel kostet es
uns
und sind wir bereit,
diese
Kosten zu und sind wir bereit, tragen oder diesen Schaden zu tragen? Das ist also etwas
, was wir in den nächsten Videos
sehen werden . Nochmals vielen Dank, dass Sie sich das angesehen haben. Wir sehen uns beim nächsten Segen.
8. Labs über alle Überprüfungen der in der Domain 1 abgedeckten Services: Hey, Leute. Willkommen zurück
zum nächsten Video. Hier in diesem Video werde
ich Ihnen einen kleinen Überblick über all die
Dienste geben, die wir besprochen haben. Wir haben also
über viele Dienste gesprochen. Nun, ich wollte Ihnen nur
eine Laborsitzung über
den Zugriff auf diese Dienste geben , nur einige der,
Sie wissen schon, grundlegenden Dinge
über diese Dienste und so durchgehen Sie wissen schon, grundlegenden Dinge . Also werden wir das
durchgehen und wir werden herausfinden oder erraten Grundpfeiler ein
gut entwickeltes Framework ist,
denn
das sind Dienste, an die Sie sich
meiner Meinung nach
viel besser erinnern würden , wenn ich
Ihnen nur die Bilder davon zeige Das ist der Grund, warum ich
das im letzten Video mache. Im vorherigen Video
gibt es einen Spickzettel, auf dem mein ganzer Lauf über all die Theorien über all die Theorien was auch immer ich mit
dir besprochen habe, überall steht Ich habe es auch
anhand eines Beispiels erwähnt, also nutzen Sie es bitte
und versuchen Sie, sich auf Ihre Prüfung
vorzubereiten Denken Sie jetzt daran,
Ihre Bewertungen und alles andere zu hinterlassen ,
denn das unterscheidet diesen Kurs von
anderen, weil ich
mein Bestes gebe, um
sicherzustellen , dass jeder dieses Programm
durchläuft, sowohl die theoretische als auch die praktische
Sitzung kontinuierlich durchführt, und Sie können sehen, welche
Anstrengungen ich in Zukunft noch mehr investieren werde. Fangen wir also mit diesem Video an.
Jetzt kannst du das sehen. Das sind die
Säulen und einige
der Dienste. Ich habe es geöffnet weil mein Internet etwas langsam
ist, also habe ich es einfach
schon für euch geöffnet. Ich bin gerade im Dashboard, also das ist deine Konsole, Heimatregion, US-amerikanischer Bindestrich Ost , Informationen von der URL selbst Versuchen Sie, Informationen von der URL selbst zu lesen, da Ihre URL tatsächlich viele Dinge
aussagt Ich bin hier in der Region
Nord
und Virginia , in der Region USA Ost. Also, das erste, was ich Ihnen zeigen möchte, ist EC Two. Das ist häufiger der Zeitpunkt, an dem wir einen späteren Zeitpunkt
verwenden würden. Wir haben zwar Managed Services, aber EC zwei ist, je häufiger wir es zu
einem späteren Zeitpunkt nutzen werden. Sie können den
Load Balancer hier sehen, was wiederum eine Funktion ist,
die wir gesehen haben Wenn Sie es also erraten müssten, steht EC Two für
Leistungseffizienz Wir haben Auto Scaling, was hier
wieder ein Feature ist , Auto Scaling-Gruppen hier. Siehe Load Balancer, der
alle Teil von EC Two Instances ist. Jetzt kann ich eine Instanz erstellen. Ich kann mit der Ausführung beginnen, indem ich
die Instanz starte. Ich werde das jetzt nicht
tun, aber
zu einem
späteren Zeitpunkt wird es ein spezielles
Training für Sie geben . Durch die automatische Skalierung von Gruppen können Sie
mehr Dienste bereitstellen, indem Sie
sie
auf der Grundlage einer bestimmten Entwicklung nach oben und unten skalieren mehr Dienste bereitstellen, indem Sie
sie
auf der Grundlage einer bestimmten Entwicklung nach oben und unten skalieren . Also eine Art
Monitoring-Wert wir geben und dann eine Gruppe
bilden würden, und das
Schöne an AWS ist, dass, Sie wissen schon, dass Sie bei
jeder Funktion, jedem Service, den Sie nutzen, diese Art von Informationen sehen, die
Ihnen diese Art von Informationen bieten, die Ihnen
diese bildliche Darstellung dessen bieten,
was Sie damit diese bildliche Darstellung erreichen können Und dieses eine Bild kann tatsächlich viel
aussagen. Es erzählt eine
Menge Geschichten hier drüben. Dieses Bild gibt Ihnen also einen Hinweis darauf, worum es bei diesem Service
geht, nicht wahr Sie können also die
Mindestgröße, die gewünschte Kapazität und die
maximale Größe sehen , und das ist im Grunde genommen eine Skalierung
nach Bedarf Das ist also wie gemalt. Sie haben hier die Load
Balancer-Funktion, und
das haben wir auch hier gesehen Schauen wir uns an, wo der
Load Balancer ist.
Sie haben Zuverlässigkeit, Sie haben einen Load Ebenso haben Sie solche
Funktionen. Mint ist ein bisschen langsam, ich glaube, jemand
lädt etwas herunter, das ist der Grund,
warum es ein bisschen langsam ist. Bitte ignoriere das.
Das ist jetzt RDAs Das ist ein
datenbankverwalteter Dienst. Ich kann sagen, mit einem Klick können
Sie eine Datenbank erstellen. Sie müssen nicht wirklich ein Betriebssystem
installieren, Sie müssen die Software nicht
installieren. Äh, Sie müssen keine
Firewalls und,
Sie wissen schon, die Einstellungen
und alles andere konfigurieren Sie wissen schon, die Einstellungen
und alles Klicken Sie einfach darauf und Sie
erhalten eine Datenbank. Das ist also so gut, nicht wahr? Deshalb nennen wir es hier
ein verwaltetes
System für DS. Und dann haben Sie das DMS
, Ihren
Datenbankmigrationsdienst hier
drüben, der Ihre
Impromised-Datenbank effektiv in die Cloud-Cloud-Datenbank
migriert die Das ist Route 53. Wie Sie hier sehen können, können
Sie einen Domainnamen eingeben und eine
bestehende Domain auf Route 53 übertragen, und Sie können eine Domain tatsächlich
registrieren. Sie müssen also einen gewissen Betrag zahlen, und im Grunde können Sie
Ihre Domain registrieren lassen. , gibt es hier zwei
Hosting-Zonen Wie Sie sehen können, gibt es hier zwei
Hosting-Zonen, weil ich früher Open Shift
verwendet habe. Also ähm, hat aber tatsächlich zwei Zonen erstellt, in denen es nur Open-Sheet ist,
wie Sie sehen können, verwendet
es Route 53. Also ich zahle dafür bis ich diese
Dinge entferne, denn wenn Sie irgendeinen Namen
von Dina haben oder irgendwas, das von AWS verwaltet wird, werden
Sie dafür bezahlen. Aber das ist kein großer Preis. Ich würde sagen, damit du
das an meinem Körperbau sehen kannst, oder? Sie haben also die
Klassifizierung hier. Und ähm, es ist nicht viel, wenn es
darum geht, das zu tun. Ja. Ja, Sie können
die Route 53 für 1$ sehen. Es ist also nicht viel,
du weißt schon, Geld. Ich musste dafür bezahlen. Das
ist der Lastenausgleich. Derzeit habe ich einen Lastenausgleich für die offene Schicht, also bist du da drin. Hier haben Sie das
IM-Dashboard hier drüben. Dies ist Ihr Identitäts
- und Zugriffsmanagement. Im nächsten Abschnitt werden
wir uns mit
Sicherheit und Kompilierung befassen Hier werden wir also zu
Besuch sein und mit der
AWS-Organisation, dem
Identity Center und
all den anderen Optionen hier in Bezug auf die
Zugriffsverwaltung zusammenarbeiten Identity Center und
all den anderen Optionen hier in Bezug auf die Zugriffsverwaltung Ich glaube, im Startvideo, als
Sie
das Konto erstellt haben,
habe ich Ihnen erklärt, wie Sie MFA verwenden Sie können also sehen, dass
ich MFA aktiviert habe. MFA ist sehr, sehr wichtig,
weil heutzutage
alles gehackt wird. Das einzige, was Sie vor Hackerangriffen
bewahren kann, ist Ihnen
tatsächlich
etwas mehr Zeit zu geben Das ist also sehr nützlich. Und dann haben Sie KMS. Darüber haben wir auch
gesprochen,
ich glaube, im Bereich Sicherheit, ich glaube, über
das KMS-Schlüsselverwaltungssystem hier. Ich kann mir hier vorstellen, dies eine Möglichkeit ist, Schlüssel
zu erstellen und Verschlüsselung
in AWS und darüber hinaus zu
kontrollieren. Wenn Sie also Schlüssel in
Ihrem Unternehmen mit den
Stammzertifikaten und
so verwenden , können Sie sie trotzdem
hier speichern . Deshalb sage ich darüber hinaus. Ähm, was bedeutet, dass es sich um einen
vollständig verwalteten Schlüsseldienst handelt. Also normalerweise
habe ich, ähm , den
Schlüsseldienst vor früheren
Projekten genutzt . Also haben wir eine
Firma benutzt, Tavat oder so. Also haben sie auch diesen
Schlüsseldienst. Also haben wir ihren Service genutzt, und wir hatten tatsächlich ihr System wie das Schlüsselverwaltungssystem,
es ist wie ein Server. Wir haben es in
unserem Rechenzentrum installiert und daran gearbeitet. Ich habe auch Erfahrung mit dem
KMS-Dienst. Aber, ähm, aber das ist viel einfacher und
Sie müssen nicht wirklich den Aufwand
haben, einen Server
zu halten oder einen Server von einem
beliebigen Anbieter zu kaufen. Ähm, ja, es ist Talus. Talus ist der, du weißt schon,
Mittelsmann dafür
, und
eigentlich kontaktieren wir Talis,
äh, für den Service Sie sind also
diejenigen, die das getan haben. Ähm, das tut mir leid.
Ich habe den Namen falsch verstanden. Ähm, hier haben Sie also die
zentrale Schlüsselverwaltung. Das ist also im Grunde Ihr
HSM Cloud HSM hier drüben, das im Grunde
all Ihre Schlüssel und
Register und alles andere, was mit Ihren Zertifikaten
und
dergleichen zu tun hat Register und alles andere, was mit Ihren Zertifikaten
und dergleichen zu tun Sie können also einfach etwas erstellen und
tatsächlich daran arbeiten. Der nächste ist also der Elastic
Container Service und EKS
, der Elastic Cubont-Service Container Service verwendet mehr
oder weniger Container, und im Grunde können
Sie, Sie wissen schon,
Cluster auf Clustern erstellen Auch das ist Managed Service. Und hier haben Sie
EKS, was wiederum ein
Managed Service ist , der hier Cobonts
verwendet. Jetzt können Sie hier
Cluster erstellen. Wir werden
in der fortgeschrittenen Sitzung darüber sprechen, aber es ist so interessant. Da ich Open-Shift
habe, habe ich auch gute Kenntnisse
über Open-Shift, also werde ich vielleicht eine
Schulung ausschließlich zu diesem Thema entwickeln. Ich habe andere Schulungen, bei denen
es um Open-Shift geht, aber dann hauptsächlich um Middleware.
So ist es Ähm, hier drüben habe ich die
Abrechnung und das Kostenmanagement, also informiert es mich nur
über die Abrechnung. Ich habe schlechte Nachrichten für diesen Monat. Ich muss
hier eine Menge Rechnungen bezahlen , weil
es
dank Open Shift einfach eine
Menge Instanzen für mich geschaffen hat. Und ja, es hat mir eine gute Erfahrung gegeben, du
weißt schon, damit zu arbeiten. Äh, weil ich
mehr Schulungen in offener
Schicht mit anderen, ähm,
du weißt schon, mittleren Produkten abgeschlossen habe mehr Schulungen in offener
Schicht mit anderen, ähm, . Ähm, hier drüben ist das
Well-Architektur-Tool. Also das ist im Grunde das, was wir bis
jetzt gelernt haben, die Säulen. Sie können sehen, dass das
selbst ein Service ist. Jetzt können Sie sehen,
wie es funktionieren wird. Jetzt geben Sie
Ihren zu überprüfenden Workload ein oder identifizieren ihn. AWS-Well-Architektur-Tool
berücksichtigt Ihre betriebliche Exzellenz, Ihre Sicherheit, Zuverlässigkeit,
Leistungseffizienz Nachhaltigkeit bei der
Kostenoptimierung und
Nachhaltigkeit bei der
Kostenoptimierung und erstellt
Ihnen einen Bericht darüber. In diesem Bericht wird sich also alles um die Säulen von AWS drehen, und er wird Ihnen
zeigen, mit welcher Art von Workload Sie
zu tun haben werden. Also, wie
hoch wären möglicherweise Ihre Ersparnisse? All die Dinge, auf
die es achten wird. Dann haben Sie hier das
Abrechnungs-Dashboard. Also das ist im Grunde genommen, weißt du, wie viel Prozent der Computer ich benutzt habe und all diese anderen Dinge,
die hier drüben sind. Es informiert mich also über die
komplette Abrechnung, und das ist ein weiterer
Service da drüben, und Sie haben den
Preisrechner. Das ist ein super Tool. Ich verwende dieses Tool immer,
bevor ich etwas auf
AWS mache , weil dieses Tool Calculator AWS
heißt Sie können
also direkt
darauf zugreifen und hier zum
AWS-Preisrechner
gelangen. Klicken Sie einfach auf Schätzung. Es gibt im Grunde
das, was Sie tun möchten. Es gibt hier so viele Überraschungen. Ich werde sie nicht verwöhnen. Aber
wenn wir zu dieser Sitzung kommen, werden
wir diesen
Preisrechner überprüfen,
bevor wir
EC Two Instance konfigurieren. Aber hier gibt es viele
Überraschungen. Hier wählen Sie die Region aus, hier wählen Sie den
Namen der Region und hier finden Sie einen
Service EC Two Instance, Lambda oder jede Art von Service
, der von AWS angeboten wird Dann sagen Sie, dass ich eine Zusammenfassung sehen
möchte, und dann werden Sie im Grunde nach
weiteren Details gefragt , zum Beispiel, was Sie
vorhaben? Wie viele Stunden planen
Sie zu nutzen? Sie geben all diese
Informationen und es sagt Ihnen, ähm, zwei Kosten hier drüben. Vorabkosten und monatliche Kosten. Die Vorabkosten sagen Ihnen also, wenn Sie im Voraus zahlen, wie viel Rabatt erhalten
Sie? Und das werden monatliche Kosten sein
, okay? Also hier waren es insgesamt
12 Monate, okay, wenn man
bedenkt, dass, du weißt schon, für die nächsten zwei Monate
wirst du so viel bezahlen. Es ist also ein sehr
nützliches Tool. Und Sie
müssen dieses Tool auf jeden
Fall verwenden , wenn Sie
irgendeine Aktivität auf AWS ausführen Sie können tatsächlich
verstehen, was in
Ihrem Abrechnungszeitraum
passieren wird . Der nächste Punkt, den Sie sehen
möchten, ist die Wolkenbildung. Wir haben genug geredet, und das gehört zu
deinem Automatisierungskram. kommt also diese Cloud-Formation
ins Spiel Hier kommt also diese Cloud-Formation
ins Spiel,
operative Exzellenz. Also dieses spezielle Tool hier
, mit dem Sie tatsächlich eine
Beispielvorlage erstellen und im Grunde loslegen können. Was dieser Tag also bewirkt,
ist wie Automatisierung. Sie haben also auch ein
YouTube-Video von AWS, und Sie können sich
dieses Video ansehen und verstehen,
wie man es erstellt. Aber tu es
jetzt nicht. Im Moment haben Sie sich darauf konzentriert,
Ihre Zertifizierung zu erhalten. Also lass uns das machen. Gehen wir eins nach dem anderen durch, denn ich selbst werde ein Training
zur Wolkenbildung machen. Und wir werden
dann und da darüber sprechen , weil es noch
ein langer Weg sein könnte ein langer Weg sein und wir diese
Komplikation im Moment nicht wollen Aber
irgendwann werden wir es schaffen. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Ich hoffe, Sie haben
ein bisschen von dem verstanden,
was wir bisher
über das Domain-Cloud-Konzept gesehen haben . Dies sind also einige der
Dinge, auf die wir zu einem
späteren Zeitpunkt ausführlich eingehen werden. Und einige davon werden für euch
wie Game Changer Wenn Sie neu bei AWS sind, werden
Sie sagen, oder ist etwas, das ich früher
hätte wissen müssen So habe ich
mich gefühlt, als ich zu
AWS kam , und ich freue mich sehr, dass ich Ihnen das beibringen
konnte. Nochmals vielen Dank für Ihre
Geduld und die. Und wenn Sie
Fragen haben, hinterlassen
Sie diese bitte im
Fragenbereich. Ich antworte meistens am Wochenende, also werde ich mein Bestes tun um Ihnen so
früh wie möglich zu
antworten.
9. Laborautomatisierung (AWS CloudFormation): Leute, willkommen zurück
vom nächsten Video. In diesem Video
werden wir
über die Vorteile der Automatisierung sprechen . In diesem Video werden wir uns mit einigen
Begriffen rund um Architektur, Bereitstellung und, Sie
wissen schon, mit Automatisierung befassen. Wie live werden wir einige praktische
Erfahrungen mit der Cloud-Formation Nun, wir werden keine Wolkenformation
erzeugen, aber dann werde ich Ihnen nur etwas über das Format der Wolkenformation
erzählen. Das Bild hier stellt
die Automatisierungsfunktion dar. Denken Sie jetzt daran, dass es
für
die Wirtschaftlichkeit der Cloud sehr wichtig ist , dass Sie weniger
manuelle Tätigkeiten, sondern mehr Automatisierung und
Innovation in Ihr Projekt investieren. Um die Automatisierung im
Hinblick auf
die Cloud-Bildung umsetzen zu können,
müssen Sie nun Automatisierung im
Hinblick auf
die Cloud-Bildung umsetzen zu können, über die
richtigen Tools verfügen. Das erste Tool, das
Sie als Service von
AWS benötigen, ist also etwas namens CloudFront, tut
mir leid, Cloud Formation Dieser spezielle
Service würde Ihnen nun helfen,
eine autonome Servererstellung
mithilfe einer sogenannten
Cloud-Formation zu erstellen eine autonome Servererstellung mithilfe einer sogenannten
Cloud-Formation Jetzt wird eine Vorlage verwendet. Wenn Sie nun einfach die Dokumentation dazu in
der
AWS-Dokumentation unter Cloud Formation aufrufen, können
Sie sehen, wie Cloud
Formation funktioniert. Hier müssen Sie eine vorhandene Vorlage erstellen oder
verwenden. sind Beispielvorlagen In dieser
Dokumentation selbst sind Beispielvorlagen
verfügbar, und Sie speichern sie grundsätzlich
lokal oder in einem S-3-Bucket. Lokal bedeutet also, dass Sie eine Datei auf
Ihrem Laptop
erstellen und
sie dann in die Cloud-Formation hochladen. Oder Sie können es auf S drei legen, was kostenverbindlich ist. Du musst also etwas für das bezahlen,
was du auf S drei hochlädst. Äh, das ist also etwas
, das du beachten solltest. Aber wenn Sie vor Ort sparen, fallen
keine Kosten an. So können Sie
beispielsweise diese JSON-Datei speichern, beispielsweise diese JSON-Datei speichern, Sie können sie tatsächlich
auf Ihrem Desktop speichern und sie hochladen, wenn Sie eine Cloud-Formation
erstellen Auf diese Weise müssen Sie zu diesem Zeitpunkt keine
wirklichen
Kosten Nun wird
die Cloud-Formation den Stapel verwenden, die Cloud-Formation den Stapel verwenden den
Sie erstellt haben,
und sie wird mit dem Aufbau des Stacks beginnen Es wird also eine Vorlage verwendet, die im JSON-Dateiformat
oder im Yama-Dateiformat vorliegt. Wie Sie sehen können, werden diese beiden
Dateiformate bevorzugt. Äh, eins von beiden,
du kannst es hochladen. Im Grunde sollten Sie erkennen,
ob es sich ein JSO-Format oder ein Yamo-Format ,
und dann lädt es diesen Stapel auf Ihre Cloud-Formation und zeigt
Ihnen dann den Fortschritt bei der
Erstellung des Nun, ähm, nun, Sie können
also auch auf „Erste Schritte
anzeigen“ klicken Also das wird
wieder
zur Dokumentation gehen, auf derselben Seite
, auf der ich war. Hier gibt es ein YouTube-Video zum
Einstieg und dann wie man eine Cloud-Formation durchführt, sich bei AWS anmeldet und bewährte Methoden und wie man
mit Vorlagen
arbeitet und so. Das ist also im Grunde das, was
ich dir zeigen möchte. Und eine Wolkenformation
hilft Ihnen dabei, Stapel zu erstellen. Nun, was ist Stack?
Stack besteht im Grunde aus einer Reihe von service- und
serverbezogenen Elementen. Wenn ich zum Beispiel Open Shift
verwende, um
einen Service mit AWS zu erstellen, erstellt Open Shift nicht nur
zwei EC-Instances, es erstellt VPCs, es
erstellt Lade-Banner, ich erstelle eine elastische
IP-Adresse und weise sie
meinem Service zu und der Service ist damit verbunden , dass Netzwerkschnittstellen
und ähnliches Der Stack beinhaltet den
Aufbau eines gesamten Workload-Streams
, der es mir ermöglicht, an einem Projekt
zu arbeiten Okay. Das ist also,
was ein Stack ist. Wenn Sie also einen solchen
Stack in Cloud-Formation erstellen, reduziert
das die manuelle
Arbeit von Mitarbeitern,
die zu jedem Service
gehen und zu jedem Service
gehen und diese VPCs und
elastischen IPs manuell erstellen und all diese
Load Balancer auf
all diesen
EC-Two-Instances erstellen all diesen
EC-Two-Instances erstellen Innerhalb von 30 bis 40 Minuten wird
es also die
gesamte Infrastruktur erstellen und meine Anwendung hosten Und das ist die Macht
der Wolkenbildung. Nun können Sie entweder die Wolkenbildung
in diesem Sinne
verwenden oder Sie
können Terraforming verwenden Terraforming ist ein weiteres
Tool von Drittanbietern. Jetzt wurde es von IBM
gekauft. Und sogar Sie können das Tool zur
Wolkenbildung oder zum
Terraforming verwenden zur
Wolkenbildung oder zum
Terraforming Diese beiden Optionen gibt es. Sie können jede
dieser Optionen verwenden, um eine solche Infrastruktur zu erstellen. Da wir die
AW-Zertifizierung durchführen, folgt uns die AAA-Zertifizierung
strikt darin , an Cloud-Formation und nicht an
Terraforming zu arbeiten Das ist also so ziemlich das, was
Automatisierung ist und was
der Vorteil
davon ist und wie man das überhaupt erreicht Ich habe Ihnen auch die
Architektur gezeigt. Das fasst
diese spezielle Sitzung also ziemlich gut zusammen. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Im nächsten Video erfahren Sie mehr
über die Managed Services.
10. Im Labor verwaltete AWS-Services (Amazon RDS, ECS, EKS, Dynamo DB): Willkommen zurück
zum nächsten Video. In diesem Video
werden wir
an diesem speziellen Konzept arbeiten . Also die Identifizierung von verwalteten Diensten, verwalteten Hardwarediensten,
z. B. Amazon RDS, Elastic
Container Service, Elastic Gubernat
Service und Dynamo TV Wir werden uns also jeden
dieser Dienste ansehen und herausfinden, wie er in der
Praxis tatsächlich funktioniert Was die Architektur angeht, möchte
ich
Ihnen nur den Unterschied zwischen einem selbstverwalteten Dienst
und einem verwalteten Dienst erklären. Sie können ihn auch als teilweise
verwalteten Dienst oder,
Sie wissen schon, gar nicht als verwalteten
Dienst bezeichnen auch als teilweise
verwalteten Dienst oder,
Sie wissen schon, . Falls Sie
eine Anwendung in
Ihrem Rechenzentrum
mit einem Worsham-Computer hosten eine Anwendung in
Ihrem Rechenzentrum , würde
Ihr Linux-Administrator tatsächlich
zuerst
eine Serverinstanz einrichten , und dann
wird
die Installation
des Betriebssystems vom
Linux-Administrator , und dann die Installation
des Betriebssystems durchgeführt Sobald das
Betriebssystem installiert ist, installieren die
Oracle-Datenbankadministratoren die Oracle-Software auf der Umfrage sobald die Netzwerk-Firewall abgeschlossen
ist, und dann fügen Sie die Anwendungsdaten oder Ihre Kundendaten
in die Datenbank ein. Und dann können
Sie als Administrator wie
der Datenbankadministrator darauf
zugreifen . Und dann
würden die Anwendungen eine Verbindung zur Datenbank herstellen und diese Transaktion
starten. So würde also ein typischer, ähm, Sie wissen schon, selbstverwalteter
Service aussehen. Sie entscheiden sich für AWS EC zwei Instanzen, es gibt zwei Dinge, die Ihnen
abgenommen werden. Eine davon ist die Erstellung der virtuellen
Maschine sowie die Installation des
Betriebssystems. Diese beiden Dinge
werden von EC Two erledigt. EC Two gibt Ihnen den richtigen Instanztyp
und das Betriebssystem, und dann gibt es
Ihnen eine Schlüsseldatei , auf die
Sie mit dieser Schlüsseldatei zugreifen können. Direkt kommt der
Oracle-Administrator rein und installiert die Oracle-Software und überprüft dann die Lizenzierung
und so. Und dann fügt er
die Kundendaten und hat
Zugriff auf diese Anwendung, und dann stellen die
Drittanbieteranwendungen eine Verbindung zur Racal-Datenbank Sie können es also wie
einen selbstverwalteten Service nennen einen selbstverwalteten Service weil er teilweise von ECT verwaltet
wird, okay, wobei die
Servererstellung, der Serverstandort und die
Betriebssysteminstallation alles von Amazon selbst vorgenommen werden Okay? Jetzt sprechen wir über etwas, das
Managed Services genannt wird. Es gibt also viele verwaltete
Dienste, die in AWS verfügbar
sind. Okay? Also, es wird hier angezeigt, aber es gibt eine Menge
verwalteter Dienste. Im
Gegenzug werden wir uns jetzt mit dem RDS befassen, mit relationalen
Datenbankdiensten Also jetzt, da wir hier die fett gedruckte
Oracle-Datenbank haben. Also müssen wir
nur zu RDS gehen und
sagen, dass ich eine Datenbank benötige,
S, dass ich eine Oracle-Datenbank benötige. Okay? Die Oracle-Datenbank wird also mit einer selbstverwalteten
Bring-Your-Own-Lizenz geliefert. Sie müssen also diesen Teil der
Lizenzierung verwalten,
sodass , Sie wissen schon, Zeitpunkt der Erstellung immer von AWS
darüber informiert wird. Und alles, was Sie tun müssen, ist, sobald Sie auf die Schaltfläche Erstellen klicken, haben
Sie eine
Oracle-Datenbank, die bereit ist. Sie müssen lediglich einen Weg
finden, darauf zuzugreifen, die Kundendaten
einzufügen, den Administrator für die Arbeit
damit zu beauftragen
und die Anwendungen mit und die Anwendungen dieser
Oracle-Datenbank zu
verbinden. Wie einfach und simpel
es ist, oder? Von der
Serverzuweisung über die Servererstellung, Installation des
Betriebssystems bis hin zur
Softwareinstallation werden
all diese Dinge erledigt. Okay, das musst du nicht wirklich
tun oder dir darüber Gedanken machen. Sie müssen
zum Zeitpunkt der Erstellung
der Oracle-Datenbank möglicherweise wählen, auf welcher Art von Instanz Sie
diese Datenbank ausführen möchten. Denn je nach Instanz wird
Ihnen die Lizenzierung in Rechnung gestellt, und dann auch auf der Grundlage
der
Software, aber dafür
wird die Lizenzierung in Rechnung gestellt. Und im Grunde
wird es Ihnen die Rechenleistung zur Verfügung stellen und
die Softwarekomponente
ist vorinstalliert. Sie müssen lediglich mit dem
Einfügen der Kundendaten beginnen,
und die Anwendung
sollte
zu Oracof weitergeleitet werden , um damit zu arbeiten keine
Firewall-Konfigurationen
oder ähnliches erforderlich ,
da es bereits vorkonfiguriert weil Sie zum Zeitpunkt der
Installation und schlau gesagt
hätten, ob darauf von einer
vorhandenen VPC aus zugegriffen werden
muss oder ob eine neue VPC erstellt werden
muss,
oder ob es einen öffentlichen Zugriff haben wird,
all diese Dinge, Sie Es sind keine
Firewall-Konfigurationen
oder ähnliches erforderlich,
da es bereits
vorkonfiguriert ist,
weil Sie zum Zeitpunkt der
Installation und schlau gesagt
hätten, ob darauf von einer
vorhandenen VPC aus zugegriffen werden
muss oder ob eine neue VPC erstellt werden
muss,
oder ob es einen öffentlichen Zugriff haben wird,
all diese Dinge,
Sie werden es sofort sehen.
Also lass uns das machen. Lassen Sie uns RDS erstellen. Okay. Ich werde diesen Prozess nicht
vollständig
fortsetzen. Geben Sie hier einfach RDS ein. Sie können diesen
Beziehungsdatenbankdienst hier sehen. Klicken Sie einfach darauf. Ich mache immer einen Mittelsprung, sodass
es auf einer neuen Registerkarte geöffnet wird, und wie Sie hier sehen
können, ist
Aurora IO Optimized
eine neue
Cluster-Speicherkonfiguration, ist
Aurora IO Optimized die
vorhersehbare Preise für
alle Anwendungen und ein
verbessertes Preis-Leistungs-Verhältnis von
bis zu 40% Kosteneinsparungen bietet vorhersehbare Preise für
alle Anwendungen und . Hier gibt es also eine neue Einführung in
einen neuen Service, und das ist im Grunde genommen nur die
Rede davon. Hier sind derzeit also keine Datenbankinstanzen
verfügbar. Jetzt können Sie sehen, dass das so
ziemlich Ihrer Datenbank zu
tun hat, okay? Jetzt können Sie auch einen
Snapshot der Datenbank erstellen. Sie können auch eine umgekehrte
Instanz für Ihre Datenbank erstellen und dann
Datenbankcluster mit bis zu 40 erstellen. Gehen Sie jetzt zur Datenbank und klicken Sie auf Neue Datenbank
erstellen. Jetzt können Sie ein
Standard-Create oder EC-Create erstellen. Es Create ist viel einfacher. Es wird dir weniger Fragen stellen. Standard Create ist
sehr zu empfehlen da es Ihnen
tatsächlich
einige gute Fragen stellt, die für Sie
wirklich erforderlich sind. Sie können sich also für MariaDB MSQO und dann auch
für Oracle entscheiden Es gibt jedoch bestimmte Datenbanken , für die Sie Ihre eigene Lizenz
mitbringen müssen Sie können also sehen, dass
IBM DV Two sagt, dass Lizenzen von Ihnen oder
über den AWS-Marktplatz mitgebracht Sie müssen also darauf
klicken, wenn Sie
wissen möchten, wie hoch die Gebühren für die Nutzung
dieser DV-Two-Lizenzierung sind.
Das können Sie sehen Wenn du hier hingehst, öffnet
sich der DV Two-Marktplatz hier
drüben und du kannst dir
vorstellen, was das kostet Die Kosten betragen also 1,04 pro Einheit, schätze
ich. tut mir leid.
Das ist also eine harte Lizenz. Ja, es ist 1.04. Pro Stunde. Also das wird auf zwei virtuellen CPUs
hier drüben auf einem BPC sein, was aus zwei Threads bestehen
wird Wenn Sie also mehr virtuelle CPUs
hinzufügen wollen, müssen
Sie tatsächlich mehr bezahlen, weil es auch darauf basiert, dass die Lizenz
auf Stundenbasis
basiert,
aber dann wird sie berechnet, aber dann wird sie berechnet unabhängig von der Anzahl der
PCs, die Sie dort haben Wenn es also vier VPC sein werden, wird
es 2,08 sein,
so wird es Also hier ist das
Preismodell hier drüben. Sie können auch eine Beschreibung
darüber lesen , worum es hier geht, welche Version als Teil davon installiert
wird und all diese Dinge,
Sie können es sehen. Wenn Sie also über
Marketplace angeben
und die Abrechnung erfolgt und Sie
die endgültige Abrechnung
pro Monat der Nutzung
sehen, belaufen sich die
monatlichen Kosten standardmäßig über
Marketplace angeben
und die Abrechnung erfolgt und Sie
die endgültige Abrechnung
pro Monat der Nutzung
sehen, belaufen sich die auf 884 USD Dazu gehören die
DB-2-Instance, der Speicher
und das bereitgestellte
Iopsipposecon und das bereitgestellte
Iopsipposecon Sie
haben also auch die Möglichkeit
, einige dieser
Elemente auszuwählen und sie dann zu deaktivieren, aber Sie sollten Wenn ihr also wirklich nicht wollt, dass IOPs hier
bereitgestellt werden, könnt
ihr euch für den allgemeinen Zweck,
SST, entscheiden , wodurch ihr auch hier eine Menge Geld
sparen werdet . Gemäß
der Empfehlung sollten
Sie jedoch leistungsorientierte IOPs verwenden
, um eine höhere Leistung zu erzielen Eine weitere Sache, die Sie hier
sehen werden, ist die Größe, die Instanzkonfiguration und
der Instanztyp Dies sind vorkonfigurierte
vorinstallierte Instanzen. Es tut mir leid, ich habe gerade
verloren, wo es ist. Okay, das sind also
einige davon, Sie haben
also nur einige Instanzen, was
für diese Art von
Datenbank-Setup kundenspezifisch konfiguriert ist . Der Name des
Familiennamens ist SiXi, aber
hier am Anfang steht DB ,
weil es sich um eine
maßgeschneiderte Hosting-Datenbank für Ihren RDS Und der Familienname ist
Six Y, und das ist ein großes. Okay. Sie haben also ADX Large Sie haben sechs IDN, und Sie können sehen, dass es über ein Netzwerk von 25.000
MVPs
mit Sofortspeicher von
1,9 Terabyte NVM V SSD verfügt MVPs
mit Sofortspeicher von
1,9 Terabyte Wenn Sie sich jetzt für so
etwas entscheiden, Ihre Kosten in die Höhe und steigen buchstäblich auf 6.983$ steigen
Ihre Kosten in die Höhe und steigen buchstäblich auf 6.983$. Sie haben also auch Oracle Espo und was werden Sie
am Ende bekommen Das ist also die einzige
Option
für Oracle, Ihre alte Lizenz mitzubringen Und was ist das
Endergebnis davon? Was passiert, wenn ich MSCR auswähle
und dann auf die Schaltfläche „Erstellen Das sind also 11.386 USD. Pro Monat
werden es aufgrund
der provisorischen Operationen
etwa 900 sein und DB-Instance ungefähr
10.000, weil ich die
höchste Version davon gewählt habe Das ist nur der Grund. Also hier kann
ich mich für etwas entscheiden,
das eine geringere Größe hat, damit mir nicht
so viel dafür berechnet wird. Das sind also 1.400,
immer noch hoch. Das liegt an provisorischen Jobs. Das sind also etwas
, das du herausfinden musst, und es sind ungefähr 496. Also ich glaube nicht, dass wir
es weiter reduzieren können Wenn wir eine DB-Instance
ohne Cluster erstellen , können wir das
tatsächlich reduzieren. Ich werde den
Devon-Test machen, DB-Single. Nun, das sollte uns auf 176
$ bringen. Das kannst du sehen Der Preis ist reduziert, weil wir uns nicht für Clustering entscheiden, und das hat die
Kosten auf ein Minimum reduziert Das ist also die
Version meines SQR. Was nun passiert, ist, dass
bei diesen Fragen, richtig, eine weitere
Frage auftauchen wird, ob Sie öffentlich
auf Ihre Datenbank
zugreifen Normalerweise sagen wir nein, aber wissen
Sie, in Ihren Situationen könnte
es genauso sein wie wir. Und Sie können auch sehen die bestehende VPC
hier verwendet wird, sodass es sich bei den IP-Rage um bestehende VPCs handeln
kann Sie können auch einen
Bastian-Host erstellen und dann auf diesen bestimmten Server zugreifen über einen Bastian-Host Das ist also auch
eine weitere Option, wenn Sie den
öffentlichen Zugang mit Nein deaktiviert
haben Dann können
Sie hier in der
Datenbankauthentifizierungsoption die
Kennwortauthentifizierung
und die
Passwort-IAM-Datenbankauthentifizierung verwenden , Sie können
dafür einen IAM-Benutzer und auch die
CBOs-Authentifizierung erstellen dafür einen IAM-Benutzer und auch die
CBOs-Authentifizierung Ebenso
haben Sie mehrere Möglichkeiten, sich innerhalb
der Datenbank zu authentifizieren. Und dann bietet Ihnen die
darin enthaltene Leistung eine kostenlose Testversion für
sieben Tage Sie können das einfach sagen, wenn Sie die
Leistung
nicht möchten,
und dann können Sie auf
die Schaltfläche „Erstellen“ klicken. Was passiert also,
wenn ich auf die Schaltfläche Erstellen klicke? Sie werden eine
Datenbank haben, die bereit ist,
und alles, was Sie tun können, ist direkt auf
diese Datenbank zuzugreifen und
mit ihr zu arbeiten. Ich werde das jetzt nicht
tun, weil wir noch nicht in der Phase sind. Wenn Sie all diese
Dinge tun und Sie es auch nicht
sofort tun müssen, weil es alles kostenpflichtige Artikel
oder Teil der kostenlosen Testversion sind, seien
Sie bitte vorsichtig, während Sie die Schaltfläche „Erstellen“ klicken, denn dafür fallen
einige Grundgebühren
an, zumindest für stündliche Gebühren, es wird aktiviert Das ist so ziemlich das, was ich Ihnen in Bezug auf RDS zeigen
möchte , was
die Arbeit mit RDS angeht Sie haben andere Dienste ECS, was kontinuierlicher Service bedeutet. Sie haben EKS, das
ist Cubone T Service, und dann haben Sie wieder NynoDB
Dynamo Dib,
das ist keine SQL-Datenbank, das ist keine SQL-Datenbank, also Das sind also einige
der Dinge, die wir eigentlich
in unserem Kurs überprüfen sollen wir eigentlich
in unserem Kurs überprüfen sollen. Also lass uns einfach mal nachschauen. Container-Service
verwendet also den Docker-Container, um Container zu erstellen und
unsere Anwendungen im Container
zu hosten unsere Anwendungen im Container
zu Okay, es wird also
eine Container-Infrastruktur erstellt , wenn Sie den Cluster erstellen Hier geben Sie also an, welche
Art von Container Sie als großen oder einfach zu
verpackenden Container bereitstellen möchten . EC zwei bedeutet, dass
Sie den Instanztyp tatsächlich auswählen können. Fargate ist ein Relex-Container, dem Sie eigentlich keinen Wartungsaufwand haben,
und Sie
müssen sich keine
Sorgen machen, dass es keine Instances gibt ,
da er über Fargate-Spot-Kapazität verfügen wird Das wird das also tun. Wenn Sie die
Kubernetes-Dienste vergleichen, haben Sie hier Kubernetes-Elemente , sodass Sie
sich entweder registrieren oder einen Cluster erstellen können Ich meine, der bestehende
Cluster kann
in äh, dem EKS registriert werden in äh Und hier geben Sie die
Version von Kubernts an und dann hier geben Sie die anderen
Details zur Kubernetes-API an, und dann klicken Sie auf Weiter
und dann gibt es diese Netzwerkspezifikation, mit der Sie die Beobachtbarkeit ermitteln
können,
und dann einige Add-Ons, dann können
Sie Das sind also verschiedene
Möglichkeiten, das zu tun. Aber wie dem auch sei, wir werden es später im Detail
sehen. Und hier, was
die Dynamo DB angeht, haben
wir die Amazon Dynamo Dies ist eine schnelle und
flexible NoSQL-Datenbank,
die für die Skalierung sehr
nützlich ist Um also eine sehr
einfache Tabelle zu erstellen und im Grunde genommen den
Namen der Tabelle anzugeben, was auch immer Sie
als Tabellenstandardeinstellung einfügen möchten, also können Sie das tun, und dann können
Sie eine Tabelle erstellen Das wird also eine Datenbank
ohne SQL sein, Sie müssen
also keine Art von um,
MSC, ACAL-Datenbank darauf
laufen lassen MSC, ACAL-Datenbank darauf
laufen Sie können also auch Daten nach
S 3 exportieren und
auch
Daten aus S 3 importieren und so Teil der Tabellen werden ,
die Sie als Teil von Dynamo TV
erstellen Ordnung, so ziemlich
genau das wollten wir in diesem Video
behandeln Also haben wir auch all
diese Dienste gesehen. Ähm, nochmals vielen Dank
für Ihre Geduld und falls Sie Fragen,
Fragen, Abschnitte haben. Sie sich keine Sorgen, dass ich nicht tief darauf eingehen werde , denn
für die Cloud-Konzepte ist es nicht erforderlich, sich eingehend damit zu befassen. Wir werden also
die Konzepte der Cloud verstehen, und genau das tun wir. Und das wären die
Fragen, um die es geht. Sie werden Ihnen
Fragen zu Ähm, DynamoDB
ein verwalteter Dienst ist
oder kein verwalteter Dienst, so
etwas in der Art, das wird
es sein Sie müssen also
einige dieser Namen und einige der hier
aufgeführten Konzepte kennen, hier
aufgeführten Konzepte damit Sie diese
Fragen angemessen beantworten können Nochmals vielen Dank für
Ihre Geduld und Zeit. Wir sehen uns im nächsten.
11. Labs – Rechtsizierung des Instanztyps: Ist willkommen zurück zum
nächsten Video. In diesem Video werden wir über
die richtige Größe sprechen. Es ist eines der
Themen hier, das für
Ihre Zertifizierung erforderlich ist heißt, das
Konzept der Schreibgröße zu verstehen. Wenn Sie sich dieses Video ansehen, habe ich das Bild für die richtige Größe
erstellt. Dieses Bild impliziert
, dass Sie die richtige Größe für die
entsprechende Umgebung
haben müssen. Wenn
Sie beispielsweise auf
einem falschen Instance-Typ
für eine Anwendung laufen einem falschen Instance-Typ
für eine , die mehr oder weniger
benötigt, Sie entweder zu viel für
die Infrastruktur aus oder Sie geben die Infrastruktur aus oder Sie wenig für die die richtige Größe Es wird entscheidend sein, die richtige Größe
für Sie zu finden als AWS-Administrator Was sind für Sie als AWS-Administrator die wichtigsten
Hinweise und was ist der Instance-Typ, und
wie können Sie ihn bestimmen? All diese Dinge
werden wir in diesem Video sehen. Was die Ermittlung betrifft, müssen
Sie einen
sogenannten Auslastungstest ausführen
, und dieser Auslastungstest bestimmt ob diese Instanz für Sie geeignet
ist. Aber welche
Instance-Typen sind dann verfügbar? Und wie können Sie
den Instanztyp verstehen? Denn wenn Sie hier rüber gehen, gehen
Sie zu EC Two Instance.
Das Erste, was Sie sehen
werden, ist, dass der Name und das Tag, die zweite Sache das Betriebssystem
ist. Nun, hier, die Anwendung
des Betriebssystems, Sie entscheiden über
das Betriebssystem, und
das haben Sie
im vorherigen Video gesehen. Im dritten Schritt geht es nun um Ihren Instanztyp. Jetzt ist der Instant-Typ so
wichtig und wichtig, weil Sie auf dieser Ebene entweder zu wenig
oder zu viel ausgeben können Hier
müssen Sie tatsächlich eine wichtige
Entscheidung darüber treffen groß
Ihre oder Ihre
Systeminfrastruktur ist und wo Ihre Anwendung ausgeführt werden soll Bevor Sie sich also
dafür entscheiden, müssen Sie
einen Input von Ihrem
Anwendungsingenieur einholen , ,
Sie wissen schon,
die Anwendung entworfen hat, der über die Anwendung Bescheid weiß,
wer an
der Anwendung gearbeitet hat ,
und er weiß , was die
CPU-Anforderungen sind, was die RAM-Anforderungen sind,
ob dafür eine GPU erforderlich ist . Sie müssen also auch ein wenig vom Standpunkt
der Anwendung aus
verstehen , um zu
sehen, ob das passt. Um sich dafür zu entscheiden, müssen
Sie nun aus einer Vielzahl
von Instanztypen wählen Sie können sehen, dass es einige gibt, die
hier immer wieder auftauchen. Das tut mir leid. Es gibt also etwas,
das blockiert ist, was für Sie nicht
aktiviert ist .
Dafür gibt es einen Grund. Und es gibt einige Artikel
, die so teuer , dass der Linux-Grundpreis
selbst 407 USD pro Stunde beträgt. Es sind also nur 40 $7 pro Stunde. Ähm, es gibt die
billigeren, wo du 40,52€ bekommst. 0,0 081 USD pro Stunde. Es gibt einige Dinge
, die auch als kostenlose Testversion verfügbar auch als kostenlose Testversion Also, das sind einige
der Klassifizierungen in
Bezug auf, Sie wissen schon,
was für Sie verfügbar ist, wenn es um der Klassifizierungen in
Bezug auf, Sie wissen schon,
was für Sie die Arbeit mit, äh, Ihrem Instance-Typ geht, was
im Moment sehr wichtig ist Also, Sie haben die Generationen, Sie haben auch die aktuellen
Generationen Das sind also alles die
der aktuellen Generation. Sie können hier also eine
Liste mit vielen
verfügbaren
Diensttypen sehen . Alle Generationen
werden Ihnen mehr
von diesen Instanztypen geben , was auch die alte
Generation einschließt. Die aktuelle Generation fällt. Was sind das also? Wie werden diese verwendet? Warum sind
einige von ihnen blockiert? Das werden wir in diesem Video
verstehen, wir werden nicht näher
darauf eingehen,
aber, wisst ihr,
so etwas wie eine Architektur, die ich für euch entworfen habe, wird
euch helfen. Geben Sie nun den
Instanznamen ein wie in, sagen
wir einfach,
ein Mikro, tut mir leid, T zwei Micro kombiniert hier
zwei Elemente. Es umfasst also T Two, was
Instance-Familie ist, und Micro, was diese Instance-Größe ist. Das ist also eine Kombination
aus zwei Dingen. Okay. Lassen Sie
uns die Größe verstehen , denn Größe ist der einfachste Pfad , der oben breit ist. Die Größe bestimmt die
Größe der CPU und des Speichers. Okay. Ein Nano ist also
die Startgröße , also die kleinste
Größe einer Instanz. Und das reicht bis 48 X groß, was ich vor Kurzem gesehen habe, wo 48 X Large
entweder mit einer
überhöhten CPU-Größe oder mit einer überhöhten
RAM-Größe einhergeht , RAM-Größe je nachdem, zu welcher Kategorie
oder Familie es gehört Ich gebe Ihnen hier ein
Verständnis, geben Sie
einfach Nano hier drüben Wir können sehen, dass es hier 0,5 B Arbeitsspeicher und eine
virtuelle CPU sind, und Sie haben hier auf T4G einen Nano
, der hier mit
zwei virtuellen CPUs und
0,5 GB Arbeitsspeicher ausgestattet ist Nun, das ist im Grunde
der Nano-Typ. Schauen wir uns nun X 48 an. Das ist X 48 groß. Das ist komisch. Das tut mir leid, 48 X groß.
Deshalb ist es nicht gekommen. In dieser Situation haben
Sie also 348 GB Arbeitsspeicher
und 192 virtuelle CPUs In einigen Situationen erhalten Sie satte
tausend 556 GB
Arbeitsspeicher und 192 virtuelle CPUs Ebenso ist das X-42-Zeitalter, wie
Sie wissen, mit
192 CPUs sicher Sie werden
es auf allen Instanzen bekommen, aber dann beträgt die
Speichergröße etwa 384 GB bis etwa
1.356 GB Speichergröße Die Gebühren dafür
werden also ebenfalls steigen, sodass Sie 12$ pro
Stunde verdienen können, wenn Sie diese Art von
Instance auf Ihrer AWS
verwenden Nun, Preisrechner helfen Ihnen
auch dabei,
die Preisberechnung
zu bestimmen , wie es aussehen wird, indem Sie hier
EC Two auswählen. Und auch hier haben
Sie hier den
EC-Two-Instanztyp. Zunächst haben Sie also die
Betriebssystemauswahl und das Mietverhältnis, wir werden später darüber sprechen Und EC zwei Instanzen hier drüben, und Sie haben alle EC
Two Instances hier drüben und Sie können es nach Familie sortieren Sie haben also so viele
Familien hier drüben. Also werden wir jetzt zu den
Familien kommen. Gehen wir also zurück zum
Architekturdiagramm, Sie haben die
Instanzfamilie hier. Was sind diese Instanzfamilien? Free Tire General Purpose
ist also im Grunde eine
Test-Instanzfamilie. Das heißt, entweder du
bekommst das im Rahmen einer kostenlosen Testversion, Gratis-Reifen, tut mir leid, und du
hast den allgemeinen Zweck. Also dieser ganze
Tet-Reifen ist
als Allzweckreifen konzipiert ,
ähm, als Instanzenfamilie. Also was auch immer darauf ausgerichtet ist. Also maximal, meine Ansicht
ist T zwei mittel, T zwei groß habe ich benutzt. Ich habe T zwei
außer Large nicht verwendet. Weil wir hier zu einem anderen
allgemeinen Zweck übergehen, nämlich A eins, vier, T drei, T zwei po, dann T drei A und dann M sechs, M fünf. Ich habe hier eine Menge
MPIs verwendet, was alles mit dem Speicherrelator
zu tun hat, und er hat eine
Menge Speicher drauf Also habe ich das benutzt. Dann haben Sie rechneroptimiert. Ich konzentriere mich auf CPUs, wo Sie viele
CPUs, aber weniger RAM haben, wie C six, C five, C four Und dann haben Sie den
Speicher optimiert, was im Grunde bedeutet,
mehr Speicher zu haben und sich weniger auf die CPU zu
konzentrieren, wie Z eins, X, R vier, R fünf, R sechs Dann haben Sie das
beschleunigte Rechnen, bei dem es mehr um
Ihre grafische
Verarbeitungseinheit geht , äh,
F eins, g4g3, dann I N oder 1b2b3 Dann haben Sie den Speicher optimiert. Es konzentriert sich hier auf mehr
Speicherelemente wie I D und H. Wenn Sie also die richtige Familie für
Ihren Instance-Typ
auswählen ,
wird das für Ihre
Arbeit mit anderen Dingen
sehr nützlich sein . Also habe ich dir eine
Theorie gegeben, die du auf einem Bildschirm
machen kannst . Ich füge sie
einfach als Teil der Dokumentation hinzu. Also
mach dir darüber keine Sorgen. Also, wie eine Instanz entsteht, indem Familie
und Größe
kombiniert werden. Eine Instanz kann also von einem niedrigeren Standpunkt
aus beginnen. Nehmen wir zum Beispiel die grafisch
fokussierten,
also wenn Sie hier einfach
ein G auswählen, wie zum Beispiel G two selbst hier drüben. Und dann ist es hier nicht in der Lage, eine Übereinstimmung zu
finden. Schauen wir uns das an. Tut mir leid. G zwei. Entschuldigung, aus irgendeinem Grund wird
G zwei nicht angezeigt.
Lass mich zu G drei gehen. Ich kann sehen, dass G
drei mit
XLarge beginnt , und Sie können
30 GB Arbeitsspeicher und
vier virtuelle CPUs sehen 30 GB Arbeitsspeicher und
vier virtuelle CPUs Und für
Linux werden etwa 0,75 berechnet. Und dann hast du noch ein
bisschen mehr. Es ist vier X groß, acht
groß und 16 X groß. Sie können also sehen, dass der Speicher und
die CPU ständig zunehmen. Sie haben also X so groß wie
vier und vier X größer, 16, Ax größer, 32 und 16 größer, 64. Also jedes bisschen davon, sodass Sie sehen können, dass es
einen drastischen Anstieg von 8 bis 64
gibt , was die virtuelle CPU angeht Das wird uns
daran erinnern, dass wir bis
48 X etwa 192
virtuelle CPUs gesehen haben, Im Grunde geht es hier also
um die CPU-Nummern. Also das X Large, das
Ax, das Four X Adex. Also, du kannst sehen, wie es zunimmt, dann kannst du jetzt natürlich den Unterschied
tatsächlich verstehen Der Unterschied zwischen X
Large und Four X Large, was dazwischen
liegt, sind die beiden X Large, die ungefähr oder
doppelt X oder X groß
sein sollten , und das sind
ungefähr acht virtuelle CPUs. Wenn Sie das berechnen können, können
Sie die
Unterschiede zwischen ihnen kennenlernen. Wenn Sie dann 48 X
groß werden, erhalten Sie 192. Das ist im Grunde die
Berechnung hier. Aber der RAM hier wird
zunehmen oder abnehmen. Manchmal bieten sie
Ihnen mehrere Optionen für die RAM-Größe. Weil es sich mehr
auf die CPU und den Speicher konzentriert. Also das Gleiche hier drüben,
der G zwei wird nicht kommen, sondern der G drei hier drüben, Sie werden die Unterschiede tatsächlich
sehen. So können Sie sehen, wie
effektiv die Kosten pro Stunde pro Stunde eingespart werden können. Sie hätten also so viel sparen können. Also gut, das ist so
ziemlich das, was ich dir dazu zeigen möchte Ich möchte nicht ins Detail gehen. Es gibt so viele Dinge, über
die wir sprechen wollen, aber lass uns das später machen, denn da dies der erste Abschnitt sein wird
, möchte
ich nicht viele
Dinge
in dieses Video einfließen Dinge
in dieses Video Ich werde also zu der
Folie zurückkehren,
die ich präsentiert
habe Ich werde es dort beenden. Das ist also das Verständnis
der richtigen Größe. Die Größe von
Schreibvorgängen ist so wichtig, dass Sie sich mit dem Instance-Typ vertraut machen müssen. Es gibt Instanztypen. Die
zwei Arten von Instanztypen. Im Instanztyp ist eins
die Familie, ein anderer Einheitsgröße. also die Familie
und die Größe kombinieren, erhalten tatsächlich die richtige
Größe für Ihre Anwendung. Um jedoch die richtige Größe
Ihrer Anwendung zu ermitteln , können
Sie sie mit
der vorhandenen Umgebung vergleichen und herausfinden, welche CPU und welcher
Arbeitsspeicher ihr zugewiesen sind. Oder Sie können sich mit
dem Architekten über die Leistung der
Anwendungen
und darüber, wie viel RAM
und CPU sie benötigen, erkundigen Leistung der
Anwendungen
und darüber, wie viel RAM , ob im Laufe der Zeit GPUs
benötigt werden, und wir können diese im Grunde genommen, wissen
Sie, auf AWS
richtig konfigurieren Nochmals vielen Dank für
Ihre Zeit und Geduld. Wir sehen uns
im nächsten Video.
12. Labs BYOL und andere Lizenzierungsstrategien: Hey, Leute. Willkommen zurück
zum nächsten Video. In diesem Video erfahren Sie
mehr über die Lizenzierungsstrategien. In diesem Video wird es
nun um Unterschiede zwischen den
Lizenzmodellen gehen. Es gibt zwei
Modelle, über die Sie sprechen
werden: Bringen Ihre eigene Lizenz mit
und schließen Sie auch Lizenz mit in
Ihre AWS-Instanz ein. Das ist also das Diagramm
, das ich Ihnen zeigen möchte. Es gibt also diese beiden
Klassifizierungen hier.
Bringen Sie Ihre eigene Lizenz
mit, wenn Sie bereits eine Lizenz dabei haben und Sie etwa drei
bis vier Jahre
Lizenzierungszeit bei
einer Firma oder einem Unternehmen
gebraucht haben etwa drei
bis vier Jahre
Lizenzierungszeit bei
einer Firma oder einem Unternehmen
gebraucht , richtig, wie ein Red Hat oder
Microsoft sagen,
okay, ich habe noch drei Jahre
Lizenz übrig Ist es also in Ordnung, in die Cloud zu
wechseln? Sie können also sagen, es ist wirklich okay, weil Sie Ihre eigene Lizenz
mitbringen können und Sie
müssen nicht wirklich bezahlen, Sie wissen schon, die Lizenz, die in diesem AOB
enthalten Oder wenn Ihre Lizenz bereits abgelaufen
ist, Sie einen neuen Service anbieten,
Sie planen, einen neuen Service
mit einem neuen Lizenzmodell einzuführen , weil
Ihre alte Lizenz im Laufe von
sechs bis , weil Ihre alte Lizenz einem Jahr
abläuft Dann können Sie AWS sogar direkt
bezahlen, einschließlich der Lizenzgebühr. Sie
müssen sich also nicht wirklich mit Wet Hat oder IBM oder, ähm, Sie wissen schon, mit irgendwelchen anderen Unternehmen, Microsoft oder so etwas anderem auseinandersetzen, Sie müssen sich nicht
wirklich mit ihnen auseinandersetzen. Alles, was Sie tun müssen, ist eine Pauschalzahlung, Sie können es
auf monatlicher
oder jährlicher Basis zu AWS machen , und zwar je nach dem Plan, den
Sie wählen. Jetzt werde ich
Ihnen einige praktische Tipps
dazu zeigen , damit Sie es
verstehen und viel besser verstehen können. Ich werde
diese beiden Dinge vergleichen. Wenn Sie sich also für Enterprise Linux entscheiden, können Sie hier sehen, dass es sich um
ein abonnementbasiertes RedHat
Enterprise Next handelt. Sie können sich also vorstellen, dass Sie sich ein Jahr lang selbst
unterstützen können. Self-Support bedeutet
also RedHat Kundensupport nicht
beinhaltet, also Red Hat oder, ähm, Atomic Host oder
physisches System. Das bedeutet also, dass Sie
sich selbst versorgen müssen, falls Sie einen legalen Zugang oder eine legale
Nutzung für diesen Red Hat Server haben, der für Rechenzentren genutzt
werden kann. Und das sind ungefähr 383
US-Dollar pro Jahr. Und wenn du dann
das Satellitenpaket
hinzufügst, bekommst du etwa sieben, 68. Und das ist der
Gesamtbetrag hier drüben. den
Standard-Support angeht, wo es die Öffnungszeiten der Support-Kuh zwischen 9:00 Uhr und 18:00 Uhr sind. Und,
ähm, Sie können sehen, dass es die
normalen Geschäftszeiten Also Web- oder
Telefon-Supportkanäle, unbegrenzte Anzahl von Supportfällen Wenn das also der Fall ist und Sie hier alle Arten von, Sie wissen schon, Bundles anbieten, einschließlich Hochverfügbarkeit,
Stabilität, Speicher und Support für externe Updates, erhalten
Sie
einen Preis von unter 2008 55. Und wenn Sie sich für
einen Premium-Support entscheiden
, der rund um die Uhr verfügbar
ist und Sie verschiedene Fälle ansprechen können, kostet das
in diesem Fall 3.131$ pro Jahr Das sind also die
Lizenzkosten in Bezug auf Red Hat. Wenn Sie jetzt
zu Windows wechseln, richtig? Für einen Server im Rechenzentrum
ist das also sehr einfach. Es sind 6.000 Hundert und 55$. Wenn Sie sich für eine physische oder
zumindest virtualisierte
Umgebung entscheiden , die auf Kernen basiert Auch hier handelt es sich um eine
kernbasierte Lizenz, und das sind 1006 90.069, also quasi die jährliche Zahlung, die Sie
dafür zahlen müssen Und dann haben Sie
das kleine Unternehmen bis zu 25 Benutzern auf 50
Geräten, etwa 5:01 In diesen Situationen können
Sie also sehen, dass die
Data Center Edition über
so viele Funktionen verfügt und
die Standardisierung dann nicht so viele Das ist so ziemlich die Ergänzung zum
Rechenzentrum hier drüben. Das ist der Grund, warum
es so viel kostet. Wenn Sie nun
dasselbe vergleichen, wenn Sie Ihr AWS verwenden, können
Sie
dies tatsächlich auf zwei Arten vergleichen. Sie können zu EC Two Instance wechseln und die Instance tatsächlich
starten. Und dann können Sie von dort
aus das Betriebssystem auswählen und es dann auschecken. Sie können hier zum vorherigen,
Sie wissen schon, unseren
Preisrechner gehen , auf Schätzung
klicken,
und Sie können tatsächlich nach EC Two Instance suchen
und dann auf Konfigurieren klicken. Und hier haben Sie die, Sie wissen schon, EC Two-Spezifikation
ganz oben, und dann haben Sie das
Betriebssystem. Es gibt Ihnen hier ein sehr einfaches
Betriebssystemelement. Sie haben also Redeye Enterprise x mit SQL. Wir wollen SQ nicht Wir wollen nur, dass HA
verfügbar ist. Wenn Sie HA auswählen, werden
Ihnen 27$ pro Monat in Rechnung gestellt, wie Sie hier sehen können Wenn Sie jetzt Windows
mit nur einem normalen
Windows-Server auswählen , kostet Und Sie können sehen
, dass es auch eine Windows Server SQR
Enterprise Edition , die
1.203,40 Ebenso haben Sie hier
verschiedene Dinge, aus
denen Sie auswählen Aber wenn Sie echte
Betriebssysteme wollen, können
Sie tatsächlich zu EC
Two Instance gehen und Sie
können sehen, äh, wie viel es Sie kosten wird. Die Kosten dafür werden erst berechnet , wenn Sie eines davon
auswählen, also werden Sie es hier
sehen. Ab sofort ist es also für
AMI Free qualifiziert. Es gibt diese kostenlosen, teilnahmeberechtigten , bei
denen Sie sie
tatsächlich auswählen können, und es gibt den Support mit
dem
ISQO-Server geliefert wird Nehmen Sie jetzt etwas wie Enterprise oder lesen Sie es
Enterprise Linux Es ist wie bei Red Hat Enterprises, Sie bekommen
dieses AMI hier drüben. Und hier gibt es ein Reedit
Enterprise Nine mit HVM,
das kostenlos teilnahmeberechtigt ist, und dann gibt es noch zwei
weitere, bei denen das nicht der Fall ist Eins mit SQL, ein anderes mit hoher Verfügbarkeit,
und klicken Sie darauf Jetzt wird es sagen, dass die Konfiguration geändert
werden muss, um das nur zu bestätigen. Und wenn es dann geladen ist, werden
Sie
einige Informationen darüber
erhalten , welche Art von Elementen
es enthalten wird. Ich werde einfach den Wind anhalten und ihn anhalten, sobald er fertig ist. Ich stecke nicht fest, aber ich aktualisiere einfach
die Seite, es hat funktioniert. Das ist also
Hochverfügbarkeit bei der Version Red Enterprise Linux
Nine und Sie können sehen
, dass sie mit SSD-Volume ausgestattet ist. Und so ziemlich das sind
Informationen, die Sie bekommen werden. Also werde ich hier keine
anderen Informationen ändern . Es wird
wie D zwei Mikro sein. Und wenn ich mir
die Gebühren hier ansehe
, werden
die Gebühren hier nicht erwähnt, aber das wird
tatsächlich berechnet, okay? Das wird also in dieser Höhe
berechnet. Es wird also sicher nicht umsonst sein
. Weil dir das,
was hier
erwähnt wird, in Rechnung gestellt werden , wenn du Linux mit
Haha identifiziert auswählst Sie werden 27$
nur für das Betriebssystem berechnen. Also, wissen Sie, bringen Sie Ihre Lizenz mit und die mitgelieferte Lizenz
wird für Sie
ein entscheidender Faktor sein für Sie
ein entscheidender Faktor weil Sie sich mit niemandem wirklich auseinandersetzen
müssen Sie können sich tatsächlich um die komplette Abrechnung kümmern. Es gibt noch eine Sache, die
ich Ihnen zeigen möchte, sind AMIs. AMIs ist im Grunde genommen MI
auf einem Computer-Image. Wenn Sie jetzt auf das AMI klicken, können
Sie tatsächlich nur direkt zu dieser EC
Two-Instance wechseln . Und dann
klicken Sie von dort aus einfach auf Launch Instance. Wenn Sie das sehen, werden hier Betriebssystemnamen Direkt danach
müssen Sie weitere AMIs durchsuchen. Wenn Sie darauf klicken,
stehen Ihnen drei Optionen
zum Durchsuchen zur Verfügung. Eines ist das R-AMI , das Sie mithilfe einer Vorlage
selbst erstellt haben. Und dann haben Sie
das Marketplace-AMI. Marketplace AMI
ist also etwas, das von, Sie wissen schon, AWS genehmigt wurde. Und hier kommt Ihr Oracle Red Hat ins Spiel und dann fügen sie ihr
offizielles Image hier ein. Und als AWS-Benutzer, der es
verwendet, kann eine
Bewertung zu diesem Bild hinterlassen. Und dann haben Sie
Community-AMIs. Sie haben also Community-AMIs, was ein Community-Image
ist, das öffentlich ist. Daher kann jeder dieses AMI
veröffentlichen, indem er einfach, Sie wissen schon, den Katalog auswählt. Und wie Sie hier sehen können, sind dies die Eigentümerinformationen
hier oder als Name. Amazon selbst
macht dieses Bild. Jetzt ist alles eine Kostenbasis. Es gibt diese kostenlosen AMIs , für die
Sie nichts bezahlen müssen. Es gibt auch diese
kostenpflichtigen. Lass uns hier einfach nach etwas
sehr Beliebtem suchen. Was das Lesen durch
AWS-Kunden angeht, machen
wir das einfach. Keine zwei WS-Backups auf Recovery AWS, kostenlose Testversion, bringen
Sie Ihre eigene Lizenz mit. Sie werden aufgefordert,
Ihre eigene Lizenz mitzubringen, was bedeutet, dass Sie Ihre Lizenz möglicherweise zu
einem bestimmten Zeitpunkt
eingeben müssen . Und dann haben Sie
andere Dienste und dann haben Sie auch das
SAP-Geschäft. Sie können sehen, dass es auch andere Dienste
gibt. Und da ist dieses
Microsoft 2019. Wenn ihr also einfach
zu den Details geht, seht ihr hier die
Übersicht und wie viel ihr für eine Stunde zahlen sollt. Das sagt dir also etwas über den
Preisindex hier drüben. Sie können auf Preise klicken. Tatsächlich können Sie einige
Informationen darüber sehen. Also, die Preise unterscheiden sich
je nach Volumen, tut mir leid, der Art der
EC Two Instance. diesem Preis von 3,3 84
geht es nun darum, ob Sie einen M Four Large
verwenden. Aber wenn Sie
einen T Two Micro verwenden, was eine kostenlose Instanz ist, oder T Two Micro mit diesem,
kostet das 0,016 pro Stunde kostet das 0,016 pro Jetzt können Sie es speichern, ich werde Ihnen die
Speichertipps zu einem späteren Zeitpunkt mitteilen, also sind wir noch nicht dazu gekommen, also werden wir zu einem
späteren Zeitpunkt darüber sprechen Ähm, das ist so ziemlich alles Sie über
ein bestimmtes Produkt erfahren können, und, wissen Sie, das
ist eine Testversion. Also, das ist bezahlt. Also hier ist es ein C fünf groß,
ein zwei X groß, tut mir leid. Und im Osten der USA. Also das ist hier der Preis pro Stunde,
wenn Sie
dieses spezielle AMI
oder Maschinen-Image verwenden wollen . Sie
werden also auch
verschiedene
Maschinen-Images haben , von denen einige kostenlos, andere kostenpflichtig sind. Sie können sehen, dass das noch billiger
ist, aber hier wird das Medium
T Three verwendet. T Drei ist wie eine Standardklasse vom Typ Easy to Instance. Es ist so mittelgroß, dass es die
Größe der Instanz verwendet. Und Sie können sehen, dass es ziemlich teuer
ist, würde
ich sagen, meiner
Meinung nach für Open Sous Aber genauso
werden auch
Leute aus Sicht des
Unternehmens hinzukommen Das ist von Open Sous selbst. Aber genauso
werden Sie Bilder sehen, die vom Anbieter genehmigt wurden,
und das ist ein offenes
Community-Bild Der Preis ist hier also neun
unterschiedlich, Sie können
also sehen, dass der Name
dieser Person hier drüben steht . Du klickst darauf, es ist
ein verifizierter Anbieter. Wenn Sie also dieses Bild auswählen, werden
Ihnen tatsächlich
einige Kosten entstehen, je nachdem, welcher
Preis festgelegt ist Manchmal könnte es kostenlos sein. Sie müssen also
für die Instanz bezahlen. Und das ist so ziemlich
etwas, das Sie tun müssen. Und jetzt, wenn Sie sich
für Organisation entscheiden, würden
sie eigentlich keines der
Community-Images
empfehlen, weil sie sich entweder für das entscheiden
würden, was im vorhandenen, um,
Sie wissen schon, Computer-Image
verfügbar ist ,
oder sie würden sich für ein,
Sie wissen schon, zugelassenes Image
von AWS und
vom Markt entscheiden Sie wissen schon, zugelassenes Image von AWS und
vom Markt Sie würden sich also nicht
für Community-AMI entscheiden. Also erinnerst du dich daran. Also das ist etwas, das ziemlich solide
ist und, du weißt schon, es ist empfehlenswert, es
zu versuchen. Es beinhaltet zwar
einige Lizenzgebühren, aber es
wird sich trotzdem lohnen , da Sie vom
Support-Team Support und
Wartung erhalten , falls Sie Hilfe zu einigen
der Probleme
benötigen , mit denen Sie hier konfrontiert
wurden. Nun gibt es hier eine weitere Kategorie namens Quick
Start AMIs, in der es um einige der von AWS
empfohlenen, Sie wissen schon, AMI geht. Das ist also im Grunde das, was
Sie auf der
EC-Startinstanz mit zwei Instances sehen können, wenn Sie die
Standard-Images sehen, oder? Nun, woher das kommt woher diese Images
kommen,
sie kommen von Quick Start AMIs. Das ist also im Grunde das
Basisbetriebssystem, einige sind kostenlos, andere kostenpflichtig. Aber dann sind die meisten
gebrauchten Artikel
hier drüben , sodass Sie sie schnell
auswählen können, anstatt, ähm, Sie wissen schon, im AMI zu
stöbern. Ähm, die Markt-AMIs. Das ist also der Unterschied zwischen
den Schnellstart-AMIs und
den Marketplace-AMIs. Das ist also so ziemlich das, was ich Ihnen in diesem Video zeigen
möchte. Ich hoffe, Sie haben
den Unterschied verstanden zwischen dem
Mitbringen Ihrer alten Lizenz und der Lizenz, die in Ihrer,
Sie wissen schon, monatlichen Zahlung enthalten
ist Sie wissen schon, monatlichen Zahlung die Sie zahlen müssen. Also zum Beispiel, äh, mein Konzept hier in den
letzten zwei Monaten beinhaltet auch das
Abonnement der Dienste, die ich als
Teil meiner EC-Instances genutzt habe. Das wird also in meiner monatlichen Rechnung enthalten
sein. Also wird es so aussehen. Also gut. Nochmals vielen Dank
für Ihre Zeit und Geduld. Ich hoffe, dass Sie
dieses Thema ziemlich gut verstanden haben, und ich werde
im nächsten Video mit Ihnen sprechen.
13. Festkosten vs. variable Kosten AWS-Preisrechner von Labors: Hallo Leute. Willkommen zurück
zum nächsten Video. In diesem Video werden
wir uns mit den Konzepten der Cloud-Ökonomie befassen. Nun, wie Sie in
dem Dokument hier sehen können, haben
wir die, ähm, Sie wissen schon, Aufgabe vier, die besagt, das Konzept
der Cloud-Ökonomie zu
verstehen Und darin
haben Sie mehrere Themen. Zu diesem Thema werden Sie viele
Fragen bekommen,
insbesondere im Zusammenhang mit der Bring Your Own-Lizenz, Fixkosten und den variablen Kosten. Etwas über die Vorteile der Automatisierung und auch etwas
über die Managed Services. Was sind die Okay. Obwohl wir hier
über
ein gewisses Verständnis von Managed Services
gesprochen haben, werden wir hier
sehr viel über
Managed Services erfahren. Und das wird
wieder ein Überblick sein. Wir werden nicht auf
jeden dieser verwalteten Dienste eingehen , was im Moment
für Ihre Zertifizierung auf dieser
Ebene wirklich nicht erforderlich ist. Wie dem auch sei, wir werden verstehen, dass wir zu
einem späteren Zeitpunkt ein
tieferes Verständnis haben werden dass wir zu
einem späteren Zeitpunkt ein
tieferes Nun, womit ich beginnen
möchte, sind diese beiden
Dienste hier drüben Es tut mir leid, diese beiden
Fähigkeiten hier drüben, die wir verstehen werden und wir werden ASPA
in die Praxis Dieses Training wird also sowohl Architektur als auch
Handarbeit beinhalten Also lass uns einfach weitermachen. Wirtschaftlichkeit
der
Cloud
zu verstehen, müssen Sie im Grunde verstehen , welche
Kosten Um die Wirtschaftlichkeit
der
Cloud
zu verstehen, müssen Sie im Grunde verstehen, welche
Kosten Ihrem
Kunden entstehen werden. Nun, in der
vorherigen Architektur, haben
wir das Framework für die
Einführung identifiziert und wir haben, ähm,
daran gearbeitet, wie Sie Ihre, Sie wissen schon,
Anwendung von der lokalen Infrastruktur in
Ihr Cloud-Cloud-Rechenzentrum migrieren wie Sie Ihre, Sie wissen schon,
Anwendung von der lokalen Infrastruktur in
Ihr Cloud-Cloud-Rechenzentrum Jetzt haben Sie
diese beiden Aspekte verstanden. Nun, hier ist
der Kunde froh, dass er die Säulen kennt
,
er kennt das, Sie wissen schon,
das Framework, und er
weiß, wie man es migriert. Sie haben
dem Kunden also gesagt was Sie
dem Kunden
als Nächstes sagen werden, ist zum
Beispiel, worum es bei der
Wirtschaft geht? Zum Beispiel, wie viel Geld
Sie in Bezug auf
Fixkosten und variable Kosten sparen können . Sie werden in Bezug auf
Lizenzierung und Migration
zu einem Managed Service sparen , wie viel Ihr Kunde dadurch
tatsächlich sparen wird Es ist also sehr wichtig
, dass Sie als AWS-Techniker
davon ausgehen, dass Sie sie dem Kunden anbieten Und das ist der Grund,
warum dies Teil
Ihres Zertifizierungskurses
auf der Grundlagenebene ist Ihres Zertifizierungskurses
auf der Grundlagenebene Um dies also zu 100 Prozent
ohne Probleme zu erledigen, wissen
Sie, dem Kunden zu liefern
, müssen
Sie
zunächst
die Fixkosten und die
variablen Kosten verstehen die Fixkosten und die
variablen Kosten Ich habe
auch ein kleines praktisches Beispiel für Sie . Jetzt sind diese beiden
Themen also miteinander verwandt. Aus diesem Grund wird es
zusammen als Abschnitt betrachtet. Nun, hier haben Sie das
Verständnis dafür, welche Rolle feste Kosten im Vergleich zu
variablen Kosten spielen, und Sie haben ein Verständnis der Kosten Zusammenhang mit der Umgebung von
Versprechen. Wie Sie hier sehen können, sind
Fixkosten nichts anderes als wir geben
einfach für, ähm, Sie wissen schon, bestimmten Betrag für,
ähm, Sie wissen schon, Gerät, einen
bestimmten Betrag für,
ähm, Sie wissen schon, Gerät,
Beschaffung, wie Hardware, aus, und Sie müssen sie gewissermaßen im Voraus
bezahlen. Und
diese Anforderung haben Sie nicht. Zum Beispiel, ähm,
wenn Sie auf
Amazon.com suchen und eine Speichergröße von,
Sie wissen schon,
einen Server, eine
Festplatte, ein Speicherlaufwerk oder eine
Speichergröße von
zwei TB oder drei TB
oder vier Fernsehgeräten kaufen möchten wenn Sie auf
Amazon.com suchen und eine Speichergröße von,
Sie wissen schon,
einen Server, eine
Festplatte, ein Speicherlaufwerk oder eine
Speichergröße von
zwei TB oder drei TB
oder vier Fernsehgeräten kaufen Speichergröße von,
Sie wissen schon,
einen Server, eine
Festplatte, ein Speicherlaufwerk oder eine Speichergröße von
zwei TB oder und Sie das
Gefühl haben, dass das das Maximum
an Inhalt ist, das Sie benötigen Sagen wir zum Beispiel ein TB an Daten oder
drei TB an Daten Sie werden das nicht
anpassen können. Sie werden ein bestimmtes Limit haben. Sie können sehen, dass Ihr
Western Digital Red Plus etwa vier Fernseher umfasst. Wenn Sie eine solche
Vier-TV-Festplatte kaufen, müssen
Sie eine
weitere Festplatte kaufen, bei der es
sich ebenfalls um vier Fernseher handelt da Sie
sie aus Redundanzgründen benötigen Sie benötigen es für
Failover-Fehlertoleranz und ähnliches, denn so sind
Schutzsysteme konzipiert Sie sollten also eine Sicherungskopie
ähnlicher Daten haben. Sie müssen also
zwei dieser vier Fernseher
und beide vier TB kaufen ,
Sie werden tatsächlich
nur einen Fernseher verwenden , nur
weil es auf dem Markt
nichts gibt ,
das für einen TB Sie müssen mindestens einen kaufen. Entweder Sie entscheiden sich für
zwei Fernseher oder vier TB, aber derzeit sind nur
vier Fernseher verfügbar. Sie müssen also
etwa 99$ dafür ausgeben, und Sie müssen weitere 99$
ausgeben, um eine Replikation dafür
zu haben Es sind also etwa 200$ dafür. Und wenn du keine Wahl hast
, oder? Sie haben hier also etwa acht
GB an Daten,
was hier etwa 200$ entspricht
. Also kannst du das sehen Das ist ziemlich gut,
Festplatte, weil Sie eine
Festplatte für Ihren Server kaufen möchten, was ziemlich teuer ist. Aber das ist völlig
anders, wenn Sie sich für ein echtes
Serverspeichergerät entscheiden, das wird
völlig anders sein. Wir haben also verschiedene
Websites des Anbieters, und sie werden später im Angebot
dafür tatsächlich etwas
angeben ,
das ganz anders ist. Also werden wir
das als Beispiel vergleichen. Also, ähm, du kannst sehen, dass das mit einer Rate
konfiguriert ist. Nehmen wir zum Beispiel
an, dass
Sie 200$ für
acht TV-Daten ausgeben, aber Sie
verwenden tatsächlich Daten von zwei Fernsehgeräten Okay. Jetzt haben wir in Ihrem AWS-Service
ein hervorragendes Tool namens
Abrechnung und Kostenmanagement. Wenn Sie Abrechnung
und Kostenmanagement eingeben, erhalten
Sie dieses Tool
namens Preisrechner. Sie können auf
diesen Preisrechner auch
direkt über die
Rechnerroute AWS zugreifen . Wenn Sie nun auf
diese URL zugreifen,
gelangen Sie tatsächlich zum
Preisrechner hier. Dieser
Preisrechner zeigt Ihnen nun die geschätzten Kosten Ihrer
Architekturlösung. Zum Beispiel
sprechen wir derzeit über Speicher
. Jetzt werden Sie es also vor
Ort kaufen, und wie ich Ihnen bereits gesagt habe,
ist Speicherplatz nicht in einer
benutzerdefinierten Größe erhältlich, okay? Es ist nur in zwei,
vier, äh, acht, 16 erhältlich vier, äh, acht, 16 Ebenso haben Sie das,
was verfügbar ist. Und die zweite Sache ist, dass der Anbieter, mit dem Sie sich
möglicherweise
befassen, ein höheres
Produkt zu einem niedrigeren Preis verkaufen möchte. Sie werden also immer
für einen größeren Speicher einspringen, auch wenn Sie nicht so
viel Speicherplatz in Anspruch nehmen werden. Sie
müssen also quasi, wissen Sie, für
einen Versuch bezahlen und Sie
werden tatsächlich, wissen Sie, ein
Speichergerät
bekommen,
das über einen riesigen Speicherplatz verfügt . Aber was Sie tatsächlich
verwenden werden, ist nicht viel. Sie werden also nicht
100 Prozent davon verwenden. Also
musst du diesen Betrag irgendwie ausgeben, und du musst ihn auch
früh ausgeben, bevor,
du weißt schon , irgendwas anderes passiert. Also, genauso, ähm, da gibt es
eine Menge Probleme. Da gibt es eine Menge
Komplikationen. Aber wenn Sie mit AWS arbeiten
, kommen hier beim
Cloud-Computing die
variablen Kosten ins Spiel . Mit diesem
Preisrechner können
Sie
ihn nun tatsächlich nach
Ihren Anforderungen berechnen . Lassen Sie uns zum Beispiel hier
eine Schätzung bewerten und ich wähle North
Virginia als meine Region aus. Es gibt einen Grund, warum ich
das zu einem späteren Zeitpunkt mache. Ich werde dir sagen, warum
ich die Region wähle. Und hier gebe ich S drei
als Servicenamen. Also hier klicke ich einfach
auf Kid Figure
und du siehst, dass es
unter ST
so viele Klassifizierungen gibt unter ST
so viele Klassifizierungen Also für Lambda haben Sie
selten Zugriff, also wissen Sie,
Sie haben Express auch Also genauso haben Sie so viele. Was jedoch standardmäßig ausgewählt ist, ist der Standard und die Datenübertragung. Das sind also die beiden
Dinge, die verwendet werden. Nehmen wir zum
Beispiel an,
Sie werden pro Monat etwa 200 GB an Daten hochladen. Es ist also nicht so, dass
Sie während des
Cats eine Anwendung
hochladen, sodass Sie neue
Benutzer bekommen, die Daten
der Benutzer werden in
Ihre Datenbank oder
Ihr Datenlaufwerk geladen,
das hier
S 3 verwenden wird,
und es werden
schrittweise zwei Fernseher hinzukommen der Benutzer werden in
Ihre Datenbank oder
Ihr Datenlaufwerk geladen , das hier
S 3 verwenden wird,
und es werden schrittweise zwei Es ist nicht so, dass du
es in einem Monat bekommen wirst. Es kann ein Jahr dauern, bis es
allmählich auf zwei TB anwächst. In diesen Situationen können Sie sagen, dass 200 GB pro Monat das sind,
was Sie tun werden. Sie erwarten, dass die
Daten verfügbar sein sollten. Welche Art von Daten
werden auf dem ST-Standard übertragen? Sie geben die Datenmenge an
, die verschoben werden soll, ja. Diese spezifische
Datenmenge ist also bereits
in ST-Standards gespeichert, das ist
also so ziemlich dieser. Und füge eine Liste kopierter Beiträge hinzu, die einfach, du
weißt schon, häufig laufen. Also würde ich das alles sagen. Also muss ich
es nummerieren. Also ich würde sagen,
du bekommst etwa 100 Mal
so etwas und dann 50 Mal die Liste und all das oder
so. Also hier die Datendaten, die von der S3-Auswahl
zurückgegeben wurden, die Datenrückgabe und
dann die Daten, die mit dem S-Drei-Selektor
gescannt wurden.
Es ist also nicht viel Ich schätze, im Bereich von zehn
GB bis 20 GB werden
Sie Daten
von S Three Select
gescannt und zurückgegeben haben . Also so ziemlich das und dann können
Sie diese
Berechnung hier sehen. Sie haben also den
Preis von 200 GV und Sie haben tatsächlich monatliche
Ausgaben von 4$. Das sehe ich Sie haben also tatsächlich, wissen Sie, 200$
für ein ATB-Laufwerk ausgegeben, was langfristig ist
und Sie werden das nicht wirklich nutzen,
das ist eine sehr große Sache Sie werden also nicht
wirklich ATV verwenden Äh, am Anfang werden
Sie es eigentlich
nur mit
200 GB an Daten zu tun haben und dann werden es
allmählich, oder? Jetzt können Sie hier sehen, wie viel
Geld Sie sparen können. Also dieses Geld, die 200$, wenn du es gesetzt hättest,
anstatt es im Voraus zu zahlen, und du zahlst jeden Monat etwa 4$, du verdienst die Zinsen Geld, weil du
das Geld nicht wirklich
ausgeben
wirst,
du wirst es tatsächlich bei dir
haben,
was bedeutet, dass die Zinsen für dieses Geld du wirst es tatsächlich bei dir
haben,
was bedeutet, dass bei dir
sein werden Sie hätten
in etwas anderes investieren können. Und tatsächlich belaufen
sich die Gesamtkosten von S Three Standard auf 4$, einschließlich all dieser einschließlich all dieser Anfragen und
dergleichen Put und G sind nicht viel, wie
Sie hier sehen können. Und was die
Datenübertragungsfunktion angeht, können
Sie einige
Datenübertragungsfunktionen wie kostenloses Internet hinzufügen , und Sie können tatsächlich eingeben, wie viel Datenübertragung
Sie hier erwarten. Und Sie können sich
die Berechnung hier ansehen, sagen wir
einfach ein TB pro Monat und dann wieder
eine Datenübertragung ins
Internet im Fernsehen. Sie können tatsächlich sehen, dass
es hier 92$ sind. Aber das ist ein TB Terabyte an
Daten, die über das Internet übertragen werden Okay. Also jetzt hier, die Datenübertragung von der eingehenden Datenübertragung
ist völlig kostenlos Wenn ich also nicht
so viele Daten nach
draußen ins Internet exportiere , wird mir eigentlich nichts
berechnet Die eingehenden Daten
sind also völlig kostenlos. Ich kann also
Daten in S drei aufnehmen, aber ich kann
Personen daran hindern , von S drei aus auf
meine Daten zuzugreifen, und ich kann interne Dienste nutzen. Ich kann zum Beispiel eine andere,
ähm, Sie wissen schon, eine andere Region verwenden . Um diese Daten zu erfassen. Wenn Sie sich also einfach dafür entscheiden
und ich einfach
auf diese 200 GB an Daten zugreife,
und Sie können sehen, dass mir
in allen Regionen 4$ entstehen, und selbst
wenn ich sie
über das Internet überweise, werden auf diese 200 GB an Daten zugreife, und Sie können sehen, dass mir
in allen Regionen 4$ entstehen , und selbst wenn ich sie
über das Internet überweise, es nicht viel 18 USD
sein Nun, diese Kosten von 18 USD würden
Ihnen auf jeden Fall entstehen, selbst wenn Sie
dieses Festplattenlaufwerk verwenden, müssen
Sie immer noch
die Internetgebühren bezahlen Das Internet ist nicht kostenlos, egal ob es - oder
ausgeht Diese Gebühr würde Ihnen
irgendwann als
Internetgebühr Aus diesem
Grund sind die Datenfunktionen und die
Datenübertragungsfunktion von ST
getrennt, da dies die
Internetgebühren für die Datenübertragung einschließt. Aber das Gute
ist, dass das Internet
kostenlos ist , wenn Ihre eingehenden Daten
und ausgehende Daten
berechnet
werden, weil Sie sie tatsächlich an einen anderen Ort hochladen Jetzt können Sie es auf
Cloudfrind hochladen, was Ein Crowdfrind
ist, wie ich Ihnen gesagt habe, ein Cache-Server, und
er
speichert die Informationen im Grunde zwischen
und sendet sie an den Kunden, der sie
durchsucht, um schneller,
Sie wissen schon, Sie wissen schon, Mit all diesen Gebühren können
Sie jetzt monatliche
Gesamtkosten von 22 oder 22 USD sehen,
was wirklich billig ist, wenn Sie mit diesem Typen hier
vergleichen Wenn Sie anfangen,
mehr Daten
zu verbrauchen , wenn Sie ein Niveau erreichen, bei dem Sie tatsächlich
zwei TB pro Monat nutzen. Sagen wir einfach zwei Fernseher pro Monat. Sie können tatsächlich sehen, wie viel Sie pro Monat ausgeben werden. Sie werden tatsächlich 47$ ausgeben. Sie sind nicht einmal
annähernd an das herangekommen, was Sie hier
ausgeben, aber ich weiß, es ist eine monatliche
Gebühr, aber sie wird sich jeden
Monat wiederholen Aber es gibt immer
eine Möglichkeit, die Daten, die
Sie nicht verwenden, zu archivieren und
sie zur Tiefarchivierung zu schicken.
Es gibt andere
Dienste, die Ihre
Daten
speichern, Sie wissen schon, sogar günstiger als S Drei,
weil sie sich
im D-Archivierungszustand Es gibt andere
Dienste, die Ihre Daten
speichern, Sie wissen schon, sogar günstiger als S Drei, weil sie sich
im D-Archivierungszustand Wir werden zu einem späteren Zeitpunkt über diese
Dienste sprechen, aber Sie können
diese Dienste auch archivieren Ebenso ist dieses Tool so
wichtig für jeden, wichtig für jeden, seine
Karriere bei AWS beginnt Sie möchten
mehr über die Services erfahren und wissen, wie sie sich auswirken werden. Wir
werden
dieses Tool häufig verwenden, um mehr darüber zu erfahren oder es zu hosten, weil
ich
als Ingenieur dieses Tool so
oft verwendet habe , wenn ich
mit einem Kunden
und seinen Bedürfnissen gearbeitet habe möchte lediglich Geld und
Kosten sparen und den
größten Teil des Prozesses automatisieren. Um das zu tun, ist dieses Tool so gut und ich werde Ihnen
zu einem
späteren Zeitpunkt mehr darüber beibringen. Um auf diesen
speziellen Aktionspunkt zurückzukommen, hoffe
ich, dass Sie
verstanden haben, was feste Kosten und was variable Kosten sind,
und dass Sie die Kosten verstehen, die in der
OnPMISee-Umgebung anfallen der
OnPMISee-Umgebung anfallen Ausgaben gehören, ähm,
der Kauf und die Wartung
von physischer Hardware, Netzwerkausrüstung,
Speichergeräten ,
Strom und Kühlung ,
und
in Bezug auf Wartung und Personal müssen
Sie ein IT-Team einstellen das tatsächlich engagiert sein muss,
und es sollte sich tatsächlich
um und es sollte sich tatsächlich Ihren
Rechenzentrumsservice
kümmern
, den Sie eigentlich nicht benötigen
Bedingungen für Cloud Computing weil wir uns zu späteren Zeitpunkt mit
der gemeinsamen Verantwortung befassen werden, aber Sie werden
erstaunt sein zu wissen, dass AWS sich um
den Service kümmert , bei dem Sie Ihre Services hosten
werden. Sie haben also nicht wirklich den Aufwand
, ein
IT-Team oder etwas Ähnliches für
die Verwaltung Ihres Rechenzentrums einzustellen IT-Team oder etwas Ähnliches . Und dann haben Sie die Kosten für
Datenwiederherstellung und Datensicherung, die
Ihnen
im Grunde sagen, dass Ihnen Sie im
Notfall und Ihre Daten
wiederherstellen können, und das kostenlos, denn wenn eine verfügbare
T-Zone ausfällt, steht eine weitere
T-Zone zur Verfügung, die
Ihre Daten verschiebt , und diese Daten werden zwischen diesen
beiden verfügbaren T-Zonen übertragen. Ob Sie sich dafür entscheiden oder
nicht, spielt keine Rolle, aber die Daten
werden standardmäßig in
zwei verfügbaren T-Zonen von Amazon verfügbar sein, aber die Daten
werden
standardmäßig in
zwei verfügbaren T-Zonen von Amazon verfügbar sein,
sodass Sie sich darüber keine Gedanken machen
müssen. Aber wenn Sie vor Ort
arbeiten, müssen
Sie, wie ich Ihnen gesagt habe, alles, was Sie kaufen, plus eins erledigen. Plus zwei. Wenn Sie die
Redundanz beibehalten möchten, wenn Sie eine
andere Klassenstufe wählen möchten, müssen
Sie sich für
plus zwei oder standardmäßig plus
eins für Mirror Ring entscheiden standardmäßig plus
eins für Mirror Ring Wenigstens
sollte der Spiegel da sein. Das ist der Grund,
warum wir uns für variable
Kosten und Cloud-Computing entscheiden . Nochmals vielen Dank fürs Zuschauen.
Wenn Sie Fragen haben, hinterlassen
Sie diese bitte im
Fragenbereich. Wir sehen uns im nächsten Video.
14. AWS-Compliance von Labs: Hallo Leute. Willkommen zurück
zum nächsten Video. In diesem Video werden wir
über Aufgabe zwei sprechen. Zunächst werden wir uns mit
den Konzepten
der
AWS-Cloud-Sicherheits-Governance vertraut machen. Bei dieser speziellen Aufgabe wollten
wir uns nun mit dem
AWS-Compliance- und
Governance-Konzept vertraut
machen . Ich werde
etwas über Cloud-Sicherheit
wie Verschlüsselungen und
einige andere Dienste erfahren wie Verschlüsselungen und
einige andere Dienste Wir werden das Erfassen und
Auffinden von Protokollen mithilfe von
Cloud-Sicherheit, tut
mir leid, im Zusammenhang
mit Cloud-Sicherheit verstehen Auffinden von Protokollen mithilfe von
Cloud-Sicherheit, tut
mir leid, im Zusammenhang
mit Cloud-Sicherheit Es wird
also eine weitere Reihe
von Diensten geben , die
wir dort sehen werden. Wie Sie sehen können, werden
wir uns hier zunächst diesen beiden Themen befassen, weil
sie weniger miteinander verwandt sind. Wir werden es also als einen
bestimmten, Sie wissen schon, Abschnitt betrachten . Und dann werde ich mich zu einem
späteren Zeitpunkt mit anderen Themen befassen. Also hier,
um herauszufinden, wo Sie
AWS-Compliance-Informationen finden können. Zum Beispiel AWS-Artefakte. Jetzt ist Compliance für uns
sehr wichtig,
und wir wissen es, wenn das Unternehmen Auditsitzung
durchläuft oder wenn Sie Ihre gesamte
Konformität auf Ihrer Website angeben. Sie müssen also
sicherstellen, dass Sie
diese
Konformitätszertifikate von
AWS finden diese
Konformitätszertifikate von , denn das ist jetzt
Ihr Partner. Dort
hosten Sie, und es gibt auch einige
geografische Vorschriften die Sie nachweisen müssen, ebenso wie die
Einhaltung von Industriestandards
wie Gesundheitswesen,
Finanzen und Branchen. Wir haben also auch
bestimmte Anforderungen, also werden wir uns
näher damit befassen. Gehen wir also hier zu meiner Zeichnung. Ich habe zwei Bilder
für euch, und auf beiden Bildern geht es
um die AWS-Compliance-Informationen, bei
denen es sich um ein AWS-Artefakt handelt, und die geografischen,
branchenspezifischen Compliance-Anforderungen Nun, das sind die beiden Dinge wir in diesem Video sehen Wir haben also tatsächlich eine Demo in Bezug auf diesen
speziellen Service, die ich Ihnen
gleich zeigen werde. Aber was können Sie
von diesem Service erwarten? Nun, AWS Artifact ist
ein Self-Service-Portal für den Zugriff auf Zertifikate
und Vereinbarungen für
AWS-Compliance-Berichte Zertifikate
und Vereinbarungen für
AWS-Compliance-Berichte Es ermöglicht Verbrauchern,
Compliance-Dokumente wie
SoC-Berichte sowie
ISO-Zertifikate,
PCI-Anforderungen
und Zertifikate herunterzuladen SoC-Berichte sowie
ISO-Zertifikate, PCI-Anforderungen
und Sie können
das
also auch nutzen, Verbraucher das AWS-Artefakt
verwenden können, um
sich zu treffen. Das
Hintergrundgeräusch tut mir wirklich
leid , wenn Sie mich das
Hintergrundgeräusch hören
können Das tut mir wirklich so leid. Um interne Compliance
- oder Audit-Anforderungen zu erfüllen. Dies sind also einige
der Anforderungen für die wir diese Berichte benötigen. Lass uns einfach zur Demo gehen
und das dann beenden. Geh einfach rüber und
suche nach Artefakten. Klicken Sie jetzt einfach mit der mittleren Maustaste darauf und
es sollte dann in Ihrem Fenster geöffnet Ich habe es schon geöffnet, weil
mein Internet etwas langsam ist. Nun, hier ist der Home-Bereich. Also das sind zwei Dinge, die Sie hier tun können,
was sehr wichtig ist. Sie können Vereinbarungen und
Berichte einsehen. Jetzt, wo Sie eine Organisation
geschaffen haben, was Sie
derzeit so ziemlich nicht getan hätten. Ihre Vereinbarungen gelten also für beide
Artikel, tut mir leid. Sowohl Ihr Konto
als auch Ihre Organisation. Schauen wir uns also zunächst die Vereinbarung
an. Derzeit haben wir noch
keiner Vereinbarung zugestimmt. Sie können
also eine Vereinbarung auswählen
und diese dann akzeptieren. Es gibt jedoch bestimmte Vereinbarungen auf einem
geografischen Standort
basieren. Sie können beispielsweise
Neuseeland und Australien sehen. Ich denke, das ist
ziemlich allgemein, denke ich. Sie können also die Vereinbarung lesen
, um mehr darüber zu erfahren. Aber sobald Sie
eine Organisation erstellt haben, werden
Sie hier
einen weiteren Tag haben
, der sich mit
Ihrer Organisationsvereinbarung befasst. Sie haben sich also bei
einem Verwaltungskonto
einer Organisation angemeldet . Sie müssen also nur
Serviceregeln erstellen und die Erlaubnis
erteilen. Dann werden Sie die
Organisationsvereinbarung sehen. Also machen wir das später. Aber wenn
Sie jemand bittet , es herunterzuladen, oder wenn
es eine Frage gibt wo Sie eigentlich die Vereinbarungen
für Ihren, ähm, Sie wissen schon,
Ihren SOC-Bericht oder
ISO-Zertifikate oder PCI-Zertifikate
finden für Ihren, ähm, Sie wissen schon, , dann können Sie sie
tatsächlich
im AWS-Artefakt unter
Berichte oder Vereinbarungen angeben im AWS-Artefakt unter
Berichte oder Sie werden Sie also eindeutig fragen, wo Sie die Zertifikate
herbekommen Sie können
die Zertifikate tatsächlich aus Berichten und allem anderen beziehen, wo Sie eine
Vereinbarung unterschreiben, wenn sie Sie
im
Abschnitt „Vereinbarung“ von AWS Artifact danach fragen im
Abschnitt „Vereinbarung“ von AWS Artifact Jetzt können Sie hier nach jeder Art von Bericht
suchen. Wie zum Beispiel SOC-Bericht, Sie können hier einfach nach SOC
suchen und erhalten
Sie den
Bericht. Da drüben. Also, das ist SOC Two, ein
Bericht vom Typ zwei,
der die AWS-Kontrolle bewertet und
die Kriterien für Sicherheit,
Verfügbarkeit, Vertraulichkeit
und Datenschutz des
American Institute of
Certificate, Public Accountants, erfüllt Verfügbarkeit, Vertraulichkeit
und Datenschutz des
American Institute of
Certificate, Public Accountants, Sie erhalten ihn also ebenfalls, wählen ihn aus und
laden dann den Bericht herunter Also das ist Pi, die Standardeinstellung besagt, dass ,
ähm, der
Berichtszeitraum März 2024 ist. Das ist ein Geschäftsjahr,
letztes Geschäftsjahr. Sie können also eindeutig sagen, dass es sich bei
diesem speziellen Bericht im Grunde um einen
AOC-Typ-2-Bericht Im Grunde genommen können Sie ihn Ihren Prüfern
zur Verfügung stellen und ihn
auch auf Ihrer
Website veröffentlichen, damit Sie sagen können, dass Sie unabhängig davon wo Sie Ihre Inhalte hosten,
ziemlich kompatibel
sind Das ist also im Grunde das, was AWS-Artefaktservice
und der von ihm angebotene Service ist. Nun, wenn Sie hier über
den zweiten Punkt sprechen, sich Ihren geografischen branchenspezifischen
Compliance-Anforderungen befasst Nun gilt die geografische
Einhaltung grundsätzlich verschiedene Regionen oder Länder, in denen spezifische Vorschriften gelten, wie etwa Datenschutz
- und Sicherheitsgesetze Sie müssen sich also daran halten. Ihr Hosting-Partner sollte diese Dinge
einhalten. Die Frage wäre also,
woher wissen Sie, ob Sie, wissen
Sie, eine DSGVO haben,
das ist Ihre allgemeine
Datenschutzbehörde
für einen das ist Ihre allgemeine
Datenschutzbehörde Kunden in der Europäischen Union oder
in Kalifornien,
tut mir leid, den Consumer Privacy Act
, der in den Vereinigten Staaten CCPA ist Es handelt sich also um einige regulatorische
Vorschriften, die laut AWS allen
Kunden zu Prüfungszwecken
zur Verfügung gestellt werden
müssen , und das
ist etwas, was geografische Konformität bedeutet Und es gibt bestimmte Dinge,
zum Beispiel branchenspezifische. Zum Beispiel benötigen Sie HIPAA für das Gesundheitswesen oder das
Finanzwesen, wir brauchen Diese müssen also erforderlich sein,
wenn Sie Ihre Anwendung
bei einem Cloud-Anbieter hosten
möchten Wenn also eine Finanz- oder
Bankanwendung in AWS verfügbar ist, prüfen sie als Erstes , ob dies damit
kompatibel ist. Damit sie ihre
Anwendung auf dieser Plattform hosten können. Wie stellen Sie das sicher? Es gibt hier ein anderes
Tool, nach dem Sie
tatsächlich googeln können , es
heißt AWS Compliance. Jetzt können Sie hier
sehen, ob Sie es für
Ihre Anforderungen verwenden
können. Hier nun PCI DSS, was für Finanzen ist, HIPAA, für Ihren Gesundheitssektor, und dann haben
Sie ebenfalls die DSGVO, die für Ihre
Europäische Union gilt Ebenso haben Sie all diese zufriedenstellenden
Compliance-Anforderungen Welt
all diese zufriedenstellenden
Compliance-Anforderungen Also ähm, AWS hat sie. Deshalb haben sie
es hier veröffentlicht. Sie können auch
das Whitepaper lesen ,
um mehr
darüber zu erfahren. Sie können auch auf die
Compliance-Website gehen und dort die
gesamte Konformität ansehen , zu der sie gehört. So können Sie sehen, zu wie vielen
Vorschriften es gehört. Sie können also sehen, dass Sie sowohl
in den
Regionen als auch in bestimmten Regionen wie Amerika über all
die Zertifikate verfügen, all
die Zertifikate verfügen die Sie benötigen
,
um Ihre Artikel hier zu hosten . Das ist für den asiatisch-pazifischen Raum. Sie haben ISO 2000 für Indien. Sie haben, ähm, IRAP für Australien, und dann haben Sie eine
Fintech-Zertifizierung für Japan, und dann haben Sie dieses
Garmon-Programm für Zugriffssicherheit für den öffentlichen
Dienst Also, sie erneuern es
irgendwie und stellen sicher, dass sie all diese Dinge
haben bevor Sie Sie müssen also in
der Prüfung sagen , dass Sie all diese, Sie wissen schon,
regional
überprüfen werden , indem Sie
zum
AWS-Compliance-Portal gehen , und dort werden
Sie es tatsächlich bekommen. Um ganz einfach hierher zu gelangen, googeln Sie
einfach vier AWS, äh, AWS-Konformität, und Sie können
tatsächlich zu dieser Seite gelangen, und von hier aus
können Sie tatsächlich diese Webseite zum
Compliance-Programm aufrufen. Das sind alles Jungs für
dich in diesem Video. Ich hoffe, es war hilfreich
für Sie,
diese beiden Konzepte und die Navigation
in diesem Portal zu verstehen . Nochmals vielen Dank für
Ihre Geduld und Zeit. Wir sehen uns im nächsten Video.
15. Labs AWS Detective: Hallo Leute. Willkommen zurück
zum nächsten Video. In diesem Video
werden wir
über Detective AWS Detective sprechen . Was ist nun AWS Detective? Detective hilft Ihnen bei der Untersuchung Sicherheitsproblemen, indem es
Sicherheitsdaten aus AWS-Services
wie Cloud-Testversionen und VPC-Flow-Logs
analysiert und visualisiert Sicherheitsdaten aus AWS-Services wie Cloud-Testversionen und VPC-Flow-Logs Wir werden zu einem späteren Zeitpunkt über all diese
Dinge sprechen. Cloud-Testversion geht es also
im Grunde darum, zu testen,
wie der Prozess oder welcher Prozess es gedauert hat, bis er
erreicht wurde. Das ist eine Cloud-Testversion. VPC Flow Logs geht es darum, wie Sie wissen, es beim
Verbindungsfluss in VPC geht Wie Sie wissen, ist VPC nichts anderes als Ihre
virtuelle private Cloud Es ist also ein Netzwerk-Setup. Wie dem auch sei, wir werden zu einem späteren Zeitpunkt ausführlich
darüber
sprechen , was VPC
ist und solche Dinge Ab sofort müssen Sie
nur
darüber nachdenken, dass Sie hier Daten
sammeln Okay? Nun, welche Daten wir
sammeln, die Servicedaten, zum Beispiel, wie der Service abgewickelt
wird, wie die Verbindungen hergestellt werden, also darum geht
es. Detective macht es einfach, die Grundursache
eines Service-
oder Sicherheitsproblems zu
identifizieren . Lassen Sie uns hier über ein
Beispiel sprechen. Nehmen wir an, Sie erhalten
eine Warnung vom Wachdienst , dass die EC-2-Instanz einen verdächtigen APA-Anruf
getätigt hat . Das haben wir
beim Wachdienst besprochen, richtig, wo sie alle
verdächtigen
APA-Anrufe erkennt und sich
Ihre Anwendung ansieht und wie, Sie wissen schon,
Ihre Anwendung absichern. Anstatt manuell zwischen den Sperren zu
wechseln
, können
Sie jetzt den AWS-Detective verwenden,
um die relevanten
Sperren wie Cloud-Rail-Ereignisse
und
VPC-Flow-Logs automatisch zu kompilieren und zu visualisieren . Anschließend hilft Ihnen
Detective dabei, den Angriffspfad schnell zu
verfolgen Und identifizieren Sie die
gefährdete Ressource. Dies ist etwas
, was der AWS-Detective tut und das im Grunde erkennt Nun, Sie erinnern sich an diese Sache wenn eine Frage an
den AWS-Detective kommt, ist das der
Zweck von deduktiv Der Zweck von Dective besteht nun darin,
Ihnen visualisierte Daten zur Verfügung zu stellen. schauen uns Cloud-Tests PC-Logflows an,
anstatt dies manuell
zu tun Aus diesen Protokollen können
wir . Aus diesen Protokollen können
wir den
Angriffspfad nachvollziehen,
okay, und identifizieren, welche
Ressourcen gefährdet sind Es gibt Ihnen also das
visuelle, ähm, Sie wissen schon, Sicherheitsdiagramm oder die Daten, die Sie darüber informieren Okay. Lassen Sie uns das
kurz in der praktischen Sitzung überprüfen
und dann
schauen wir uns die Funktionen
und Vorteile an. So deduktiv In Ordnung, AB ist
also
hier mit dieser
Lupe zu aktiv hier mit dieser
Lupe Also das wird einige Zeit
dauern. Okay, schauen wir uns
die Funktionen an, während sie geladen werden. Funktionen sind also im Grunde genommen
Log-Aggregatoren. Eines der wichtigsten
Dinge ist, dass es im Grunde genommen
Logs aus einer Aggregationsaggregation aggregiert.
Aggregation
ist wie Caratic aus verschiedenen Quellen
und das Verstehen
und im Grunde genommen
Logs aus einer Aggregationsaggregation aggregiert.
Aggregation
ist wie Caratic aus
verschiedenen Quellen
und das Verstehen
und Analysieren der Logs. Hier werden also automatisch
Protokolle aus mehreren AW-Quellen abgerufen, um den Kontext für Sicherheitsprobleme bereitzustellen interaktive Untersuchung
ermöglicht es Ihnen, Sicherheitsvorfälle zu untersuchen
und den Datenfluss zu visualisieren Außerdem wird sie in die Cloud-Testversion von
Guard Duty integriert ,
um gründliche Untersuchungen durchzuführen Und was sind die wichtigsten Vorteile? Eine vereinfachte Untersuchung ermöglicht automatische Korrelationen
und Visualisierungsdaten, erleichtert die
Rückverfolgung des Vorfalls und macht ihn auch für
Sie verständlicher In Bezug auf eine schnellere Reaktion auf
Vorfälle können Sie
Sicherheitsprobleme schneller erkennen und darauf reagieren ,
indem sie einen umfassenden
Überblick über die Daten Schauen wir uns das an. Sie haben
hier also ein gutes Video von
AWS, in dem gezeigt wird, wie Sie
Ihren AWS-Detective sehen. Und wie hoch sind die Gebühren für die
Protokollverarbeitung hier? Sie können sehen, dass null, 2000 GV 2$ sehr billig sein werden Die nächsten 4.000 GB werden etwa 1$ pro GB kosten. Es sind also etwa 2$ pro GB. Es tut mir leid, ich sagte zu billig, oder? Ich glaube nicht, dass es heißt. Also zuerst Null bis 2000
GB sind etwa 2$ pro GB, also ich meine, tausend bedeutet,
es sind ungefähr 2.000$, schätze ich, Forum tausend GB an
Daten, ähm Analyse Ähm, und hier drüben können
Sie einige
Vorteile sehen und haben wir eine kostenlose Testversion Ja, es gibt eine kostenlose
30-Tage-Testversion diesen Amazon-Detektiv.
Das ist unglaublich. Es ist also nützlich für
uns, anzufangen. Also klicken Sie einfach darauf
und Sie können tatsächlich, ähm, die Direktive
für dieses Konto aktivieren. Sie gehen einfach hierher, aktivieren Directive
für dieses Konto, und dann können Sie Dective tatsächlich für dieses Konto
aktivieren Hier wird also kein
Delegate-Administrator benötigt. Ich meine, wenn Sie
hier einen weiteren Benutzer
hinzufügen, während wir in
der Organisation sind, ist
das der Grund, warum er kommt Es sei denn, Sie sehen das nicht, also können Sie es einfach aktivieren. Dies sind einige
Benachrichtigungen dazu, also werden wir es hier einfach
schließen. In Ordnung, das
ist also die Richtlinie. Mit der Organisation von ARB
können Sie das, Sie wissen schon, Sie können das
Konto delegieren und Sie können tatsächlich für die
gesamte Organisation aktivieren, oder Sie können
es einfach für sich selbst tun Das ist also so ziemlich da. Hier kannst du also auch andere Mitglieder
einladen,
indem du das einlädst. Ich habe hier nur ein
Konto. Das ist das Hauptkonto, also werde
ich es einfach benutzen. Das kannst du also ignorieren. Integration, sodass Sie hier
die Integration auswählen können ,
bei der die Dienste in
den Security Lake integriert
werden den Security Lake integriert
werden Dies ist das Rohprotokoll
für Ihre Datenquelle, sodass Sie den
Security Lake hier aktivieren können. Es integriert sich also in den Security
Lake und ruft die Protokolle ab. Und dann, ganz allgemein, können
Sie sich einige allgemeine
Informationen dazu ansehen. Sie können den deaktivierten
Amazon-Detective auch hier sehen , also werden Ihre 30 Daten enden, wenn Sie
deaktiviert sind. Das ist sehr nett. Ähm, hier drüben ist der Service. finden Sie
den Ermittler, Hier finden Sie
den Ermittler,
die Ermittlungsgruppen und Sie können den
geographischen Standort
der Untersuchung sehen geographischen Standort
der Untersuchung Und dann
können Sie hier sehen, wie
Gruppen und
Untersuchungen gefunden wurden, was die aktuelle
Untersuchung ist, und wonach
möchten Sie dann suchen Sie haben also auch hier unter Detective
all diese Optionen . Wie dem auch sei, Lob.
Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Ich hoffe, Sie haben
verstanden, wie man mit dem Direktor
zusammenarbeitet
und was der Sinn von
Direktive ist und wie man in diesem
Fall mit der Direktive umgeht. Also nochmal, keine Fragen dazu, ob wir eine Direktive
oder etwas Ähnliches
konfigurieren werden? Es wird also
darum gehen, was deduktiv ist und es könnte sich um
eines der Merkmale der deduktiven Methode oder um die wichtigsten Vorteile von
deduktiv handeln oder darum wichtigsten Vorteile von
deduktiv handeln oder , worüber die
Richtlinie alles ermittelt Die Fragen
würden sich also darum drehen. Nochmals vielen Dank für Ihre
Geduld und Zeit. Bist du dran
16. Labs AWS GuardDuty: Die Jungs heißen den nächsten
Profi wieder willkommen. In dieser Zeit werden wir Wachdienst
bei Rock Wams haben. Wachdienst ist, dass es einen Service zur Bedrohungserkennung handelt, Ihr
AWS-Konto
kontinuierlich auf bösartiges
und nicht autorisiertes
Verhalten überwacht , einschließlich API-Aufrufe oder
kompromittierter Guard Duty ist also im Grunde ein Service, an den Sie
sich erinnern können Mir gefällt, dass es die Pflicht erfüllt,
Ihre Instanz zu schützen. Nun, was ist der Unterschied
zwischen Schild- und Wachdienst? Weil beide
irgendwo verwandt sind. Shield können Sie
als reaktiven Ansatz betrachten, Guard Duty als
proaktiven Ansatz. Also, ähm, Shield schützt dich vor den
eingehenden Angriffen, okay? Es ist hauptsächlich reaktives Zeug. Wachdienst hier
ist proaktiv er erkennt
Bedrohungen, noch bevor sie sucht in Ihrem AWS-Konto bösartigem oder unberechtigtem
Verhalten, einschließlich, ähm, Sie wissen schon, jeder
Art von API-Aufrufen die
rund um Ihr Konto stattfinden. Diese Art von API-Aufrufen, die über Amazon erfolgen, könnte bedeuten, dass der Computer, mit
dem Sie
eine Verbindung zu AWS hergestellt haben könnte bedeuten, dass der Computer, mit
dem Sie
eine Verbindung zu AWS hergestellt haben,
kompromittiert ist und dieser
AWS-Anruf
von einem Computer kommt, ist und dieser
AWS-Anruf
von einem Computer kommt dem Sie auf Ihr AWS zugreifen. Ebenso besteht Wachdienst darin, Ihre
vorhandenen
Informationen auf Ihrem ST, Ihrem RDS, IM,
Ihren VPCs,
unter VPC EC zwei
Server-Instances und
jeder Art von Containerdiensten jeder Art Daher werden alle Dienste mithilfe von Guard
Duty überwacht. Okay. Lassen Sie uns nun über
das Beispiel in Echtzeit sprechen. Stellen Sie sich vor, Sie führen eine
Finanzanwendung wie ein Banksystem aus und Ihr Wachdienst erkennt
einen ungewöhnlichen APA-Anruf. Zum Beispiel Zugriff auf vertrauliche Daten oder
unbekannte IP-Adressen Daher gibt Guard Duty eine Warnung aus,
die Ihnen
hilft, mögliche
unbefugte Zugriffe zu untersuchen und vorbeugende Maßnahmen
gegen solche Verstöße zu ergreifen Nun wird der Wachdienst hauptsächlich auf die
APA-Anrufe und darauf achten, wie, Sie wissen schon, die Kommunikation zustande
kommt Also, das ist mehr
oder weniger in diesem Bereich der Sicherheit oder der Sicherung
Ihrer Anwendung. Lassen Sie uns hier über ein
paar Funktionen sprechen. Eines davon ist die
kontinuierliche Überwachung. Überwacht also die Cloud-Testversion, VPC-Flow-Logs und die DNS-Logs auf
verdächtige Aktivitäten Normalerweise Erkennung,
bei der es mithilfe von Mission Learning Anomalien
bei Konten und
Netzwerkaktivitäten erkennt bei Konten und Und auch automatische Benachrichtigungen den Funktionen, die
Sie
einbauen können, sodass gehören
zu den Funktionen, die
Sie
einbauen können, sodass
eine umsetzbare Sicherheitswarnung gesendet wird ,
wenn die Bedrohung Sie können
dies also auch mit Bridge verbinden, und dann sendet SMS
im Grunde eine MS und Slack,
und dann können Sie es auch
mit der Lambda-Funktion verbinden , um dort eine Funktion
auszulösen Was die wichtigsten
Vorteile angeht, handelt es sich also im Grunde um eine
proaktive Bedrohungserkennung, die potenzielle
Bedrohung frühzeitig
erkennt, wie z. B. kompromittierte Instanzen
oder Und so gut wie kein
Infrastrukturmanagement. Es handelt sich also um einen vollständig
verwalteten Service, sodass Sie
keinerlei
Wartungsinfrastruktur einrichten müssen . Schauen wir uns also kurz
an, wie es aussieht. Also Gott, Pflicht. Also das ist ein Dienst da draußen, also nicht mit der mittleren Maustaste klicken, und ähm, nur ein bisschen langsam.
Das tut mir leid. Ordnung, jetzt habe ich
gerade mein Video gelöscht, also hat es ungefähr 5
Sekunden gedauert, bis es geladen Also hier haben Sie den
Hauswächter,
intelligente Bedrohungsabwehr
für Konto und Arbeitslast Beides verhindert Konten,
wie ich Ihnen bereits gesagt habe. Wenn jemand
einen APA-Aufruf, einen
Befehlszeilenaufruf oder
etwas Ähnliches ausführt
und es für verdächtig hält, wird
es eine Warnung, eine
Sicherheitswarnung und so weiter wie ich Ihnen bereits gesagt habe. Wenn jemand
einen APA-Aufruf, Befehlszeilenaufruf oder
etwas Ähnliches und es für verdächtig hält, auslösen. Es geht also nicht nur um
Dinge auf Service-Ebene, sondern auch um Dinge auf
Kontoebene, wie die
Leute darauf zugreifen. Und dann Wachdienst, alle verfügen über Funktionen zur
Ableitung von Bedrohungen in AA Blaze und
Raman Guard Duty, Malword Protection, und in
diesem Fall ist es nur S drei Sie sich also entweder für alle
Funktionen oder nur für S Three, sodass Ihre Preisgestaltung davon
abhängt Jetzt können Sie sehen, dass Funktionen und Vorteilen um
ein Schimpfwort Schutz
für S drei handelt ein Schimpfwort Schutz
für S drei und dann einfach zu implementieren und auf den neuesten Stand des
Bedrohungsschutzes zu
skalieren Ebenso müssen Sie nur
zuhören und loslegen Nun, hier haben Sie
einige Berechtigungsrollen. Wir werden später darüber sprechen. Das ist also die Erlaubnis zwischen anderen Diensten
und diesem speziellen Aber wir werden den D41 benutzen, also werden wir uns darüber keine Gedanken
machen Der Schutzplan hier sieht also vor ,
Guard Duty
beim ersten Mal zu
aktivieren Guard Duty
Protection Plus zu aktivieren, mit Ausnahme von Runtime Monitoring
und MalwpTection for ST, die
beide je nach Konsole und API aktiviert
werden können Alles, was wir jetzt
tun müssen, ist, Ihnen eine kostenlose
30-Tage-Testversion zu ermöglichen Das sind
also sehr gute Neuigkeiten Sie werden also hier eine
30-Tage-Testversion erhalten. Wenn Sie hier eine
Administratorrolle delegieren möchten, können
Sie die ID eingeben,
aber ich werde
hier einfach Guard DUT aktivieren. Ich werde dafür die
Standard-ID verwenden. also hierher gehen, können
Sie
Guard Duty hier erfolgreich aktivieren. Jetzt ist GuardDuty aktiviert, also leitet es nur meinen Kontozugriff weiter und ich
sehe, wie es damit funktionieren
wird Hier gibt es also nichts zu finden
, weil es einige Zeit
dauern kann ,
meine Login-Informationen,
APA-Aufrufe und ähnliches zu analysieren APA-Aufrufe und ähnliches gibt es hier
also so gut wie nicht viel Moment gibt es hier
also so gut wie nicht viel
zu berichten. Sie können also auch die
Laufzeitüberwachung aktivieren. Also bleiben noch 30 Tage für FatGate und EKS EC zwei Instanzen Bei der Laufzeitüberwachung wird es also während der Laufzeit
überprüft, was bedeutet, wenn
der Dienst läuft, wird er das überprüfen und, wissen
Sie, es wird
damit funktionieren Sie können auch den
Dienst für EKS aktivieren
, also den
Quarantänedienst Fargate, das ist ECS, das ist
Ihr Containerdienst, Sie haben EC Two,
das ist Serverdienst Okay, das ist so
ziemlich das. Und Sie haben die Möglichkeit, den Malware-Schutz für S drei zu
aktivieren. Auf diese Weise
können
Sie benachrichtigt werden , wenn jemand
eine Malware auf Ihren S Three hochlädt Ebenso ist der RDS-Schutz Teil davon Lamptection ist auch im Rahmen des
Wachdienstes da. Wachdienst ist einer
der wichtigsten
Sicherheitsaspekte , und aufgrund der
Bedeutung, die ihm beigemessen wurde, werden Sie möglicherweise mit
Sicherheit eine Frage
vom Wachdienst erhalten Sicherheit eine Frage
vom Wachdienst aufgrund der
Bedeutung, die ihm beigemessen wurde Auch hier gilt: Guard Duty ist ein Dienst zur Bedrohungserkennung
, der Ihr AWS-Konto kontinuierlich auf
böswilliges und
nicht autorisiertes Verhalten
überwacht . Und daran
sollten Sie denken
, wenn Sie sich dafür entscheiden. Und dies ist ein proaktiver Service ,
bei
dem er Bedrohungen frühzeitig erkennt und der für alle
Dienste in Ihrem Fall
gilt . Es gilt also für RDS
, Ihren relationalen
Datenbankdienst oder wir können ihn
als verwalteten Dienst bezeichnen Es gilt für Lambda, was im Grunde Ihr
vollständig verwalteter Service ist, und dann haben Sie den
Schutz für S drei, EC zwei und den
Laufzeitschutz für
andere Dienste wie EKS, EC Two, bei dem es sich um einen
containerbasierten verwalteten Dienst handelt Also wieder Fargate für ECS, ähm, dann EC zwei Also, genauso, ähm, Sie
haben Schutz vor, ich meine, ja, Sie können sagen vor bösartigen Inhalten und ähnlichem und auch vor
Kontozugriffen Also das ist etwas
, wofür Sie den Wachdienst
tatsächlich nutzen können . Nochmals vielen Dank für
Ihre Geduld und Zeit. Wenn Sie Fragen haben, hinterlassen Sie diese im
Fragenbereich. Denken Sie daran, auf
den Spickzettel zu verweisen. Wenn du einen kurzen
Blick auf all diese Dienste werfen willst, hat
es bei allen Diensten die
22. Lesung
, sodass du die wichtigen
Punkte vor deiner Prüfung Nochmals vielen Dank. Wir
sehen uns im nächsten.
17. Labs AWS Inspector: Hey, Leute, willkommen zurück
zum nächsten Video. In diesem Video werden wir
über AWS Inspector sprechen. Lassen Sie uns nun über die
Verwendung dieses Inspektors sprechen, wie wir
diesen Inspektor tatsächlich verwenden. Da dieses Diagramm
eine Menge aussagt, ist
Inspector ein automatisierter Service zur
Sicherheitsbeurteilung, ist
Inspector ein automatisierter Service zur
Sicherheitsbeurteilung dabei hilft
,
Schwachstellen und
Abweichungen von bewährten Verfahren
in Ihrer EC Two-Instance zu identifizieren Abweichungen von bewährten Verfahren oder wenn Sie Container in Ihrem EC
Two-Instance-Workload ausführen Container in Ihrem EC und Anwendungen nur einen
Teil Ihrer EC Two-Instance ausführen. Nicht nur die EC-2-Instance, sondern auch das, was
auf der EC-2-Instance gehostet wurde, wird überprüft. Nun, wie kann ich mich
an diesen Namen erinnern? Das Wort Inspektor
an sich ist ein sehr wichtiger Hinweis. Er informiert Sie darüber, dass er die Sicherheitslücken überprüft, zwei EC-Instanzen
durchsucht und in Ihrer Anwendung Sicherheitslücken
oder CVEs in dieser speziellen Okay, so
erinnere ich mich an das Wort Inspektor. Also, wenn Sie
das in der Prüfung sehen, werden
Sie Inspektor überprüfen sehen. Also, was es tut, es inspiziert. Was es inspiziert, okay? Untersucht zwei EC-Instanzen
auf Sicherheitslücken, CVs. Was ist CV? CV ist eine häufige Sicherheitslücke
und Sicherheitslücke, bei der es
Exploitern wie Hackern die Möglichkeit
gibt ,
diese Sicherheitslücken auszunutzen und dann in
Ihre Anwendung einzudringen, Details darüber zu
sammeln
und Sie um Lösegeld zu bitten und In diese Situation wollen wir nicht geraten
. Wir wollen unsere Unternehmen, für
die wir arbeiten, nicht
in eine solche Situation
bringen . Es ist also immer gut,
den Inspektor zu verwenden, um es zu scannen und
herauszufinden, welche
Sicherheitslücken Sie haben. Es scannt also nicht nur die beiden
EC-Instanzen,
um die Abs kümmert, sondern es scannt auch Ihre Anwendung und die Container
, die Sie ausführen. Und es gibt Ihnen im Grunde
den Schwachstellenbericht. Es sucht nach Sicherheitslücken, Sicherheitsproblemen und
ungepatchter Software Das sind also die
Dinge, nach denen tatsächlich gesucht und versucht wird, sie
zu beseitigen Ordnung, lassen Sie uns hier schnell über die
wichtigsten Vorteile sprechen hier schnell über die
wichtigsten Vorteile Kontinuierliche Überwachung ist hier einer der Hauptvorteile, ein
kontinuierlicher Scan, der
sicherstellt, dass es sich bei den neuen
Sicherheitslücken Fehlkonfigurationen
handelt, und wenn sie zunehmen,
erkannt werden Es ist also nicht nur ein kostenloses Tool, also wird es Ihnen irgendwie in
Rechnung gestellt, aber im Grunde genommen überwacht
es Ihre Anwendung kontinuierlich und gibt Ihnen bei Problemen jede Art
von Alarmauslösung Sie können dies also mit einer
geraden Seite verbinden und es dann
an SNS senden
und dann per SMS oder Slack senden, oder Sie können eine
Lambda-Funktion schreiben und sie
dann auch
über Lambda weiterleiten. Ebenso haben Sie verschiedene Funktionen. Und wir werden sehen, dass
all diese Dinge ab dem nächsten Video dasselbe tun werden,
weil es sich
um einige
sicherheitsrelevante Dienste handelt die im Hintergrund ausgeführt werden. Was wir also schon einmal
gesehen haben, sind WAF und Shield, und WAF
und Shield sind im Grunde eine Sicherheitsdatei, die Sie
vor Problemen schützt Und das sind die
Sicherheitsaspekte, die wie Amazon Inspector sind
, der darauf aus ist
, oder es ist eine
proaktive Maßnahme, sie einzudämmen,
also läuft sie auf Ihrem
System und dann proaktiv, um wie Amazon Inspector sind
, der darauf aus ist
, oder es ist eine
proaktive Maßnahme, sie einzudämmen,
also läuft sie auf Ihrem
System und dann proaktiv, sie Das Shield und der Graph
sind also reaktiv wenn
ein Angriff kommt, wird
es reaktiv sein, was Reaktion
auf den Angriff angeht Aber das sind proaktive Dinge, was wir gerade
sehen Also das ist so ziemlich das, was ich dir hier zeigen
möchte. Entschuldigung für den Hintergrund nein, das
kann ich nicht kontrollieren. Sie können einfach AWS Inspector
eingeben, und dann holen Sie sich
Amazon Inspector hier. Und hier im
Amazon Inspector sind
Sie auf der Startseite, und Sie können sehen
, wie es funktioniert. Also im Grunde genommen darf der
Inspektor inspizieren und was
geprüft wurde, ist Ihr ähm, Sie wissen schon, ähm, hier, schätze ich, aktivieren Sie den Inspektor und dann die
automatisierte Arbeit, die Entdeckung. Ich bin mir nicht sicher, ob Sie es sehen können, aber das habe ich
Ihnen gerade gesagt , also machen Sie sich
keine Sorgen. Sie müssen also nur auf Erste Schritte
klicken. Dann müssen Sie ihm
Berechtigungen für die Art der Kontoadministratorregeln erteilen, die Sie ihm geben möchten, und dann können Sie einfach
auf Inspektor aktivieren klicken. Dies wird also für das
Standardkonto
aktiviert, wenn Sie hier
als delegierter Administrator nichts angegeben haben, also wird
das Standardkonto verwendet Sobald Sie es also aktiviert haben, haben
Sie eine 14-tägige Testversion, die kostenlos ist, und Sie
können tatsächlich sehen, dass im Moment nichts
funktioniert Vielleicht muss ich
meine EC Two-Instance starten. Ich habe meine Ubernuts auf
dieser EC-Two-Instance. Ähm, es ist ein Feedback. Ich benutze es nicht nur. Wenn ich also die
East Two-Instance starte, würde ich
vielleicht einige
Sicherheitslücken bekommen. Ich weiß es nicht. Also lass uns über den
Start reden oder ich fange an, es
wird mir eine Gebühr berechnet. Lassen Sie uns mit einer
dieser Instanzen beginnen. Es wird also
eine Weile dauern, es zu starten. Und dann werden wir uns diese Sicherheitslücke
ansehen. Falls es
so etwas wie eine Sicherheitslücke gibt. Wie ich dir schon sagte, ähm, es gibt eine
14-tägige kostenlose Testversion, und danach
wird es dir in Rechnung gestellt. Okay? Sie können also die
monatlichen Projektionskosten hier in der Nutzung sehen,
und im Grunde können
Sie anhand des Scan-Typs EC-Two-Scanning, ECR-Scanning für
Containerdienst und Lambda-Scanning sehen EC-Two-Scanning, ECR-Scanning für
Containerdienst und Lambda-Scanning Das sind also drei Punkte hier
drüben, was ein Teil davon
ist, und ich verwende derzeit
eine Testversion für 14 Tage,
tut mir leid, 15 Tage hier drüben Sie können also auch
hier auf Preise klicken und mehr erfahren, und das können
Sie sich tatsächlich ansehen. Ich schätze also, sobald meine
Instanz gestartet ist, würde
sie mit dem Scannen beginnen. Es hat
hier also bereits drei Instanzen
gefunden, null von drei. Also vielleicht werde
ich nach einer Weile versuchen, es dir zu zeigen, ob ich
nur ein weiteres Video mache, ich werde versuchen,
dieses auch aufzunehmen. Also schau einfach, ob hier
etwas als Sicherheitslücke
auftaucht . Also gut, ich sehe im Moment
nichts. Nun, wie dem auch sei, vielen
Dank für Ihre Zeit und Geduld Wir sehen uns auf
dem nächsten Video, und ich erinnere mich, dass
ich das
für euch offen gehalten habe , damit, wenn hier
etwas auftaucht, mein Instant anfing zu laufen, sodass es eine Weile dauern kann Also schauen wir mal, ob sich
etwas ergibt. Danke. Nochmals vielen Dank, Leute.
18. Labs AWS Sicherheits-Hub: Hey, Leute, willkommen zurück
zum nächsten Video. In diesem Video werden
wir
über den AWS-Security-Hub sprechen . Lassen Sie uns zunächst darüber sprechen, wofür
der AWS Security Hub verwendet wird. Security Hub bietet einen umfassenden Überblick
über Sicherheitswarnungen Konformitätsprüfungen
für alle AWS-Konten. Es fasst
Sicherheitsergebnisse aus
verschiedenen AWS-Services
und Tools von Drittanbietern zusammen, organisiert
und priorisiert Sicherheitsergebnisse aus
verschiedenen AWS-Services
und Tools von Drittanbietern zusammen, organisiert
und Nun, wie Sie
hier sehen können, eine Organisation. Ich weiß, dass wir nicht über Organisation
gesprochen haben. Organisation ist ein
Service in AWS. Lass mich dir das schnell zeigen. Wenn Sie also Organisation eingeben, können
Sie hier die
Datenbankorganisation sehen. Sie öffnen die
Organisation hier. Standardmäßig werden
Sie also keiner Organisation angehören ,
da Sie ein
individuelles Konto erstellt
hätten . Aber Sie können tatsächlich
eine Organisation erstellen. Sie werden dort
die Option haben ,
eine Organisation zu erstellen. Es ist völlig kostenlos. Sie können eine Organisation erstellen lassen, genau
wie ich sie erstellt habe. Erstellen Sie einfach eine Organisation,
dort werden nicht viele Fragen
gestellt. Sie müssen also nur
Ja sagen und dann
die Organisation erstellen. Sobald Sie
die Organisation erstellt haben, sollten
Sie es sein, das Hintergrundgeräusch tut mir
leid. Ähm, Sie sollten Ihren Kontonamen hier
sehen können und Sie
werden
die Benutzerinformationen,
die Stamminformationen, sehen können. Nun, was ist eine Organisation? Lassen Sie uns schnell darüber sprechen. Eine Organisation ist nichts anderes,
aber wenn Sie in einem Unternehmensdienstleistungs- oder Unternehmensunternehmen oder sogar in einem
geschäftsorientierten Unternehmen, einem großen Unternehmen, tätig sind,
haben Sie möglicherweise mehrere Organisationen
in Ihrem Unternehmen. Okay. Jede Organisation, wie die Finanzabteilung, wird
ihr eigenes AWS-Konto haben. Das Gesundheitswesen wird ein
eigenes AWS-Konto haben. Medien. Wenn es einen solchen
Bereich gibt, werden
Sie ein
separates AWS-Konto haben. Okay. Jetzt werden sie die Entwickler-Produktions- und
Testumgebung für ihre
medienbezogene Anwendung hosten, und Sie werden
Media Dot
Example bank.com haben ,
etwas Ähnliches Sie können Finanzen Punkt, äh,
Sie wissen schon, Beispiel Punkt Bank haben Sie wissen schon, Beispiel Punkt Bank Okay, oder wie Sie das
Gesundheitswesen haben können, Beispiel Punkt Bank. Ebenso können Sie Ihre eigene Website
haben. Und jede der Anwendungen wird einer
einzigen Organisation unterstellt sein, nämlich Ihrer Dot Bank. Das ist die größte oder höchste Ebene Ihres
Organigramms, und
das wird auch so sein. Wenn Sie also über diese
Art von Funktion verfügen,
wenn Sie über eine solche Feature-Organisation verfügen, benötigen
Sie ein
Sicherheitszentrum, in dem Daten von Sicherheitszentrum, in dem verschiedenen Organisationen
gesammelt werden,
was bedeutet, dass
alle Dienste, die Teil
Ihrer Organisation sind, mit einbezogen werden. Ich habe zum Beispiel diese
EC-2-Instanz, meine EC-2-Instanz, ich habe die Dienste wie
AF und andere Sachen, richtig? Also habe ich all diese Dienste in meiner aktuellen
Einstellung hier
konfiguriert,
was über Cloud AI
hinausgeht, es wird ein Konto. Okay. Ich kann mir das vorstellen. Sie können ein weiteres Konto
bei dieser Organisation hinzufügen. sich für
dieselbe Organisation registrieren, können
Sie tatsächlich Personen
zu dieser Organisation einladen und dann ein anderes Konto für diese bestimmte Niederlassung
Ihres Unternehmens Es könnte eine Filiale sein, es könnte Outlet
sein, es könnte alles sein Sie können sie also als
Teil der Organisation hinzufügen. Sie müssen also ein Konto erstellen. Aber was Sie in der Abrechnung
für die Organisation sehen können. Die gesamte
Organisation
erhält also eine L-One-Abrechnung, die alle Konten
innerhalb dieser bestimmten
Organisation
umfasst . Welcher
AW-Sicherheits-Hub macht das nun? Es sammelt alle
sicherheitsbezogenen Compliance-Probleme. Es sammelt alle Informationen
zu den Sicherheitswarnungen und bietet Ihnen einen umfassenden
Überblick auf einem Dashboard. Okay, das gibt Ihnen einen umfassenden Überblick über alle
Sicherheitsprobleme. Auf diese Weise
können Sie das Problem also tatsächlich, ähm, von
einer einzigen, Sie wissen schon, Ansicht aus
untersuchen. Sie verwalten beispielsweise eine AWS-Umgebung mit mehreren Konten und benötigen ein
zentrales Dashboard zur Anzeige von Sicherheitswarnungen
und Compliance-Daten. Der AWS-Sicherheits-Hub
sammelt Warnmeldungen von Diensten wie Amazon Guard Dog , über die wir
später sprechen werden, Inspektor, Firework Manager, worauf
wir später noch eingehen werden Es sammelt also all
diese Informationen und
zeigt sie tatsächlich an einem Ort an Ich möchte, dass
Sie sich bei
der Prüfung daran erinnern , dass, wenn Sie das Wort Sicherheitszentrum hören, also wenn Sie das Wort Security
und Hub zusammen hören, Hub ein Ort ist, an dem Sie eine integrale
Sicht auf viele Dinge
haben So nennen wir es als Knotenpunkt. Wenn Sie also dieses Wort hören, meinen Sie es, es
muss Sie an
diese Architektur erinnern , die besagt dass Sie Informationen
sammeln werden, sicherheitsrelevante
Informationen, Compliance-relevante Informationen, die Warnmeldungen von
Sicherheitsberichten. Sie werden
all diese Dinge in Ihrem Unternehmen an
einem zentralen Ort haben. Das ist also etwas, worüber Sie wirklich nachdenken
sollten
, wenn Sie diesen Namen hören. Lassen Sie uns jetzt
über die Funktionen
sprechen , das zentrale Dashboard, das Benachrichtigungen
mehrerer Konten und
Regionen an einem Ort anzeigt. Kompilieren und überprüfen, es greift automatisch auf
die Zusammenstellung
der Industriestandards
CIS und PCI Es lässt sich auch in andere AWS-Services
wie Guard Duty,
äh, Inspector, Maze und
andere Also wir haben bisher nur Labyrinth gesehen, ich
meine, Inspektor. Also
werden die Videos entsprechend ausgerichtet,
also mach dir darüber keine Gedanken Daran werden wir also arbeiten. Also das nächste sind die
wichtigsten Vorteile hier. Die Hauptvorteile sind
die einheitliche Ansicht. Wie ich Ihnen bereits sagte, bietet es
die Konsolidierung von Sicherheitswarnungen für alle Dienste
und Organisationen. Und es verfügt auch über eine Berichtsfunktion, mit der die Einhaltung
der Vorschriften überprüft wird. Und es zeigt auch, dass
es, wissen Sie, sehr gut ist, dass die Einhaltung der
Industriestandards für AWS-Umgebungen eingehalten
wird. Das sind also
Dinge, nach denen es im
Sicherheitszentrum Ausschau halten
wird. Lassen Sie uns einfach einen Blick auf
das Sicherheitszentrum hier werfen. Lassen Sie uns jetzt
die Organisation schließen. Gehen wir zur Sicherheit. Hub, und dann bekommst du den Security Hub
hier als Service, und dann klickst du einfach darauf. Und du kannst tatsächlich dorthin gehen. Sie müssen dies aktivieren. Dies ist eine kostenlose 30-Tage-Testversion
für Security Hub. Gehen Sie also einfach zum Security Hub und dann beginnt Ihre Aktivierung. Security Hub
hier drüben kümmert sich
also quasi um alles andere, wie automatisierte Sicherheitskontrollen, konsolidierten
Bericht von Inspektor May und zusätzliche Dienste und eine
integrierte Partnerlösung. Es wird es von der
ganzen Organisation nehmen, tut
mir leid, all die Symbole
der Organisation, es wird dir das zeigen. Dazu müssen Sie
tatsächlich zu Security Hub gehen, und dann haben Sie hier die AWS-Konfiguration, auf
die wir später eingehen werden. Und dann müssen wir
die Sicherheitsstandards
hier aktivieren , wo Sie erwarten , dass Ihre Anwendung ähm sein
sollte, wie AABSFoundation of
Security Best Practices
und CIS ArabsFoundation und CIS Sie können also sehen, dass
wir standardmäßig
die grundlegenden Dinge ausgewählt haben , also können Sie hier auch weitere
Elemente hinzufügen, um zu sehen ,
ob Ihre ähm, Artikel sind wie , es tut
mir leid, wenn Ihre Organisation die
Sicherheitsstandards
hat all die
Dienste und so zu erstellen, und dann einfach
den Sicherheits-Hub hier aktivieren und dann einfach
den Sicherheits-Hub hier aktivieren, der Ihnen
diese Elemente tatsächlich
hier zeigt . Hier
sind die Preise also wie nach einer
30-tägigen kostenlosen Testphase, also können Sie für den
ersten AC oder 100.000 um,
Sicherheitsschecks bezahlen , Sie
werden 0,00,
ähm, einen 0$ pro Scheck berechnen ähm, einen 0$ pro Scheck Das ist also ziemlich billig,
wenn Sie es vergleichen, sodass Sie sehen können, dass es so sein
wird Ähm, das ist die Abrechnung, und ich
wollte dir das alles zeigen
und dir die Interaktion in diesem speziellen Aktionspunkt zeigen. werden wir
auch
andere Sicherheitsdienste Zu einem späteren
Zeitpunkt werden wir
auch
andere Sicherheitsdienste aufsuchen. Nochmals vielen Dank
für Ihre Geduld und Zeit. Wir sehen uns
beim nächsten Mal.
19. Labs AWS Shield: Hey, Leute. Willkommen zurück
zum nächsten Video. In diesem Video werden
wir über eine
der wichtigsten Umfragen zu AWS
in Bezug auf Sicherheit sprechen . Wir werden
über AW Shield sprechen. Also, was ist das Schild? Wir werden später über die
Architektur sprechen, aber
wovor schützt sie uns? Es schützt uns
vor DoS-Angriffen, Denial-of-Service-Angriffen und dann vor DDoS-Angriffen, die
Sie gleich sehen werden Also wenn ich mir nicht sicher bin,
wie im letzten Monat, das ist, glaube ich, August 2024, als
ich von einer Nachricht
hörte, dass es diese, Sie wissen schon, diese Trump-Präsidentschaft gab und Trump
diese Rede auf
Twitter mit Elan Musk
aufgab diese Rede auf
Twitter mit Elan Musk
aufgab Okay? Also das war eine große
Neuigkeit für Sicherheitsnotizen,
und viele
Leute haben tatsächlich von dieser Nachricht
gehört. Äh, ich unterstütze keine politischen Parteien
oder ähnliches. Ich habe mir
das nur ausgedacht, weil es eine echte Live-Situation
war,
in der Trump,
ähm, ein Interview mit Elan Musk gab ähm, ein Interview mit Elan Musk Und was passiert ist
, ist das in diesem Interview. Es sollte zu einer bestimmten
Zeit beginnen, aber dann fing es mit
45 Minuten Verspätung an. Die Verzögerungen bei der Übertragung dieser bestimmten
Live-Übertragung, ähm, weißt du, Twitter-Zeug
ist tatsächlich passiert, 45 Minuten zu spät. Twitter, früher bekannt als
derzeit X, richtig? X.com, das begann mit
45 Minuten Verspätung. Als wir uns danach erkundigten, erfuhren
wir, dass es einen Dedos-Angriff
gab Nun, was ist ein Dios-Angriff? Darüber
werden wir sprechen. Lassen Sie uns über einen DoS-Angriff sprechen. Lassen Sie uns sehen, wie ein DoS-Angriff funktioniert. Ein DoS-Angriff funktioniert sehr einfach. Es wird ein Dienstpfeil genannt. Sie werden also als Hacker
darauf zugreifen. Er wird so
oft auf
die Website zugreifen , dass
sie irgendwann aufgibt und sagt,
es gibt nur, weißt du, ich werde dir nicht mehr
weiterhelfen weil momentan alle
meine Bedrohungen voll sind Das ist also die Absicht
eines Angriffs von Dido. Der Angriff von Dedos war sehr
einfach. Sie greifen
den Server weiter an, indem so oft
auf den Server zugreifen, dass dem Server der Che
ausgeht. Okay? Irgendwann werde ich zu
Drohungen übergehen, um Ihre Anfrage zu beantworten. Okay? Also, was ist ein Dedos-Angriff Es ist eine verteilte Methode denselben
DoS-Angriff anzugreifen Das
heißt, Sie nutzen das Internet der Dinge,
Ihren Laptop, Desktop und dann
Ihre Mobiltelefone, jede Form von Geräten mit
Internet-Phasen Und dann rufen Sie
ständig den Dienst auf,
okay, irgendwann gibt der
Computer auf,
obwohl Autoscaling
aktiviert ist und all diese
Dinge da obwohl Autoscaling
aktiviert ist sind Aber denken Sie daran, dass
Sie für die Skalierung von
Autoscaling tatsächlich mehr
für Ihre Amazon Web Services
oder einen anderen Cloud-Anbieter
bezahlen sollten für Ihre Amazon Web Services
oder einen anderen Cloud-Anbieter wenn Sie skalieren, sodass das den Umsatzverlust
für Ihr System bedeutet ,
weil Sie weiterhin,
Sie wissen schon, die
Leute darauf zugreifen Es sieht so aus, als würden Hunderte und
Tausende und Millionen von Menschen auf
Ihre Website zugreifen, aber das wäre nicht
wirklich der Fall Es wäre, wenn Sie
Opfer eines Angriffs wären. Okay. Also jetzt
ist der Prozess sehr einfach. Greifen Sie
über Ihr DNS auf die Website zu, gehen Sie über Route 53, falls sie über AWS gehostet wird, und gehen Sie dann zum Load
Balancer, es kann sich um eine
Anwendung, ein Netzwerk was auch immer es sein könnte, und gehen Sie
dann zum Server Holen Sie sich diesen Inhalt
vom Server. Jetzt könnte der Server über eine Web-App
und dann über einen Datenbankdienst verfügen, er könnte auch zu
Messaging-Diensten wechseln und
dann die Daten abrufen. Jedes Mal, wenn die
Daten abgerufen werden, greift
der Angreifer erneut an
und fordert Sie auf, weitere Daten abzurufen. Auf diese Weise kommt es also zu einem
verteilten
Denial-of-Service , okay? Also dieses Beispiel, was ich
dir über Twitter oder
X erzählt habe , ist echt Und wenn es auf einer
so großen Website passiert, meine
ich, dass die Unternehmen, für die wir arbeiten, nicht dafür anfällig sind. Wenn es nicht passiert, es nicht daran, dass Sie eine sehr gute Sicherheit aktiviert haben. Es ist
Ihnen bisher nicht passiert,
es bedeutet, dass niemand Ihre Website
gehackt hat Das bedeutet es also, okay? Also, wie
schützen Sie Ihre Website
vor einem solchen Angriff Wie stellen Sie sicher, dass Sie
mindestens eine Standardchance
gegen solche Angriffe Lassen Sie uns also über AW Shield sprechen. Nun, AW Shield bietet Ihnen hier
zwei Angebote. Das Standard-Shield, das standardmäßig
aktiviert
und kostenlos ist, und es gibt dieses
erweiterte Shield. Nun, was meinst du
mit Standardschild? Standard Shield bietet
Ihnen, ähm, Sie wissen schon, es ist eine übliche Form von
Schutzschild, Unternehmen
groß angelegte Dedos-Angriffe Also mehr oder weniger, warum es kostenlos ist. Darüber musst du nachdenken. Amazon möchte
seinen Service schützen, okay? Also auch wenn wir über
Penetrationstests sprechen, oder? Bei Penetrationstests werden
Sie also niemals
eine Zulassung für
Didsatac zu Testzwecken erhalten Didsatac zu Testzwecken Okay? Weil es einfach nicht deine Inhalte
sind, die sie zu schützen versuchen. Es geht um all ihre Kunden. Wenn also eine Website ausfällt, nicht nur Ihre
Anwendung betroffen, sondern die gesamte Anwendung, die gerade ist
nicht nur Ihre
Anwendung betroffen,
sondern die gesamte Anwendung, die gerade auf der Site
gehostet wurde, dann müssen sie auf DR umsteigen, was wiederum
zusätzliche Kosten für sie bedeutet. Denken Sie also daran, dass
sie
dieses Produkt standardmäßig aktivieren wollten dieses Produkt standardmäßig weil sie
Dedos-Angriffe hassen, okay? Das ist also der Grund, warum es dort kostenlos
ist, okay? Und es gibt diese
erweiterte Version davon, die kostenpflichtige Version ist. Und in dieser Version erhalten
Sie verbesserten
Schutz, Echtzeitangriffe, Transparenz und
finanziellen
Schutz vor hohen DID-Kosten Okay? Also das ist
etwas, das als Teil
der erweiterten,
Sie wissen schon, Option zur Verfügung gestellt wird, die für Sie
verfügbar ist. Ich werde Ihnen das in der praktischen
Sitzung zu gegebener Zeit zeigen. Aber denken Sie daran, dass
dieser Schutz
standardmäßig vorhanden ist und
Sie ihn nicht deaktivieren können, weil niemand einen
Detosattack auf seiner Plattform will, also sollten Sie sich daran erinnern. Lassen Sie uns über einige seiner wichtigsten Vorteile sprechen
. Der Hauptvorteil ist der
automatische Schutz. Nun, was meinst du mit
automatischem Schutz? Der Standardschutz
ist hier standardmäßig aktiviert, sodass Sie nicht
die Möglichkeit haben müssen ,
ihn zu deaktivieren oder zu aktivieren zweiter Stelle steht der erweiterte
Bedrohungsschutz, bei dem An zweiter Stelle steht der erweiterte
Bedrohungsschutz, bei dem
Shield Advance
einen detaillierten Bericht über die
schnelle Reaktion bei
groß angelegten Angriffen auf
Ihr System, Ihre Website
oder Ihre Anwendung bietet schnelle Reaktion bei
groß angelegten Angriffen auf Ihr System, Ihre Website
oder Ihre Anwendung Okay, schauen Sie sich
das an, Sie können zu WAF und Shield gehen, also können Sie einfach WAF hier drüben
eingeben und Sie erhalten BAF und Und unter WAF und Shield hast du den AF
wie im ersten,
und dann wird der zweite Shield
sein Wenn Sie nun, wie ich Ihnen gesagt habe,
mit Shield beginnen, handelt es sich um eine automatische
Dios-Schutzschicht für Anwendungen Und das ist, weißt du
, standardmäßig aktiviert Nun, was ist diese
Preisliste? 3.000 pro Monat. Das ist für
Shield Advanced für Fortgeschrittene. Wenn Sie sich also
für Shield Advanced entscheiden möchten, können
Sie sich tatsächlich dafür entscheiden. Aber ich würde nicht sagen, dass da etwas Besonderes
drin
ist, es sei denn , Sie möchten eine erweiterte Funktion haben
, wie Ansehen des
Angriffsberichts und solche Dinge. Und, ähm, bis dahin, weißt du, hat
es keinen Sinn
, dorthin zu gelangen. Sie können also sehen, dass
dies nichts
anderes sind als Ihre AWS-Infrastrukturen, Ihre AWS-Regionen und
deren Availability Zones, die angegriffen werden. Sie können also sehen, dass
Rot bedeutet, dass je mehr Angriffe auftreten, und Sie
können sehen, dass die Angriffe auf der Seite der VAE zunehmen,
und Sie können sehen , dass
das, glaube ich, die
New Yorker Seite der Dinge ist. Dort können Sie also sehen , dass es einen riesigen
Angriff gibt und dass es eine Vielzahl von Aktivitäten gibt, die von AWS Shield
gesteuert und verhindert werden
. Sie können also die Zusammenfassung der
letzten zwei Wochen sehen,
nur die Zusammenfassung der letzten zwei Wochen, größte Paketangriff
betrug 221 MB/s und Sie können sehen, dass der größte
übertragene Bite 636 GB/s betrug Und dann die häufigste
Vektor-SYN-Flood. Das ist hier im Grunde eine Art
von Angriff, die Bedrohungsstufe, normal, die Anzahl
der Angriffe liegt bei 66.540 Es war also in der Lage, so
viele Angriffe zu erkennen , die
hereinkommen, und das ist im Grunde ein
ständiger Zugriff auf Ihre Websites und Anwendungen
, die auf AWS gehostet Und es war in der Lage,
diese Angriffe zu erkennen und die Angriffe
zu stoppen. Nun, das können Sie
in Ihrem Konto sehen, das ist kein Ereignis, weil ich es
hauptsächlich intern für
Open-Shift und andere Dinge verwende. Aber wie dem auch sei, das ist lustig. So kannst du
den Shield-Reifen vergleichen. Im Moment haben wir
den Standardreifen
, der
standardmäßig aktiviert ist und kostenlos ist. Sie können sich die Überwachung des
Netzwerkflusses und den
Standardschutz
für die zugrunde liegenden AW-Services ansehen . Wenn Sie dann jedoch die Überwachung des Datenverkehrs auf
Layer-Servern wünschen, werden
wir über den Zeitpunkt der
siebten Schicht sprechen. Ich gebe Ihnen nur eine kurze
Einführung, und dann haben Sie die Migration der
Schichten drei und vier,
normalerweise Richtung. Also all diese anderen Dinge mit 24/7-Unterstützung durch
das Shield-Team. Mit dem kostengünstigen, wo der Kostenschutz vor
Skalierung aufgrund der Angriffe von Dido Das ist eine wunderschöne Sache. Wenn Sie der Meinung sind, dass
Ihre Anwendung oder Ihre Website häufig angegriffen wird und
aufgrund dessen, Sie wissen schon, die Skalierung erfolgt, können
Sie diese
13000 pro Monat in Anspruch nehmen und Sie können
dieses Geld
dort sparen, wo es skaliert wird, und Sie haben sozusagen
diesen Schutz, der besagt, dass Ihnen die
Skalierung des Dienstes
nicht in Rechnung gestellt wird Und dann AWS Five Manager, ohne zusätzliche Kosten,
und dann AW, tut mir leid, WAF-Anfrage nach
geschützten Ressourcen ohne zusätzliche Kosten. Ebenso haben Sie hier einige
Vorteile, wenn zur fortgeschrittenen Version wechseln Aber es
hängt ganz von Ihrer Situation ab, es liegt ganz Ihrer Wahl und der Wahl
Ihres Kunden, wie Sie möchten. Aber es liegt in Ihrer Verantwortung all diese Dinge, all diese Vorteile Ihrem Kunden
zu vermitteln und zu
sagen, dass, ähm, Sie wissen schon, sind einige der Vorteile,
warum Sie sich für einen,
Sie wissen schon, monatlichen
Zahlungsservice entscheiden würden . Wenn das etwas ist, was der Kunde benötigt,
dann werden wir uns darauf einlassen. Sie können hier auch den globalen
Thread sehen, ein Dashboard, sodass es Ihnen im
Grunde jeden Tag Bescheid gibt, und Sie können die Anzahl
der häufigen Angriffe sehen, die einfach weiter zunimmt. Sie können also auch nach den
letzten drei Tagen, dem
letzten Tag, suchen . Also gibt es dir nur die
globale Bedrohung hier drüben, was dir
die ganze Welt zeigt. Sie können auch Ereignisse überprüfen,
die mit Ihren Sachen zusammenhängen. Sie können hier auch einige
geschützte Ressourcen sehen. Sie haben nichts
als Schutzressource, und dann können Sie sich
den Überblick über die Dinge ansehen. Abonnieren Sie Shield Advance, um die
Vorteile von Protects
tatsächlich Das ist
also unvollständig
und Sie können dort beginnen. Darüber werden wir alle zu einem späteren
Zeitpunkt in den Fachzeitschriften sprechen . Aber hier werden wir uns darüber keine großen
Sorgen machen. Hier werden wir Sie einfach
verstehen und
sehen und Erfahrungen
darüber sammeln , wie diese Typen aussehen,
wie die einzelnen Dienste aussehen und warum es einfach
so viele Dienste gibt. Nun, wenn es um Shield geht, heißt
es ganz klar, dass
es hier kein Akronym
gibt, es gibt hier keine Kurzform, es heißt AW Shield. Und wenn Sie das
Wort AW-Schild hören, bedeutet das, dass es Sie
vor Angriffen schützt Daran
sollten Sie sich erinnern. Das schützt dich vor Angriffen. Was für Angriffe, Dios greift an. Jede Art von konsistentem
Angriff auf Ihre Website wird Ihre Banden
schützen Daran sollten Sie sich
erinnern, wenn sie Ihnen
Fragen zu Shield stellen. Also werde ich dir
einen Spickzettel geben, also mach dir darüber keine Gedanken, der 20 Sekunden Einführungszeit
hat, also sprich einfach über diese Dinge, und du kannst dir einfach den Spickzettel ansehen und dann kannst
du loslegen Nochmals vielen Dank
für Ihre Geduld
und Zeit . Wir sehen uns
im nächsten Video.
20. Übersicht über Lab-Zertifikate: Hey, Leute, willkommen zurück
zum nächsten Video. Und in diesem Video werden wir uns
nur
eine kleine Architektur in
Bezug auf die
Einführung von Zertifikaten ansehen eine kleine Architektur in . Ähm, ich möchte Ihnen nur
den minimalistischen
Ansatz vermitteln ,
denn wir werden
uns in unserer praktischen Sitzung nicht mit der
TLS-Exposition befassen Wir werden
es tun, aber dann nicht erweitern
, wo wir Anwendungen auf TLS konfigurieren
werden, weil das nicht Teil
Ihres Zertifizierungsprogramms ist Aber obwohl ich versuchen werde, möglichst viele
Übungen zu diesem Thema durchzuführen, werde
ich Ihnen die
maximale Anzahl an Objekten zeigen, okay? Das ist ein Versprechen von meiner Seite. Also hier ist die Einführung in die
Zertifizierung. Also hier, da sind diese drei. Also musst du diese
drei getrennt voneinander trennen, okay? Also das sind hier drei verschiedene
Konzepte. Versuchen Sie, es so weit wie möglich auszurichten und zu
vereinfachen. Hier gibt es drei Arten
von Zertifikaten. Sie haben also ein Demo-Zertifikat, selbstsigniertes Zertifikat und ein Signaturzertifikat eines
Drittanbieters. Nun, diese drei Arten von Zertifikaten werden sich in Ihrem
Browser sehr
unterschiedlich verhalten , okay? Lassen Sie mich Ihnen das zunächst sagen. Wenn ich also ein Demo-Zertifikat
oder Internet Explorer durchsuche, teilt mir der
Internet Explorer
direkt mit, dass diese Site nicht vertrauenswürdig ist und Demo-Zertifikate nicht zulässig
sind Sie können das
Demo-Zertifikat
in Chrome oder einem anderen Browser durchsuchen , aber es wird eine große Warnung angezeigt Das Gleiche gilt für das
Self-Science-Zertifikat. Zertifikat für Selbstwissenschaften ist etwas, bei dem Sie am Rande eine Warnung
erhalten werden. Internet Explorer, Sie
werden in Chrome und in jedem Browser eine Warnung
erhalten , dass dieses Zertifikat
anscheinend selbst signiert ist, und
möchten Sie trotzdem fortfahren? Klicken Sie hier unten, und
dann müssen Sie nach unten
klicken und dann zur Website
gehen. Sie müssen also manuell zustimmen und zur Website wechseln. Warum? Weil es selbstsigniert ist. Das
Zertifikat Self Science ist also nichts, aber ich sage, dass
ich ein guter Kerl bin. würde also jeder vertrauen, weil ich nicht
sagen kann, dass ich ein guter Kerl bin. Wenn jemand sagt
, dass ich ein guter Kerl bin, dann
kann er mir natürlich vertrauen, oder? Wenn ich also sage, dass ich ein guter
Kerl bin, kann niemand vertrauen. Das ist die Sache mit
selbstsignierten Zertifikaten. Das selbstsignierte Zertifikat ist kostenlos. Jeder kann ein
selbstsigniertes Zertifikat erstellen. Jeder kann es für ein
selbstsigniertes Zertifikat auf seiner Website veröffentlichen. Das zweite ist Ihr
drittes, es tut mir leid, das dritte, bei dem es sich Ihr
signiertes Zertifikat für Dritte handelt. Nun, was meinst du mit signiertem Zertifikat eines
Drittanbieters? Das Beispiel, das
ich dir erzählt habe, richtig? Jemand sagt
, dass ich ein guter Kerl bin. Du bekommst also, dass jemand abstempelt
, dass ich ein guter Kerl bin, oder? Also das ist es, was es bedeutet. Es ist also so etwas wie
ein Zertifikat von AWS. Sie sehen das
Zertifikat hier drüben, Sie sehen dieses Protokollschild, richtig? Wenn Sie also
auf das Protokollzeichen klicken, heißt
es, dass die Verbindung sicher ist. Okay? Wenn es ein
selbstsigniertes Zertifikat ist, würde das nicht stehen, okay? Weil es ein paar,
drei oder vier Dinge gibt , die aussagen, dass
die Verbindung sicher ist,
und es wird gesagt, dass es sich um ein gültiges Zertifikat
handelt. Okay? Es heißt sicher, weil
es ein gültiges Zertifikat ist. Wenn es kein gültiges Zertifikat ist,
bedeutet das nicht, dass die
Verbindung sicher ist. Damit Sie sehen können, dass
diese Website gültig ist und über ein gültiges Zertifikat verfügt, sollten
Sie eine
vertrauenswürdige Stelle kaufen. Nun, was meinst du mit
vertrauenswürdiger Autorität, richtig? Das ist eine weitere Frage, die
Sie haben werden. Nun, wenn Sie das sehen, ist es Ausgabe zwei
und ausgestellt von. Manchmal wird es
zwei Mal ausgegeben und von ebenfalls ausgestellt. Okay? Also ist es egal. Es ist wie von oder kaufen. Es ist die Person, die es
ausgestellt hat . Nun,
wer hat es ausgestellt? Es ist der Amazon RSA 204803. Okay? Dies ist das
Stammzertifikat oder es könnte sich auch um den Einzelhandel mit
Zwischenzertifikaten handeln. Das Zwischenzertifikat
wird also in ein Stammzertifikat umgewandelt. Es gibt also etwas, das als
Zertifikatskette
bezeichnet wird .
Jetzt siehst du das? Das ist ein Zwischenzertifikat. Dies ist
Ihr persönliches Zertifikat, Zwischenzertifikat,
Stammzertifikat. Es ist derzeit also verkettet. Also, wenn ich das schließe, fällt
alles darunter. Also,
wenn ich zur Architektur gehe,
hast du die Sekunde, in der
ich herkomme. Persönliches Zertifikat,
Kündigungszertifikat , Stammzertifikat. Nun, warum es geändert wurde, tut mir leid, warum es verkettet ist und wofür ein verkettetes Zertifikat verwendet Was das
selbstsignierte Zertifikat angeht, werden Sie in den
meisten Fällen nur ein Personenzertifikat
sehen Es wird nur
ein Zertifikat geben. Das ist Selbstzeichen. Okay? Manchmal hast du das Zertifikat dieser Person angekettet Okay. Und in dieser Situation ist es
immer noch ein
selbstsigniertes Zertifikat. Warum? Weil es diesem Stammzertifikat nicht
vertraut. Versuchen wir nun zu verstehen,
was das Konzept ist warum wir
es so aufbauen. Okay? Also das ist ein perfektes Beispiel.
Warum ist es so. Warum das
Stammzertifikat
aus einem Zwischenzertifikat und persönlichen Zertifikat besteht. Wenn Sie ein
Zertifikat erstellen, richtig, es wird nur als
selbstsigniertes Zertifikat erstellt. Okay. Ähm, das ist
der ganze Grund. Also, wenn du ein Root
erstellst, wenn du ein Zertifikat
erstellst, gibst quasi
alle Details über
das Zertifikat ein, okay? Das ist es, was du
tust. Das tut mir so leid. Es tut mir einfach so, als ob ich es
vermasselt habe. Also, wenn Sie
ein Zertifikat erstellen, geben
Sie quasi die Details ein, und was Sie als
Ausgabe hier bekommen, wäre,
ähm, tut mir leid, nur eine Sekunde Ähm, ja. Es wäre, es tut mir leid, es könnte eine JKS-Datei,
Schlüsseldatei, KDB-Datei, Betwll-Datei Ebenso gibt es so
viele Erweiterungen da draußen. Ebenso werden Sie diese Art von Datei
erstellen. Dann gehst du zu einer Zertifizierungsstelle
wie CA, okay? Und du unterschreibst das
Zertifikat von der CA, okay? Wenn Sie es also an die CA binden, erhalten
Sie dieses Format. Ihre CA wird über
ein Stammzertifikat und ein
Zwischenzertifikat verfügen . Also wird er dieses
Zertifikat in einer einzigen Datei bündeln, die alle drei
Zertifikate sind, und Sie legen es auf dem Server ab. Okay? Jetzt
bekommst du hier drüben einen privaten Schlüssel. Du wirst einen privaten Schlüssel
bekommen. Du solltest das niemals
mit jemandem teilen. Dieser private Schlüssel sollte auch nicht mit einer CA
geteilt werden . Denken Sie daran, dass der private Schlüssel zusammen mit diesem gespeichert werden
sollte. Also diese spezielle Datei
, die Sie direkt nach
der Erstellung des Zertifikats als
Ausgabe erhalten nach
der Erstellung des Zertifikats als
Ausgabe ,
ist ein privater Schlüssel. Wir verwenden also den privaten Schlüssel und generieren
etwas namens CSR. Okay. Ähm, es gibt dort mehrere
andere Formate, aber lassen Sie uns jetzt einfach
bei CSR bleiben CSR wird als Certificate
Signing Request bezeichnet. Sie senden also diese
CSR-Datei an die CA, nicht den privaten Schlüssel selbst Wenn Sie einen privaten
Schlüssel an die CA senden, wird er nicht ausgestellt Sie werden sagen, erstellen Sie
das Zertifikat neu und
schicken Sie mir die CSR, weil niemand
einen privaten Schlüssel sendet, okay Wenn Sie also
das Zertifikat neu erstellen, eine weitere
Zufallsgeneratornummer dazu. Das ist also die
sogenannte Schlüsselgröße. Nun, wenn Sie das auf
dieser Website selbst sehen , heißt
es 2048 Das ist also die Größe des Schlüssels. Normalerweise finden Sie
die Schlüsselgröße also nur in diesem
Detail. Ähm. Irgendwo hier
findest du die Größe
des Schlüssels, ja, hier, 2048 Das ist also im Grunde die
Größe Ihrer Schlüsseldatei. Bei Keyf Size
geht es um Verschlüsselung. Das ist die Zahl des
Zufallsgenerators. Und wenn Sie nur diese
Zufallsgeneratornummer verwenden, werden
Sie feststellen, dass es sich um
ein öffentliches Zertifikat handelt, sodass Sie damit
nichts anfangen können. kommt also
eine weitere Terminologie ins Spiel: öffentliches Zertifikat, ein privates Zertifikat, oder? Ein öffentliches Zertifikat ist wie ich normalerweise als Beispiel
sagen würde, Sie haben zwei Schlüssel zu
Ihrem Haus, okay? Ein Schlüssel dient im Grunde
zum Verschließen, ein anderer Schlüssel zum Absperren. Also, wenn ein Dieb dich auf der Straße
sieht und
er dein Haus kennt, dann sagt er, gib mir einen Hausschlüssel Welchen Schlüssel würdest du geben? Nehmen Sie sich eine Sekunde Zeit,
denken Sie darüber nach. Wenn du den privaten Schlüssel gibst, ist
das zum Entsperren, okay? Schlüssel zum Entsperren des privaten Schlüssels. Und der öffentliche Schlüssel ist der Schlüssel zum
Sperren, okay? Sie können also eine beliebige
Menge an Inhalten oder eine beliebige Anzahl von Schlössern
mit dem Sperrschlüssel sperren. Aber der einzige Schlüssel, der
entriegelt werden kann, ist der Entriegelungsschlüssel, aber er
weiß nicht, dass Sie
diesen Schließschlüssel
und den Entriegelungsschlüssel haben diesen Schließschlüssel
und den Entriegelungsschlüssel Also wirst du
ihm den Schließschlüssel geben. Also alles, was du mit dem
Schließschlüssel machen kannst, ist Sachen zu sperren. Aber wer kann ihn entsperren, den privaten Schlüssel, der
sich auf deinem Server befindet. Also das Zeug, die
Verriegelungsschlösser, richtig, kann nur mit
dem Entriegelungsschlüssel entriegelt werden weil der Entsperrschlüssel nur die Logik
kennt, wie das Schloss hergestellt wird, denn wer
stellt das Der Entsperrschlüssel macht es. Auf diese Weise verschlüsseln Sie also tatsächlich alles
von der Kundenseite aus Und was passiert, sobald die
Daten übertragen wurden, werden Daten in einem
verschlüsselten Format übertragen , das Sie
nicht wirklich lesen Es ergibt keinen Sinn,
selbst wenn Sie es lesen. Okay? Sobald die
Daten eingegangen sind, beginnt der
Entsperrvorgang, bei dem der private Schlüssel das Zeug
entsperrt Danke für die
Zeit und Geduld. Wir sehen uns
im nächsten Video
, nachdem Sie
das Zertifikat verstanden haben, also schauen wir uns den Zertifikatsmanager
an.
21. Labs Rest Datenverschlüsselung: Hallo Leute. Willkommen zurück
zum nächsten Video. In diesem Video
werden wir
über die restliche Datenverschlüsselung sprechen . Nun, wo wir
die Restdatenverschlüsselung
implementieren werden , nachdem wir gesehen haben, wie Verschlüsselung in Bezug auf
Ihre HTDPS-Verschlüsselung
für die Übertragung von Daten implementieren Ihre HTDPS-Verschlüsselung
für die Übertragung von Werden wir hier
über die Restmethode sprechen, zum Beispiel darüber, wie wir
diese Daten verschlüsseln können Wir haben hier also die drei
verschiedenen
Speichertypen ,
ST, EBS und Also werden wir sehen, wie man es
verschlüsselt, wenn wir sie erstellen Gehen wir zu unserer Konsole und öffnen
wir all diese Dinge. Ich habe es für
euch geöffnet, weil mein Internet, wie ihr wisst,
etwas langsam ist. In Ordnung. Jetzt bin ich bei drei und wenn ich hier auf
Create Bucket klicke, ist
eine der Optionen, die mich fragen
werden,
der Bucket-Name. Sie verwenden ihn für, und dann die Einstellung,
Ihr Bucket-Präfix auszuwählen , und dann einige Optionen,
ob Sie diesen
Zugriff auf die Öffentlichkeit haben
möchten, und dann sollte die Bucket-Versionierung für Ihren Bucket
aktiviert sein und dann die Verschlüsselung Standardmäßig gibt die
Verschlüsselungsseite leider
Verschlüsselung mit von
AWS verwalteten Schlüsseln Sie können also auch
die serverseitige Verschlüsselung
mit dem AWS Manage-Schlüssel auswählen , und Sie können tatsächlich
Clusom Managkey auswählen , den
Sie auf KMS erstellen können Sie können den Schlüssel also für den
Zugriff auf das ST-Paket verwenden. Aber ich würde empfehlen, den Standard zu
verwenden. Und dann ist hier eine weitere
Option, mit der Sie
die
serverseitige Dual-Layer-Verschlüsselung
für den AWS Scheme
Management Service aktivieren können die
serverseitige Dual-Layer-Verschlüsselung . Für den Dual-Level-Schlüssel fallen hier
zusätzliche Kosten an.
Sie können sehen, dass Sie auf der
Registerkarte mit den Preisen darüber informiert werden Wir verwenden also
die Standardverschlüsselung, bei der serverseitige Verschlüsselung handelt, um
serverseitige Verschlüsselung handelt,
und der Bucket-Key
wird aktiviert Sie auf den
Bucket-Key zugreifen können, um auf USE-Inhalte zuzugreifen So müssen
Sie nun die
Verschlüsselung im Sinne von S
3 erstellen Verschlüsselung im Sinne von S und
auf Create Bucket klicken. Mir werden keine Einzelheiten mitgeteilt. Ich habe im Moment nicht vor
, einen Bucket zu erstellen, also überspringe ich
diesen Teil und mache mit
den Bänden weiter. Volumes heißt jetzt EBS,
Elastic Block Storage. Was nun Elastic
Box Storage ist, ist ein Standardspeicher, der mit jeder
EC Two-Instance
erstellt wird mit jeder
EC Two-Instance
erstellt Sie sehen hier drei Bände. Sie werden hier drei
Beispiele sehen. jeder dieser
Instanzen werden also Volumes
jeder dieser
Instanzen werden also
standardmäßig auf dieser Instanz gehostet. Also kopiere ich die
Instanz-ID hierher. Ich gehe zu Volumes und wähle
das einfach aus und ich werde die
Instanz-ID hier sehen. Sie können die
angehängte Ressource sehen. Also das ist der eine.
Sie werden also sehen , dass die Instanz dort drüben an diesen
speziellen Band angehängt
ist. IBS-Laufwerke werden also
von, Sie wissen schon, Instanzen getrennt. Es wird also angehängt, wenn Sie die
Instance starten, und getrennt , wenn Sie nicht möchten, dass
Ihre Instances heruntergefahren werden Die Wartung dieses
EBS-Volumes ist also kostenpflichtig, okay? Also,
wenn Sie Ihre Instance nicht
nutzen , werden Ihnen keine
Gebühren
für die Instance berechnet , die
Sie nicht nutzen Ihnen werden aber trotzdem
die Volumes in Rechnung gestellt , die
Sie auf einem System betreiben oder
speichern. Denken Sie jedoch daran, dass EBS
günstiger ist als S Three selbst, weil S drei ein Service ist, verwendet werden, wenn sie
an eine weil S drei ein Service ist,
es ist ein Software-as-a-Service. Aus diesem Grund ist es nicht
teuer und Volumes können nur verwendet werden eigene Instanz angehängt sind oder wenn sie an eine
andere Instanz angehängt Das ist also quasi nicht über das Internet
nutzbar oder man kann mit Volumen nichts anfangen Das ist ein weiterer Unterschied,
falls du dich fragst warum ST mehr kostet
und EBS weniger kostet Nun, die vorhandene CD, Sie können tatsächlich
darauf klicken und Sie können die Details
der vorhandenen Festplatte sehen Sie können die
Verschlüsselung auch hier sehen. Es heißt also nicht verschlüsselt, was bedeutet, dass jeder auf die Daten zugreifen
kann indem er sie in eine beliebige Instanz einbindet
und die darin enthaltenen
Daten einsehen kann. Das ist keine gute
Sache, oder? Also geh einfach zu Volumes und erstelle
dann ein Volume. Und wenn Sie dann ein Volume
erstellen, haben Sie hier alle Details angegeben und hier gibt es eine Option
, dieses Volume zu verschlüsseln Sie können also
den Standardschlüssel, den
AWS-EBS-Schlüssel, wählen und dann können Sie
tatsächlich ein Volume erstellen Auf diese Weise wird das Volume erstellt und es wird ebenfalls
mit einer Schlüsseldatei
verschlüsselt Wenn Sie nun all diese Schlüssel
verwalten möchten, können
Sie diesen Schlüssel in
KMS verwalten. Dies sind jedoch Standardschlüssel, die normalerweise
nicht von Ihnen,
sondern von AWS erstellt werden, um die
Standardfunktionen zum Laufen zu bringen. Nun, das sind vier
Bände. In Bezug auf Datenbank oder RDS, richtig? Wenn Sie also
eine RDS-Instanz erstellen, handelt es sich um eine verwaltete Instanz. Ich habe nur eine konkrete Datenbank. Es dauert nur ein bisschen,
also habe ich das geöffnet. Unter Datenbank erstellen haben
Sie den Standard
Create und dann wählen Sie die Datenbank aus und Sie nehmen hier einige
Änderungen vor, und dann wählen Sie hier den
Verschlüsselungsschlüssel aus. Hier ist die Verschlüsselung
und, ähm, der Secret
Manager hier drüben. Ich bin mir nicht sicher, ob das der Ausweis ist. Das ist nicht die Verschlüsselung, über die
wir gesprochen haben. Es geht darum, wie
Sie die Datenbank
mit welchem Schlüssel
verschlüsseln Das ist die Rede davon. Wenn Sie die eigentliche
Verschlüsselung von Daten wünschen, müssen
Sie herunterkommen und zur
zusätzlichen Konfiguration wechseln. Und dann unten sehen
Sie hier die
Verschlüsselung. Standardmäßig wird die Verschlüsselung
hier
aktiviert, Sie sehen das, dann wird der standardmäßige KMS-Schlüssel für die
AWS-RDS-Verschlüsselung verwendet. Dann können Sie die
Konto-ID und den Schlüssel sehen und dann einfach auf Erstellen
klicken. Es wird RDS
mit Verschlüsselung erstellen. Das sind also die wenigen Dinge , die Sie verstehen sollten,
bevor Sie damit fortfahren. Und das ist vielleicht nicht so
detailliert. werden dich nach einer Prüfung fragen, aber vielleicht fragen sie dich nach dem Oo, ich gebe dir nur die
Hand, weil du das wissen
solltest, weil
es
sehr nützlich sein wird , wenn du
zur nächsten Zertifizierung gehst
oder wenn du wirklich an AWS arbeiten willst. Es gibt also alle möglichen praktischen
Übungen, mit denen ich Ihnen etwas
beibringen möchte. Nochmals vielen Dank für
Ihre Geduld und Zeit Wir sehen uns im nächsten Video.
22. Labs Transist Data Encryption (ACM): Hallo Leute, willkommen zurück
vom nächsten Video. In diesem Video werden
wir einige praktische Hinweise auf Ihren
Zertifikatsmanager sehen . Ein
Zertifikatsmanager wird für die
Verschlüsselung Ihrer Daten verwendet ,
die übertragen werden. Sie werden also
Ihre gesamte Kommunikation auf HTTPS umstellen , sowohl während der Verbindung zu Ihrem S Three
als auch zu Ihrem RDS Wenn Sie eine Verbindung zu S
Three oder RDS oder ESP herstellen, verwenden
Sie tatsächlich
einen Kanal, der entweder als ELB Elastic Load Balancer bezeichnet ELB Elastic Load Balancer wird,
oder Sie verwenden dafür
CloudFront Lassen Sie uns nun
weitermachen und das im Rahmen
dieser,
Sie wissen schon, Demositzung konfigurieren Rahmen
dieser,
Sie wissen schon, Demositzung Ich werde nun auf den Zertifikatsmanager
zugreifen. Das ist also ein anderer
Dienst, der da draußen ist. Klicken Sie also mit der mittleren Maustaste darauf
und Sie können sehen, dass der
Zertifikatsmanager derzeit
keine Zertifikate in Ihrem
Konto hat . Also so ziemlich das. Und hier haben Sie die Möglichkeit,
ein privates Zertifikat zu erstellen. Jetzt können Sie diese Option
verwenden, ein
privates Zertifikat zu erstellen , mit dem Sie hier tatsächlich ein privates
Zertifikat
erstellen können . Wenn Sie einfach darauf klicken, können Sie tatsächlich auswählen, welche Art von privatem
Zertifikat Sie benötigen. Was ist nun ein
privates Zertifikat? Ein privates Zertifikat ist
nichts anderes als dieses, das Stammzertifikat,
das sich hier drüben befindet. Sie können also
Ihre Zertifizierung selbst erstellen und
Sie können Ihre Organisation und
all diese Details über
einen gemeinsamen Namen für Ihre,
Sie wissen
schon Ihre Organisation und , Website
und alles andere Und dann können Sie
die Größe auswählen und
auf Ich bestätige das
und dann auf Ich erstelle CA klicken auf Ich bestätige das
und dann auf Ich erstelle CA Sobald Ihre CA erstellt ist, können
Sie tatsächlich
zum Zertifikatsmanager zurückkehren und hier ein
Zertifikat anfordern. Hier wird es also
eine Option geben, die momentan deaktiviert ist, aber Sie können
diese tatsächlich auswählen und ein
privates Zertifikat erstellen. Jetzt ist keine private Zertifizierungsstelle für die Ausstellung
verfügbar, was bedeutet, dass
derzeit
kein privates Zertifikat
verfügbar ist , dass
derzeit
kein privates Zertifikat
verfügbar Deshalb ist diese
Option deaktiviert Sobald Sie
das getan haben, können Sie
diesem Prozess folgen und ein Zertifikat
erstellen Erstellen
eines öffentlichen Zertifikats erfolgt nun weitgehend wie
das Erstellen
eines privaten Zertifikats, es wird
jedoch
eine zusätzliche Option geben. dieser einen Option geht es
darum,
Ihre Privatsphäre auszuwählen , die Sie
gerade hier erstellt haben. Das ist die zusätzliche Option. Aber tatsächlich kann
derselbe Prozess auch hier auf dem
öffentlichen Zertifikat
beobachtet werden . öffentliche Zertifikat fordert
ein öffentliches
SSL-TLS-Zertifikat von MOI Zone Öffentliche
Bit-4-Zertifikate werden von
Browsern und Betriebssystemen als vertrauenswürdig eingestuft Browsern und Betriebssystemen Wenn Sie nun vorhaben, Anwendungen zu erstellen, die über das Internet aufgerufen
werden, wird immer empfohlen, ein öffentliches Zertifikat zu
erstellen Wenn Sie jedoch planen, aus Ihrer Anwendung
zum Durchsuchen innerhalb
Ihrer AWS-Registrierung ein Zertifikat in
sich selbst zu
erstellen aus Ihrer Anwendung
zum Durchsuchen innerhalb
Ihrer AWS-Registrierung ein Zertifikat in
sich selbst , können Sie sich für ein privates Zertifikat entscheiden Daher würde ich in diesem Fall empfehlen , sich
für ein öffentliches Zertifikat
zu entscheiden Einer der wichtigen Schritte
, die wir
hier tun müssen, ist die Angabe des vollständig
qualifizierten Domainnamens. Was ist nun das Problem bei Angabe eines
vollqualifizierten Domainnamens? Sie müssen einen
Domainnamen auf Ihren Namen registrieren lassen. Nehmen wir zum Beispiel an, Sie möchten
einen Domainnamen registrieren, Sie möchten sehen,
wie hoch der Preis ist, bevor Sie sich registrieren. Die Domainregistrierung
erfolgt also vollständig über Route 53. Wählen Sie hier Route 53. Und Sie können einfach modal auf die Route 53
klicken. Ich habe die Zeile
53 hier schon geöffnet. Wenn Sie sich in der Zeile 53 befinden , werden Sie
standardmäßig
zu registrierten Domains weitergeleitet. Jetzt stellen Sie fest
, dass derzeit nicht viele Register-Domins
verfügbar sind Ich habe meine Website
namens beyondcloud.ai, und die ist
bei einem anderen Anbieter registriert, wissen
Sie, der natürlich
nicht AWS ist Jetzt werden Sie sehen
, dass
Sie derzeit die Optionen hier haben. Entweder können Sie
das N-Signal oder mehrere Domains von
einem anderen Domaindienstanbieter übertragen einem anderen Domaindienstanbieter oder Sie können
die Domain hier registrieren. Jetzt ist meine Website,
auf der
ich mich registriert habe , nicht mehr als cloud.ai. Wenn Sie nach dieser Website suchen und prüfen, ob sie verfügbar ist, wird die TLD nicht unterstützt Was meinst du
damit? Das bedeutet , dass KI von obs nicht unterstützt wird. Sie können also sehen, dass
die Preisgestaltung
der Domain je nach
Top-Level-Domain-TLD variiert Das ist die TLD-Bedeutung, zum
Beispiel wie.com.org. Was jetzt verfügbar ist,
ist.mobi.net dottv.com Punkt M. Aber Beyond Cloud gibt es nicht auf.com . Sie haben Blow Cloud, gut beyoncloud.com. Oder so ähnlich,
aber nicht über die Uhr hinaus. Okay? Jetzt ist der
Preis nicht hoch, wie Sie
hier sehen können, nur 14 USD. Jetzt können Sie dies auswählen
und Sie können tatsächlich die Zahlung
tätigen und
mit dem Auschecken fortfahren. Also das ist, ich denke, es ist für
ein Jahr gültig, oder? Also gehen wir zum Auschecken. Also automatische Verlängerung dieser Domain. Das ist also
für ein Jahr gültig, ja. Aber du kannst
es auch auf zehn Jahre ändern, ähm, also es liegt ganz dir, wie du das machen willst. Okay. Sobald das erledigt ist, können
Sie auf
Weiter klicken und dann die Zahlungsoptionen auswählen und dann Ihre
Kontaktinformationen eingeben , überprüfen und abschicken. Auf diese Weise können Sie also eine
Domain registrieren und diese Domain auf Ihren Namen
registrieren lassen. Sobald diese Domain registriert ist, können
Sie den Domainnamen
kopieren und hier
das öffentliche Zertifikat eingeben. Jetzt geben Sie hier
den Domainnamen ein. Jetzt können Sie hier auch
einen anderen Namen mit
einem chronischen Namen
namens pub blocloud.com hinzufügen einem chronischen Namen
namens pub blocloud.com Dieses Zertifikat
wird also nicht
nur mit diesem, sondern
auch mit diesem verwendet nur mit diesem, sondern
auch mit Sie fügen auch
ein weiteres hinzu und geben dann stardt Sorry ein. Es tut mir nochmal leid. star.BlowCloud.com. Nun, was passiert, wenn du
das tust? Ganz einfach. Ähm, du
wirst SN-Namen bekommen. SN-Namen sind nichts anderes als alternative
Betreffnamen. Was meinst du mit alternativen
Betreffnamen? Bisher, wenn Sie einer
bestehenden Website einen weiteren Domainnamen
hinzufügen möchten , z. B. mail.belowcloud.com oder chat.belowcloud.com oder news.belowcloud.com mail.belowcloud.com oder chat.belowcloud.com oder news.belowcloud.com. Früher haben wir Zertifikate erstellt, unterschiedliche Zertifikate für jeden Domainnamen, aber jetzt nicht mehr. für jeden Domainnamen, aber jetzt nicht mehr. Was wir also nennen, ist ein SAN-Name , der entstand
und wurde so beliebt. Und was wir normalerweise tun ist, einen
SAN-Namen einzugeben, in dem
Sie mehrere
andere Möglichkeiten haben,
Ihren ähm, Domainnamen zu durchsuchen . Also wenn ich diesen
Start beloclod.com habe, kann
ich das tatsächlich entfernen, weil ich das nicht brauche,
weil star.belowcloud.com Also, ähm, Sie werden die Dens-Validierung hier durch, ähm
, die Dens-Validierung sehen . Also, was Sie tun werden,
ist diese Option zu verwenden, Sie werden autorisieren, dass diese bestimmte
Domain Ihnen gehört, und was Sie tun werden, um sie
zu autorisieren, ist einen Cname
in Ihren A-Eintrag
einzugeben Unabhängig davon, welchen A-Eintrag
Sie im DNS haben, Sie ihm einen Cname hinzu Dafür benötigen
Sie nun eine
registrierte E-Mail-Adresse Ich bin bei einem anderen Anbieter und kann diesen Anbieter
fragen. Ich habe die
Anmeldeschnittstelle, über die ich den Cename
hinzufügen und
autorisieren kann Das ist also der Weg, es
zu autorisieren. Eine andere Art der Autorisierung
ist, äh, die Gültigkeit von E-Mails. Wenn Sie keine Erlaubnis haben oder keine Erlaubnis erhalten
können, den DNS-Namen
zu ändern, können
Sie die E-Mail verwenden
und dem Domainnamen tatsächlich Gültigkeit
verleihen Ich meine, gültige Domain optional,
gültige Domain optional. Das ist also im Grunde der
Domainname hier drüben, und Sie können die
E-Mail-Gültigkeit hier verwenden. Also hier, wenn Sie gehen, müssen
Sie den
Cname aktualisieren. Wenn Sie gehen, ist
eine E-Mail-Bestätigung erforderlich Wir können also
keine der beiden Optionen wählen , weil wir den Domainnamen nicht
besitzen Und dann ist hier
der Schlüsselalgorithmus. Also bleib bei 2048. Einfach auf Anfrage klicken. wurde ein
Zertifikat für uns erstellt, öffentliches Zertifikat, dessen Validierung
jedoch noch aussteht. Warum steht die Validierung noch aus?
Weil du musst. Ähm, du musst den C-Namen
aktualisieren. Okay? Also
musst du deinen Dienstanbieter angeben oder, falls
nicht, deine Route 53. Also ähm, hier selbst gibt es die Option, eine Route auf dieser zu
erstellen. Also im Grunde wird es den DNS-Eintrag auf
Route 53
erstellen , wenn Sie diesen Bmin
bei Amazon
registriert haben . Ich werde
herkommen. Wählen Sie die Domain aus,
erstellen Sie Datensätze. werden automatisch ohne
Ihr Eingreifen erstellt Die Datensätze werden automatisch ohne
Ihr Eingreifen erstellt, sodass Sie wirklich nichts tun
müssen. Wenn Sie jedoch
bei einem anderen Anbieter registriert sind, müssen
Sie dorthin gehen,
den Came aktualisieren, zu Ihrem Datensatz gehen, den C-Namen
überprüfen und den C-Namen
aktualisieren, den Domainnamen
entsprechend
abgleichen, und das wird als Bestätigung hier angezeigt.
Okay? Also kannst du das sehen. Sname dann Snam-Wert. Das sollte also ein Sname
und der Wert des Snamens sein. Also auf diese Weise, ähm, authentifizieren
Sie quasi bei Amazon, dass diese
Domain Ihnen gehört, und wofür Amazon,
Sie wissen schon,
das Zertifikat erstellen wird , ist für Okay? Und wenn du das gemacht hast, wenn du es abgeschlossen
hast, dann
musst du es
woanders implementieren, oder? Sie müssen
dieses Zertifikat, das
ein L-Teil ist, irgendwo implementieren . Gehen wir also zum
Load Balancer. Also das ist der Ort, an dem
wir das machen werden. Also gib einfach Load Balancer ein. Es ist eine Funktion, kein Service. Es ist also eine Funktion unter ZT. Sie können
diese Funktion also einfach direkt öffnen. Es wird also
unter EC zwei fallen. Und darunter wird
es hier beim
Lastenausgleich kommen. Erstellen Sie jetzt Ihren Load Balancer. Der Application Load Balancer ist
der weitaus einfachere. Es gibt einen noch einfacheren
Load Balancer, der sich hier versteckt, oder den klassischen Load Balancer, aber wir verwenden ihn nicht so oft ,
weil er von der vorherigen
Generation ist und, weißt
du, ziemlich alt ist Der Application Load
Balancer funktioniert also perfekt. Und Network Load
Bancer ist eher ein Nischenprodukt, aber dann ist es für Ultraprozess-, Sie wissen schon,
ultrahochleistungsfähige Sachen Suplicon Application
Load Balancer. Sie können auch sehen, wie der
Application Load Balancer funktioniert. Wir werden zu einem späteren Zeitpunkt über die Anwendung des
Gleichgewichts sprechen . Aber hier, nur hier
für unterhalb der Cloud. Ich werde einfach den Namen darunter
kopieren . Cloud ist
der Name dafür. Ich möchte, dass es
mit dem Internet verbunden ist, weil wir
unser öffentliches Zertifikat erstellt haben, und hier ist der PC, es ist die VPC Sie müssen
mindestens zwei Availability
Zone-Standorte auswählen , die Sie
sehen können , und ein Subnetz pro also nur AZ auswählen, erhalten
Sie tatsächlich
ein Subnetz pro Zone Warum? Weil Sie auf Ihrem Load Balancer über
eine Load-Balancing-Funktion verfügen müssen
, sodass Sie zwei AZs auswählen
müssen Okay. Jetzt in der Sicherheitsgruppe werden
wir das
Standard-SG verwenden, das nicht geändert wird. In Bezug auf das Listening oder Routing, wohin
es weitergeleitet werden muss. Sie müssen die
Zielgruppe hier auswählen. Wir haben es nicht, weil
wir nichts geschaffen haben, aber wir sind wegen SSL hier, also mach dir keine Gedanken darüber,
wohin es zielen wird. Ändere das von STDP auf HTTPS. Jetzt ist HTTPS die
Kommunikationsmethode für uns, also werden wir
hier HTTPS mit der Portnummer 443 verwenden hier HTTPS mit der Portnummer 443 Und wenn du
das auswählst,
wird es hier eine neue
Option geben. Sie haben also die
Sicherheitsrichtlinie für SSL und dann haben Sie die
SSL-Richtlinie hier. In dieser SSL-Richtlinie geht es also darum, wo Sie das Zertifikat von
ACM, Ihrem
AWS-Zertifikatsmanager, ACM,
erhalten, okay? ACM, Ihrem
AWS-Zertifikatsmanager, ACM,
erhalten, Oder von IAM. Sie können das Zertifikat
auch in IAM,
Identity Access Management und
Eingabezertifikat laden Identity Access Management und
Eingabezertifikat Wenn Sie also
die BEM-Konfiguration hochladen möchten, COVID-basiert oder ähm,
Sie wissen schon, Sie haben die
Zertifizierungsstelle oder Sie können die
Zertifikatszertifikatsketten ändern Zertifikatszertifikatsketten Sie können sie auch übertragen Also werde ich
es von ACM laden. Okay? Also, ACM wird dein
Zertifikat hier haben. Wenn Sie das also aktualisieren,
werden Sie das Zertifikat hier sehen Sobald Sie
Ihr Zertifikat erfolgreich, wissen
Sie, validiert haben , wird das Zertifikat mit dem Zertifikat hier angezeigt Wählen Sie es aus und
klicken Sie dann auf Creat Bedensa Auf diese Weise
werden
Ihre Ladungsmarken mit SSL und HTTPS erstellt und es wird die Kommunikationsroute über das Zertifikat
verwendet, Zertifikat
verwendet wobei
die öffentliche
Zertifikatsprüfung benotet die öffentliche
Zertifikatsprüfung Wenn Sie nun ein
öffentliches Zertifikat erstellen, müssen Sie mich fragen, wo
ist mein privates Zertifikat Was Sie benotet haben,
ist eigentlich ein privates Zertifikat. Aus dem privaten Zertifikat das öffentliche Zertifikat exportiert und hierher geschickt
,
und das heißt, nur das
private Zertifikat wäre auf der Serverseite, was Sie
hier sehen oder was an den Browser gesendet
wird , ist das
gesamte öffentliche Zertifikat Okay. Wir nennen es also nicht privat, ein Zertifikat
muss erstellt werden,
sondern wir nennen es öffentliche Zertifikate, sondern wir nennen es öffentliche Zertifikate Schwerpunkt auf dem Wort „öffentlich“ weil es
Zugriff auf das öffentliche Netzwerk haben wird Aber was wir nicht betonen oder was
im Hintergrund passiert, ist, dass ein privates
Zertifikat erstellt wird, das verwendet
und auf dem Server gespeichert wird Zur Entschlüsselung. Okay? Also das ist der Grund warum sie hier
Zertifikat sagen. Sie haben hier nicht öffentliches
Zertifikat gesagt, wählen Sie das Zertifikat aus
, das Sie erstellt haben. Aber wenn Sie es erstellen, nennen
wir es das
öffentliche Zertifikat. Aber wissen Sie, hier,
öffentliche Umfrage. Aber sie versuchen
zu betonen, dass es öffentlich zugänglich sein
wird, aber das ist ein Zertifikat,
das Sie erstellen. Okay? Also das betonen
sie
und sonst nichts Also gut, dann hast du die Hands-On
gesehen und ich kann dir nichts
anderes zeigen als heute Ich hoffe, Sie hatten Spaß an
dieser praktischen Sitzung. Wenn Sie Fragen haben, hinterlassen Sie
diese
bitte im Fragenbereich.
Ich helfe Ihnen gerne weiter. Ich werde einfach löschen,
was ich gerade erstellt habe. Ich gebe hier die
Option Löschen an. Klicken Sie auf Delit und das hätte verschwinden
sollen. Perfekt. Danke nochmal. Wir sehen uns im nächsten Video.
23. Labs AWS Audit Manager: Hallo Leute. Willkommen zurück
zum nächsten Video. In diesem Video werden wir uns mit
dem Audit Manager befassen. Damit Sie sich
ein Bild davon machen können, Audit Manager, AW Audit Manager. Klicken Sie nun mit der mittleren Maustaste auf
den Auditmanager. Jetzt sehen Sie den
Auditmanager, der hier geöffnet ist. Jetzt können Sie Ihre
AWS-Nutzung kontinuierlich überprüfen , um den Umgang mit
Risiken und Compliance zu vereinfachen. Denken Sie jetzt daran, dass dies eine Funktion
ist, die
Sie aktivieren müssen. Die ersten 35.000 Bewertungen
sind völlig kostenlos Sie können also
einfach auf Neue Bewertung erstellen
oder AWS als Manager
einrichten klicken Neue Bewertung erstellen
oder AWS als Manager
einrichten Jetzt können Sie dafür eine mit dem
IAM-Service verknüpfte
Berechtigung oder Rolle einrichten dafür eine mit dem
IAM-Service verknüpfte
Berechtigung oder Rolle Das können Sie jetzt überspringen. Sie können
diesen Zugriff auch einer anderen ID zuweisen, da dies
Optionen sind , die Teil Ihrer
Organisation sind und sie immer wieder auftauchen Wenn Sie keine
Urheberorganisation haben, würden
Sie das nicht sehen Dann können Sie
diese AWS-Konfiguration sehen, sodass Sie
dem Audit-Manager erlauben können ,
Daten aus Ihrer AWS-Konfiguration zu sammeln. So können Sie dem
Auditmanager erlauben,
AWS-Konfigurationsinformationen zu sammeln , um Beweise für
Ihre Konfigurationsregeln zu generieren. Das heißt, wenn Sie eine benutzerdefinierte Anforderung
für Ihr Unternehmen haben, wird das Audit durchgeführt
und
das Audit erfasst all
diese benutzerdefinierten Anforderungen. Dabei wird AWS Manager verwendet, was
mit Atos Manager erfasst wird Es tut mir leid, AW Config. Dann kann es
vom AWS-Audit Manager erfasst werden. Und dann können Sie tatsächlich
dorthin gehen und
diesen Teil des
AWS-Audit-Managers machen . Sie können auch
Daten über den Security Hub sammeln, wir bereits gesehen
haben. Es sammelt Daten oder
Sicherheitsinformationen aus verschiedenen Quellen Ihrer
Konten, sodass Sie Zugriff auf eine Konsole
haben
, auf der tatsächlich alle sicherheitsrelevanten
Informationen sodass Sie auch
Daten von dort sammeln können. Wenn Sie nun
auf Einrichtung abschließen klicken, können
Sie sehen, dass der
Auditmanager die Einrichtung vorgenommen hat. Nun, die grundlegende Funktion von
Audit Manager besteht darin,
Berichte aus
verschiedenen Frameworks
zu sammeln Berichte aus
verschiedenen Frameworks und, äh, Sie wissen schon, Elemente etwas
,
was Dienstleistungen,
tut mir leid, nicht Artikel, Dienste, von
denen wir vorhin gesprochen haben, und es wird
diese Bewertung herunterladen und
Sie können tatsächlich für jeden
dieser Artikel
das Dashboard aufrufen und dann überprüfen, was
war
bisher gemacht. Jetzt können Sie auch hier eine
Bewertung erstellen und einfach den Namen und
den Zielort
des Bewertungsberichts
angeben den Zielort
des , damit Sie diese
Bewertung für sich behalten können. Jetzt können Sie auswählen, welche standardisierten
Bewertungen
verfügbar sind , und Sie
können
diese tatsächlich auswählen und dann eine Bewertung
erstellen. Dies sind Standardvorlagen
für diese Bewertungen für die internationale Organisation für
Normung Ebenso haben Sie
Bewertungen, bei
denen es im Grunde genommen darum geht all
diese Informationen zu erfassen Das meiste davon sind
AWS-Informationen, die
besagen, dass Ihre Anwendung
dem ISO-Standard entspricht, und während Sie
diese Anwendung bewerten, können
Sie sie auch in
einen Verlaufs-Bucket können
Sie sie auch aufnehmen, den Sie
zu einem späteren Zeitpunkt an jeden beliebigen Benutzer
exportieren können zu einem späteren Zeitpunkt an jeden beliebigen Benutzer
exportieren Nochmals vielen Dank für
Ihre Zeit und Geduld. So arbeitet der Audit
Manager praxisnah
24. Labs AWS Cloud Watch: Hey, Leute, willkommen zurück
zum nächsten Video. In diesem Video
werden wir zum Anfassen
über Amazon Cloud
Watch sprechen . Gehen wir also zur EC
Two-Instanz über
, die Sie gerade erstellt haben. Wenn Sie jetzt hierher gehen, werden
Sie
die laufenden Instanzen sehen. Wenn Sie jetzt
darauf klicken, wird es Ihnen mit dem laufenden
Filter
angezeigt. Der Instanzstatus
entspricht also dem Ausführen. Das bedeutet also, dass
Sie nur die Instanzen
sehen, die
sich im laufenden Zustand befinden. Also wirst du das bekommen. Wenn Sie also
alle Instanzen sehen möchten, schließen Sie dies
einfach oder
löschen Sie den Filter. Beides hilft dir dabei, dir
alle verbleibenden
Instanzen zu zeigen , die du in deiner Region
hast. Also, was werden
wir jetzt tun? Wir werden uns
CloudWatch ansehen. Damit Sie sich Cloud Watch ansehen können, ist
BT Fault Cloud Watch
Teil Ihrer um EC Two-Instanz Klicken Sie einfach darauf und die EC Two-Instanz wird
hervorgehoben und ausgewählt. Darunter
finden Sie hier Details. Sie können dies erweitern und Sie können tatsächlich
die Instanzübersicht sehen. Wir werden zu einem späteren Zeitpunkt
ausführlich darüber sprechen, aber wir werden uns eine
der Funktionen ansehen, die sich auf Cloud Watch
bezieht,
nämlich die Überwachung. Der Name Cloud Watch
impliziert, dass
die Cloud Ihre Instanzen, Ihre Anwendungen und all die
Dinge, die Sie im Rahmen
Ihrer Amazon Web
Services
tun , beobachtet, beobachtet. Das ist im Grunde ein
Überwachungssystem, Sie werden
also feststellen, dass es hier
überwacht wird. Was beobachtet es da? Cloud Watch Agent
ist Agent-Metriken. Es
sammelt tatsächlich die Daten. Jetzt können Sie
hier tatsächlich mehr Details
sehen, indem Sie auf
Managed Detail
Monitoring klicken , und Sie können die detaillierte
Überwachung hier aktivieren. Nachdem Sie beispielsweise die
Detailüberwachung aktiviert haben, die
Überwachungsdaten innerhalb von 1 Minute
verfügbar. Das sind die Details
, um die es geht. Wenn Sie diese
Informationen derzeit hier sehen,
werden sie
alle 5 Minuten empfangen. Wenn Sie jedoch Informationen für 1 Minute
haben möchten, können
Sie dies aktivieren. Es fallen jedoch zusätzliche Gebühren an. Denken Sie daran
, bevor Sie eine Änderung vornehmen. Wenn Sie also
darauf klicken, gelangen Sie zu CloudWatch und Sie
sehen den Preisrechner Sie können zur
Preisrechner-App wechseln Oder Sie können das von hier aus einfach deutlich
sehen. Hier geht es um
Pay-Tire in Bezug auf Baumstämme. Wenn Sie also nur
die Daten sammeln, erhalten
Sie einen Standard von 0,5 pro GB für die Überwachung. Was den seltenen Zugriff angeht, bedeutet
0,2 seltener Zugriff, dass kein
häufiger Zugriff darauf erfolgt Ebenso haben Sie die
Gebühren hier. wir uns darüber
im Moment also keine Gedanken , denn das ist nicht Teil
Ihrer Zertifizierung und es
ist auch nicht erforderlich, alle 1 Minute
genau hinzuschauen. Nehmen wir die Standardeinstellung
alle 5 Minuten,
und Sie können die CP-Auslastung, die
Netzwerkauslastung in
Bezug auf Eingabe, Ausgabe,
Patches, leider eingegangene Pakete, ausgehende Pakete und Sie können die
CPU-Guthabenauslastung hier sehen, die Kreditauslastung der CPU und
den CPU-Guthabenstand geht . Dadurch erhalten
Sie tatsächlich vollständige
Informationen darüber. Wenn Sie weitere
Informationen dazu wünschen, können
Sie tatsächlich
zu CloudWatch selbst gehen Sie nun auf den
Suchtyp Cloud Watch, und Sie werden hier einen
Dienst sehen Klicken Sie
einfach mit der mittleren Maustaste
darauf und er wird auf einer neuen Registerkarte geöffnet Jetzt können Sie sehen, dass Sie ein leeres Dashboard
haben. Hier gibt es kein Dashboard. Was Sie also tun können, ist entweder ein automatisches
Dashboard über Ihre EC Two-Instance zu verwenden und
dieses EC Two-Dashboard hier zu laden . Nun, was es Ihnen zeigen wird
, die vorhandenen all
Ihre EC-Zwei-Dienste , die Sie hier haben,
was auch immer läuft. Also im Grunde zeigt es Ihnen, zwei Dienste
für mich in den beiden EC laufen, also zeigt es diese Grafiken. Die anderen sind heruntergefahren, also werden
Sie einfach nicht als Teil davon angezeigt. Also bekommst du irgendwie
mehr Informationen. In
der zweiten EC-Ebene konnten
wir also bisher nur
die CPU-Informationen,
Netzwerkinformationen und
CPU-Guthabeninformationen finden. Aber wenn Sie das hier sehen, erhalten
Sie die durchschnittliche Auslastung, Informationen zum Lesen der
Festplatte, zum Schreiben von Festplatten und
Netzwerkinformationen, und dann können Sie sich hier
einige Informationen zum Einchecken
ansehen . Dies sind nun einige der
Elemente, die Sie sehen werden. Sie können
dieses Dashboard auch anhand von
Live-Daten anpassen und diese dann als Teil
Ihres Standard-Dashboards hinzufügen. Sie können auch
ein anderes Dashboard auswählen , das ebenfalls
über S-3-Funktionen verfügt. Ich habe ein paar S Three Buckets. Also im Grunde wechsle ich hier einfach
zu S drei. Ebenso können Sie das automatische Dashboard erstellen oder verwenden. Sie können das
Dashboard auch so eingeben. Hier siehst du
diese Daten, oder? Sie können also auch hier etwas zum
Dashboard hinzufügen, das tatsächlich
zum Dashboard
hier geht und das
Dashboard zu Ihrer Cloud-Uhr hinzufügt. nun ein Dashboard hinzu, sodass Sie
einen schnellen Überblick über
die Ressourcen haben einen schnellen Überblick über , die für Sie
wichtig sind. Sie können tatsächlich
ein Dashboard konfigurieren , indem Sie hier
klicken, auf Dashboard klicken
und ein Dashboard erstellen. Beim Erstellen eines Dashboards
wird nun der Name Ihres
Dashboards benötigt, den ich testen werde. Und dann können Sie
jedes Element hier eingeben. Sie können also tatsächlich eine Datasocia
erstellen , die Prometes
oder S Three Bucket verwendet, oder Sie können CloudWatch
selbst dafür verwenden Sie können
Metriken, Protokolle und Alarme einloggen. Wenn Sie sich also daran halten, können
Sie hier einen nach dem anderen
Parameter hinzufügen und auswählen, welche
Elemente Sie als Teil dieses Dashboards
hinzufügen möchten . Also wähle ich EC zwei. Es kommen 317
Metriken von EC Two Instance. Wenn Sie also darauf klicken, werden
Sie hier mehr von
dieser
Präinstanz-Metrik sehen , mit nur 256 für alle
Instanzen, die Sie haben. Okay? Also, wenn ich von Pre-Instance-Metrik spreche,
schauen wir uns das an. Nun, Sie sehen, dass es
hier so viele
Instanznamen mit der
Instanz-ID gibt, oder? Hier gibt es also keine spezifischen
Namen, und Sie können sehen, dass
es ein Eingabepaket gibt. Was für Sie also wichtig ist, Sie können diese Instanz-ID auswählen. Ich kopiere die Instanz-ID. Ich bin hier drüben, ich
suche nach diesem Instanznamen. Also nur die instanzbezogenen
Artikel, die hierher kommen. Wählen Sie nun diesen
Instanznamen und ich erstelle einen Assistenten. Jetzt können Sie sehen, dass hier so ziemlich alle diese Elemente
in einem Assistenten zusammengefasst werden, was etwas
verwirrend sein kann, da ein Element
viele Elemente
enthält. Sie können also auch
ein anderes Dashboard erstellen. Sie können also einen
Artikel separat auswählen. also auf den nächsten klicken
und hier dasselbe
tun , können Sie diesen Instanznamen
auswählen. Und dann können Sie auswählen,
anstatt alle Elemente auszuwählen, Sie können ein Element auswählen.
Und erstelle einen Assistenten. Hier geht es nur
um die CPU, CPU, nicht um die
Zahl der
Festplatten-Bytes. Ebenso können Sie für
jeden erstellen und
Ihr eigenes Dashboard erstellen. Wenn Sie also zum Dashboard kommen, sehen
Sie den Namen des Dashboards. Wenn Sie auf das Dashboard klicken, sehen
Sie tatsächlich
die Leistung
dieser bestimmten, ähm,
Sie wissen schon, Instanz. Sie können das
Dashboard also hier löschen. Und das Dashboard ist entfernt. Das ist also so ziemlich
, wie man ein Dashboard erstellt. Hier ist der Alarm. Sie
können also auch ein Alarum erstellen Im Moment gibt es also kein Alarum. Ich sehe hier keine
Alarme. drüben wird auch eine Alarmanlage gebaut Hier
drüben wird auch eine Alarmanlage gebaut, die ein Gebäude sendet Jetzt, wo Sie hier kein Alarum
haben, können
Sie Larum
erstellen, Dies ist eigentlich nicht Teil
Ihrer Zertifizierung. Ich zeige es dir nur, weil
ich Erfahrung damit habe. Sie können also festlegen, dass diese
EC-Two-Instance-Suche nach diesem Servernamen
erfolgt, und Sie können die CPU-Auslastung tatsächlich erfassen. CPUtilization ist also hier drüben. Matrix festlegen. Jetzt können Sie hier den Alarm für diese
spezielle Nutzung einstellen. Alarum-Diagramm hier drüben wird quasi ein Live-Diagramm Es zeigt Ihnen tatsächlich die dynamische Ansicht dessen,
was Sie einstellen Hier sagen Sie, wenn
ich möchte, dass dieser Alarm
ausgelöst wird, wenn die
CP-Auslastung höher
ist, als ich das hier
sehen kann Sie können hier also
den Prozentsatz
angeben , 80 Prozent Sie können also sehen, dass
es auf 80 Prozent eingestellt ist. Im Moment ist es
sehr viel, ich meine, es ist
im Moment eine geringe Auslastung. Wenn Sie also nur
20 Prozent sagen, können
Sie tatsächlich einen
Unterschied erkennen, nicht viel. Es ist 0,1. Sie können also auch
einen Alarm einstellen und
den Alarm tatsächlich in diesem
bestimmten Diagramm
selbst sehen den Alarm tatsächlich in diesem
bestimmten Diagramm und dann auf Weiter klicken Und was möchten Sie tun,
wenn dieser Alarm ausgelöst wird? Sie können hier ein
SNS-Thema erstellen, und dieses SNS-Thema
ist nichts anderes als ein einfacher
Benachrichtigungsdienst, und Also habe ich es für
eine andere Anwendung gemacht ,
sodass Sie es ignorieren können Und dann können Sie auch die Lambda-Funktion
auslösen. Sie können auch
Auto Scaling auslösen. Sie können die
Autoscaling-Gruppe hier auswählen. Sie können auch eine
EC-2-Aktion auswählen, z. ein Neustart des Servers oder ein Server-Shalwn
oder etwas Ähnliches kannst du machen. Klicken Sie
auf das nächste Symbol und dann können Sie es,
Sie wissen schon, erstellen, aber es
braucht ein SNS-Thema hier drüben. Fügen Sie hier also einen Namen und eine Beschreibung sowie
eine Vorschau hinzu und erstellen Sie einen Alarm Das ist also ziemlich einfach und das
Erstellen eines Alarums Das sind also die beiden Dinge, die wir diesem Video behandeln
wollen Nochmals vielen Dank fürs Zuschauen. Jetzt wissen Sie also, wie Sie
Ihre Anwendung
mit CloudWatch überwachen Ihre Anwendung
mit CloudWatch Es gibt noch andere Dinge
, die Sie zu
einem späteren Zeitpunkt behandeln , also machen Sie sich darüber
keine Sorgen
25. Labs AWS CloudTrail: Hey, Leute, willkommen zurück
zum nächsten Video. In diesem Video werden wir uns
die Cloud-Testversion ansehen. Für die Cloud-Testversion müssen
wir nun möglicherweise hier
reingehen und dann
den Dienstnamen als Testversion eingeben. Also das sollte, okay.
Das funktioniert nicht. Cloud-Testversion. Ja, bitteschön. Also klicken Sie mit der mittleren Maustaste darauf und Sie
sollten es als neues Fenster öffnen. Und in diesem Fenster sollten
Sie die
Cloud-Testversion hier sehen. Perfekt. Denken Sie also daran, dass die Cloud-Testversion
einen Preis hat. Sie können also tatsächlich Ihre eigene Testversion
erstellen. Im vorherigen Video
zur Architektur haben
wir also herausgefunden, dass
Sie tatsächlich
Ihre eigene Cloud-Testversion erstellen und
sich dann einen bestimmten Dienst ansehen und dann
diesen bestimmten Dienst verfolgen können. Alternativ zu diesem
Demo-Zweck, oder? Sie haben also etwas, das
als Ereignisverlauf bezeichnet wird. Wir befinden uns also gerade auf Einführungsseite für
die Cloud-Testversion , auf der Sie
Ihre eigene Cloud-Testversion erstellen können. Das entspricht also dem
Aufrufen Dashboards und der Erstellung einer Testversion. Bei der Erstellung einer Testversion erstellen
Sie also tatsächlich
den Namen der Testversion, aktivieren für meine gesamte Organisation,
was bedeutet, dass
Sie für alle Konten
in Ihrer Organisation
aktivieren können , einen neuen Bucket, ST-Bucket,
erstellen können. Dieser ST-Bucket speichert
das Protokoll Ihrer
Cloud-Testversion, die Audit-Logs,
und protokolliert dann die
Verschlüsselung, wodurch die
Verschlüsselung für dieses Protokoll aktiviert wird. Und dann wird hier
ein neuer KMS-Schlüssel für die
Verschlüsselung erstellt . Und dann
aktivieren wir hier CloudWatch
als Teil des Protokolls Cloud Watch wird sich die Protokolle hier tatsächlich
ansehen, aber das ist optional und es
fallen Gebühren an, da die Protokolle gelesen
werden Wenn Sie dann
zum nächsten Diagramm gehen, wählen
Sie die Protokollereignisse aus, was sehr wichtig ist.
Ich werde dir das zeigen. Also testen, das ist ein Test. Ich möchte nur
zur nächsten Seite kommen. Also hier, wonach suchen
wir? Okay? Nach welchen Audit-Logs
suchen wir? Sie möchten
den Management-Stream erfassen. Wie zum Beispiel der
Management-Stream, wie er bei einem Vorgang auf
AWS-Ressourcen ausgeführt wird, z. B. das Erstellen, Ähm oder Ändern von Terms of Data, Ereignisse wie das Übertragen von Daten innerhalb einer
Ressource und so weiter. Interne Ereignisse wie
Aktivitäten, Fehler und Verhaltensweisen
Ihrer Services. All diese Dinge werden wirklich, eine Menge Daten sein. Denk daran. Ähm, wenn Sie
all diese Daten erfasst haben, was soll das
Management EM Event bewirken? Es zeigt die Betriebsleistung
wie Lesen und Schreiben, Ausschließen von KMS-Ereignissen, Ausschließen von
RDS, Daten, API-Ereignisse. Diese sind etwas, das
tatsächlich viele Logs auslösen kann . Sie können
sie also ausschließen und auch Lesen
ignorieren, weil Sie nicht
möchten, dass jemand Ereignisse protokolliert, was eine Leseaktivität ist. Sie möchten nur
die richtige Aktivität protokollieren. Jemand schreibt etwas die Änderungen im Management. Das könnte sehr wichtig sein. Sie können dies also auch aktivieren, da in dieser Testversion keine
zusätzlichen Gebühren für Protokollverwaltungsereignisse Protokollverwaltungsereignisse anfallen, da dies
Ihre erste Kopie von
Management Event ist . Es
fallen zwar keine Gebühren an, aber die nächste Veranstaltung wird Ihnen trotzdem in Rechnung gestellt
. Es wird daher immer empfohlen,
sich an die aktuellen
organisatorischen Anforderungen zu halten. Und wenn Sie dann Daten
benötigen, z. B. wo Sie sie erfassen, können
Sie den
Anwendungsnamen und den Dienstnamen eingeben. Und dann können Sie
die internen Ereignisse erstellen, okay. Dabei wird
die ungewöhnliche Aktivität tatsächlich auf der Grundlage
der Grundwerte für solide Tage in
Bezug auf
API-Aufrufraten und Fehlerquoten ausgewählt die ungewöhnliche Aktivität tatsächlich auf der Grundlage der Grundwerte für solide Tage in . Auf diese Weise
können Sie in
Ihrer Cloud-Testversion tatsächlich
Ihr eigenes Event erstellen . Nun, das ist kostspielig,
weil es
eine Menge Daten erfasst und Sie
werden wissen, dass
Ihre Cloud-Uhr dieses Protokoll ebenfalls
überwacht, Ihre Cloud-Uhr wenn
Sie die Funktion wählen CloudWatch
es analysiert
, und Sie können eine grafische
Darstellung in Denken Sie jedoch daran, dass dies nicht Teil Ihres Programms
oder Ihrer Zertifizierung Sie werden
dich also nicht fragen, welche Optionen es hier gibt, während du es erstellst,
all diese Dinge. Sie wollen, dass du weißt,
was eine Cloud-Uhr ist. Und Cloud-Testversion. Also mach dir über all diese Dinge keine Gedanken im Detail, okay? Also, wenn du zum
Event-Verlauf gehst, ist
das kostenlos, was standardmäßig der
Event-Verlauf ist. Wenn Sie sich daran erinnern, dass wir beim
letzten Training ein Dashboard erstellt und das Dashboard gelöscht
haben.
Wenn Sie sich erinnern, ein Dashboard erstellt und das Dashboard gelöscht
haben.
Wenn Sie sich erinnern,
haben wir uns Cloud Watch angesehen und ein Dashboard erstellt. Ich kann mir das Gleiche vorstellen. Also haben wir ein Dashboard gelöscht. Wir haben, du weißt schon
, hier angefangen. Es fand eine Art
Hintergrundaktivität statt. Wir haben das Dashboard hierher gestellt, wir löschen das Dashboard,
also haben wir das getan. Und dann haben wir zuvor
eine EC-Two-Instance erstellt, oder? Also habe ich mich über die Konsole
angemeldet und die Instanz gestoppt. Ich habe das gemacht, und dann haben wir aminiert, ich habe auch eine
Terminierungsinstanz Und dann, ähm, ja. Und ebenso haben wir hier
viele Aktivitäten gemacht. Ich
weiß zum Beispiel nichts über diese Dinge. Vielleicht hätte ich das
schon einmal gemacht,
weil das alles vor 2 Stunden ist Also ich
hätte es vor einiger Zeit gemacht. Aber lass uns jetzt eine
Aktivität machen. Lassen Sie uns beweisen, dass das funktioniert. Gehen wir hier zu S drei. Skalierbarer Speicher in der Cloud. Also hier, ich werde hier einen Bucket
erstellen. Also teste Hyphen Bucket, binde meine Kontonummer Siehst du, es muss einzigartig sein, also habe ich keine Wahl Also muss ich
überall
meine Kontonummer angeben , damit sie einzigartig ist. Und dann
hätte natürlich
niemand meine Kontonummer benutzt weil mein Konto
IU einzigartig wäre. Es ist also im Grunde ACL, also werde ich das Standardmaterial hier
verwenden und einen Bucket erstellen. Jetzt wird dieser Bucket hier
drüben ohne jegliche
Ausnahme oder Fehler
erstellt hier
drüben ohne jegliche , weil
dieser Name eindeutig genug ist. Nun, wenn du
hier rüber zu deinem um,
sogar Verlauf gehst und
eine Aktualisierung hier drüben vornimmst, solltest
du
Bucket Encryption einsetzen sehen. Sie sehen also, dass hier
etwas los ist. Wenn Sie auf die Aktivität klicken, können
Sie tatsächlich die
Übersicht über diese Aktivität sehen. Das Usenym war also root und, du weißt schon, der Zugriffsschlüssel und alles andere,
was erforderlich ist Und dann können Sie auch sehen , dass S Three
Bucket Encryption verwendet hat, und Sie können
die Details hier sehen. Das sagt
Ihnen also im Grunde, dass es ein Ereignis gab, und es ging darum, einen Bucket zu
erstellen. Also, wenn ich diesen Bucket
lösche, wird er auch dort protokolliert. Also werde ich das einfach viel einfacher kopieren und einfügen , als es zu tippen. Jetzt werden Sie sehen, dass dies
aktualisieren und Sie können sehen, dass es eine Weile dauern kann. Lassen Sie mich dann eine Pause
einlegen, um das Video anzuhalten. Da hast du's. Sie
haben also den Bucket erstellen, Bucket mit
Wood und den Bucket
löschen. Also sind alle drei Artikel reingekommen. Ich weiß nicht, warum
der nicht früher gekommen ist, aber als ich, du weißt schon, ganze
Seite neu geladen habe, ist er reingekommen. Also, Delit Bucket hier drüben
gibt dir alle, du weißt schon, Informationen darüber, welcher Benutzer es gelöscht hat und
wie die Event-ID dafür ist Ebenso hat es uns hier
alle Informationen gegeben. Das ist also so ziemlich die
Nutzung der Cloud-Testversion. Mit der Cloud-Testversion können Sie sich all Ihre
Auditinformationen in AWS ansehen, um zu sehen Aktivitäten Sie im Rahmen der,
Sie wissen schon, AWS-Services
ausführen , wobei die Daten sich darauf beziehen. Standardmäßig schaut es sich das an. Denken Sie jedoch daran, dass
es nicht
so viele Daten enthält, da dies
der Standarddienst hier ist. Es wird also ungefähr 90 Tage lang
Daten speichern. Aber darüber hinaus, wenn Sie möchten, dass
die Daten gespeichert werden, ähm,
dann müssen Sie sich vielleicht
für eine Art, äh,
Ihr eigenes Dashboard entscheiden, in
dem die Daten
tatsächlich in
Ihren S Three-Logs gespeichert werden , und das auch
die Daten in den S Three-Logs enthält Denken Sie also daran, dass dies
der größte Unterschied zwischen
dem standardmäßigen Ereignisverlauf
und
dem Dashboard, der
Cloud-Testversion, ist, in der Sie
die Daten erstellen Also, das ist
etwas, woran Sie
denken sollten, wenn Sie
mit der AWS-Cloud-Testversion arbeiten. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir
sehen uns beim nächsten.
26. Labs AWS Konfiguration: Hallo, Leute. Willkommen zurück
zum nächsten Video. In diesem Video werden
wir über
die praktische Sitzung
von AWS Config sprechen . Erinnern Sie sich noch an die Theorie von
AWS Config, die
wir über die Überwachung
Ihrer bestehenden Infrastruktur
mit einigen Regeln gesagt haben? wir über die Überwachung
Ihrer bestehenden Infrastruktur
mit einigen Regeln gesagt haben Ihrer bestehenden Infrastruktur
mit einigen Regeln Also ähm, das können wir nicht tun. Also lasst uns weitermachen und
nach AWS Config suchen. Damit werden jetzt
Ressourcenbestände und Änderungen nachverfolgt. Das ist die Verwendung von Config. Hier drüben haben Sie
das Dashboard. Hier sind die
Konfigurationsmetriken, die die Aufzeichnungen verfolgen. Also hier ist der
Compliance-Status. Hier heißt es also: Null Regeln für
Nichteinhaltung und Null Ressourcen für Nichteinhaltung weil ich glaube,
wir haben nichts. Ressourceninventar angeht, haben
wir hier 110 Ressourcen. Dies sind einige der
Ressourcen, die wir haben. Okay, jetzt ist das
Bestätigungspaket im Grunde eine Art
Vorlage, die Sie
tatsächlich für
bewährte Verfahren verwenden können . Zum Beispiel Best Practices für
S drei, Amazon S drei. Sie können dieses Paket tatsächlich verwenden, und dann können Sie diesem Paket einen
Namen geben und dann können Sie hier einen
Parameter hinzufügen. Wie mehrere Parameter. Wonach
suchst du? Und dann können Sie dieses Paket im Grunde
einsetzen. Das ist also im Grunde so, als
ob Sie eine Anforderung haben, eine Reihe von Anforderungen,
die aktiviert werden müssen, damit Sie tatsächlich
ein Bestätigungspaket bereitstellen können. Oder Sie können sich für Regeln entscheiden. Regeln
sind viel einfacher
und für unsere
Demo sehr nützlich, da wir sie nicht
stellen werden, wir werden ihnen keine
Fragen
dazu stellen, wie Sie das konfigurieren
und was
die verschiedenen Arten der
Konfiguration der AWS-Konfiguration sind Fragen
dazu stellen, wie Sie das konfigurieren
und was . Und das ist nicht die Frage
, die sie stellen werden. Sie werden nach
der AWS-Konfiguration selbst fragen. Wenn Sie also auf Regel klicken, haben
Sie die von AWS verwaltete Regel, benutzerdefinierte Lambda-Regel und
dann die benutzerdefinierte Regel von Guard Okay? Also, lassen Sie uns mit der von AWS verwalteten Regel
weitermachen und dann S
drei Version Nr. eingeben. Nenn mich nur nicht Gottesdienst. Ich habe so viele, weißt du, Ergebnisse.
In Ordnung, Versionierung Wenn ich Versionierung eintippe, siehst
du, dass ich hier
eine Option erhalte,
nämlich die Versionierung drei Buckets Jetzt öffnen wir diese
beiden Buckets einfach getrennt. Ich habe gerade mit der mittleren
Maustaste darauf geklickt. Und ich habe die Eigenschaften
dieses speziellen
Cloud-Testprotokoll-Buckets geöffnet . Und Sie können sehen, dass die
Bucket-Versionierung ausgesetzt ist. Und für diesen
auch suspendiert. Also lass uns gehen und
diesen Bucket hier drüben erstellen. Es tut mir leid, diese spezielle
Regel hier drüben, die besagt, dass sie
erkennt, ob die Versionierung in Ihrem Bucket aktiviert
ist Okay? Also klicken Sie auf Weiter. Das ist deine Regel. Okay? Das ist etwas, das
du nicht ändern kannst. Hier ist der Name
dieser speziellen Regel. Und dann haben Sie hier den
Umfang der Änderung,
alle Änderungen, die Ressourcen-Tags. Ich nehme
Ressourcen, bei denen Sie sie auswählen
können, weil Sie möchten, dass die Ressource
dem spezifischen Typ entspricht
, also S drei, wir wollen den vorhandenen Typen
entsprechen. Wir haben ST
hier als Ressourcennamen ausgewählt. Hier können die Parameter also MFA D aktiviert
werden, und dann können Sie den Wert hier tatsächlich
angeben Wir werden das nicht verwenden, also fahren wir
einfach mit Next fort und dann können Sie das tatsächlich sehen und überprüfen, was
das bewirken wird Und dann klicken Sie auf die
Schaltfläche Speichern. Jetzt klicken wir darauf. Wenn Sie nun diese
spezielle Regel hier
unter awsknFak aufrufen und dann auf Aktualisieren
klicken,
geben Sie ihr eine Minute Zeit unter awsknFak aufrufen und dann auf Aktualisieren
klicken,
geben Sie werden sehen, dass
die beiden Buckets , die sich dort befinden, nicht konform sind, und diese Meldung
wird hier erscheinen MFA DLT ist für
Ihren S Three-Bucket aktiviert. Dies ist ein weiterer
Parameter hier. Wir verwenden das nicht wirklich und was wir
gerade verwenden, ist diese Regel hier. So
müssen Sie also Parameter
auf dem Bestätigungspaket angeben . Wenn Sie also ein
Bestätigungspaket erstellen, müssen
Sie
den Schlüssel identifizieren und dann die Zeichenfolge
angeben
, ob zwei oder zwei. Also hier ist die MFA-Deaktivierung aktiviert. Wenn wir also darauf eingehen, gibt es hier eine
Multifaktor-Authentifizierung Ich denke, es
sollte um Sicherheit gehen, ich denke, die Erlaubnis muss es sein Also hier MFA. Es ist nicht hier. Das
muss also ebenfalls aktiviert werden. Das ist es also, wonach
es sucht. Gehen wir zurück und
überprüfen, ob
diese Regel
erfolgreich ausgeführt wurde. Okay, Sie können also sehen, dass
beide nicht konform sind. Beide Dienste
sind also nicht konform. Wenn ich
einen weiteren Bucket mit
demselben Ding erstellen werde, wird
er auch reinkommen, also werde ich hier einen
Test-Bucket erstellen. Und dann deaktiviere ich
die Versionierung. Also einfach erstellen Also klicken Sie
einfach auf Jetzt erstellen Jetzt, wo ich
diesen Bucket erstellt habe ,
gehe ich zum
AWS Cloud Trial Log und gehe zu den
Permission, sorry, Properties. Von da an bin ich okay, das ist die Multiflektor-Authentifizierung Ich habe nur nach
Erlaubnis gesucht, also war es genau hier. Klicken Sie auf Bearbeiten, und dann
habe ich hier die
Versionierung hier aktiviert. Für MFA müssen Sie
die Einstellungen an anderer Stelle ändern, also werden wir später
darüber sprechen Ja, ich habe die
Versionierung hier aktiviert. Wenn ich das also in ein paar Minuten
aktualisieren werde,
vielleicht 60, 1 Minute
bis 1,5 Minuten, denke
ich, das ist so, dass Sie
sehen sollten, dass das neue kommt Also überprüfe alles.
Manchmal wissen Sie also, was die Konformität hier nicht
angezeigt wird , weil nur
nach nicht konformen Ressourcen gesucht wurde. Also haben wir diese
spezielle Version konform gemacht, also gehen wir einfach davon aus, dass wir das jetzt jederzeit
sehen werden . Ich werde
dieses Video pausieren und pausieren, sobald es angezeigt wird. Ordnung, jetzt können Sie sehen, dass
dieser spezielle Dienst
, den wir für den Gottesdienst aktiviert haben,
kompiliert wird und der Rest, der neu erstellt wurde
, ist Nicht konform. Das tut mir leid. Also, ähm, Sie können sehen, dass das so
ziemlich die Demo ist , die
ich Ihnen zeigen wollte. Jetzt können Sie verstehen
, dass die AWS-Konfiguration dazu dient Ihre Konfiguration zu
verstehen
und zu analysieren und Ihre eigenen Regeln festzulegen, was für Ihre
eigene Kommunikation mit AWS erforderlich ist. Nochmals vielen Dank für
Ihre Zeit und Geduld. Ich hoffe, Sie haben
verstanden, was
AWS-Konfiguration in Bezug auf
Handshone ist AWS-Konfiguration in Bezug auf . Ich werde
dich im nächsten Video sehen
27. Labs AWS XRAY: Hey, Leute. Willkommen zurück
zum nächsten Video. In diesem Video werden wir
über AWS X Ray sprechen. Jetzt haben wir bereits
die theoretische Erklärung
für das Röntgen-Zeug gesehen . Nur um Ihnen einen schnellen
Überblick zu geben: Röntgenscans, die internen Abläufe
Ihrer Anwendung, Ihr Anforderungsablauf ,
Ihre Wind-Debugging, Improvisation, Optimierung,
Leistungseinblicke und alles andere können
Sie tatsächlich als
Teil von AWS im Inneren sehen Also habe ich,
tut mir leid, nicht AW inside erstellt. tut mir wirklich leid. Es ist AWS Xray Wenn Sie also nach Xray suchen, ist es eine Funktion, die ein separater Service
ist
, der Teil eines anderen
Dienstes hier drüben ist,
ähm, nämlich CloudWatch Früher war Xray also ein separater Dienst, aber dann wurde es
Teil Jetzt kann ich sehen, dass die
Spur hier drüben ist. Jetzt haben Sie standardmäßig
keine Anwendung mehr, die Sie
nachverfolgen können. Sie können also hier die Option Anwendung
erstellen, eine Beispielanwendung
erstellen
geben . Etwas in der Art. Wenn
Sie zu Trace Map gehen, werden
Sie sehen, dass Sie
eine Demo-Anwendung einrichten. Es wird nicht viel berechnet,
nur 1$ pro Tag. Den ganzen Tag, an dem ich es benutzt
habe nur 1$, wird es berechnet. Sie können es einfach einschalten und dann diese
Anwendung ausschalten lassen. Jetzt können Sie sehen
, wie schnell es verfolgt wird,
da es sich um eine einfache
Anwendung
handelt,
die wir verfolgen ,
wir haben den Client und
dann ist der Score-Keeper
im Grunde Ihr ECS-Container,
ECS ist Ihr Cloud-Dienst, Ihr
Elastic Cloud-Dienst,
und Sie können sehen, dass es eine 100-prozentige
Fehlerquote gibt , weil der Client nicht auf
die Anwendung zugreifen kann weil
es die Demo-Anwendung ist. Sie können den
Verkehr auch hier sehen. Wenn Sie hier auf
den Pfeil klicken, können
Sie tatsächlich den Filter für die
Verteilung der
Antwortzeit sehen . Hier können Sie auch auf
View Trace klicken und eine Abfrage ausführen. Hier erfahren Sie,
wie schnell
der Knoten ist , und HDDP-Methoden sind auch
Teil des Traces Ebenso können Sie die Leistung
Ihrer Anwendung
ansehen Sie können sich die Anzahl
der
Anfragen ansehen, die im Herbst eingehen, und
die Sekunden, in denen die Latenz
verarbeitet wird. Ebenso können Sie
eine vollständige Ablaufverfolgung
Ihrer Anwendung einsehen. Wenn Sie eine Anwendung haben, können
Sie sie tatsächlich
über Trace verwenden und Sie können die Anwendung tatsächlich
verfolgen, wie schnell die Anwendung ist wie oft sie aktualisiert wird. Ebenso können Sie
all diese Dinge sehen. Sie können hier auch auf „Dashboard
anzeigen“ klicken Dadurch erhalten Sie
vollständige Informationen zur Score-Keeper-Anwendung, die Teil des Trace ist Ihnen
die
Latenzberichte , Fehler und Drosselungen anzeigt Alle Informationen kommen
tatsächlich durch. Sie können auch für
einen Zeitraum von 6 Stunden nachschauen. Das kann ich mir vorstellen. Hier
gab es ein paar Spitzen, da es sich nicht um eine Live-Anwendung oder so
etwas Du fährst nicht sehr detailliert Ski. Aber dann ist das die Spur. Es ist nicht verpflichtend oder es ist
wirklich erforderlich
, dass Sie wissen, wie Trace im Rahmen
der Zertifizierung
konfiguriert wird. Die Zertifizierung
gibt Ihnen nur eine Vorstellung. Was Trace und einige
der Funktionen sind, ist das,
woran Sie sich erinnern
müssen und welche Funktion davon sehr
wichtig ist , weil Fragen auftauchen
würden wie: Oh, ein Kunde oder Klient
sucht nach einer Möglichkeit,
die Leistung der Anwendung
mit ihrer Architektur zu optimieren oder herauszufinden . Welcher Service wäre
angemessen zu wählen. Sie werden Sie nach
so vielen Diensten fragen , die so eng miteinander
verwandt sind, wie CloudTrail, Cloud Watch oder Xray Sie müssen verstehen
, was sie fragen. Sie suchen nach
Leistung im Inneren und sie
suchen nach der Architektur und dem Ablauf der Anwendung. Xray ist das Richtige. Ebenso werden sie
diese komplizierten
Dienste
an Ihre bestehende Frage anhängen an Ihre bestehende Frage und sie würden
Sie auf knifflige Weise stellen Sie sollten das verstehen, die Frage
zweimal und dreimal
lesen und dann
nur auf diese Frage antworten Nochmals vielen Dank für
Ihre Zeit und Geduld. Ich hoffe, es war hilfreich
für Sie zu verstehen, wie man Xray konfiguriert Wir werden zu einem späteren Zeitpunkt
in verschiedenen Schulungen ausführlich darauf eingehen, wie
das geht , aber das erfordert eine
Menge AWS-Kenntnisse Darauf werden wir
zurückkommen. Ich werde dir all das
Wissen geben, das ich habe. Nochmals vielen Dank. Wir
sehen uns beim nächsten.
28. Labs First EC2-Instanz erstellen: Hallo Leute, willkommen zurück
zum nächsten Video. In diesem Video werden wir
einen Moment kreieren. Lassen Sie mich also die
VPC schließen und zu EC zwei übergehen. Jetzt sortiere ich es über die laufende
Instanz und schließe es. Sie können
all die Dinge sehen, die ich auch im
Stop-Zustand habe. Normalerweise stoppe ich
die Instanz erst, wenn der Zweck
der Instanz erfüllt ist, weil
die Kosten CPU und RAM ebenfalls eingestellt werden. Für mich fallen keine Gebühren an, bis ich
die Instanz wieder starte ,
weil die CPU und der Arbeitsspeicher, die ich
verwendet habe,
an eine andere Person weitergegeben werden , wenn jemand
anderes das verlangt. Also, ähm, ich werde nicht dafür bezahlt
werden. Wenn Sie denken
, dass ich meinen CPN-RAM, der dafür
vorgesehen ist, einfach vermieten oder vermieten würde, nein, ich würde nicht dafür bezahlen Ich würde
weder dafür bezahlt werden, noch würde ich dafür bezahlen Diese Ressource wird also jemand anderem
zugewiesen, oder sie wird niemand anderem
zugewiesen . Es wird ungenutzt sein. Das ist also der Grund,
warum ich nicht bezahlt werde oder für irgendjemanden bezahle. Das ist also der einfache Grund. Um eine Instanz zu erstellen, gehen Sie einfach zur Startinstanz, oder Sie können zum Dashboard gehen und von dort aus auch die Instanz starten. Denken Sie jedoch daran, dass das Dashboard Ihnen den vollständigen
Überblick über die aktuelle Region bietet. Wenn Sie also einen
Server in der
Region Mumbai oder CO haben , können Sie das hier nicht
sehen, weil
hier nur von North
Virginia, USC Pne, die Rede Und Sie können einfach hier auf
die globale Ansicht klicken, ich klicke einfach mit der mittleren Maustaste darauf
und
ich erhalte die Instances, die allen
Regionen hier
laufen. Sie können also die fünf
Instanzen in einer Region sehen. Also, genauso gibt es
mir all diese Dinge. Also VPC 18 in der Region 17. Also das ist etwas, worüber ich mir keine Sorgen machen muss , weil es ein Standardkram ist Aber 17 und 17 sind eine gute Nachricht. Aber warum 18 und 17? Weil ich in dieser Region
zwei VPCs erstellt habe. Deshalb sage ich 18 bis 17. Ebenso kann man die Sicherheitsrillen und
all diese Dinge tatsächlich aus
einem viel höheren Winkel
sehen . Also lass uns das schließen. Lassen Sie uns eine Instanz starten. Nun, das wird eine Testinstanz
sein. Also nenne ich
es einfach Test und seitdem werde
ich das
Standardbetriebssystem ausführen. Ich werde mich nicht einmal
bei diesem Computer anmelden. Ich meine, über Put oder
irgendein MobikStem oder einen Client. Okay? Also werde ich
das verwenden und Benutzername wird hier
angezeigt, einfach zu bedienen. Wenn ich beim
Betriebssystem Rot wähle, können
Sie
hier tatsächlich sehen, wie sich der Benutzername ändert. Lass uns über
U sprechen Bundu Bundu hat einen anderen Benutzernamen. Lass uns sehen. Lassen Sie uns das sehen. Okay,
es dauert so lange. Lass uns das
Betriebssystem
auf ein anderes ändern , das ist wie. Es ändert also
die Lautstärke, weshalb Sie
aufgefordert werden, dies zu bestätigen. Oh, Band. Ja, damit du
sehen kannst, dass der Benutzername Ubuntu ist. Also, wenn du nach dem Nutzernamen
suchst um den Nutzernamen herauszufinden, was er ist und so. Wählen Sie also
das Betriebssystem Ihrer Wahl. Vergewissern Sie sich, dass Sie sich auf dem Server befinden, für den das
kostenlose Abonnement in Frage kommt. Der einzige Server
ist derzeit also berechtigt. Es ist T Two Micro. Das ist also der, den ich ausgewählt habe. Also, die Tastatur ist so wichtig. Ohne Tastatur kann
man sich nicht anmelden. Aber in dieser Situation, da wir das zu Demonstrationszwecken
tun, müssen Sie sich nicht wirklich Gedanken darüber machen, einfach
eine neue Tastatur mit dem Namen Test KeypareTest
Hyphen Keypair
zu erstellen eine neue Tastatur mit dem Namen Test KeypareTest
Hyphen Keypair Ich habe es bereits erstellt,
also klicken Sie einfach auf
Tastatur erstellen und es also klicken Sie einfach auf
Tastatur erstellen Tastatur nun die PEM-Datei verwenden, können
Sie sich mit
diesem Benutzernamen anmelden , Können Sie sich jetzt ohne
Passwort anmelden? Nun, das kannst du nicht. Das Passwort ist auf Aula deaktiviert, Sie müssen
also
den privaten Schlüssel verwenden , um
sich am Server anzumelden Das ist also die einzige
Art der Kommunikation. Aber mach dir keine Sorgen, wir werden uns hier nicht einloggen, aber wenn die Zeit gekommen ist, werde
ich dir zeigen, wie
das geht , also mach dir darüber keine Sorgen. Was die Netzwerkeinstellungen angeht, können
Sie Ihre VPC bearbeiten
und ändern, Ihr Subnetz
ändern und die automatisch zugewiesene
öffentliche IP-Adresse automatisch
aktivieren Sie können eine
andere Funktion aktivieren,
z. B. die Elastic IP-Adresse Auch hier gilt: Versorgung aufladen.
Denk daran. Daran sollten Sie
sich also,
äh, halten und dann müssen Sie
SSH-Verkehr von überall zulassen Das gibt Ihnen also die
Erlaubnis,
mit Ihrem
PEMKey die SSH-Verbindung zum Server zu durchsuchen mit Ihrem
PEMKey die SSH-Verbindung zum Server Wenn Sie das also deaktivieren, können
Sie sich nicht
wirklich mit
SSSch verbinden . Denken Sie daran Aber wie dem auch sei, wir werden SSSuch nicht
benutzen, es spielt keine Rolle Also AGB, damit bin ich einverstanden. Also klicken Sie einfach auf
Launch Instance. Ähm, ja, fahren Sie mit dem
vorhandenen TTS-Keeper fort. Entschuldigung, ich denke, wenn
du es erstellst, es sich dort automatisch geändert, aber da ich es nicht erstellt habe weil
es schon
existiert, oder? Änderungen
gehen also tatsächlich auf die Instanz zurück, die
erfolgreich initialisiert Sie sehen es also gerade nicht, klicken Sie
einfach auf Aktualisieren Es kann jederzeit kommen. Sie können sehen, dass es sich gerade im Status
Ausstehend befindet, also wird es gerade
erstellt. W bedeutet, dass Ihr Server gerade erstellt
wird. Jetzt steht es noch aus, also lassen Sie uns einfach aktualisieren, dass es jetzt laufen
sollte. Ja, bitteschön. Es läuft gerade, du hast die
öffentliche IP-Adresse. Sie können SSSARC also über
diese öffentliche IP-Adresse ausführen. Wenn Sie SSSaro
deaktiviert haben, wenn Sie später einige
Sicherheitsrichtlinien
zulassen möchten, können
Sie auf CoTA Security,
I'm sorry, C Networking klicken
und dann können Sie
tatsächlich einige
der wirklich schlechten Änderungen an diesem Hyundai vornehmen SSSaro
deaktiviert haben, wenn Sie später einige
Sicherheitsrichtlinien
zulassen möchten , können
Sie auf CoTA Security, I'm sorry, C Networking klicken und dann können Sie
tatsächlich einige
der wirklich schlechten Änderungen der wirklich Sie haben es also nicht
im Netzwerk. Sie gehen hier zum
Netzwerk und können die
Netzwerkschnittstelle hier sehen, und dann ist da noch die
Servicegruppe, das ist eine Sicherheitsgruppe. Okay, das ist also
eine Sicherheitsgruppe, Sie können
die Sicherheitsgruppe ändern und hier Elemente zulassen. Es steht unter Sicherheitsvorkehrungen.
Das tut mir leid. In der Sicherheitsgruppe werden
Sie also tatsächlich
mehr eingehende Anfragen hinzufügen Im Moment wird hier also die Nummer 22
, also SSSch
, hinzugefügt. Also genauso
wirst du das hinzufügen. Sie können auch
darauf zugreifen, indem Sie von hier aus zur
Sicherheit gehen und die
Sicherheitsgruppe ändern, oder? Das geht also im Grunde an Ihre Sicherheitsgruppe hier drüben. Das können Sie also auch tun. Aber wir werden ausführlich
darüber sprechen. Ich bin nicht wirklich daran
interessiert , über
all diese Dinge zu sprechen, aber dann lass uns weitermachen und,
ähm , weißt du, in diesem Video ist
das so ziemlich das, was wir tun wollten. Wir haben gerade einen
Sinnestest. Möglicherweise haben Sie diese Dinge nicht,
also machen Sie sich darüber keine Sorgen. Das ist besser für ein anderes
Projekt, für meine, ähm, du weißt schon, für meine Ubunitis-Arbeit und Open-Shift-Arbeit
und solche Sachen Also kümmere dich nicht um diese.
Okay. Wie dem auch sei, Wise, danke dir nochmal für deine
Geduld und Zeit. Das mit den zusätzlichen
Informationen tut mir leid,
falls es dir quasi viele Informationen gibt, es
tut mir so leid. Ich sehe das nächste Video mit mehr, mehr, mehr Informationen.
Danke.
29. Einführung in Labs VPC: Hallo, Leute. Willkommen zurück
zum nächsten Video. Und in diesem Video
werden wir
über Virtual Private Cloud sprechen . Nun, VPC,
nennen wir es kurz, ebenso wie eine Reihe von Diensten, die in jeder Region laufen
werden Wenn Sie also eine Region haben in der Sie Ihre EC Two-Instance
ausführen möchten, müssen
Sie zuerst die Region
auswählen,
in der Sie sie ausführen möchten, und dann eine EC
Two-Instance in dieser Region erstellen Dies ist kein optionaler Parameter. Dies ist ein obligatorischer Parameter. Manchmal werden
wir uns momentan nicht mit all dieser VPC-Konfiguration wenn wir die
EC Two-Instance erstellen Aber zu einem späteren Zeitpunkt
der eigentlichen Belastung werden
wir uns darüber Gedanken machen, werden
wir uns darüber denn das ist ein Thema,
das wir mit das wir Nun, das wird eine
Vorwarnung für Sie sein. Wir schauen uns das jetzt
an weil wir für dieses Beispiel
, das wir verwenden werden, EC2-Instanz in unserem Dienst benötigen , die ausgeführt werden muss. Das ist der Grund, warum wir nach
VPC
suchen oder sie verstehen und was EC-Two-Instances sind
und wie wir sie erstellen. Obwohl wir nicht
auf das EC zugreifen werden , wurden zwei
Instanzen erstellt, aber wir wollen es trotzdem nur als Einführung
betrachten Jetzt, hier drüben, haben Sie die VPC im
Architekturdiagramm unter einer Region Das bedeutet also, dass Ihre VPC
in jeder Region
konfiguriert sein wird Ihre VPC
in jeder Region
konfiguriert Also geben wir
hier einfach VPC ein, Sie erhalten die VPC. Es heißt also isolierte
Cloud-Ressource, und das ist die Kategorie, in die
sie fällt. Okay, also werde ich das einfach dort drüben markieren. Und dann, wie Sie hier sehen
können, müssen
Sie, ähm, EVPC in der USD-Ostregion Wenn Sie nun alle
VPC-Instances
in allen Regionen sehen möchten , gibt es jeweils eine Also wird es natürlich,
äh, Sie wissen schon, eine bestimmte
PBC in allen Aber es gibt etwas, das nicht oft
gesagt wird. Es gibt also einige
Regionen, die für mich deaktiviert sind, wie Sie hier sehen können,
ich bin in Nord-Virginia. Ich habe 17 aktiviert und es
gibt einige, die für mich
deaktiviert sind. 13 Regionen sind deaktiviert, weil ich sie
nicht mehr verwende. Es gibt also standardmäßig keinen
Zweck. Äh, Amazon deaktiviert sie, aber wir können
sie zu einem späteren Zeitpunkt aktivieren , wenn Sie sie benötigen Aber darüber mache ich mir keine Sorgen. Ich bin mit North Virginia zufrieden ,
weil das die
billigste Region ist. Und mit den Ressourcen, die Sie schaffen, ist es viel
billiger als alle anderen, Sie wissen schon, Gebiete in der
Umgebung, weil es dort viele Lawinenzonen gibt. Ähm, nun, das ist also mein Geheimnis. Also ja, deshalb habe ich
meinen Service hier eingerichtet. Ähm, also hier drüben habe ich zwei VPCs, also können Sie
mehr als eine VPC haben Also eine VPC ist Standard, weil sie es Ihnen
ermöglicht, schnell zwei
EC-Instanzen zu konfigurieren ,
ohne irgendwelche, Sie wissen schon, ich muss
diese Konfigurationsvoraussetzungen festlegen
und solche Dinge Das ist also der Grund, warum
jede Region eine VPC hat. Das macht es mir viel einfacher. Ich kann jetzt zu einer beliebigen
Region wechseln und dann einfach die EC-2-Instanz starten, nur die Standardeinstellungen, okay, im Netzwerk.
Ich muss also
nicht viel tun. Das werden wir
im nächsten Video sehen. Das ist der Grund, warum
es überall eine VPC gibt, okay? Ein weiterer Grund ist, dass VPC für die
Netzwerkkonfiguration wirklich erforderlich
ist Dabei kann es sich um eine
Kommunikation zwischen Regionen oder um eine
phasenweise
Internet-Anwendungskommunikation über das Internet handeln phasenweise
Internet-Anwendungskommunikation über das Aber Sie
benötigen auf jeden Fall eine VPC. Nun, wenn du das eingibst, gibt es hier zwei VPCs
, richtig? Wenn Sie eine VPC eingeben
, werden Ihnen
Subnetze zugewiesen Sie können also sehen, dass es sich um
Subnetze handelt. Nun, woher kommen diese
Subnetze? Jetzt sind Subnetze die
Standardkonfiguration einer VPC. Wie viele Zonen oder verfügbare
T-Zonen hat die VPC,
so viele Betreff, es tut mir leid, dass viele Subnetze für diese VPC verfügbar
sein sollten Können Sie, ähm, wissen
Sie,
vielleicht gibt es mehrere Fragen Können Sie mehrere Subnetze haben,
können Sie mehrere VPC haben? Diese Fragen werden zu diesem Zeitpunkt
beantwortet, also machen Sie sich darüber keine Sorgen Wie Sie sehen können, stellen Subnetze eine
Verbindung zu einer Routing-Tabelle her. Die Routentabelle führt zu einer
Netzwerkkonfiguration. wir uns also keine Gedanken
über Im Moment machen wir uns also keine Gedanken
über die
Architektur der Resource Map, wir kennen jetzt
die Standardausstattung. Wenn Sie nun eine
EC-Two-Instance erstellen, was ich
im nächsten Video tun werde, werden
Sie tatsächlich die Relevanz
zwischen dem Subnetz und der VPC
erkennen zwischen dem Subnetz und der VPC Sie werden also die EC
Two Run-Instance sehen , die gerade
läuft Wenn Sie also nur
das auswählen, wird diese EC Two-Instance auf einer VPC
gehostet,
richtig, weil Sie die verfügbare T-Zone
sehen können, sie wird auf US East One A gehostet. Da steht A , was bedeutet,
dass sie
unter Verwendung des Subnetzes
auf US East One A gehostet wird unter Verwendung des Subnetzes
auf US East One A So ist es also
so ziemlich definiert. Es ist also Host eins A. Können wir ihn
also auswählen? zum Zeitpunkt der EC-2-Instance Können wir zum Zeitpunkt der EC-2-Instance ein Subnetz auswählen Ja, Sie können ein Subnetz auswählen,
wenn Sie eine EC Two-Instance erstellen Wenn Sie hier zum Subnetz gehen,
haben Sie hier eine Menge
Subnetze Es gibt also viele Subnetze, die
Sama von mir erstellt hat. Ja, Sie können
mehrere Subnetze erstellen. Also habe ich hier zusätzliche
Subnetze erstellt. Das kannst du hier sehen. Sie können also sehen, dass es heißt: Das ist
Netzwerkgrenzgruppe Ost, Ost, Ost, Ost, weil
das im Grunde die USA Ost ist. Das ist der
Name der Region, also das ist der Name der Region. Aber hier in der verfügbaren Zone haben
Sie Ost eins A,
Ost eins B, Ost eins,
C, wenn Sie
es einfach danach sortieren, richtig? Sie haben zwei
Ost-A und zwei Ost-Eins B. Nun, warum? Weil ich ein Subnetz für mich selbst erstellt habe.
Also kannst du das sehen Das ist also für
die zusätzliche, Entschuldigung,
zusätzliche Anwendung erstellt . Das ist also etwas, worüber
wir irgendwann sprechen werden. Okay. Nur in diesem Abschnitt werden
wir darüber sprechen. Okay. Ebenso haben wir mehrere Subnetze
erstellt Also ja, um Ihre Frage zu beantworten:
Es ist auch möglich, mehrere Subnetze
in einer
Verfügbarkeitszone zu
erstellen in einer
Verfügbarkeitszone Und ja, es ist möglich, Ihre EC Two-Instance
auszuwählen, äh, um sie in einem
bestimmten Subnetz hier zu hosten. Es ist jedoch nicht möglich, Ihren Backup-Speicherort zu
wählen. Also nur zum Beispiel, wenn
ich auf E Two hoste, kann
das Backup überall sein. Wenn dieser Server also
aus AW-Sicht ausfällt, kann
er
auf jeden der Hosts migriert werden Wir können uns
also nicht dafür Aber es wird
natürlich ein Backup reinkommen. Und Sie können auch
die Verfügbarkeit
der IP-Adresse für den Apfelwein sehen der IP-Adresse für den Apfelwein Jedes spezifische Subnetz wird also eine
Apfelweininformation haben. Das sind also die Basiskriterien für die Zuweisung von IP-Adressen Auf den Servern, die
unter der SDU gehostet werden. Okay. Also das ist
der Bereich der Seite da oben. Also, Sie haben auch all
diese Informationen dazu. Im nächsten Video werden wir eine EC Two-Instance
erstellen. Ich hoffe, dass Sie
die Grundprinzipien von VPC verstanden haben. Was ist VCP, tut mir leid, was ist VPC und was macht es, was sind Dinge unter Also das grundlegende Overlay
verstehst du bei diesem. Im nächsten Video werden
wir das grundlegende Overlay beim Erstellen einer
EC-Two-Instanz und
beim Zugriff darauf verstehen grundlegende Overlay beim Erstellen einer EC-Two-Instanz und
beim Zugriff darauf Nochmals vielen Dank für
Ihre Geduld und Zeit Wir sehen uns
im nächsten Video
30. Labs Zugriffsschlüssel: Hallo Leute, willkommen zurück
zum nächsten Video. In diesem Video
werden wir über
dieses spezielle Thema sprechen . Zunächst werden wir den Zugriffsschlüssel, die
Kennwortrichtlinien und die Speicherung von
Anmeldeinformationen verstehen Kennwortrichtlinien und die Speicherung von
Anmeldeinformationen an
diesen beiden Diensten als Teil
des Anmeldeinformationsspeichers arbeiten diesen beiden Diensten als Teil
des Anmeldeinformationsspeichers Der Speicher für Anmeldeinformationen ist im Grunde Ort, an dem Sie den Speicher aufbewahren werden Also werden wir das in
einem Video machen und dann
werden wir das in
zwei anderen Videos machen in
zwei anderen Videos Zugriffsschlüssel
und die Passwortrichtlinie
angeht. Wir werden in diesem Video mit dem
Zugriffsschlüssel beginnen und dann mit der
Passwortrichtlinie im nächsten Video fortfahren. Denken Sie jetzt daran, dass den folgenden Videos, die
ich Ihnen zeigen werde wir bei
den folgenden Videos, die
ich Ihnen zeigen werde, hier
tatsächlich
einen Abschnitt abgeschlossen haben. Hier werden wir also praktisch einen Benutzer erstellen und wir werden
die Richtlinien
tatsächlich dem Benutzer zuweisen und solche Dinge Wenn ich Ihnen nun die
praktische
Erläuterung dieser Aspekte zeige , zeige
ich Ihnen den
Benutzer, der bereits erstellt wurde Also mach dir darüber keine Sorgen. Das ist nur ein bisschen mehr von mir. Ich gebe mir Mühe , Ihnen zu zeigen, wie das
tatsächlich aussieht, , Ihnen zu zeigen, wie das
tatsächlich aussieht,
aber für
diese Zertifizierung sind
keine
praktischen Übungen erforderlich, also machen Sie sich darüber keine Gedanken. Es ist nur der zusätzliche Aufwand, den
ich investieren werde ,
um Ihnen den Artikel hier zu zeigen. Also, wenn du denkst, oh, ich bin nicht dieser
Benutzer, ist das okay. Du wirst es sowieso
erstellen. Nach drei bis vier Videos wirst
du das sowieso machen Aber ich werde es
dir nur zeigen, weil das nicht wirklich praktische Arbeit
erfordert, also werde
ich dir das einfach zeigen. Um all die Dinge zu ignorieren , die der Benutzer bereits ist, habe ich es, weil Sie
es später
sowieso erstellen werden Schauen wir uns also dieses Diagramm an. Zunächst
werden wir uns in diesem Video mit dem Zugriffsschlüssel befassen. Zugriffsschlüssel sind ein
Paar von Anmeldeinformationen Es handelt sich um einen
geheimen Zugriffsschlüssel mit Schlüssel-ID
, mit dem
programmatische Anfragen zur
Verwendung der API über AWS CLI,
SDK und STAPIs zugewiesen werden . Was sind das nun?
Ähm, das sind im Grunde eine Art von Möglichkeiten
, auf Ihr AWS zuzugreifen. Okay? Jetzt können Sie über die AWS-CLI
auf
AWS zugreifen,
die Software, die Sie von AWS herunterladen
müssen. das
SDK-Softwareentwicklungskit erneut von AWS
herunter und
installieren Sie es auf Ihrem System. Rest-APIs sind, wissen
Sie, wie Programme,
die vom
Client aus ausgeführt werden und
tatsächlich an Ihr AWS weitergeleitet werden. Sie können zum Beispiel sagen, wenn Sie von Ihrer
Red Hat-Website zu AWS auf
Open Shift at
Openshift zugreifen , müssen
Sie diese
Zugriffs-ID und den Schlüssel erstellen, einen Benutzer erstellen, ihm die erforderlichen Berechtigungen erteilen und dann diese Schlüssel-ID und den
geheimen Zugriff erstellen und
sie bei OpenShift weitergeben Was Openshift tun wird,
ist, dass es die UM, Schlüssel-ID und den Zugriffsnamen verwendet, und es wird den Benutzernamen verwenden
, den Sie angegeben haben, richtig Ähm, derjenige, der tatsächlich die Richtlinien für
die richtigen Asse
hat , um Ressourcen
zu erstellen Und dann wird es
auf die AWS-API zugreifen, was es natürlich als Teil des Benutzers
gegeben hätte, und es wird
mit diesen Anmeldeinformationen auf AWS zugreifen. Alles oder? Das nennt man Access Key Also im Großen und Ganzen
wäre die Frage so, ähm, naja,
Sie haben ein Unternehmen
und die Drittanbieter
möchten Sie haben ein Unternehmen
und die Drittanbieter auf
Ihren Service zugreifen, indem programmatischen Zugriff haben oder eine
programmatische Anfrage
über einen Ihrer Dienste
, der auf der AWS-API läuft Welcher der
unten aufgeführten Dienste wäre der richtige. Sie werden
dich also nach dem SSSECH-Schlüssel fragen. Möglicherweise fragen sie Sie nach Ihrem
Benutzernamen und Passwort, und sie werden Sie nach dem
Zugangsschlüssel fragen Sie müssen also auswählen
, in welcher Situation Sie
den Zugriffsschlüssel auswählen müssen. Ich zeige dir einfach, dass vieles Sinn ergibt, wenn ich es dir zeige. Ich suche nach IAM mittleren Maustaste auf IAM Hier drüben haben Sie den Benutzer, Sie haben den Dev-Benutzer Normalerweise alles
wie programmatischer Zugriff, bei dem eine API aufruft, äh, die
Drittanbieter rufen über das Restprotokoll
oder so etwas Sie müssen tatsächlich
den Benutzernamen des Benutzers angeben , den Sie erstellt haben Normalerweise
hätte ein Benutzer Richtlinien. Sie sich darüber keine Gedanken, wir werden das
zu einem späteren
Zeitpunkt erstellen. Sie werden also Richtlinien zuweisen. In dieser Richtlinie heißt es also, dass dieser bestimmte Benutzer
vollen Zugriff auf EC zwei,
S drei volle Achsen und
Lambda Full Aces hat S drei volle Achsen und
Lambda Full Aces Also haben wir nur
diesem Benutzer namens Dev vollen
Zugriff auf diese drei Dienste gewährt nur
diesem Benutzer namens Dev vollen
Zugriff auf diese drei Dienste , okay? Nun, wie kann eine Person
auf diesen Podgula-Artikel zugreifen? Wie ich Ihnen bereits gesagt habe, können
Sie tatsächlich über die Konsole auf
diesen DE-Benutzer zugreifen , da
sie aktiviert ist Sie können den
Link zur Konsole hier sehen, damit Sie diesen
Zugriff auf diesen Benutzer kopieren können. In dem Abschnitt, in dem wir den Benutzer tatsächlich
erstellen werden, werden
wir tatsächlich über
die Konsole auf den Benutzer zugreifen. Das ist eine Art des Zugriffs. Aber dann wird nicht jeder
gerne auf die Konsole zugreifen. Zum Beispiel werden Ihre Programme, die
von Open Shift bis AWS laufen, alle
durch Terraforming ausgeführt Wenn Sie jetzt einen
Service über Terraforming ausführen möchten, können
Sie ihn nicht wirklich mit der GI-Konsole
ausführen Dann müssen Sie es möglicherweise über ST-API-Aufrufe oder
etwas
ausführen, das ein Programm verwendet, um eine Verbindung
mit einem anderen
Programm Das nennen wir normalerweise Program Medical Access. Lassen Sie uns nun über
eine andere Art des Zugriffs sprechen. Wie Sie wissen, ist
Multifaktor-Authentifizierung nichts
anderes als ist
Multifaktor-Authentifizierung nichts das Hinzufügen einer weiteren
Authentifizierungsebene zusätzlich zu
Ihrem bestehenden Passwort, mit der Ihrem bestehenden Passwort, Sie tatsächlich
auf Ihre Konsole zugreifen können, und das hat nicht viel
mit unserem Thema zu tun Kommen wir nun zum
Access-Key hier drüben. Ich habe den Zugangsschlüssel hier drüben. Lassen Sie mich diesen Zugriffsschlüssel deaktivieren und
neu erstellen. Es tut mir so leid, dass ich ihn wieder
aktiviert habe. Also werde ich es dieses Mal machen. Ich muss den Namen des
Zugriffsschlüssels eingeben, um ihn zu löschen. Jetzt ist dieser Zugriffsschlüssel deaktiviert. Nun, was ist der Zugriffsschlüssel? Verwenden des Zugriffsschlüssels zum Senden von
programmatischen Aufrufen an AWS über AWS-CLI, AWS-Tools Power Shell, Entschuldigung,
AWS-Tool wie in Power Shell, SDK oder direkt über
AWS-APA-Aufrufe oder SPA-Aufrufe Sie können maximal zwei Schlüssel
anhängen. einen können Sie es entweder Zum einen können Sie es entweder gleichzeitig aktiv oder
inaktiv
haben. Das bedeutet nun
, dass Sie einen guten Zugriffsschlüssel benötigen, wenn Ihr Programm eine Verbindung
zu dem Programm herstellen
möchte ,
das auf AWS läuft ,
das auf AWS läuft. Jetzt haben Sie andere
Kommunikationsmethoden wie SS, zum Beispiel, es wird für AWS-Code-Commit verwendet, aber hier nicht für programmatische
Aufrufe. Sie können die
Beschreibung hier sehen. Sie können HTTP
Get Credentials verwenden, dies wird
jedoch zur
Authentifizierung der HGTBX-Verbindung verwendet, was wiederum ein Code-Commit
für das Code-Commit-Repository ist Sie können Amazon Keypass
hier für Cassandra für Apache Cassandra verwenden hier für Cassandra für Apache Cassandra Okay. Und dann können Sie x509 für
SOP-Protokolle verwenden. In Ordnung. Jede
dieser Authentifizierungsmethoden
ist also für einen speziellen Dienst oder eine andere Art
der Verbindung zu diesem bestimmten Benutzer
von Drittanbietern aus vorgesehen. Wenn Ihre Frage jedoch speziell
programmgesteuerte Aufrufe betrifft, müssen
Sie über den Zugriffsschlüssel
nachdenken Wenn Ihre Frage besagt, dass es nur um Codekommentare
geht , dann müssen
Sie
entweder an SSH oder G denken. Wenn
Ihre Frage besagt, dass Sie es über entweder an SSH oder G denken. Wenn Key Pass oder,
äh, für Cassandra verwenden möchten Key Pass oder,
äh, für Cassandra verwenden ,
dann müssen Sie an Anmeldeinformationen
von Amazon Key Pass
denken, ähm, tut mir leid,
Schlüsselraum Schlüsselraum Und wenn es dann um, ähm, das SOAP-Protokoll
und solche Dinge geht, dann X Five-Online-Zertifikat Aber mach dir keine Sorgen, das ist alles nicht
Teil deiner Frage. Das Wichtigste
wird der Zugangsschlüssel sein. Erstellen Sie nun einen
Zugriffsschlüssel, klicken Sie einfach darauf und Sie können
verschiedene Zugriffstasten sehen, die Sie für
Ihre Befehlszeilenschnittstelle erstellen können. Lokaler Code: Wenn Sie
ein Software Development
Kit ausführen , können Sie sehen, wenn Sie ein EC ausführen, um Lambda zu bedienen, oder wenn Sie auf einen AW-Service
auf einen
anderen AWS-Service zugreifen möchten , können
Sie eine Anwendung verwenden, auf der der
AWS-Rechenservice oder ein
Drittanbieter ausgeführt wird.
Wenn Sie beispielsweise OpenShift
für dieses Beispiel verwenden, können
Sie Drittanbieter und dann Anwendung verwenden
läuft außerhalb von AWS Ebenso haben Sie auch
andere, wie Nevers, die hier auf
wichtige
Informationen zugreifen können Wie auch immer Sie etwas davon
erstellen, es wird nach einem
Beschreibungswert fragen es wird nach einem
Beschreibungswert fragen
und dann wird es hier ein Geheimnis
erstellen Nun, der Zugriffsschlüssel wird hier zwei Elemente enthalten. Einer ist der Zugangsschlüssel, ein anderer ist der
leider geheime Zugangsschlüssel. Es wird dein
eigentliches Passwort sein. Das ist also der Benutzer. Sie werden das verwenden, was Sie als Beispiel angeben
werden, wenn Sie in der anderen Hand Open
Shift verwenden. Öffne Shift, du wirst sagen, benutze diesen Benutzernamen Dev
für die Authentifizierung, diesen Benutzernamen Dev
für die Authentifizierung,
es wird dich fragen, gib
mir den Zugangsschlüssel, gib mir den geheimen Zugriffsschlüssel. Sie müssen beide
in OpenShift kopieren und einfügen, und Sie müssen auch
Ihre Konto-ID angeben Es wird also all
diese Kombinationen verwenden, also wird es die Konto-ID verwenden Der Benutzername, der Zugriffsschlüssel, geheime Zugriffsschlüssel und
dann die Verbindung zu AWS. Denken Sie jetzt daran, dass OpenShift seine eigenen
Anforderungen an die Richtlinien haben
wird, die
Teil des Entwickler-Benutzers sein müssen ,
damit er Aufgaben ausführen kann,
zum Beispiel wird
Openshift eine
Menge Terraforming-Code ausführen Auf Ihrer EC Two-Instance
oder Ihren ähnlichen Objekten. OpenShift wird sagen, ich benötige Administratorrechte,
weil das, was es tun
wird, um
Terraforming-Skripte auszuführen, VPCs zu erstellen, Lastenausgleich
zu erstellen, es wird eine Menge Dinge erstellen, wenn Ihre Open-Shift auf AWS
installiert Dafür ist also Administratorzugriff erforderlich
. Es will keine Grundsteuern. Sie sollten Access Key keinem
Root-Zugriff gewähren, auch nicht jedem, der danach fragt. Okay? Sie sollten also
nur einen Benutzer erstellen, die spezifischen Richtlinien
angeben, nach
denen er fragt, und dann den Zugriffsschlüssel erstellen
und ihn dieser API geben. Ordnung. Das ist so
ziemlich das, was ich dir in
Form von Hands-On zeigen möchte. Ähm, denken Sie also daran
, dass der Anwendungsfall für diesen Zugriffsschlüssel von
IAM-Benutzer- und IM-Anwendungen verwendet wird IAM-Benutzer- und IM-Anwendungen , um programmgesteuert mit
AW-Services zu interagieren Nun, dieses programmatische
Wort sollte man sich merken. Wenn Sie das Wort
programmgesteuert hören, sollte
die Antwort Access Key lauten Sie müssen also sicherstellen, dass Sie
den Zugriffsschlüssel
regelmäßig wechseln müssen, um die Sicherheit zu gewährleisten Vermeiden Sie es, den
Zugriffsschlüssel in den Quellcode einzubetten. Damit wird sichergestellt,
dass, Sie wissen schon, IAM-Regeln, Sie wissen schon, als Teil davon
erstellt wurden Darüber werden wir später sprechen. Dies sind also auch einige der bewährten Methoden,
die Sie in
Word Access Key verwenden können. Ich glaube nicht, dass ich hier
noch etwas hinzuzufügen habe. Wenn Sie also
Fragen haben, hinterlassen Sie sie im Fragenbereich. Ich werde am Wochenende hauptsächlich all Ihre Fragen beantworten
. Nochmals vielen Dank für
Ihre Zeit und Geduld. Wir sehen uns im nächsten Video.
31. Speicherung von Arbeitsnachweisen: Willkommen zurück
zum nächsten Video. In diesem Video werden wir uns den letzten Abschnitt
zu
diesem speziellen Thema ansehen , nämlich Ihren geheimen Manager
und Systemmanager. Und wir werden den Speicher für
Anmeldeinformationen wiederherstellen. Nun, was meinst du mit Speicherung
von Anmeldeinformationen? Ein Speicher für Anmeldeinformationen ist
ein Ort, an dem Sie Ihre Anmeldeinformationen tatsächlich speichern
können Sie können Ihre
Anmeldeinformationen also auf zwei Arten speichern: in einem geheimen Manager und im
Systemmanager-Parameterspeicher Nun, was sind diese beiden Gegenstände? Warum wir
über zwei Artikel sprechen. Es gibt zwei Gründe
dafür, dass wir über
diese beiden Elemente sprechen , wenn es um die Speicherung
von Anmeldeinformationen geht. zu erreichenden
Zugangsdaten angeht, gibt es einen speziellen Dienst
namens Secret Manager. Wenn ich jetzt einfach hier
rübergehe, um Secret Manager zu finden, hole
ich mir den Secret
Manager. Ein anderer ist Systemmanager. Ich öffne beide,
damit ich
sie dir leicht zeigen kann. Also, was ist ein geheimer Manager? Secret Manager kann Geheimnisse
während ihres gesamten Lebenszyklus problemlos rotieren ,
verwalten und abrufen Wenn ich also ein Geheimnis erstelle, wie ein API-Token,
das ich für diesen Benutzer erstellt
habe , direkt im
vorherigen Video, das wir gesehen haben Jetzt kann ich den API-Schlüssel und den Zugriffsschlüssel
im geheimen Speicher speichern. Aber das Problem ist, dass es
eine kostenlose 30-Tage-Testversion gibt, aber dann pro Secret zahlen Sie
0,4 pro Monat. Es ist nicht so teuer,
aber trotzdem etwas, das man in Betracht ziehen sollte. Sie können auch
API-Aufrufe verwenden und das
CNM-Passwort über
den Secret Manager weiterleiten CNM-Passwort über
den Secret Manager weiterleiten indem Sie den Namen
des Geheimnisses angeben Anstatt den Schlüssel
und das Geheimnis explizit direkt
an einen
der APS weiterzugeben, können
Sie es mit den entsprechenden Rechten tatsächlich über
den Secret Manager
weiterleiten mit den entsprechenden Rechten tatsächlich über
den Secret Manager
weiterleiten Jetzt hat der Secret Manager sein
eigenes UsenMPassword, und die Verschlüsselung dieses Secret
Managers wird Teil
von KMS sein Sie müssen den
KMS-Service auch bezahlen , weil der Zugriff auf dieses spezielle Geheimnis über
Ihren Key Store Management
Service von AWS verschlüsselt
wird Ihren Key Store Management Okay? Also, das ist ein Standard, den Sie
hier als Secret Manager haben und der
als Teil Ihres KMS erstellt wurde. Jetzt haben Sie hier Optionen. Sie können
die wichtigsten Informationen tatsächlich für Ihre
RDS-Datenbank speichern . Sie können auch die Amazon
Document DB-Datenbank speichern. Sie können auch,
ähm, Red Shift Data Warehouse speichern . Sie können auch Anmeldeinformationen
anderer Datenbanken speichern wobei Sie den
MsqolPostSQ-Server auswählen können, und dann können Sie die Serveradresse, den
Datenbanknamen und die
Portnummer angeben , falls er Der Dienst wird sich also
direkt an den
Secret Manager wenden , um das Geheimnis,
das im nächsten Schritt, Schritt 2, konfiguriert
wird,
oder einen anderen Typ von API-Schlüsseln,
den Sie
für einen Benutzer erstellen,
abzurufen das im nächsten Schritt, Schritt 2, konfiguriert
wird ,
oder einen anderen Typ von API-Schlüsseln, den Sie
für einen Benutzer erstellen, den Sie
für einen Benutzer erstellen, Sie können also auch diesen Schlüssel
mit dem Schlüsselwert hier
einfügen
und dann zum nächsten Schritt
übergehen und dann und das Geheimnis
konfigurieren. Und konfiguriere die Rotation. Gehen wir also einfach mit diesem Testtest und
dann mit dem nächsten fort. Und hier gibst du hier tatsächlich
den geheimen Namen an. Also, was auch immer der geheime Name sein mag, er
wird hierher kommen. Und wenn Sie dann zum nächsten
gehen, können
Sie tatsächlich sehen, ob
Sie das drehen möchten. Jetzt können Sie den
Rotation Builder
alle 23 Stunden oder alle zwei
Monate hier haben , sobald Sie rotieren können. Das Schöne daran
ist, dass Sie jedes
Mal, wenn Sie das tun, auch hier eine
Lambda-Funktion aufrufen können, und dann können Sie
den Artikel einfach überprüfen und fertig stellen Nun, sie werden dich nicht
fragen, wie man das
mit der praktischen Anwendung macht , oder nach den Optionen
, wenn man es praktisch macht Also gebe ich
Ihnen nur zusätzliche Informationen darüber, wie man mit
einem geheimen Manager zusammenarbeitet. Was ist nun ein geheimer Manager? Ein geheimer Manager speichert Ihr Geheimnis sicher und verwaltet es
und ruft Und er wechselt auch das Geheimnis. Okay? Also das ist die
erste wichtige Sache daran. Okay? Heute wird es hauptsächlich
zum Speichern von
Datenbankanmeldedaten verwendet zum Speichern von
Datenbankanmeldedaten Sie haben also gesehen, dass
viele Datenbanken in
den Aktionspunkt aufgenommen wurden in
den Aktionspunkt Wenn also eine Frage kommt, welches der folgenden
Elemente wird bevorzugt in
AWS Secret Manager gespeichert? Und sie haben vielleicht eine Menge Fragen, die damit zu tun haben, aber eine davon wird auffallen, die Datenbank-Credits sein
werden Suchen Sie nach diesen Informationen. API-Schlüssel, auch wir können sie
und vertrauliche Informationen speichern. Was auch immer Sie für
sensible Informationen halten. Okay, oder sie werden
Fragen wie diese stellen , bei denen ich Datenbankanmeldedaten habe und meine Kunden mich bitten, sie sicher
zu speichern Welchen der Dienste
möchten Sie nutzen? Einer dieser Dienste
wäre Secret Manager. Okay. Also erinnere dich an
dieses Wort. In Ordnung. Lassen Sie uns nun
über den nächsten sprechen, bei dem es um die Funktion
des Secret Managers geht. Es dreht dein Geheimnis um. Es verwendet den KMS-Dienst
für die Rotation. Es tut mir leid, dass ich den
Schlüssel mit KMS sicher aufbewahrt habe. Und dann hat es einen
gezielten Zugriff über IAM. Okay. Also sehr einfach, darauf zu
antworten. In Bezug auf den Systemmanager wird der
Systemmanager also für viele Dinge verwendet. Okay? Sie können zum Beispiel Op Center hier sehen, Cloud Watch, Sie können Anwendungsmanager hier
konfigurieren. Sie können das
Änderungsmanagement auch als
Teil des Systemmanagers betrachten . Sie können auch sehen, dass das Patchen auch einen großen Teil
Ihres Systemmanagers ausmacht Aber eine Sache beim Speichern Ihrer Anmeldeinformationen ist
Ihr Parameterspeicher Denken Sie jetzt daran, dass der
Parameterspeicher
Teil Ihres Systemmanagers ist , und was ist der Parameterspeicher Nun ist der Parameterspeicher eine
zentrale Speicherung und Verwaltung von Geheimnissen und Konfigurationsdaten
wie Passwörtern, Datenbankzeichenfolgen
und Lizenzcodes. Sie können Werte verschlüsseln oder sie im Klartext
speichern und auf der Einstiegsebene auf Secret zugreifen, ganz
wie Sie möchten Eine weitere Funktion des Parameterspeichers besteht darin, dass Sie einen neuen Parameterspeicher erstellen und den
Parametertyp und den Parameterwert
angeben
können Parametertyp und den Parameterwert
angeben Und verweisen Sie
auf den Parameter in Ihrem Code oder Befehl. Sie können ihn auch leicht referenzieren. Klicken Sie nun auf Parameter
erstellen,
sodass Sie
hier tatsächlich
den Namen des
Parameters angeben können, eine sodass Sie
hier tatsächlich
den Namen des
Parameters angeben können Beschreibung, ob Sie bis zu
2000 Standardparameter bis zu einem Wert von
bis zu vier
KB einer Dateigröße speichern möchten 2000 Standardparameter bis zu einem Wert von
bis zu vier
KB einer Dateigröße und ob die Parameterrichtlinie
mit anderen AWS-Konten geteilt wird. Sie können dies als Teil der
anderen AWS-Konten
, die Sie haben, teilen . Oder Sie können sich einfach für
Advanced entscheiden, wo Sie 100.000 erweiterte Parameter
haben, was etwa acht KB entspricht.
Das wird für Sie ein
Aufpreis sein. Was nun den Wert angeht, den
Sie speichern möchten, können
Sie Ihre
Datenbankwerte,
Ihre Lizenzschlüssel
und alles andere eingeben . Und Sie können auch, Sie wissen schon, mithilfe von KMS eine sichere
Zeichenfolge
erstellen. Sie können es mit
einer sicheren Zeichenfolge verschlüsseln oder
Sie können tatsächlich einen Datentyp als
Text
verwenden und dann den Wert hier
einfügen Dadurch wird
ein Parameter erstellt
, in dem Sie den
Wert tatsächlich speichern Der Zweck
des Parameterspeichers besteht nun darin, dass hier ein weiterer Dienst zum Speichern
von Konfigurationsdaten zum Speichern
von Konfigurationsdaten
und geheimen Dateien gespeichert
werden kann Diese Funktion unterstützt nun sowohl Klartext als auch
verschlüsselte Werte und zur Verschlüsselung in AWS
KMS
integrieren Ich würde sagen, ein idealer
Anwendungsfall dafür ist das Speichern von Anwendungskonfigurationswerten wie
Umgebungs-V-Werten oder
Datenbankzeichenfolgen, die Sie behalten
möchten , oder kleiner Geheimnisse die Sie
hier haben, Sie können sie behalten. Der Hauptzweck oder
die bewährte Methode besteht also darin, den Parameterspeicher
zur Verwaltung nicht sensibler
Konfigurationsdaten
oder Geheimnisse zu
verwenden zur Verwaltung nicht sensibler
Konfigurationsdaten
oder , die nicht häufig
gewechselt werden müssen. Der Parameterspeicher dient also im Grunde
dazu, Parameter
und unkritische geheime Werte
wie Ihre
Lizenzinformationen und andere Dinge zu speichern und unkritische geheime Werte wie Ihre
Lizenzinformationen und andere Dinge Wie es sich
vom Secret Manager abhebt, wird
Secret Manager KMS-Authentifizierung
oder Verschlüsselung
verwenden. Es gibt also keine Option,
ähm, für Sie,
es ohne KMS zu speichern. Wir haben hier mehrere
Optionen gesehen.
Sie können sehen, dass wir den
Klartext oder den Schlüsselwert haben. Aber alles, was Sie hier eingeben erfordert eine
KMS-Verschlüsselung, das können Sie hier sehen. Dies ist kein optionaler
Parameter. Dies ist verpflichtend. Alles, was Sie als Teil
davon
speichern , erfordert eine
KMS-Authentifizierung oder, es tut mir leid, eine
Verschlüsselung, wobei der
Wert verschlüsselt wird. In diesem Fall ist
es optional, wo Sie es mit Ähm, KMS sichern
können. So sicher wie eine Verschlüsselung
mit dem Wert mit KMS. Okay, aber es gibt die Möglichkeit, das auch
nicht zu tun, weil es im Grunde Parameter
speichert Okay. Es werden also Fragen
auftauchen. Sehr verwirrend. Sie werden sagen, ich möchte ein Geheimnis
speichern, das im
Grunde nicht so, ähm, Sie wissen schon, nicht so
häufig rotiert werden muss und nicht so sicher ist. Es sind nur die Lizenzdaten. Würden Sie wissen, welche
Dienste ich nutzen würde,
um, ähm, Sie wissen schon, diesen Wert zu speichern? Es könnte sein, dass einer der Dienste Secure Manager
wäre, anderer Dienst wäre Parameter, Parameterspeicher, und
dann müssen Sie Parameterspeicher
wählen,
weil er keine Rotation keine Verschlüsselung erfordert. In dieser Situation, wenn
Verschlüsselung eine Option ist, wählen Sie den Parameterspeicher. Wenn Verschlüsselung obligatorisch ist, entscheiden Sie sich für Secret Manager. Fragen werden
etwas verdreht sein.
Lesen Sie die Fragen zweimal und
zweimal, Lesen Sie die Fragen zweimal und
zweimal um
den Unterschied zu verstehen, worauf wir uns eigentlich einlassen und beantworten Sie dann die Frage, es sollte
Ihnen gut gehen Nochmals vielen Dank, dass Sie sich dieses Video angesehen
haben. Wenn Sie Fragen haben, lassen Sie es im
Fragen-Bereich
32. Labs Identifizieren von Authentifizierungsmethoden in AWS: Hey, Leute. Willkommen zurück
zum nächsten Video, wir über die
Identifizierung von
Authentifizierungsmethoden in AWS sprechen werden. Eine der wichtigen
Fragen hier: Im
Rahmen dieser speziellen
Aufgabe zwei oder drei, wir identifizieren die
AWS-Zugriffsverwaltungsfunktionen,
geht es um Authentifizierungsmethoden
, um diese zu identifizieren Wir werden versuchen, einige praktische Übungen zu machen, aber wenn Sie die Benutzer
lesen möchten oder
etwas Ähnliches, werden
wir das zu einem
späteren Zeitpunkt tun Vielleicht
werden wir in ein paar
Videos praktisch daran arbeiten
, darauf hinzuarbeiten. In diesem Video werden
wir also hier
eine Architektur identifizieren, in es um
die
Identifizierung von
Authentifizierungsmethoden in AWS geht . Dies ist ein einziges Video wir all
diese drei Punkte behandeln werden, und
das haben wir immer wieder
gesehen, sodass es
für uns viel einfacher sein wird , das durchzugehen. Nun zur Identifizierung von
Authentifizierungsmethoden in AWS, d. h.
zur Identifizierung verschiedener Authentifizierungsmethoden. Eine davon ist Ihre
Multifaktor-Authentifizierung ,
die
Sie nicht ablehnen können . Sie ist dringend erforderlich und bietet eine zusätzliche
Sicherheitsebene,
indem der Benutzer aufgefordert wird zwei Arten
der Authentifizierung
bereitzustellen Eines ist Ihr Passwort, anderes ist ein Code
, der jede Minute generiert und sich jede Minute
ändert. Sie erhalten einen neuen Code, entweder mithilfe eines
Hardware-Token-Geräts
oder mithilfe einer mobilen App Ein Anwendungsfall besteht im Grunde darin, die MFA im IAM-Benutzer zu
aktivieren haben wir
für die vorherigen Videos
bereits genug gesehen , Sie
werden es auch
im nächsten Video sehen im nächsten Video Ich meine, als Nächstes, was die
Benutzererstellung angeht. Dadurch wird sichergestellt, dass
der Root-Benutzer oder der Benutzer, für den
Sie dies aktivieren , noch sicherer ist. Und selbst wenn das Passwort kompromittiert
wird, können
die
Leute nicht hineinkommen, weil der fünfstellige Code ständig rotiert und
sich jede Minute ändert Das nächste ist Iidentity
Center von IAM. Ursprünglich als
AWS-Single-Sign-On bezeichnet, ist
das der frühere Name,
aber seit Kurzem heißt es Iidentity Center Jetzt
ermöglicht Identity and Access
Management (Iidentity Center ) die zentrale Verwaltung des Zugriffs auf mehrere
AWS-Konten und -Anwendungen unter Verwendung vorhandener
Firmenanmeldedaten für, ähm, Sie wissen schon, direktes
Active Directory .
Wenn Ihr Unternehmen Active Directory verwendet ,
müssen
Sie wirklich nicht all diese Benutzer in
Active Directory nach AWS
importieren Sie können diese Active Directorys tatsächlich Directorys als
Teil des Identity Centers
hinzufügen Teil des Identity Centers Es kann also
einen externen
Identitätsanbieter verwenden , der SAMO 2.0 Die Fragen hier wären wie Sie Ihr Unternehmen
integrieren Es wird die
Frage also formell stellen, so als ob Ihr Unternehmen bereits
einen EDAP-Dienst hat , der mit vielen
Benutzern und Passwörtern
läuft der mit vielen
Benutzern und Passwörtern
läuft Nutzername und Passwörter. Nun, wie integriert man das? Welchen Service würden Sie verwenden
, um das in AWS zu integrieren? Das ist Ihr Identitätszentrum. Okay? So wird die
Frage also gestellt. Im Grunde genommen entspricht
das dem typischen Anwendungsfall
dieses Identitätszentrums. Es vereinfacht die Authentifizierung und das Zugriffsmanagement für große Unternehmen mit
mehreren AWS-Konten, sodass Benutzer
eines authentifizieren und auf alle
zugewiesenen Ressourcen zugreifen Jetzt können Sie Federation auch verwenden, um auf die SAML-basierte
Authentifizierung zuzugreifen
, sodass
sich Benutzer mit ihren
vorhandenen Anmeldeinformationen anmelden können, die
in ihrem Konto konfiguriert Wenn Sie zu IMR gehen, möchte
ich Ihnen nur einige,
ähm, Sie wissen schon, Einblicke geben ähm, Sie wissen schon, Einblicke Sie können sehen, dass die zugehörigen
Konsolen die IM-Identität einrichten. Das war früher SSO, Single Sign-On, äh, aber jetzt ist
es Identity Center. Jetzt können Sie
das Identity Center tatsächlich aktivieren. Wenn Sie es also aktivieren,
verbinden Sie Ihr Verzeichnis oder erstellen Sie Benutzergruppen
, ich meine, für die Verwendung in AWS. Wenn Sie also sehen, dass
alle Mitarbeiter über
AWS-Konten hinweg verwalten und auf
Workf-Integrationsanwendungen zugreifen, können Sie auch, wenn Sie mehrere Konten haben,
dies tatsächlich verwenden, aktivieren und dann verwenden, um
mehrere Benutzerkonten zu erstellen und mit ihnen zu arbeiten Ordnung. Lassen Sie uns jetzt über den nächsten Punkt
sprechen, nämlich Ihre
kontoübergreifende IM-Regel. kontoübergreifenden IMO handelt es sich im Grunde eine Regel, die es einem
Benutzer oder Service in
einem AWS-Konto ermöglicht um
eine Regel, die es einem
Benutzer oder Service in
einem AWS-Konto ermöglicht, vorübergehend eine IAM-Rolle
in einem anderen AWS-Konto
zu
übernehmen in einem anderen AWS-Konto , ohne
langfristige Anmeldeinformationen weiterzugeben Nun, wenn ein Team aus mehreren AWS-Konten
Zugriff auf Ressourcen
für ein anderes Konto benötigt , wenn Sie
beispielsweise eine
Organisation haben und es
diese Organisation mit
dem Namen Organisation gibt ,
hat sie dieses Konto namens ANB Wie zum Beispiel hier drüben, eine davon sind
Organisationen, die Sie sehen Standardmäßig hätten Sie Organisation also nicht
aktiviert. Sie können es auch kostenlos aktivieren. Hier wird es also
eine Option geben, die als Organisation aktivieren
bezeichnet wird. Tun Sie das
einfach. Es sollte sehr schnell aktiviert werden. Jetzt haben Sie hier mehrere
Konten und möchten
kontoübergreifend auf Benutzer zugreifen . Das nennen wir
kontenübergreifende IAM-Regel. In diesem Fall können die Entwickler im Konto A auf den Bucket S drei
auf dem Konto B zugreifen , sie können von einer Regel ausgehen, die
geeignet ist und die
entsprechenden Rechte dafür hat Das nennt man im Grunde
kontoübergreifende IAM-Regeln. Die Fragen
lauten normalerweise wie in meiner Umgebung: Ich
habe einen Entwickler, bei dem ein Entwickler mit Konto A Zugriff
auf S drei Bucket
benötigt um es in das Konto B zu schreiben. Welche Art von Dienst sollte
ich verwenden oder welche Art von Funktion muss
ich verwenden,
um diesem Entwickler Zugriff zu diesem Entwickler Zugriff gewähren
und ihm Zugriff auf mehrere, ähm, gewähren
und ihm Zugriff auf mehrere, ähm, Sie wissen schon, mehrere Konten
unter meiner Organisation. Wenn solche Fragen auftauchen, gelten kontenübergreifende IAM-Regeln.
Denk mal drüber nach Er muss
auf beiden Seiten Zugriff haben,
also müssen wir über
kontenübergreifende IAM-Regeln sprechen Ordnung, Leute,
danke nochmal, dass ihr euch dieses
Video angesehen habt.
Ich sehe den nächsten. Wenn Sie
Fragen haben,
hinterlassen Sie diese bitte im
Fragenbereich. Ich kann Ihnen dann weiterhelfen.
33. Lab-Passwortrichtlinien: Hey, Leute, willkommen zurück
zum nächsten Video. Hier werden wir
über Passwortrichtlinien sprechen. In Bezug auf die Passwortrichtlinie werden
wir nun über die
Definition der Regeln oder Anforderungen sprechen ,
die der IAM-Benutzer bei der Erstellung
der Passwortrichtlinie beachten
muss Nun zu den Zugangsschlüsseln, die wir bereits besprochen haben, jetzt
wird das Passwort nicht von Ihnen festgelegt,
okay, es wird automatisch
generiert Aber wenn Sie über
die Passwörter sprechen, die für einen Benutzer erstellt werden, wenn er oder sie sich an der Konsole anmeldet , wird
das von Ihnen festgelegt. Okay? Das ist also eingestellt von, Sie können das
Passwort zurücksetzen Sie können entweder ein
Autogenerator-Passwort
oder ein benutzerdefiniertes Passwort auswählen Autogenerator-Passwort
oder ein benutzerdefiniertes Passwort Okay. Also, auf
welche Weise Sie das UH-Passwort
tatsächlich verwenden werden. automatische Generator-Passwort
bedeutet, dass
Sie ein strenges
Passwort haben, ohne dass Sie, ähm, Sie wissen schon,
ein strengeres Passwort erstellen Aber wenn Sie sich für ein
benutzerdefiniertes Passwort entscheiden, müssen Sie
hier , ähm, spezifische Anforderungen erfüllen In gewisser Weise kann
ich also kein
Passwort namens Passwort erstellen. Wenn ich so etwas erstelle, können
Sie sehen, dass die
Passwortrichtlinie nicht gemeint ist. Die
Passwortrichtlinie besagt, sie mindestens
acht Zeichen lang sein sollte und Zahlen in Großbuchstaben, Kleinbuchstaben und Sonderzeichen enthalten sollte. Ich sollte mindestens eine Mischung
aus diesen drei folgenden Elementen haben, mindestens drei,
entweder aus diesen Elementen. Was wir
tun werden, ist P bei der Geschwindigkeit. SSW, Null RD, bei Rate 123. Nun, das hat einen Großbuchstaben, Kleinbuchstaben mit der Rate, was ein Symbol ist,
und dann Null, was eine Zahl ist, und dann ist
es acht Buchstaben lang Sie benötigen nicht wirklich
eine Rate von eins, zwei,
drei, auch weil das
eigentlich ein
komplexes Passwort erfüllen sollte . Wir können auch festlegen,
dass Benutzer bei der Anmeldung
ein neues Passwort erstellen müssen und Sie können auch den
Widerruf der gesamten Konsultation aktivieren. Wenn sich zu diesem Zeitpunkt jemand bei diesem Benutzer
angemeldet hätte , würden
diese Personen abgemeldet , wenn Sie
auf Passwort zurücksetzen klicken. Sobald Sie das Passwort
zurückgesetzt haben, informieren
Sie den
Kunden und er wird tatsächlich
mit einem neuen Passwort arbeiten sobald Sie sicher mit ihm
kommuniziert haben Eine weitere Sache, die im Rahmen der
Passwortrichtlinie
empfohlen wird , ist eine
Multi-Faktor-Authentifizierung Klicken Sie jetzt einfach auf
Multi-Faktor-Authentifizierung zuweisen und hier
können Sie sich die verschiedenen Arten
der
Multifaktor-Authentifizierung ansehen . Hier geht es
entweder um einen Sicherheitsschlüssel, einen Passschlüssel, einen physischen
Schlüssel oder ein Gerät, die
Authenticator-App, die
Ihr Handy verwendet, und Sie können
diese Authentifizierungs-App tatsächlich installieren, oder Sie können ein
Hardware-Token haben Das ist TotPTKen
, was wiederum
Hardwaregerät hier drüben ist Hardwaregerät Ordnung. Durch die Verwendung der
Multifaktor-Authentifizierung ist Ihr Benutzer also noch
besser geschützt als zuvor Nochmals vielen Dank, dass Sie sich
dieses Video angesehen haben. Wir sehen uns x
34. Arten von Identitätsmanagement: Hey, Leute, willkommen zurück
zur nächsten Periode. Und in diesem Video können
wir
die Arten des
Identitätsmanagements verstehen . Nun, wir haben hier bereits über
das Identity Center
und die kontoübergreifenden AM-Regeln
gesprochen . Was wir über
Identity Center verstanden haben
, ist , dass Sie nicht nur
Benutzernamen und Passwörter in AWS erstellen,
sondern auch, wenn es in Ihrem Unternehmen
bereits eine UM-, LDAP- oder eine andere Art LDAP- oder eine andere Art
von Authentifizierung gibt, Sie diese
über Identity Center integrieren können Jetzt können wir
die Arten des
Identitätsmanagements verstehen, zum Beispiel die föderierte
Identität . Eine Föderation bedeutet im Grunde genommen Ergänzung der bestehenden
Infrastruktur Lassen Sie uns über die
verschiedenen Arten von
Identitäten sprechen , die auf AWS verwendet werden. Jetzt gibt es zuerst einen lokalen
IAM-Benutzer und Gruppen. Das
bedeutet im Grunde, dass ich zu IAM gehe, einen Benutzernamen erstelle. Es tut mir leid, die Sitzung ist abgelaufen.
Gib mir einfach eine Sekunde tut mir leid. Ich bin zurückgekommen. Ich glaube, ich muss
alle Browser schließen und sie
einfach wieder öffnen Wie Sie sehen können, habe ich die Benutzer hier
erstellt, die Gruppen hier erstellt. Dies wird im Grunde als
lokale IAM-Benutzergruppe
bezeichnet wird auf
lokaler Ebene in
Ihrem AWS selbst erstellt lokaler Ebene in
Ihrem AWS selbst Wir erstellen es manuell. Der nächste ist der
Federated Identity Manager. Was Sie nun mit Federated Identity Manager meinen, ist,
dass der
Federated Identity Manager Benutzern von
externen
Identitätsanbietern
oder DAPs den Zugriff auf
AWS-Ressourcen ermöglicht , ohne dass
ein separater IAM-Benutzer
auf AWS-Seite erstellt werden muss , ohne dass
ein separater IAM-Benutzer
auf AWS-Seite erstellt ein separater IAM-Benutzer Dieser Zusammenschluss von Identitäten aus Unternehmensverzeichnissen wie Active Directory oder DAPs von
Drittanbietern aus Unternehmensverzeichnissen wie
Active Directory oder DAPs von
Drittanbietern wie Google, Authentifizierung. All dies wird im Grunde
als föderierte Systeme bezeichnet. Sie haben im Grunde genommen
ein standardisiertes Format wie SAML 2.00 oder Open ID Connect verwendet, das können Sie
ebenfalls Im Grunde funktioniert es so, AWS die externen
DAPs integriert, um Benutzer zu authentifizieren Der Benutzer authentifizieren nimmt
temporäre Rollen in
IAM mit der in der AWS-IAM-Richtlinie
definierten Berechtigung an Ebenso können Sie dies verwenden. In einem typischen Anwendungsfall können
Sie es also in einer größeren
Unternehmensorganisation verwenden, können
Sie es also in einer größeren
Unternehmensorganisation verwenden die bereits über Unternehmensanmeldedaten
in ihrem Active Directory verfügt, Sie
sie nicht wirklich nach Ihrem AWS-Standpunkt neu erstellen
müssen sie nicht wirklich nach Ihrem AWS-Standpunkt Darüber haben wir auch
bereits gesprochen. Lassen Sie uns nun
über die nächste Regel sprechen, nämlich die
Cross-Account-Regeln,
über die wir bereits zu
Beginn unserer Sitzung gesprochen haben. Nun, bei kontenübergreifenden Regeln handelt es sich im Grunde
um Regeln,
die mehrere , ähm, Sie wissen schon, haben, die für
mehrere Konten innerhalb
unserer Organisation funktionieren können . Okay? Diese Cross-acco-Regeln
ermöglichen es Benutzern oder Services, auf einem AWS-Konto zu
laufen ,
während eine Organisation Rollen auf einem anderen Konto
übernimmt. Okay. Dies ist also im Grunde ein Identitätsmanagement,
das den Zugriff
über mehrere
AWS-Konten hinweg vereinfacht ,
ohne dass
Benutzer oder Anmeldeinformationen dupliziert werden müssen Das ist also etwas, das als kontenübergreifende Regeln
bezeichnet wird, und darüber haben wir bereits
gesprochen. Die nächste
andere Art von
Identitätsmanagement sind nun Service Link Rules. Was sind nun
Service Link-Regeln Service Link Routes ist
eine einzigartige Art von Regeln , die Kritiker
direkt mit dem AWS-Service verknüpft. Diese Regeln ermöglichen es dem AWS-Service, Aktionen in Ihrem Namen
durchzuführen. Wenn Sie zum Beispiel in
den IAM-Benutzer wechseln und dann zu Rollen
wechseln, richtig? Sie haben hier so viele
Rollen. Wenn Sie das sehen,
nehmen wir diese Beispielrolle. AW ist eine Servicerolle
für Auto Scaling. Wenn Sie diese nun öffnen, können
Sie die mit dem Auto
Scaling-Service verknüpfte Rolle sehen. Wenn Sie jetzt
darauf klicken, können Sie die Richtlinie
sehen und auch die
Erklärung finden Sie hier. standardmäßige serviceverknüpfte
Rolle ermöglicht den Zugriff auf den AW-Service und die Ressourcen, die von Auto Scaling verwendet
oder verwaltet werden. Alles, was
Teil Ihres AW-Service ist und von
Auto Scaling verwendet und verwaltet wird,
ist also verwendet und verwaltet Teil der
Service-Link-Regel hier. Gemäß dieser Regel ist
sie mit der Richtlinie zur automatischen Skalierung
von
Servicerollen verknüpft . Jetzt, wo wir es erweitert haben,
werden Sie
mehr Details darüber bekommen , was die Aktion
eigentlich ist, und sie erlaubt all diese
Aktionen hier
, wo es um Autoskalierung
und Aktivierung und
solche Dinge geht und Aktivierung und
solche Dinge Sie können also sehen, dass die
gesamte automatische Skalierung das Bild von elastischen
Bändern oder
Cloud-Watching
zurückzuführen elastischen
Bändern oder ist, all
diese Dinge Das wird also im Grunde
eine Service-Link-Regel genannt. Nun, so funktioniert es Die Rolle wird automatisch vom AWS-Service
erstellt und verwaltet. Nun, das sind
etwas, das Sie noch nicht erstellt haben, oder? Weil diese automatisch
erstellt werden und als
Service Running Role bezeichnet werden. Immer wenn Sie einen Dienst erstellen
, verknüpft dieser Dienst eine
bestimmte Rolle mit ihm. In diesem Fall wird ihm eine bestimmte Berechtigung zugewiesen
, die
für die ordnungsgemäße Ausführung des Dienstes erforderlich ist . Eine Dienstregel für
Auto Scaling verfügt also Berechtigungen
für Auto Scaling, über
Berechtigungen
für Auto Scaling,
wie Sie hier sehen können. Das nennt man Service Rink Rule. Die nächste, über die wir sprechen
werden, ist
die Identität, die für kognitive
Web- und mobile
Anwendungen bereitgestellt kognitive
Web- und mobile
Anwendungen Jetzt gibt es eine weitere Anwendung oder einen anderen Dienst namens
Amazon Cognito Es wird für die Verwaltung der
Authentifizierung
und Benutzeridentität für
Web- und mobile Apps verwendet und Benutzeridentität für
Web- und mobile Apps Wenn Sie eine Frage zum Identitätsanbieter
für
Web- und Mobilanwendungen haben, sollten
Sie sich voll und ganz auf Amazon Cognito konzentrieren Jetzt unterstützt Amazon Cognito den
Identitätsverbund über Drittanbieter wie Google Facebook und Enterprise
Directory bis hin zu Samo Das heißt
, wenn Sie sich
manchmal auf,
ähm, einer beliebigen Website anmelden , werden
Sie sehen, dass Sie die
Möglichkeit haben, einen
Benutzer für diese Website zu erstellen,
oder Sie können sich direkt
von Ihrer Google-ID oder
Facebook-ID aus anmelden, richtig werden
Sie sehen, dass Sie die
Möglichkeit haben , einen
Benutzer für diese Website zu erstellen, ? von Ihrer Google-ID oder
Facebook-ID aus anmelden, Nun, wie das mit
diesem speziellen
Identitätsanbieter von Amazon Cognito verknüpft ist diesem speziellen
Identitätsanbieter von Amazon Cognito Wenn Sie also diesen
Identitätsanbieter von Amazon Cognito verwenden, können
Sie Ihre Optionen zur Aktivierung
der Google-basierten Benutzererstellung Erstellung von Facebook-Seiten
und direkte
Anmeldung beim Benutzer mithilfe von
Amazon Cognito Cognitive ermöglicht es
Benutzern, sich einem externen DAP ihrer eigenen Kombination aus Benutzername und
Passwort Nach der Authentifizierung erstellen sie vorübergehend Anmeldeinformationen über kognitive Identitätspools,
um auf AWS-Services zuzugreifen Das wird jetzt immer
komplizierter, aber machen Sie sich darüber keine Sorgen Eigentlich
werden sie dir nicht so viele
Fragen dazu stellen. Sie werden
Sie fragen, wenn
ich eine Anwendung für meine Web- und
Mobilanwendung einrichte, möchte
ich meine
Google-Authentifizierung vornehmen. In dieser Situation, für welche Art von Authentifizierung oder welche Art
von Dienst würde ich verwenden. Dann wird es eine Frage
wie Amazon Cognito geben. Wenn Sie das sehen, ist
das Ihre Antwort. Okay. Also werden auch
Fragen gestellt. In Bezug auf das
Identitätsmanagement
sind dies jedoch einige der Konzepte. Dies sind etwas, an das
Sie sich erinnern sollten. Das sind die Namen, an die Sie sich unbedingt erinnern
sollten. Ich werde alle
Dokumente, über die ich gerade
spreche, in einem
anderen Video, zu einem
anderen Thema anhängen über die ich gerade
spreche, in einem
anderen Video, , damit Sie sich darauf beziehen und,
Sie wissen schon,
alles darüber verstehen
können . Nochmals vielen Dank für
Ihre Geduld und Zeit. Ich werde dich
im nächsten Video sehen.
35. Labs Benutzergruppen und Richtlinien: Hey, Leute, willkommen zurück
zum nächsten Video. In diesem Video werden
wir eine praktische
Sitzung für Benutzergruppen,
Rollen und Richtlinien durchführen . All diese Aktionspunkte können
wir nicht praktisch umsetzen. Lassen Sie uns
weitermachen und die praktischen Übungen durchführen. Damit Sie
erfolgreich einen Benutzer erstellen können, müssen
Sie zu IAM wechseln Es gibt also einen Dienst namens IdentityNAccess Also, Sie können das
hier sehen, klicken Sie mit der mittleren Maustaste darauf. Jetzt sehen Sie, dass Sie hier
einen neuen Tab mit
allen Informationen geöffnet haben . Derzeit sind Sie
ein Root-Benutzer mit MFA, das aktiviert ist,
also das ist ein Häkchen Es gibt jedoch dieses
Warnzeichen
, das besagt , dass der
Zugriffsschlüssel für Root-Benutzer deaktiviert oder gelöscht Es scheint einen Zugriffsschlüssel zu
geben,
daher werden wir aufgefordert, den Zugriffsschlüssel zu deaktivieren
oder zu löschen. Gehen wir zum Benutzer. Es gibt keine Benutzer, und dann
gibt es diese Benutzergruppe und diese Rolle. Es gibt hier so
viele Rollen und Richtlinien. Nun, wie ich dir
hier im vorherigen
Interaktionsvideo gesagt habe . Jetzt sind Richtlinien
ziemlich wichtig, also das ist das Endergebnis. Policies hat die
JSON-Datei formatiert. Wenn Sie jetzt darauf klicken,
werden Sie die ähm, die Richtlinienberechtigungen hier sehen Sie können sie im
JSON-Format hier sehen. Jetzt hat die Richtlinie hier bestimmte
Arten von Aktionen. Das sind die Berechtigungen. Das ist nun
Teil dieser Richtlinie. Diese Richtlinie, die als Access
Analyze-Dienstregelrichtlinie bezeichnet wird, enthält diese vielen zusätzlichen
Elemente. Okay? Dies sind die
vordefinierten Richtlinien, die standardmäßig in AW enthalten sind, es handelt sich also nicht um eine benutzerdefinierte Richtlinie. Sie können auch
Ihre eigene benutzerdefinierte Richtlinie erstellen, die wir zu einem
späteren Zeitpunkt noch eingehen werden kann Ihre eigenen
Berechtigungen für Ihre Anwendungen oder Dienste enthalten, die Sie als Teil von AWS
haben. Darüber werden wir später sprechen. Gehen wir nun die Regeln durch. Wie ich Ihnen
bereits gesagt habe, geht
es darum, Ihren Diensten, Benutzern
oder Appliances
temporäre Berechtigungen zu gewähren. Jetzt wird mit einem Rollennamen
eine Richtlinie verknüpft. Jedem Rollennamen wird
eine Richtlinie beigefügt. Denn hier in dieser speziellen Rolle namens EC Two Spot
Fleet Tagging Role finden
Sie auch den ähnlichen
Namen für die Richtlinie, Amazon EC Two Spot Tagging-Rolle Das ist nur, um
herauszufinden, was es ist. Mehr oder weniger, mit
den meisten Richtlinien, die
Sie haben werden, werden
Sie auch Rollen haben, die
damit verknüpft sind, und mit diesen Rollen werden die
Richtlinien verknüpft sein. Nun, was die Benutzer angeht, werden
Sie
Benutzer erstellen lassen, was wir gleich tun werden, und dann haben Sie hier
Benutzergruppen. Dies sind im Grunde Gruppen,
zu denen Benutzer gehören werden. Klicken Sie auf Benutzer, klicken Sie
auf Createser und Sie können den Benutzernamen angeben,
genau wie in diesem Fall werde
ich
einen Entwicklungsbenutzer erstellen und Zugriff auf die
Managementkonsole gewähren Dadurch wird sichergestellt, dass Sie
Zugriff auf die Verwaltung gewähren. Konsole. Jetzt hier, stellst du einer Person eine Konsole zur
Verfügung? Hier ist ein Benutzertyp ein bestimmter Benutzer im
Identity Center empfohlen wird. Ich möchte einen IAM-Benutzer erstellen. Jetzt können Sie in diesem Fall
selbst auch einen
I-Benutzer erstellen , in dem Sie
tatsächlich ein
Passwort dafür erstellen können tatsächlich ein
Passwort dafür erstellen Sie können ein
Autogenerator-Passwort oder ein benutzerdefiniertes Passwort erstellen. Also werde ich hier d123
als Passwort angeben. Ich kann sehen, dass das
Passwort angegeben ist. Denken Sie daran, dass
das Passwort nur dann angezeigt wird, wenn Sie
es beim nächsten Mal
einrichten , es gibt keine Möglichkeit, das
Passwort über
die Benutzerregisterkarte abzurufen . Sie können sehen, dass der Benutzer
bei der Anmeldung ein neues Passwort
erstellen muss bei der Anmeldung ein neues Passwort
erstellen Deaktivieren Sie
einfach den Stick
mit demselben Passwort. Und dann ist D mit
der Rate 12345678 das Passwort Ich habe es in meine
Zwischenablage kopiert, damit ich es einfügen kann. Hier können Sie jede
Art von Richtlinien erstellen, die Sie zu einer Gruppe
hinzufügen können , für die
Richtlinien festgelegt sind, oder Sie können
eine Richtlinie direkt an den
vorhandenen Benutzer uh anhängen eine Richtlinie direkt an den
vorhandenen Benutzer uh Im Moment hat er
keine Richtlinien eingerichtet, also werde ich es einfach als Standard
belassen, also werde ich einfach
mit dem nächsten Bildschirm fortfahren. Jetzt, nachdem ich
zum letzten Bildschirm hier gegangen bin, können
Sie die Bewertung sehen. Sie können die
Bewertung hier sehen. Sie können das überprüfen,
was auch immer Sie tun. Also bis jetzt haben wir hier
keinerlei
Genehmigung erhalten . Zurücksetzen des Passworts ist jetzt, das
benutzerdefinierte Passwort ist gesetzt, dann lassen Sie uns einen Benutzer erstellen. Jetzt wurde
der Benutzer erstellt und Sie können das
Passwort hier sehen. Kehren Sie nun zur Benutzerliste zurück. Denken Sie jetzt daran, dass Sie das Passwort nicht mehr abrufen
können, wenn
Sie
diesen Schritt zum nächsten Schritt überspringen nicht mehr abrufen
können, wenn
Sie
diesen Schritt zum . kannst du also
ziemlich genau sehen, wenn du
darauf klickst, oder? Sie gehen zum Sicherheitsnachweis,
ähm, es gibt keine Möglichkeit, ein Passwort abzurufen, also können Sie es hier sehen. Dort steht, dass sich dieser
Benutzer nie an der Konsole
angemeldet hat , weil
wir uns nie angemeldet Wenn Sie also auf
Managed Console Ax klicken, können
Sie Consolex widerrufen das Passwort zurücksetzen, aber es gibt keine Möglichkeit, das Passwort
von hier aus Es gibt keinen Weg, nicht
nur von hier aus. Sie können das nur
tun, Sie hätten die Datei
herunterladen sollen , nach der
Sie zuvor gefragt wurden. Abgesehen davon können
Sie es nicht tun. Aber die andere Sache, die Sie
tun können, ist, das Passwort erneut zu senden Sie können ein benutzerdefiniertes Passwort erstellen und das
Passwort dann hier eingeben. Das ist eine weitere
Option für dich. Jetzt können Sie auch eine
Multifaktor-Authentifizierung für
diesen Benutzer einrichten , indem Sie auf ASI
Multifaktor-Authentifizierung klicken Auf diese Weise können Sie hier eine
Authenticator-App
wie die Google
Authenticator-App verwenden und
Ihre Authentifizierung
für Ihr Debüt einrichten Ihre Authentifizierung
für Ihr Jetzt liegt es also wirklich an
ihnen, ob sie
eine Multi-Faktor-Authentifizierung für diesen Zweck haben möchten oder
nicht Lassen Sie mich ab sofort hier einen Versuch
machen. Lass mich einfach einen neuen Tab öffnen. Lass mich auf aws
dot it's on.com gehen. Jetzt klicken Sie einfach auf Anmelden. Ein paar Dinge, die hier
erforderlich sind, damit Sie sich
erfolgreich anmelden können. Sie können den Root-Benutzer nicht verwenden, daher müssen Sie hier die
Konto-ID angeben, die Sie
von diesem Ort aus abrufen können. Stell es her, Dev. Das Passwort lautet Dev mit einer Rate von eins, zwei, drei, vier, fünf,
sechs, sieben, acht. Dann klicken Sie einfach auf Anmelden, Sie sollten in der Lage sein,
auf Ihr A-Disconso zuzugreifen Aber denken Sie daran, dass
Sie hier
auf nichts zugreifen können hier
auf nichts zugreifen weil Sie keinerlei
Richtlinien festgelegt haben
, die Ihnen
erlauben, irgendetwas zu tun, Sie wissen schon, Sie
können nicht wirklich erfolgreich einen Bucket
oder etwas Ähnliches erstellen Sie haben nicht die Erlaubnis, eine
iPhone-Konto-ID zu erhalten. Sie sehen, dass
eine Genehmigung erforderlich ist. Sie können hier also
nichts tun. Okay? Also kannst du dir das Konzept tatsächlich
ansehen. Das ist das
Einzige, was du tun kannst. Aber diese
leistungsbezogenen Artikel, all diese kostenbezogenen Artikel, unabhängig von den beiden EC-Instanzen, die
Sie da draußen haben, werden
Sie sie nicht sehen können,
weil es sich nur um einen
Dummy-Benutzer handelt, den Sie erstellt Sie werden hier also nichts
sehen können, Sie werden überall rote
Farben Also, wie erteile ich die Erlaubnis? Es gibt zwei Möglichkeiten
, diesem Benutzer tatsächlich die Erlaubnis zu
erteilen. Sie können die
Berechtigung tatsächlich direkt unter
der Berechtigung unter „
Berechtigung hinzufügen“ zuweisen der Berechtigung unter „
Berechtigung hinzufügen und dann hier
eine Berechtigung zum Hinzufügen erstellen. Wir werden zu einem späteren Zeitpunkt über die
Inline-Genehmigung sprechen. Sie können also
die Erlaubnis daraus tatsächlich anhängen. Sie können also
Administratorzugriff gewähren, wenn Sie
diesen Administratorzugriff für
diesen bestimmten Benutzer wünschen . Also gibt es dir
alle Ressourcen, Doppelpunkt,
alles, also tut mir leid, Sternchen, was alles
bedeutet Okay? Alles Action ist Star, Action kann alles sein. Der Administrator hat also exklusive Rechte für
jeden Aspekt Ihrer Dinge. Aber dann gibt es etwas, das dem Root-Benutzer
vorbehalten ist. Darauf kann selbst der Administrator nicht
zugreifen, um sich daran zu erinnern. Okay. Es ist also nicht so, dass Sie als Root-Benutzer die totale Kontrolle
haben werden. Der Administratorbenutzer ist also
nicht gleich dem Root-Benutzer. Der Root-Benutzer wird also
unterschiedliche Rechte haben. Wir werden in der späteren Lektion darüber sprechen und versuchen zu
verstehen, dass Root-Benutzer im Vergleich
zum Administratorzugriff
einzigartig sein wird . Also für den Entwickler, also müssen Sie die Anwendung
wählen. Sie können also ST auswählen.
Was möchtest du tun? Wenn er vollen Zugriff
auf S drei haben will, kannst du geben. Sie sehen, ob dieser
Entwickler eher für
die S3-Administration
oder für Aufgaben rund um diese zuständig ist . Wenn dieser Entwickler auch
EC Two Instance benötigt, also habe ich diese
Option ausgewählt, bin ich nicht deaktiviert. Wenn ich also nur EC Two auswähle, kann
ich EC Two auch
vollen Zugriff gewähren. Ich kann dem Entwickler mehrere Rollen zuordnen
und ihm diese geben. Wenn er also auch
Zugriff auf Lambda benötigt,
tut mir leid, ich habe diese
Schreibweise falsch Wir wollen auch Lambda, Sie können tatsächlich auch vollen
Zugriff auf Lambda gewähren, sodass ich das dort sehen kann Wenn dieser Typ also nur ein Analyst sein
will, sucht
er nur nach Daten Dann können Sie all diese
Optionen mit der Option „Nur Lesen“ angeben. Sie haben hier mehrere
Optionen. Ich meine, keine vereinfachte Methode zu haben
, ich meine, es nicht zusammenzufassen oder, wissen
Sie, kompliziert zu machen,
weil Sie Zugriff auf
jedes Segment
der Ressourcen hier drüben haben ,
Sie haben die Lambda-Rolle Replikation, MSK,
das ist dein Kafka, und dann Ebenso haben Sie hier kleinere Teile des Awamda-Service Aber um es nicht zu verkomplizieren, einfach die volle Achse
und lesen Sie nur die Achse Sie haben
hier die Optionen, aus denen Sie wählen können. Wenn nicht, können Sie
tatsächlich
zum Gruppenbenutzer zurückkehren und hier
eine Gruppe erstellen. Hier werde ich
eine Gruppe für Entwickler erstellen. Entwickler. Nun, diese
Gruppe wird diesen speziellen
Benutzernamen
haben, den ich ausgewählt habe, und dann muss
ich nach Lambda Full Access,
EC Two Full Access suchen
, damit
sie Dienste für
ihre JVMs erstellen können und dann vollen Zugriff auf S
Three Service
haben Sie werden also Zugriff haben
, um Buckets
und ähnliches zu erstellen , weil sie ihre Daten dort ablegen können Ich habe eine Gruppe erstellt, ich habe Benutzer
hinzugefügt, während ich die Gruppe selbst
erstellt habe Wenn Sie nun
den Entwicklerbenutzer haben der all diese Aktivitäten ausführt, lassen Sie mich
diese Seite jetzt aktualisieren. Jetzt werden Sie sehen, dass
er eingeschränkten Zugriff auf
die zweite EC-Instanz hat ,
es tut mir leid. Jetzt können Sie die Instance starten.
Es gab keine Probleme. Ist noch nie aufgetaucht. Und wenn er versucht, hier eine
S-3-Anwendung zu erstellen, sollte
es auch für ihn funktionieren Bisher war es also
nicht möglich, diese Artikel zu sehen, oder? Jetzt können Sie sich das ansehen. Sie können auch in einige der Eimer gehen,
um auch deren Inhalt zu sehen Sie können hier auch Buckets erstellen , um
hier einige Artikel hinzuzufügen Ebenso können Sie alle
Optionen verwenden, die ihr zuvor verboten
waren Das ist es also, worum den Benutzern und Regeln,
Richtlinien geht. Richtlinien bestehen im Grunde
aus den Ressourcen und den Aktionen,
die Sie für die Ressourcen
ausführen können , und das definiert tatsächlich
einen Dienst oder,
ähm, Sie wissen schon,
jeden, der versucht auf die AW-Services zuzugreifen. Der Benutzer ist also im Grunde ein Tool. Wenn Sie also zum Beispiel
einen Benutzer für einen Dienst erstellen möchten, wie ich Ihnen
im vorherigen Beispiel
über Open Shift gesagt habe , oder? Wenn Sie nun
einen solchen Benutzer für Open-Shift erstellen, dann werde ich
Open-Shift, ähm, Service Access erstellen. Geben Sie hier also nicht die Verwaltungskonsole an, da Open Shift keine
Managementkonsole erforderlich ist. früheren Versionen
desselben IM-Tools gab es hier also eine Option , bei der Sie die programmatische Achse
auswählen Aber hier heißt es, wenn Sie grammatikalische Achse erstellen, Zugriffsschlüssel oder
bestimmte Also müssen wir einen weiteren Schritt
machen. Das sage ich dir. Also hier
habe ich diese Gruppe hier drüben. Ich werde nicht mit der Gruppe
gehen. Hier wurde mir gesagt, dass sie Administratorzugriff und Zugriff auf
alle Dienste
benötigt. Es ist kein
Root-Benutzerzugriff erforderlich. Niemand, keiner
der Dienste würde verlangen, dass
Sie Root-Zugriff haben. Denken Sie also daran, dass Sie niemandem Ihren
Root-Zugriff geben sollten. Erstelle das nicht.
Ich werde dir gleich sagen,
wie das geht. Klicken Sie auf Erstellen und dann sehen
Sie, dass der Benutzer erstellt wurde. Jetzt ist dieser Benutzer im Grunde ein
Administratorbenutzer, da ihm Verwaltungsrichtlinien zugewiesen sind. Jetzt mache ich es nicht zu einem
Teil einer Gruppe, weil
ich
das getrennt von
meinen bestehenden Gruppen haben möchte , Sie wissen schon, die Gruppen, die
ich für Benutzer erstelle. Also jetzt ist dieser
spezielle Benutzer namens Open Shift Service
Access für den Zugriff da. Also, wie
gebe ich diesen Benutzernamen? Jetzt kenne ich den Benutzernamen. Was ist ein Passwort?
Ich muss diese Information angeben, um Shift auf
der anderen Seite zu öffnen. Dieses Beispiel gilt für
jede Drittanbieteranwendung, bei jede Drittanbieteranwendung es
nicht nur
um Open Shift gehen muss. Multivektor-Authentifizierung ist also nicht für Open-Shift vorgesehen,
da
es sich dabei um eine zweite Authentifizierungsebene für Ihren Benutzer Also das ist es nicht. Zugangsschlüssel, sehr wichtig. Das ist der eine. Sie können also sehen, dass Sie
diesen Zugriffsschlüssel verwenden, um
programmgesteuerte Aufrufe von der AWS-CLI aus
an AWS zu senden programmgesteuerte Aufrufe von der AWS-CLI aus
an AWS zu Aber das ist der Nutzen davon. Wenn also ein anderes Tool
eine Verbindung zu AWS herstellt, verwendet
es tatsächlich den
Zugriffsschlüssel hier drüben. Klicken Sie also auf Create Access Key. Und von hier aus, ist es
für Commanda Interface? Nein. Ist es für die lokale Vorwahl? Nein. Es dient zum Ausführen einer Anwendung auf dem
AWS-Rechenservice. Nein, das gilt auch nicht zwischen
Service zu Service. Achten Sie darauf, dass der Benutzer sowohl für den Service
to Service als auch für den Service
to ECS Service oder für den Lambda
Service
erstellt werden kann für den Service
to Service als auch für den Service
to ECS Service oder für den Lambda
Service
erstellt Service
to ECS Service oder für den Lambda
Service Also Drittanbieter-Service, ja. Das ist also Open Shift, das ist ein Drittanbieter-Service, und ich wähle einen Drittanbieter. Es gibt noch andere Optionen,
wie Anwendungen außerhalb von Ara Blaier
laufen, Beispiel in Ihrer eigenen Infrastruktur, richtig, in Ihrem eigenen
Rechenzentrum oder nicht aufgeführt Also
Drittanbieter-Service, ich verstehe. Es heißt also, es ist
die beste Methode , eine temporäre Zugriffsregel
wie IAM zu erstellen ,
anstatt langfristige
Zugriffsschlüssel und ähnliches Dies ist jedoch für Open-Shift sehr zu
empfehlen. Taggen Sie also den Wert und erstellen Sie den Schlüssel. Jetzt ist dies das einzige Mal, dass
es Ihnen hier
den Zugangsschlüssel und das
Zugangspasswort zeigt . Dies sind die beiden
Aktionspunkte, die Sie benötigen. Wenn Sie auf Fertig klicken,
wird dies hier geladen. Sie werden sehen, dass
Sie bei
Open Shift Taxes diesen Schlüssel erstellt haben und das Passwort wird
nicht noch einmal angezeigt. Sie müssen es löschen, deaktivieren, löschen und dann neu erstellen,
falls Sie das Passwort vergessen haben. Es gibt
überhaupt keine Option. In Ordnung. Jetzt werde ich das löschen
, weil ich es nicht brauche. Also hier muss ich
es kopieren und einfügen. Also hier, zuerst deaktiviert, eingefügt und gelöscht So löschst du es also. Also hier werde ich auch diesen Benutzer
entfernen, und es fallen keine Gebühren für
die Anzahl der Benutzer an, die Sie in AWS haben
werden. Sie können also eine beliebige
Anzahl von Benutzern haben. Im Moment ist das
so ziemlich die Art und Weise, wie Sie das verwenden können. einem anderen Video werden
wir nun über
Identitätsanbieter sprechen, da dieses Video
sehr lang ist. Nochmals vielen Dank. Ich hoffe, dass Sie den praktischen
Abschnitt über das
Erstellen von Benutzerregeln
verstanden haben
und dass Sie in der Lage waren, sich auf das vorherige Thema zu
beziehen und es wieder zu verbinden , was für
uns im Hinblick auf unsere Prüfung sehr wichtig
ist uns im Hinblick auf unsere Prüfung da es mindestens
drei bis vier Fragen geben wird aus dieser speziellen Gruppe
von Aktivitäten
stammen Nochmals vielen Dank. Ich
sehe dich im nächsten.
36. Labs AWS Knowledge Center: Willkommen zurück
zum nächsten Abschnitt. In diesem Abschnitt werden wir darüber
sprechen, herauszufinden, wo Sie tatsächlich viel
Unterstützung in Bezug auf
AW-Sicherheitsinformationen erhalten , und wir werden
uns mit
den verschiedenen Möglichkeiten befassen , diese Informationen
zu erhalten. Zunächst
werden wir über das
AWS Knowledge Center sprechen . Gehen Sie jetzt einfach zurück
zum Dokument
hier in Bezug auf unseren
Cloud-Praktiker oder unseren Prüfungsleitfaden Deshalb ist es für uns hier sehr
wichtig, diese Services
oder Funktionen von AWS zu erkunden Ein Teil davon befasst sich mit
dem Verständnis darüber, wo Sie
weitere Informationen zu den sicheren
AW-AW-Informationen wie Protokollen,
Sicherheitszentren und
Wissenszentren sammeln können weitere Informationen zu den sicheren
AW-AW-Informationen wie Protokollen, . Wir werden uns jeden von ihnen in einem separaten Video ansehen und
dann werden wir all das im
Rahmen dieser Schulung
behandeln. Jetzt beginnen wir
mit dem Knowledge Center. Jetzt befindet sich das Knowledge Center nicht
in Ihrer AWS-Konsole, aber dann müssen Sie zu
Google gehen und
AWS Knlege Center eingeben Dies ist AWS-Repost, und eines davon befasst sich mit Knowledge
Center Sie können auch
einige Informationen zu diesen Kurzinformationen erhalten Sie möchten
zum Beispiel mehr über Sicherheit erfahren. Weitere Informationen zur Sicherheit. Also, wenn du das tippst, tut es mir leid, ich war hier ein Tippfehler. Ich würde gerne etwas über Sicherheit wissen Eines davon würde sich
mit Dokumentation und Wissensartikeln befassen Dies geht im Grunde
zum Knowledge Center, das tatsächlich eine
Weiterleitung zum Reposten auf
AWS hat und zum Kledge Center führt Eine Art von Frage, die Sie
im Chat stellen werden,
wird
entweder zur Dokumentation weitergeleitet,
die an dost aws dot Uh, amazon.com geht, oder sie wird an
das Repost Knowledge Center weitergeleitet Leg Center wird die
meisten Fragen beantworten. Stellen Sie
also häufig Fragen, die Ihnen zur Verfügung
stehen Das wird dir das Leben
leichter machen , wenn es darum geht, einigen Dingen zu
folgen. also direkt auf das Knowledge Center Sie können also direkt auf das Knowledge Center zugreifen und es dann genau so
durchsuchen. Oder Sie können es auch von
Ihrer Konsole aus tun. Ich habe dir beide Optionen gezeigt. Lassen Sie uns etwas
über das Knowledge Center erfahren, eine umfassende
Sammlung von Artikeln und häufig gestellten Fragen, die ein breites
Spektrum an AW-Services und
-Themen abdeckt Spektrum an AW-Services und , darunter bewährte
Sicherheitsmethoden, häufig auftretende Probleme und Tipps
zur Fehlerbehebung. Nun, es ist sehr hilfreich Es bietet Ihnen
detaillierte Antworten auf
häufig gestellte Fragen zur häufig gestellte Fragen Sicherheitskonfiguration, Fehlerbehebung und Einhaltung von Vorschriften. Denken Sie jetzt daran, dass es
im Knowledge Center nicht nur um
Sicherheitsfragen
geht, sondern dass es sich um
all die Dinge handelt, die
Sie normalerweise auf AWS tun. Und wie Sie hier sehen können, gehört
das alles zu dem, was
Sie normalerweise auf AWS tun. So erhalten Sie Schritt für
Schritt
vollständige Informationen darüber, wie Sie
tatsächlich mit einem
Problem arbeiten und es lösen können , sowie eine einfachere
Methode, wie Sie es angehen können, z.
B. indem Sie
einen CLI-Befehl schreiben. Es lohnt sich also auf jeden Fall auszuprobieren, wenn Sie mehr darüber erfahren
möchten. Zum Beispiel, wie man EC Two Instance
sichert. Wenn Sie also eine
Frage wie diese eingeben, erhalten
Sie sozusagen die
verwandten Artikel , die zuvor gegeben wurden. Also zum Beispiel die Sicherung
meiner EC-2-Instanz. Jetzt können Sie sehen, dass
es eine Antwort gibt
und es 444 Aufrufe gibt, und Sie können sehen, dass
diese Frage von dieser Person oder dieser
E-Mail-Adresse gestellt wurde. Entschuldigung, diese ID. Jetzt heißt
es: Hallo, ich bin
ziemlich neu bei AWS. Ich habe vollen
Administratorzugriff auf die Konsole. Ich habe vier EC-DB-Proxy, UI
und API mit zwei
Instanzen , und es fragt Sie, wie ich es sichern kann. Jetzt können Sie sehen, wie die Leute
hier antworten und Sie können so ziemlich
sehen, wie das geht. Also die Fragen sind hier drüben. Also, wenn ich
dasselbe im Knowledge Center mache , können Sie das
jetzt als Teil
des Knowledge Centers
stellen. Wenn ich also noch einmal danach suche, hier
drüben bei C
4 und nicht bei allen Inhalten gehe
ich hier
drüben bei C
4 und nicht bei allen Inhalten zum Knowledge Center, Sie tatsächlich einige Optionen
sehen können die im Knowledge Center verfügbar sind
. Und bei einer davon würde es darum gehen Verbindung zu EC Two zu
sichern. Also kannst du dir das hier ansehen. Sie haben also einen
Bereich mit Fragen
, in dem Leute wie uns darauf antworten. Es gibt ein Knowledge
Center, in dem AWS Artikel darüber und über
verschiedene Möglichkeiten, dies zu tun,
schreibt. Und Sie können tatsächlich
einen Befehl darüber schreiben, zum Beispiel,
welchen Befehl Sie
über den Beitrag schreiben möchten, AWS würde, wann immer sie
verfügbar sind , darauf
antworten, oder die anderen Leute werden
auch hier vorbeikommen. Sie können sehen, dass die
Leute auch hier Kommentare abgegeben haben .
So wie du das sehen kannst. Also so ziemlich, das ist
das Wissenszentrum, und so können Sie es nutzen. Und ja, du
kannst dir etwas aus dem echten Leben machen , auch
weil Leute reinkommen und
Fragen stellen,
du weißt schon, in einer Art Forum. Genau darum geht es im
Fragen-Bereich. Nochmals vielen Dank, Leute, dass ihr
euch dieses Video angesehen habt. Im nächsten Video werden wir über das zweite Video
sprechen, das AW Security Center.
37. Labs AWS Sicherheitszentrum: Hallo, Leute. Willkommen
zurück zum nächsten. In dieser Idee
werden wir
über das AWS Security Center sprechen . Was wir nun über
das Security
Center nicht sagen können, ist, dass es
eine zentrale Anlaufstelle für
sicherheitsrelevante Informationen von AW ist , einschließlich Compliance-Berichten, Datenschutzleitfäden
und Sicherheitsbulletins Im Grunde hilft es Ihnen, indem es Ihnen
Ressourcen und Dokumentation zum Datenschutz, zu Berichten
über
Vorfälle und
zur Einhaltung von
Industriestandards
wie PCI, HIPAA und GDPR zur Verfügung stellt Ressourcen und Dokumentation zum Datenschutz, zu Berichten
über Vorfälle und
zur Einhaltung von
Industriestandards
wie PCI, HIPAA Kommen wir nun zu einem
Teil dieses speziellen Zentrums Nun, das ist wiederum nicht
Teil Ihrer bestehenden Dienste. Es wird außerhalb der,
du weißt schon, Dienste sein ,
was du wiederum
googeln kannst, oder du kannst awtotmason.com mit dem Schrägstrich SECURITY
eingeben Nun, der Name,
das Security Center, wurde in AWS Cloud Security
geändert,
also ist es im Grunde das, was es ist Nun, alle Funktionen, über die wir gesprochen haben, sind alle gleich,
sodass Sie sich die strategische
Sicherheit hier ansehen können oder die Identifizierung von
Prävention. Es tut mir leid, identifizieren, verhindern, erkennen,
reagieren, beheben. Das sind also einige der Optionen,
die Sie hier
haben, wenn es darum
geht, mit ihnen zu arbeiten Jetzt können Sie auch
sehen, dass es mir leid tut, was
die Hintergrundgeräusche angeht. Sie können also hier sehen, dass Sie hier mehrere
Sicherheitsdienste haben, es um die
verschiedenen kostenlosen Sicherheitsversionen von
Abs Cloud geht , auf
die Sie klicken können, tatsächlich zur
Testversion zu gelangen, aber ich weiß es nicht. URLs funktionieren
aus irgendeinem Grund nicht, also ignoriere das. Sie können hier also tatsächlich
andere Optionen zur Identifizierung
der Einhaltung von
Sicherheitsvorschriften sehen hier also tatsächlich
andere Optionen zur Identifizierung
der Einhaltung . Ich versuche gerade erneut, die URL zu
öffnen, aber
es scheint, als ob sie nicht funktioniert. Sie können also sehen, dass Sie
das Identity Access
Management als Teil davon haben . Amazon Cognito, Identity
Center, Verzeichnisdienst und
andere Anwendungen, die Teil Ihres Sicherheits- und
Identitätskonformitätsdienstes sind, finden Sie hier
überall Jetzt können Sie sich die
vorgestellte Lösung auch auf AWS ansehen, und Sie können die Anwendungen sehen denen wir manchmal
einige Anwendungen bereits gesehen haben, wie WAF, und wie
AWS Automated auf
Ihre Sicherheit reagiert und
ähnliches AWS Automated auf
Ihre Sicherheit reagiert Ihre Sicherheit Sie können
hier auch
die Kunden sehen , die AWS-Sicherheit
verwendet haben Sie können die
Einhaltung der Vorschriften auch hier nachlesen
, wo es um die
Compliance-Audits geht. Sie können an
einem Kurs teilnehmen, um
mehr über diese
Compliance-Anforderungen zu erfahren mehr über diese
Compliance-Anforderungen und Sie können sich hier auch mit
Datenschutz befassen , um mehr über
den Datenschutz zu erfahren. Sie haben hier auch einen Blog
, in dem
Sie erfahren, wie Sie mit
einigen der äh,
komplizierten Dinge hier umgehen können, da Sie sehen können, dass es im letzten
Blog um die Implementierung einer
beziehungsbasierten Zugriffskontrolle
mit verifizierter
Genehmigung von Amazon und Neptune geht beziehungsbasierten Zugriffskontrolle mit verifizierter
Genehmigung von Amazon und Neptune Sie haben also auch eine
Menge Artikel, die Ihnen tatsächlich Schritt für
Schritt helfen werden, auf Ihr Ziel
hinzuarbeiten Wenn Sie jetzt auf den Artikel
klicken, können
Sie tatsächlich die
vollständigen Informationen sehen, wie er Ihnen helfen wird,
einige Architekturdiagramme sowie einige der
Aktionspunkte hier, die
Teil dieses speziellen Blogs sein werden. Sie haben also auch Blogs, und Sie können die Partner
hier
sehen und Sie können auch
zusätzliche Ressourcen einsehen. Das ist also Ihr Sicherheitszentrum. Jetzt möchte ich noch auf einen weiteren Punkt
eingehen, den
Sicherheits-Blog hier. Das ist
das
Gleiche, was wir gerade über den
AWS-Sicherheitsblog
gesehen haben. Dabei handelt es sich um eine reale
Situation, in der AWS-Mitarbeiter die Blogs
zu Lösungen und
deren Architektur schreiben
würden . Sie können hier auch die
verwandten Produkte, den
Lernstand
dieser Blöcke und
den Beitragstyp sehen Lernstand
dieser Blöcke und , in dem es eine
Trennung gibt. Wir haben hier also
zwei Themen behandelt. Einer ist der Überblick über das AWS Security
Center. Wir haben auch über den
AW-Sicherheitsblog berichtet. Die Fragen
wären, wissen Sie, sie hier
reinkommen
, Sie werden Sie fragen, wie Sie
die neuesten Informationen
über die AW-Sicherheit sammeln . Das könnte also eine der
Optionen sein, die Sie sehen werden. Security Center, im
Sicherheitsblog,
sammeln Sie die neuesten Informationen über Sicherheit in
Bezug auf Compliance und
Datenschutz. Anschließend stehen Ihnen weitere Ressourcen wie bewährte Sicherheitsmethoden und
Sicherheitsbulletins Ebenso haben Sie all
diese Optionen
hier in der AWS-Cloud-Sicherheit,
die als Sicherheitscenter bezeichnet
wird Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir
sehen uns im nächsten.
38. Labs AWS WAF: Hallo, Leute. Willkommen
zurück zum nächsten Video. In diesem Video werden
wir über BAF sprechen. Es gibt also einen Dienst
namens Amazon WAF, der auch als WAF bezeichnet wird
und bei
dem es sich um eine Firewall für
Webanwendungen handelt Lassen Sie uns nun über
den SQL-Injection-Angriff sprechen , bevor wir etwas über
die WAF-Firewall Nun, hier ist der Mr.
Hacker hier, der versucht, Sie wissen schon, eine SQL-Abfrage in
unsere Website einzufügen Ich versuche den
Server zu manipulieren, um ihm die Antwort zu geben. Wie Sie wissen, basiert
das SQL auf einer sogenannten
relationalen Datenbank Was eine relationale Datenbank ist
, ist , dass eine Sache mit einer anderen
zusammenhängt, und so wurden Daten erfasst und auch Daten veröffentlicht Wenn Sie nun diese
spezielle Gruppe
von Tabellendatensätzen hier sehen , können
Sie sehen, dass ein
Kunde, wenn
er sich bei einer Bank registriert, seinen Vornamen,
Nachnamen, E-Mail-Adresse,
Passwort, Adresse,
Postleitzahl, vollständige Adresse und
dann die
Bankkontonummer angeben Nachnamen, E-Mail-Adresse,
Passwort, Adresse,
Postleitzahl, vollständige Adresse Postleitzahl, vollständige Adresse muss, richtig? Sie erhalten also eine
temporäre Bankkontonummer, die wiederum mit
Ihrer Bankkontonummer zusammenhängt, Ihrem Sparkonto, was ist
der aktuelle Betrag, den Sie haben? Was sind die ausstehenden
Transaktionen? Wie lautet Ihre Kreditkartennummer? Dann haben
Sie über die
Kreditkartennummer die Kreditkartennummer, ähm, was verfügbar ist, Kreditnutzung und alle Kredite
auf Ihrer Kreditkarte. Ebenso wird jede Transaktion
hier an eine andere Filiale weitergeleitet, die sich auf diese
spezielle Information bezieht. Wenn jemand
mehr über die Einzelheiten
des Vornamens wissen möchte , der
Nachname, die E-Mail-Adresse, das
Passwort und so weiter ist , wird alles auf diese Weise in der
Datenbank
gespeichert. Das Passwort
sollte also irgendwo sein, es muss
unverschlüsselt sein, oder? Also zum Beispiel, ja, ein verschlüsseltes Passwort
wird am Ende gespeichert, oder? Das ist der Zeitpunkt, an
dem es
das Passwort vergleicht und dann feststellt , ob Sie
authentifiziert sind oder nicht Die Leute versuchen also, das zu tun was Hacks
versuchen, ist, die POST-Methode einzufügen
und sie werden versuchen, eine Anfrage an die Datenbank zu senden,
die dann sowieso
in der Datenbank landet Sie haben also Anwendungsserver,
Webserver, Loadbalancer
und all die Aber das Endergebnis wird
tatsächlich in die Datenbank übertragen. Sie werden also eine
XQ-Anweisung über
eine Datei einfügen und versuchen, sie auf Ihrer
Website zu Nun, das ist der Fall, wenn Ihre
Website anfällig ist, wird sie
mit dem tatsächlichen Endergebnis herauskommen oder Ihr Endkennwort
oder andere persönliche Informationen sind ein Gewinn für sie, weil
sie einige persönliche
Informationen über die Person
erfahren , die
ein Konto bei der Bank hat Also nicht nur SQL, es gibt XSS,
A, es gibt
auch einige andere Formate , die hier verwendet
werden. Jetzt wird WAF Ihr System
schützen. Jetzt habe ich eine detaillierte
Architektur WAF, das wird Ihnen das viel
besser erklären Sie werden die
Demo der praktischen
Sitzung auf AWS in
diesem Video selbst sehen Sitzung auf AWS in
diesem Video selbst Ich werde zunächst
diese Architektur erklären, wie Ihre WAF damit umgehen
wird Nun, Sie hätten den
AWS Shield-Standard
bisher
bereits verstanden AWS Shield-Standard
bisher und wissen, welche WAF
Ihnen hier zusätzliche
Funktionen bieten wird . Nun, ABS Web ist eine Firewall für
Webanwendungen, die dabei hilft, Ihre Webanwendung
vor gängigen Web-Exploits
und Sicherheitslücken zu
schützen gängigen Web-Exploits
und Und das könnte
sich tatsächlich auf die Verfügbarkeit
Ihrer Anwendung auswirken
und auch
Ihre Sicherheit mehr oder weniger
gefährden, und auch
Ihre Sicherheit mehr oder weniger
gefährden weil, Sie wissen schon, diese Leute,
diese Hacker, an
die persönlichen Daten gelangen und
dann versuchen, mit Ihnen ein Lösegeld auszuhandeln Das ist also der Grund,
warum Ihre
Webanwendung sicher sein sollte AWS WAF haben Sie also Kontrolle über den Datenverkehr, der Ihre Anwendung
erreicht,
indem Sie Regeln
konfigurieren können, mit denen bestimmte Arten von Datenverkehr gefiltert oder blockiert nun den
typischen Anwendungsfall angeht,
welcher Anwendungsfall Sie tatsächlich verwenden
können ist der Schutz vor häufigen
Angriffen
wie, Sie wissen schon,
das Blockieren gängiger Web-Threads
wie SQL-Injection, äh,
Cross-Site-Scripting, Cross-Site-Scripting Und Dedos-Angriffe.
Bei Dedos-Angriffen verfügen
Sie über zusätzlichen Schutz, verfügen
Sie über zusätzlichen Schutz sogenannten AW-Shield-Standards, sodass
Sie auch vor Dedos-Angriffen geschützt sind, aber die WAF kann
das auch tun Jetzt kann es Ihnen auch
zusätzlichen Schutz bieten. Wie Sie wissen, wird AWS Shield nicht berechnet und
ist standardmäßig aktiviert. Das dient also dem Schutz der
AWS-Infrastruktur. Aus diesem Grund ist der
Shield standardisiert. Wir haben also trotzdem
die Erklärung dafür gesehen. Also, es funktioniert auch so etwas wie
Ratenbegrenzung. Wenn Sie also AWS WAF verwenden, wird
es verwendet, um die Anzahl der
Anfragen zu
begrenzen , die eine einzelne IP-Adresse an eine Anwendung stellen
kann Das ist also sehr
wichtig, weil manchmal der
DirS-Angriff oder jede Art von
Escule-Injektion
von derselben IP-Adresse kommen kann , also ähm, OSPF wird
das überwachen und
sicherstellen, dass, Sie wissen schon, eine Erfassung oder
etwas Ähnliches gesendet
wird, um zu
verhindern, dass die Leute immer wieder
dasselbe durchsuchen . Wenn Sie heutzutage also
Websites aufrufen, wenn Sie
als BW auf google.com gehen und versuchen, zehn,
15 Mal nach einem bestimmten
Thema zu suchen, dann
wird Ihnen sofort ein Capture
angezeigt, in dem
Sie aufgefordert werden, das Capture einzugeben. Was also passiert ist
, wenn Leute häufig auf eine Website
zugreifen innerhalb von 10
Minuten oder so häufig auf eine Website
zugreifen, dann
weiß die Website, dass, okay, ich
von dieser IP-Adresse ständig unter Druck gesetzt wurde, also werde ich dieses Mal durch
eine Firewall gehen. Ich werde
das blockieren und es an
eine Cap-Shop-Seite schicken , anstatt
tatsächlich darauf zuzugreifen. Diese Art der Umleitung
findet also statt, wenn Sie mit einer
solchen Firewall
arbeiten Dies wird als Web
Application Firewall bezeichnet. Wir werden über viele Aspekte
der Säkularität sprechen Aspekte
der Säkularität Es ist sehr wichtig. Sie sollten
die Benennung verstehen und
verstehen, worum es bei diesem speziellen Aktionspunkt
gehen wird. Ich werde
dir dazu einen Hinweis geben. Also, wenn du das Wort F,
A W W AF hörst A W W AF W steht meistens für
Web in Bezug auf all
Ihre
computerbezogenen Dinge, W steht meistens für Web. Wenn Sie also WAF hören, sollten Sie als Erstes in
den Sinn
kommen, könnte es Web sein? Als Nächstes
steht A hauptsächlich für Anwendung. Wo immer Sie also
A als Abkürzung sehen, steht es
meistens
für Anwendung Und wenn Sie dann
über Sicherheit sprechen und
es ein Wort namens F gibt, dann muss es Firewall sein. Versuchen Sie also, es zu erzählen und
versuchen Sie, diese
Akronyme
zu verstehen und sich mit ihnen vertraut zu machen, denn ähm, wissen Sie, als AWS diese Akronyme kreierte, hatten
sie diese Art von Mentalität, als sie sie
kreierten, weil sie sicherstellen
wollten
, dass diese Akronyme so gut wie brauchbar
und wiederverwendbar
sind und die
Leute über
diese Dinge nachdenken können , wenn es um die Kurzformen
geht. Erinnern Sie sich, dass das ein
Tipp ist, den ich Ihnen für
jede einzelne
Sicherheitssitzung geben werde , damit Sie
verstehen können , wie
Sie sich sofort,
ähm, mit diesem
speziellen Segment identifizieren können . Hier drüben haben Sie also
einen weiteren Anwendungsfall, über den ich sprechen
möchte,
nämlich die benutzerdefinierten Regeln. Wie Sie hier sehen können, haben
wir Regeln verwaltet,
Whitelist, Blacklist Der Nutzen einer
benutzerdefinierten Regel besteht also darin, dass
Sie Ihre eigene benutzerdefinierte
Regel erstellen und es Ihnen ermöglichen, bestimmte Muster
des Webverkehrs zu blockieren weil es andere Tools gibt die wir später sprechen werden, und dieses Tool kann sich tatsächlich,
Sie wissen schon, Ihre Protokolle ansehen, das Muster
erkennen, den
häufig von Ihnen abgerufenen
IP-Adressbereich sehen häufig von Ihnen abgerufenen
IP-Adressbereich Wenn Sie sich mit
dem IPR-Bereich vertraut machen, werden
Sie anhand des
IPR-Aussehens der öffentlichen geistigen Eigentumsrechte wissen, aus welcher Region
es stammt. Heutzutage
wird es sehr,
sehr schwierig, es zu identifizieren,
weil die
VPN-Dienste immer sehr schwierig, es zu identifizieren besser Also, ähm, ja, es gibt
eine Menge Komplikationen und es wird in Zukunft
schwieriger sein. Und ja, es gibt immer eine Möglichkeit, den Fehler oder
irgendein Problem zu identifizieren und,
du weißt schon, herauszufinden , bevor
etwas passiert Aber die Technologie verbessert
sich immer noch erheblich. Es gibt hier also benutzerdefinierte
Regeln , die Sie
von einem bestimmten
geografischen Standort aus zulassen oder verbieten können, wissen
Sie, indem auch Ihre
HTTP-Header-Informationen ansehen. Sie können sich also die
HTTP-Header-Informationen ansehen und sagen: Okay, diese Art von Header-Informationen
ist nicht Teil meiner,
ähm , meiner Programmierung, also können
Sie diese
Header-Informationen auch
ablehnen. Das wird die Leute
also ebenfalls davon abhalten, irgendeine Art
von SQUL-Injektion auszuführen ebenfalls davon abhalten, irgendeine Art
von SQUL-Injektion Was die Integration angeht, gibt es diese wunderbare
Integration mit,
ähm, Sie wissen schon, anderen
Diensten wie Cloud Friend Sie können es auch in den
Lastenausgleich auf
Anwendungsebene integrieren . Das ist also etwas, das ich dir hier
schon gezeigt habe. Sie können es also
in CloudFront einrichten. CloudFrind wird für uns
ein Cache-Dienst sein, aber es wird unsere Informationen
zwischenspeichern, und es wird uns nur
zur Verfügung stehen Der einfachste Weg, dies zu identifizieren ist im Grunde genommen der
Name CloudFront Es wird sich also auf
der Vorderseite Ihrer Cloud befinden und alle Informationen
zwischenspeichern
und die zwischengespeicherten
Informationen weiterleiten alle Informationen
zwischenspeichern
und die zwischengespeicherten
Informationen weiterleiten Route 53 ist also der Ort, an dem sich Ihr DNS befindet, und CloudFront ist der
Ort, an dem die Informationen
zwischengespeichert werden AWS PAF wird
zwischen dem Routing
und dem Caching Sie wissen also, dass selbst
die zwischengespeicherten Informationen nicht an
die
häufig aufgerufenen gelangen Aus diesem Grund befindet es sich
direkt hinter der Route 53, sodass selbst CloudFront bei Angriffen nicht genutzt
wird Ordnung. Gehen wir jetzt
zum Beispiel in Echtzeit. Also eines der
Beispiele in Echtzeit, mit denen ich
mich selbst konfrontiert habe , als ich für
einen E-Commerce-Riesen in Indien gearbeitet habe. Also habe ich früher für
Amazon CloudFront gehostet. Ich habe diese
Dienste früher darauf gehostet. Und es ist irgendwie anfällig für SQL-Injection
und Cross-Scripting Also, was ich getan habe, war, durch die Aktivierung dieser WAF-Dienstanwendung FR WOL können
Sie sich tatsächlich, ähm, Sie wissen schon, die Logs
ansehen und sehen,
welche IP häufig,
Sie wissen schon, auf unsere
Website können
Sie sich tatsächlich, ähm, Sie wissen schon, die Logs
ansehen und sehen,
welche IP häufig,
Sie wissen schon, zugreift Äh, und wir können sie tatsächlich, weißt
du, blockieren. Okay? Wir können sie sogar als Teil dieser schwarzen Liste
blockieren. Also habe ich das getan, und
das hat tatsächlich verhindert, dass diese Reihe von iPad-Adressen
auf unsere Website zugreift. Und wir haben es anhand der
Seiten erfahren, auf die sie zugreifen, oder? Wir haben herausgefunden, ob
sie tatsächlich
kaufen werden , dass die IP-Adresse
tatsächlich zur Kasse geht, oder ob sie nur auf der
Startseite sein will, um sich umzuschauen. Da machen wir doch einen
Schaufensterbummel, oder? Also genauso macht eine
IP-Adresse das Ähm,
umgeht die Produkte und wählt
dann nach dem Zufallsprinzip Produkte aus. Und dann werden immer
wieder mehrere
Produkte aktualisiert, wobei, wissen
Sie, jedes Mal, wenn Sie Ihr Produkt
aktualisieren, abgerufen werden müssen die Informationen
aus der Datenbank ,
weil die
Produktpreise und die Produktverfügbarkeit überprüft
werden müssen, oder? Also, ähm,
das bedeutet zusätzlichen Druck auf die Datenbank,
Ihnen diese Informationen zu besorgen. Durch diese Maßnahme
der schwarzen Liste, diese IPAR-Rs, richtig, konnte
ich, wissen Sie, eine Menge Ressourcen in
meiner Datenbank
sparen,
was tatsächlich zu einer
geringeren Rechnung geführt hat, weil je in
meiner Datenbank
sparen,
was tatsächlich zu einer
geringeren Rechnung geführt hat mehr
Ressourcen Sie ausgeben, desto höher
der Betrag, den Sie für AWS zahlen
werden Das ist der Grund, warum,
weil es Überweisungsgebühren
gibt, es gibt Internetgebühren und all diese Dinge kommen in Bildern zusammen und
Sie können sich die
Abrechnung sparen, wenn Sie, Sie wissen schon, eine geringere
Leistung in Ihrer Anwendung haben. Aber ich bitte um
eine sinnvolle Leistung. Das ist alles, worum ich bitte. Lassen Sie uns hier also
über die wichtigsten Vorteile sprechen. Äh, es ist einfach zu implementieren. Es ist kostengünstig und
hochgradig anpassbar. Das heißt, wenn ich über hochgradig
anpassbar spreche, kann
ich meine eigenen
Regeln erstellen und ich kann sogar meine weiße
und schwarze Liste mit IP-Adressen haben. Kostengünstig. Sie
zahlen nur für das, was Sie tatsächlich
nutzen, basierend auf der Anzahl der
Webanwendungsanfragen angewandten
Regeln. Das
wird Sie also viel kosten. Und dann einfach zu implementieren, da Sie
es einfach sehr einfach bereitstellen können. Ich zeige es dir in der Praxis. Lassen Sie uns also diesen speziellen Artikel in die Hand nehmen
, es tut mir leid, ich habe hier gerade
etwas anderes geöffnet. Also lasst uns einfach
WAF AF und Shield eingeben. AF wird also mit Schild geliefert. Wir haben das also auch beim
Thema Schild gesehen. Also, Shield und VF
teilen sich das gleiche
Service-Overlay Sie werden also den AF
oben und den Schild unten
haben oben und den Schild unten Also ja, damit du sehen kannst, wie das
mit WAF anfängt. Sie können also tatsächlich ein neues AWS
Wabashboard verfügbar machen, das ist also Und Sie können auch die Web-Seite mit der ACL-Zugriffskontrollliste verwenden Okay, das ist so
ziemlich alles. Jetzt können Sie
Ihr Erfassungsverhalten anpassen indem Sie Capture-APIs implementieren. Also, die Java-API wird jetzt
in der Erfassung verwendet, was bedeutet, ähm,
wie ich dir gesagt habe, oder? Wenn also eine häufige Anzahl von Personen mit derselben
IP-Adresse Zugriff hat, können
Sie sie tatsächlich
lesen, um sie zu erfassen. Das gehört also auch dazu. Sie können
das also in WAF sehen, richtig, Sie haben Web-ACR, Board
Control Dashboard Oh, das sind einige
der Funktionen. Ich glaube, wir haben
die schlechten Stiefel verpasst. Ja. Also hier haben Sie HTTP-Floods, Scanner und Probs,
IP-Reputationslisten und dann bösartige sind also einige
der Funktionen,
und das ist es, was Ihnen hier tatsächlich
angezeigt wird. Das Board steuert also Dashboards, und dann haben Sie IP-Sets
für die
Anwendungsintegration , mit denen Sie hier eine Regel
über die IP-Sets erstellen Und dann können Sie hier eine
Liste mit weißen P-Sätzen erstellen. Es spielt also keine Rolle, ob
Sie es blockieren oder zulassen, aber Sie erstellen es einfach mit dem Namen Schwarze
Liste oder Weiße Liste, und dann können
Sie es als Regel festlegen. In der Regel
können Sie also tatsächlich
eine Regelgruppe erstellen und,
Sie wissen schon, angeben , was sie für diese Gruppe tun
muss. Sie geben also einfach die
Gruppendetails ein und legen dann die Regeln und
Funktionen sowie die
Regelpriorität fest und überprüfen
und erstellen dann die Regel. Auch hier werden wir nicht
tief in die Konfiguration einsteigen, da es bei dieser Schulung oder dieser Zertifizierung nicht
darum geht,
dass Sie jede Komponente eintauchen und Dinge tun in
jede Komponente eintauchen und Dinge tun, die auf
professioneller Ebene sind, also machen Sie sich darüber keine Gedanken. Das ist also eine Grundstufe, also werden sie
Sie nicht fragen, wie man eine Regel erstellt. Welche Optionen gibt es, wenn es
darum geht, eine Regel zu erstellen? Sie würden
dich diese Dinge nicht fragen. Okay, also AWS Marketplace, Regeln
verwalten. sind also einige der Das sind also einige der Marktplätze, die
häufig genutzt werden, ähm, Sie können den
anonymen IB-Schutz sehen. Das ist also von
Cloud Brick und das ist eine verwaltete Regel
von Ähm, AWS-Mitarbeitern. Dies bietet Ihnen also im Grunde genommen einen anonymen
ID-Schutz und bietet integrierten Schutz vor
anonymer IP-Organisation aus verschiedenen Quellen wie VPNs,
Rechenzentren, DNS-Proxys,
Troy Network, Relays Wenn Sie also einfach darauf klicken, wird
es auf
den Marktplatz und es werden Ihnen
die Produktdetails hier angezeigt Also, worum geht es bei dieser, ähm, Marktregel
und kann ich
diese Regel für mich selbst nutzen , um
meine Organisation zu verbessern? Weil sie auf
Organisationsebene angewendet
wird, was bedeutet, dass
Ihre gesamten VPCs was bedeutet, dass
Ihre gesamten VPCs sie tatsächlich
nutzen, nutzen werden Aber das beinhaltet auch die Preisgestaltung. Ich kann die Gebühren hier sehen. Nutzungskosten pro
Monat für jede Region. Pro Rated by Hours
beträgt der Betrag 35$ pro Region. Ähm, hier können Sie sehen
, dass die Gebühr pro Million Anfragen in jeder
Availability Zone 0,2 beträgt Okay, das ist so ziemlich
nicht erstattungsfähig. Es ist vom Verkäufer. Es
geht also darum, es gibt Ihnen, ähm, die Liste der Bedrohungen,
die bereits erkannt und bereits markiert
wurden Sie
müssen also nicht von
vorne anfangen und nach IP-Adressen
suchen, die Ihr Netzwerk eindringen. Vielleicht
ist nichts, wenn Sie
nicht wie ein großes Unternehmen sind, Sie brauchen
das wirklich nicht und Sie können es tun indem Sie es überwachen
und anschauen, Sie müssen nicht so
viel pro Monat bezahlen Wenn Sie der Meinung sind, dass Ihr
Unternehmen nicht so groß ist und Sie es nicht mögen
, eine so große Bedrohung zu haben Aber wenn Sie in
einer größeren Organisation arbeiten, können
Sie für so
etwas vorschlagen, nur 35$, nichts für
die große Organisation Aber das gibt dir
Schutz dort drüben. Sie haben also APA-Schutz, APA-Sicherheitsregeln und
Board-Schutz eingerichtet. Also das sind etwas
, das Sie kaufen und, Sie wissen schon, monatlich
mit Ihrer Rechnung bezahlen können. Und das wird zusätzliche,
Sie wissen schon, zusätzliche Sicherheitsregeln hinzufügen Ihrer WAF zusätzliche,
Sie wissen schon, zusätzliche Sicherheitsregeln hinzufügen
und
sicherstellen, dass sie, wissen Sie, eine Art
Kontrolle ausübt,
was die Kontrolle über Ihre schlechten Boards,
Ihre, Sie wissen schon,
unbekannten IP-Adressen,
anonymen IP-Adressen
und solche Dinge
angeht Ihre, Sie wissen schon,
unbekannten IP-Adressen, anonymen IP-Adressen
und solche Dinge Es liegt also ganz bei
Ihnen, ob Sie es verwenden möchten. Alles klar? Also,
das ist jetzt eine neue URL. Der alte Klassiker ist weg. Sie können es also darauf umstellen, aber ich würde es vorziehen, das neue zu
verwenden, weil , wissen
Sie, es wird jetzt eine Weile da
sein. Also, weil die neuen immer
mindestens zwei oder drei Jahre zusammen sein werden, also
wirst du das,
ähm, du weißt schon, daran üben lassen. Sie haben hier also so viele
Kategorien, Web-Zugriffskontrolle,
IP-Sets, Regelgruppen und Marketplace-Regeln für schnelleren und einfacheren Zugriff auf eine bestehende Regel, die in Ihren Fall
importiert werden soll. Und diese wurden alle, Sie wissen schon, von AWS selbst
genehmigt und geprüft Das sind also die
auf dem Markt. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Sie haben verstanden, was WAF ist, und Sie haben die Architektur verstanden Wenn Sie Fragen haben, hinterlassen Sie diese im
Fragenbereich Ihre Bewertung ist wirklich wichtig. Wenn Sie einen Vorschlag haben, können
Sie
ihn jederzeit in der Bewertung machen. Sie können
mich über Nachrichten erreichen. Sie können meiner
Community beitreten und mich
auch von der
Community aus kontaktieren. Es gibt so viele Möglichkeiten
, mich zu erreichen und diesen Kurs zu
verbessern. Es liegt ganz bei dir. Nochmals vielen Dank für Ihre
Geduld. Wir sehen uns auf der
39. Lab-Netzwerk ACL: Ich werde zum nächsten DF
zurückkehren und nur PDO verwenden, wir sprechen über die Liste der
Netzwerkzugriffskontrollen Jetzt sind ACLs eines
der wichtigsten Themen in Ihrem AWS-Caia Was wir jetzt verstehen können ,
ist ein bisschen Theorie sowie ein bisschen
praktische Erfahrung mit ACL Um
Netzwerk-ACL zu verstehen, müssen
Sie zunächst die Abkürzung dafür verstehen. ACL wird Access
Control List genannt. Das ist also noch höher
als das,
was wir in höher
als der Sicherheitsgruppe besprochen haben. Wie Sie in
diesem Architekturdiagramm sehen können, ignorieren
Sie bitte alle
Tippfehler hier,
da es sich um ein von
KI generiertes Bild handelt Also, ähm, hier gibt es keinen großen
Tippfehler. Also, ähm, ich meine, selbst wenn die Tippfehler da sind, ignorieren
Sie es bitte
nur wegen der, ähm, der KI-Urheberrechte
und so. Also, wie Sie hier sehen können, die Sicherheitsgruppe in ist die Sicherheitsgruppe in
dieser Hierarchie der
ECT-Instanz sehr ähnlich,
aber nicht auf einer höheren Ebene Aber wenn Sie über
die ACL, die Netzwerk-ACL, sprechen, befindet
sie sich auf einer höheren Ebene,
etwa in Bezug auf die virtuelle private
VPC-Cloud, wo sie sich auf einer viel höheren
Ebene in der Nähe des Subnetzes befindet Wir haben bereits früher verstanden, was eine VPC
im Grunde ist, aber machen Sie sich keine Sorgen, wir werden zu einem späteren
Zeitpunkt näher darauf
eingehen , wenn wir viel detaillierter über
VPC sprechen Ab sofort
müssen Sie jedoch verstehen, dass die VPC der
Einstiegspunkt für jede Art von
Kommunikation ist und dass die VPC
über allen AW-Services steht . Jetzt
können Sie sehen, dass alle
AW-Services umgeben sind und VPC
an oberster können Sie sehen, dass alle Stelle
steht Nun werden Sie auf VPC-Ebene die Netzwerk-ACLs konfigurieren Denken Sie jetzt daran, dass ACL eine
statuslose Firewall ist. Zum Beispiel, wenn Sie das
mit Ihrer Sicherheitsgruppe vergleichen. Bei einer Sicherheitsgruppe handelt
es sich um
eine statusbehaftete Firewall, bei
der wir einige der Aktivitäten gesehen haben , z. B. wenn
Sie Datenverkehr innerhalb bei
der wir einige der Aktivitäten gesehen haben, z. B. wenn
Sie Datenverkehr innerhalb von Gebäuden zulassen
, wird derselbe Datenverkehr automatisch auch
nach außen da sie
den gesamten Datenfluss überwacht den gesamten Datenfluss Okay? Aber wenn Sie dasselbe mit
der Netzwerk-ACL vergleichen, ist
es wie eine zustandslose, ähm,
Firewall-Methode, bei der die Verbindung nicht
überwacht wird Daher ist es wichtig, dass Sie die eingehende Verbindung
angeben. Außerdem müssen Sie auch die ausgehende
Verbindung
angeben Wenn Sie also
die ausgehende Verbindung nicht angeben, da dadurch weder
die Enter-Transaktion
noch die Sitzung überwacht wird, können die
Verbindungen nicht nach draußen gehen Wenn Sie also Verbindungen über
die Sicherheitsgruppe zulassen und dies nicht über ACL zulassen, würde
Ihr Netzwerk
irgendwann nicht funktionieren Sie werden keine
Antwort vom Server erhalten,
obwohl Sie die Anfrage
an den Server senden können , werden
Sie keine
Antwort erhalten, weil die Netzwerk-ACL
es Ihnen nicht erlaubt,
die Informationen
vom Server zu die Informationen
vom Server weil sie auf oberster
Ebene konfiguriert sind, okay? Weil es
unter der VPC konfiguriert ist. Okay? Sie können also über
die Netzwerk-ACL darauf zugreifen, und Sie werden sehen, dass
es an die VPC weitergeleitet wird und eine der Funktionen von
VPC Ihre Netzwerk-ACL ist Wenn Sie also
Ihr VPC-Dashboard aufrufen, werden
Sie auf der
Sicherheitsstufe die werden
Sie auf der
Sicherheitsstufe Sicherheitsgruppe
und die Netzwerk-ACL sehen Auch hier gehört die Sicherheitsgruppe
zu dieser Stufe, aber dann werden sie direkt Ihren EC-Instanzen zugewiesen,
die wiederum nur
an die VPC berichten,
aber es handelt
sich Ihren EC-Instanzen zugewiesen,
die wiederum nur
an eher
um eine statusbehaftete Sitzung und
Netzwerk-ACLs eine statusbehaftete Sitzung und
Netzwerk-ACLs Im Moment haben Sie hier zwei Netzwerk-ACLs Eine davon ist für die
Röntgenprobenanwendung bestimmt, die Sie ignorieren können Die andere ist
die Standardversion, die standardmäßig
verwendet wird. Jetzt sind sechs Subnetze
angeschlossen, so dass
wir zuvor gesehen haben, dass Subnetze
im Grunde das Netzwerk sind, das für jede
Ihrer verfügbaren T-Zonen konfiguriert
ist, die Teil dieser Ich bin also in Nord-Virginia. Ich habe sechs Regionen, tut mir leid. Ich habe sechs verfügbare Zonen in der Region
Nord-Virginia, sodass mir standardmäßig sechs Subnetze
zugewiesen sind Wie bei dieser zusätzlichen Anwendung können
Sie auch
das Subnetz angeben, in dem Sie Ihre
Inhalte hosten
möchten, und Sie können diesbezüglich auch sehr
spezifisch sein,
aber das würden wir nicht empfehlen da Sie jede der
EC2-Instances in jeder
der sechs verfügbaren T-Zonen hosten können EC2-Instances in jeder
der sechs Alle Ihre Elemente sollten also
Teil einer Netzwerk-ACL sein ,
die Teil davon sein sollte Dies ist eine sehr
spezifische Anwendung und bitte nehmen Sie
keine Beispiele daraus. Bitte verwenden Sie das Beispiel , das konfiguriert ist,
und es wäre definitiv
auch für Sie da , wenn Sie sich Ihre Netzwerk-ACL
ansehen. Denn ohne diese
wird
Ihr Netzwerkverkehr nicht funktionieren,
wenn Sie diese löschen . Selbst deine SS
wirst du nicht benutzen können. Warum? Da auf diese
Weise diese Kommunikation tatsächlich ermöglicht wird,
obwohl sie auf Sicherheitsgruppenebene zulässig ist, sollte
die Netzwerk-ACL
aktiviert sein , damit Ihre
Kommunikation funktioniert. Wenn Sie sich nun diese
spezielle Netzwerk-ACL ansehen, finden
Sie hier die
Regel: Zulassen und Verweigern. Da dies zustandslos ist, müssen
Sie angeben,
was Sie zulassen müssen, Sie müssen angeben,
was Sie verweigern müssen Die Netzwerk-ACL ist eine statuslose Firewall, die auf Subnetzebene
arbeitet und den eingehenden
und ausgehenden Verkehr
zu und von den
Subnetzen in einer VPC
steuert zu und von den Denken Sie daran, wenn Sie einen Datenverkehr
anwenden, wenn Sie für eingehenden Datenverkehr
oder eine Regel für ausgehenden Datenverkehr anwenden, und dann
sagen Sie , dass ich eine Verbindung zu allen verfügbaren Subnetzen
herstellen möchte , also zu allen verfügbaren Verfügbarkeitszonen , also eine Regel
für eingehenden Datenverkehr
oder eine Regel für ausgehenden Datenverkehr anwenden,
und dann
sagen Sie, dass ich eine Verbindung zu allen verfügbaren Subnetzen
herstellen möchte
, also zu allen verfügbaren Verfügbarkeitszonen in dieser Region. Das bedeutet also, dass der gesamte Apfelwein
hier reinkommt, nur für jede
dieser Verfügbarkeitszonen zugewiesen,
was bedeutet, dass diese Regeln für
eingehenden und ausgehenden Datenverkehr diese Dinge gelten Aber standardmäßig ist die Regel für eingehende Nachrichten
die erste Regel, die hier drüben ist, und
die zweite, die als Nine
erwähnt wird Das bedeutet also
, dass diejenige, die die höhere Zahl
hat, mehr Priorität hat, da Sie sehen können, dass 100
höher ist als Stern, oder? Es würde also diese
spezielle Regel verwenden und gesamten Datenverkehr
aus allen Quellen
zulassen. Und was die Outbound-Regel angeht, das Gleiche hier drüben. Es erlaubt den gesamten internen Verkehr, der eine höhere Zahl hat, was das Rangsystem ist, also lässt es
den gesamten Verkehr innerhalb Wenn du das also editierst
und
es auf dieses mit Stern
und dieses auf 100 änderst , dann wird es alle ausgehenden
Anfragen ablehnen. Und es wird das Zulassen haben, aber dann wird die Ablehnung zuerst gelöscht. Jetzt können Sie sehen, dass ich
hier zwei Regeln aufgestellt habe. Ich habe 100 als Leugnen
und 101 als Zulassen gegeben. Wenn Sie das jetzt standardmäßig sehen, können
Sie sehen,
welches zuerst ausgewählt wird. Ich werde natürlich
alle Anfragen ablehnen, und es wird
all diese Anfragen zulassen, aber das Problem ist,
dass sie gleich als Nächstes kommt. Es wird also im Grunde alles
ablehnen , was eingeht, weil
es eine Rangfolge einnimmt. Wenn Sie hier einen anderen
Rang haben
, der tatsächlich eine weitere
Regel hinzufügt und Sie
uns einfach eine geben und Sie sagen „Gesamter
Verkehr“ und Sie sagen „Zulassen“. Sie können sehen, wenn
Sie sagen und beenden, wenn Sie ausgehende Regel wählen, können
Sie sehen, dass Regel Nummer eins dorthin
geht und alle Anfragen
erlaubt Das bedeutet, dass es sich um eine Rangfolge
handelt. Sie werden also
einen anderen Rang davor setzen. Es gibt keinen anderen
Rang vor einem. Einer ist der Beginn des Rangs, was bedeutet, dass dies
der erste Rang ist , den er zulassen
wird. Hier sprechen wir
über den gesamten Verkehr. Sie können
Ihren Traffic auch an
Ihre Anforderungen anpassen und
dies entsprechend tun. Lass uns das einfach rückgängig machen. Man muss nur das und das
entfernen und dann die
Hundert zulassen. Und speichern Sie die Änderungen
und das sollte Ihr Rollback-Element
hier in der ausgehenden Regel Perfekt. Jetzt funktioniert das
als Standard. Dieser Stern ist nicht etwas
, das Sie konfigurieren würden, er wäre standardmäßig enthalten. Wenn Sie also keine
dieser Regeln erwähnt haben, wird
sie mit der
Standardregel , nämlich Verweigern, übernommen. Denken Sie jedoch daran, dass wir Deny
angeben müssen ,
wenn Sie Verbindungen
zu Ihrem Server verweigern ,
wenn Sie Verbindungen
zu Ihrem Server Das ist es, was es
jetzt impliziert. Das bedeutet, dass Sie es leugnen
müssen , wir müssen es verringern. Es ist nicht so,
dass es standardmäßig verweigert wird, wie bei unserer
Sicherheitsgruppe, Sicherheitsgruppe Wenn Sie nichts zulassen, wird
es standardmäßig verweigert, aber nicht bei ACL. Deshalb haben Sie hier diesen Abschnitt
, der
nicht zu empfehlen oder
nicht zu entfernen ist Abschnitt
, der
nicht zu empfehlen oder
nicht zu entfernen ist, in dem steht, Das ist eine Art Helfer. Wenn Sie diese Regel entfernen
, werden alle
eingehenden Verbindungen verweigert. Das bedeutet, dass keiner
Ihrer Dienste den
Lambda-Dienst
mag, unabhängig davon, welchen Dienst Sie dieser Region
hosten, Sie nicht über das Internet darauf
zugreifen können Weil Sie auf VPC-Ebene
alles leugnen. Okay. Es sei denn, Sie
haben eine andere VPC konfiguriert und diese andere VPC zeigt
auf eine andere ACL Sie können also sehen, dass dies ein weiterer
VPC-Name ist. Das kannst du sehen. Das ist also eine völlig
andere VPC. Das gilt also für
eine andere Regel, und die ist
momentan wirklich fortgeschritten , also mach
dir darüber keine Gedanken Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir
sehen uns im nächsten.
40. Laborsicherheitsgruppe Teil 1: Hallo Leute. Willkommen zurück
zum nächsten Video. In diesem Video müssen wir
über das Thema sprechen , das die
AWS-Sicherheitsfunktionen und -Services beschreiben
wird . Wir können uns
zum Beispiel drei der Dienste oder
Funktionen in Ihrem AWS ansehen. Erstens konzentrieren
wir uns zunächst auf Sicherheitsgruppe und
dann
machen wir ACL und F. Zunächst werden
wir
etwas über die
Sicherheitsgruppe hier erfahren . Was ist nun eine Sicherheitsgruppe? Wir konfigurieren
diese Sicherheitsgruppe tatsächlich als Firewall-Funktion
für EC Two-Instances, die tatsächlich
eingehenden Verkehr
aus dem Internet
und ausgehenden Verkehr
vom Server zum Internet zulässt aus dem Internet
und ausgehenden Verkehr vom Server zum Es gibt also Verkehr in zwei Richtungen, aber es gibt immer wechselseitigen
Verkehr,
nämlich eingehender Verkehr
und ausgehender Verkehr Wenn Sie also eine
Straße als Beispiel nehmen, ist
eine Straße normalerweise eine Straße, die als Einbahnstraße
bergab geht. Aber manchmal
kann eine Straße auch eine Einbahnstraße sein. Also
sagen wir normalerweise nicht Einbahnstraße. Und dass wir nicht
die Angewohnheit haben zu sagen, dass es eine Einbahnstraße ist, weil
eine Straße, ähm, du weißt schon, für zwei Richtungen konzipiert ist. Es wird also eine Spur
für den laufenden Verkehr geben, eine weitere Spur für Ihren
eingehenden Verkehr. Wenn Sie also entscheiden, dass die
Straße eine Einbahnstraße sein sollte, dann sagen wir ausdrücklich,
dass es sich um eine Einbahnstraße handelt, und
sagen, dass es
entweder laufenden Verkehr
oder eingehenden Verkehr geben wird . Okay? Also,
wenn Sie EC Two Instances erstellen,
haben Sie quasi diese Sicherheitsgruppe standardmäßig
konfiguriert, sodass Ihre SSH-Verbindung möglich ist, Sie haben die gesicherte Shell Diese Verbindung kann also von überall her
zugelassen werden. Das haben
wir also gesehen, als wir eine
ECT-Instanz erstellt haben, oder? Das ist also ein eingehender Verkehr. So kann
sich jeder auf der ganzen Welt über SSH mit
Ihrem Server verbinden Das ist es, was wir sagen.
Schauen wir uns einfach, du weißt schon, die praktische Sitzung an. Ich bin mir nicht sicher, ob es abgemeldet
wurde. Ja. Gib mir einfach eine Sekunde. In Ordnung, ich habe mich auf einem Server
angemeldet. Also, wenn ich genau dort zu EC Two
Instance gehe, dann sollte ich das Netzwerk
und die Sicherheit sehen können , dass Sie diese
Sicherheitsgruppe hier
haben. Wenn Sie jetzt
auf Sicherheitsgruppe klicken, sehen
Sie hier quasi mehrere
Sicherheitsgruppen. Also haben wir EC
Two Instance gestartet, richtig? Wenn Sie also sehen, dass es sich
um die laufenden handelt, sollte
ich die T Two Micro sehen. Diese Instanz hätte
eine Sicherheitsgruppe drauf. Wenn ich also einfach zur Sicherheitsabteilung gehe, werde
ich hier eine
Sicherheitsgruppe einrichten, sodass Sie sehen können, dass dies Name der Sicherheitsgruppe hier
ist und Sie können sehen, dass die
Sicherheitsgruppe hier für
eingehenden und ausgehenden Verkehr
zugewiesen ist hier für
eingehenden und ausgehenden Verkehr
zugewiesen Nun, ich glaube nicht, dass dies
die ist , die wir verwenden, um sie zu erstellen Ich bin mir nicht sicher. Ich denke, es könnte jeder
Fall sein, egal. Also werde ich dir eine
Standardversion zeigen, die hier drüben ist und die als Standard erstellt wurde. Und das erlaubt den gesamten Verkehr
als eingehende Regel, und das ist ausgehender
gesamter Dies ist ein klassisches Beispiel
für eine Standardsicherheitsgruppe, und die Sicherheitsgruppe beginnt
immer mit dem Wort
SG Ipind, die eindeutige ID der
Gruppen-ID Ihrer Sicherheitsgruppe Ich möchte Ihnen auch ein
komplexes Problem in Bezug auf
die Sicherheitsgruppe zeigen auch ein
komplexes Problem in Bezug auf
die Sicherheitsgruppe Standardmäßig verweigert die
Sicherheitsgruppe den gesamten Datenverkehr. Denken Sie also daran. Sie müssen den Verkehr
je nach Anforderung aktivieren. Wenn Sie also
über Sicherheitsgruppen sprechen, sprechen
wir über eine
der komplexen Gruppen
, die wir für
unseren Ubernty-Service konfigurieren Auch das ist nicht
Teil deiner Prüfung. Das ist nur, um sicherzustellen, dass
es viel einfacher ist, wenn Sie zur nächsten Stufe
übergehen , denn anstatt nur
für die Zertifizierung zu lernen, ist
es immer gut, auch für die Zukunft
zu
lernen , weil mir das
wirklich gefällt. Wir haben also etwas, das sich Steuerungsebene
und Cuberts
nennt , und
Rechenebenen-Uberts Ich kann tatsächlich sehen, dass ich
Instanzen
für Kubernetes konfiguriert habe und ich möchte die Kommunikation zwischen den Ubernts-Clustern und ich möchte Außerdem die
Cubont-Achse von meinem System sowie die Konsolenachse
für den für den Ich muss all
diese Dinge aktivieren, oder? Also, wie ich dir gesagt habe ,
ist
standardmäßig alles deaktiviert. Sie müssen
die Portnummern öffnen. Es ist, als ob Sicherheitsgruppen mehr oder weniger wie eine Firewall sind, was innerhalb
Ihrer Instanzen passiert. Wenn Sie sich also nur die Sicherheitsgruppenkonfiguration
für die Computerebene, also die
unkontrollierte Ebene, ansehen, werden Sie
eine bestimmte Konfiguration sehen ,
die bereits durchgeführt wurde Gehen wir eins nach dem anderen. Lassen Sie uns über die Rechenebene sprechen,
denn das tut uns leid Lassen Sie uns über
die Kontrollebene sprechen, die eigentlich
der Master-Knoten ist. Wenn Sie sich das ansehen,
gibt es hier acht
Berechtigungseinträge, die als Teil
dieser Steuerungsebene konfiguriert sind. Wenn Sie jetzt
über Regeln für eingehenden Datenverkehr sprechen, Regeln für eingehende Nachrichten
um die eingehende Anfrage den Server, dem diese Sicherheitsgruppe auf der
Steuerungsebene zugewiesen ist Wenn ich
diese Instanz zugewiesen habe, lassen Sie mich sie auf einer anderen Registerkarte öffnen Ich weise diese
spezielle Kontrollgruppe zu,
Sie wissen schon,
Kontrollgruppe, Sicherheitsgruppe,
und wenn Sie zu Sicherheit gehen, können
Sie sehen, dass ich
die Kontrollgruppe für meinen
Co-Guarants-Controller Sie wissen schon,
Kontrollgruppe, Sicherheitsgruppe, und wenn Sie zu Sicherheit gehen, können
Sie sehen, zugewiesen habe , der der Master-Server ist In dieser Situation erlaube oder
akzeptiere
ich Anfragen, die an den Server
kommen Einer ist der Port Nummer 22. Dies ist verpflichtend, sonst kann ich
SSSch nicht von meinem Windows-System
zum AW-Server ausführen und
auf diesen Server zugreifen Also hier können Sie
den IP-Bereich hier sehen. Das sagt Ihnen also, dass jeder, das heißt, alle IP-Bereiche
als Quelle,
Verbindungen zu dieser
speziellen Sicherheitsgruppe akzeptiert , die hier aufgeführt ist, nur Portnummer 22. So wichtig, ähm, es geht hier nicht nur um
die IP-Adresse, sondern auch um den
Portbereich. Was so ziemlich alles ist, was
du vermitteln musst. Manchmal, wenn Sie
Standarddienste
wie SSSH wählen , okay? Sie müssen keine
Portnummer angeben, da
SSSH standardmäßig auf 22 sucht Es gibt also diesen 02024, bei dem tatsächlich ein Protokoll einer
Portnummer zugewiesen ist Also werden wir
das als Protokoll bezeichnen, und wir werden es
als Portnummer bezeichnen Also werden wir das zuweisen
und eine IP angeben, die
besagt, dass dies
der IP-Adressbereich ist ich akzeptieren möchte. Okay. Nun, lass uns über
diese hier drüben sprechen. Lassen Sie uns zuerst
alles irgendwo beenden , und dann kommen
wir dorthin. Jetzt habe ich noch zwei Artikel hier
drüben, nur 6443. 6443 ist Ihr
Cluster-Kommunikationsport, und der wird auch überall
abgehört 30.000 bis 32.000 sind
eine Knoten-Port-Nummer. Wenn also Cbonnts auf einem System
läuft und Sie
die Anwendung durchsuchen möchten, die auf
dem
Cubone Ties Node läuft, werden
wir sie über
diesen Bereich von Portnummern
, 30.000
bis 32.007 67, dem Internet zugänglich machen diesen Bereich von Portnummern
, 30.000 Das wird NodePort genannt. Wenn wir diese Art von Port verwenden, möchte
ich die Anwendung sehen oder durchsuchen ,
die auf
dieser speziellen Kubernetes-Notiz läuft dieser speziellen Kubernetes-Notiz Damit ich ihn von meinem
Desktop aus von meinem Laptop aus aufrufen kann,
muss mir ihn von meinem
Desktop aus von meinem Laptop aus aufrufen kann, diese
Portnummer angezeigt werden, damit ich den Dienst, der auf Kubernetes läuft
, tatsächlich durchsuchen
kann auf Kubernetes läuft
, Ich muss dies sowohl
auf der Notensteuerungsebene
als auch auf der
Rechenebene verfügbar machen, da meine Worker Notes
tatsächlich
auf der Rechenebene ausgeführt werden tatsächlich
auf der Rechenebene ausgeführt Dass der Slave Notes
, auf dem
mein Cubertpot tatsächlich läuft , auf diesem
laufen wird . Das
muss ich aufdecken. Aber manchmal muss man es
nicht
der ganzen Welt zeigen, oder? Wie zum Beispiel hier drüben. Das bedeutet also
, dass diese IP-Adresse eng
innerhalb des AWS-Netzwerks verankert
ist. Alles innerhalb des
AWS-Netzwerks, da AWS diesen IP-Adressbereich allen
internen Servern
zugewiesen
hat . Also hier gebe
ich hier einige benutzerdefinierte
Portnummern an,
wie ICMP, die andere Server
untereinander
anpingen Und wieder müssen Sie ICMP
aktivieren, sonst können
Sie es nicht pingen,
obwohl es erreichbar wäre, aber die PIN funktioniert nicht Okay, weil ICMP deaktiviert ist. Ebenso müssen
Sie solche
Portnummern aktivieren, wie zum Beispiel
hier, ich aktiviere
UDP-Portnummern hier, und das sage ich, sie sollten sich innerhalb
des AWS-Netzwerks indem Sie die lokale IP-Adresse angeben, die private
IP-Adresse für AWS Das bedeutet also, dass Sie es
für die ganze Welt konfigurieren können. Sie können es
für das lokale Netzwerk konfigurieren, was in Ihrem Subnetz der Fall
ist Sie können
es auch für jede Art
von IP-Adressbereich oder
-quelle konfigurieren von IP-Adressbereich oder
-quelle Sie können es tatsächlich für die IP-Adresse
Ihres Laptops
konfigurieren ,
denn wenn Sie auf das Element Nu ClkonEdit
klicken, versuchen Sie, hier
eine Regel hinzuzufügen. Ich werde es dir sagen. Also, wenn du
einfach SSH auswählst, richtig, es wird dir hier drüben sagen, meine IP-Adresse wird
auch hier rüber kommen Also, wenn du einfach danach suchst. Ähm, weil meine IP, du kannst sehen, dass meine IP ist. Das ist also meine IP-Adresse , die ich derzeit auf dem System
verwende, und Sie können sehen, dass die
IP-Adresse hier angegeben ist. Leider habe ich
eine dynamische IP-Adresse,
was bedeutet, dass sich meine IP-Adresse
jedes Mal ändert, wenn ich mein Modem oder das System neu starte mit einem VPN verbinde oder
mich Es ist also nicht wirklich
empfehlenswert, eine
IP-Adresse anzugeben, da es sich um IP-Adresse anzugeben, da es sich eine öffentliche IP-Adresse handelt und sich
alles ändern kann. Sie müssen also einfach
weiter ändern. Das ist der Grund, warum wir Nullpunkt
Nullpunkt Nullpunkt Schrägstrich Null Es bedeutet also überall. Das heißt also
im Grunde überall. Sie haben also eine Option wie diese und wählen diese aus und das bedeutet
im Grunde
überall IP-Version vier oder irgendwo IP-Version sechs. Also, genauso wählst du das. Ich hoffe, diese zusätzlichen
Informationen waren hilfreich für Sie, um dies
etwas
genauer zu verstehen . Wenn Sie
Fragen haben, hinterlassen Sie diese
im Fragenbereich. Wir
sehen uns beim nächsten.
41. Laborsicherheitsgruppe Teil 2: Hallo Leute, willkommen zurück
zum nächsten Video. Also hier machen wir
weiter mit der Sicherheitsgruppe hier drüben. Wir haben also zuvor
eine Verbindung zugelassen. Nun, die
Frage
wäre natürlich, wenn Sie eine Verbindung
ablehnen wollen, was werden
Sie dagegen tun? Wenn Sie also vorhaben, eine Verbindung
zu verweigern, müssen
Sie Ihre Zustimmung
nur zu einer strengen Regel machen. Also füge
ich hier zum Beispiel ein benutzerdefiniertes hinzu, und hier sage ich nur,
dass ich ein Protokoll benötige, was auch ein benutzerdefiniertes
Protokoll ist. Also sag einfach TCP-Protokoll. Und dann kann ich es mir leid tun, sagen
wir TCP-Protokoll. Und hier gebe ich eine Portnummer namens
2525-Portnummer an. Ich möchte also Verbindungen zu
einer bestimmten
Personengruppe verweigern und die Verbindung zu einer
bestimmten Personengruppe
ermöglichen Wie ich Ihnen bereits gesagt habe, können
Sie das tatsächlich als
Teil Ihrer Sicherheitsgruppe tun. Es gibt keine ausdrückliche
Möglichkeit, Menschen zu verleugnen. Es gibt keine Möglichkeit, dass Sie Personen
ausdrücklich den Zugriff auf Ihren
Dienst verweigern Sie können jedoch angeben, wer
darauf zugreifen kann . Der Rest
wird standardmäßig verweigert Sie
müssen hier also nicht wirklich
eine Ablehnungsliste erwähnen , denn wenn
diese Personen
hier nicht Teil
Ihrer speziellen
IP-Adressliste sind , werden
sie standardmäßig verweigert Es könnte also eine
knifflige Frage geben. Ist es Ihnen also möglich
,
bestimmte Benutzer als
Teil Ihrer Sicherheitsgruppe abzulehnen ? Zwar gibt es in der Sicherheitsgruppe
keine spezielle Option wie Verweigern, aber standardmäßig
ist es Verweigern, also ja. Sie können eigentlich nur angeben,
wer wahrscheinlich auf
Ihre bestimmte
Portnummer für
Ihre Instances zugreifen Ihre bestimmte
Portnummer wird, auf
die die Sicherheitsgruppe
angewendet wird. Also dem Rest der Leute
wird es natürlich verweigert werden. Das ist also die Antwort. Okay? Also so können sie dir Fragen stellen. Sie definieren also eine Regel, die bestimmte
Portbereiche von
IP-Adressprotokollen
erlaubt oder verweigert , okay? Sicherheitsgruppen sind statusbehaftet,
was bedeutet, dass der eingehende Verkehr zugelassen
wird, der entsprechende
ausgehende Verkehr
wird automatisch wird Das ist also im Grunde das, was
Stateful-Status bedeutet. Also, was das bedeutet, lassen Sie mich das noch einmal
umformulieren Wenn Sie internen Verkehr zulassen
, wirkt sich
das tatsächlich auch auf
Ihren ausgehenden Datenverkehr aus,
und Ihr ausgehender Datenverkehr wird im Grunde so eingestellt
, und Ihr ausgehender Datenverkehr wird im Grunde so eingestellt der ausgehende Verkehr auf natürliche Weise zugelassen wird, sodass dieser Verkehr
nach außen an die spezifische
IP-Adresse oder Reihe
von IP-Adressen, die Sie angegeben haben, zugelassen die spezifische
IP-Adresse oder Reihe
von IP-Adressen, die von IP-Adressen Standardmäßig gelten die Regeln für ausgehenden Datenverkehr
überall. Der Server kann
mit jedem beliebigen Ort kommunizieren. Sie können sehen, dass die
Standardregel für ausgehende darin besteht, Verbindungen überall zuzulassen Die Verbindung
, die von
Ihrem Server nach draußen geht , ist
standardmäßig überall Aber selbst wenn Sie dies deaktivieren, werden
die Regeln für eingehende Nachrichten
tatsächlich
von den Regeln für ausgehende Nachrichten unterstützt Es ist also ganz natürlich
, dass Sie es nicht wirklich spezifizieren
müssen , weil es statusmäßig
ist Okay. In einem typischen Anwendungsfall können
Sie
diese Art von
Sicherheitsgruppe also verwenden ,
wenn Sie
eine
Sicherheitsgruppe so konfigurieren, dass sie nur
auf eine
bestimmte IP-Adresse beschränkt ist eine
Sicherheitsgruppe so konfigurieren, dass sie nur
auf , wie z. B. die VPN-Adresse Ihres
Unternehmens, sie nur Datenverkehr
wie HTTP und HTTPS zulässt, und Sie können auch
genau darauf eingehen. Sie können also nur
HTTP und HTTPS zulassen. Das können Sie auch hier tun. Wenn Sie also hier eine
Regel hinzufügen, können
Sie auch nach HTTP
suchen. Und HTTPS. Du musst hier zwei
Regeln angeben. Also eins für HTTP, 15 HTTPS. Standardmäßig können Sie sehen, dass die Portnummern hier
ausgewählt wurden. Sie können
diese Portnummern also nicht wirklich ändern und
dann von überall aus zulassen. Sie können diese nur so konfigurieren, dass sie
überall und den Rest,
Sie wissen schon, alles TCP zulassen , und Sie können den,
Sie wissen schon, VPN-IP-Adressbereich Ihres Unternehmens Sie wissen schon, VPN-IP-Adressbereich Ihr
Netzwerkadministrator hätte also den IP-Adressbereich
Ihres Unternehmens, und Sie können diesen
IP-Adressbereich hier eingeben Also
kann jeder aus Ihrem Unternehmen tatsächlich auf
diese spezielle
Sicherheitsgruppe des Dienstes zugreifen , tut mir leid. Also das ist so ziemlich alles,
was ich in diesem Video behandeln möchte. Nochmals vielen Dank, dass Sie sich das angesehen haben. Wenn Sie Fragen haben, hinterlassen Sie diese im Fragenbereich.
42. Labs Sicherheitsprodukte von Drittanbietern: Ein Typ sprach zurück
zum nächsten PDO. In diesem PDO werden wir
über das
sogenannte Verständnis der Sicherheitsprodukte von
Drittanbietern sprechen ,
die als
Teil des AWS-Marktplatzes erhältlich sind Jetzt werden wir
die verschiedenen Arten der Verfügbarkeit oder
die
Sicherheitsprodukte
von Drittanbietern verstehen die verschiedenen Arten der Verfügbarkeit oder
die
Sicherheitsprodukte
von , die zusammen
mit Ihrer AWS-Sicherheit,
der integrierten Sicherheit, verwendet werden können mit Ihrer AWS-Sicherheit,
der integrierten Sicherheit, Nun, warum wir Drittanbieter
verwenden werden, um die Sicherheit
Ihrer bestehenden AWS-Sicherheit , die bereits vorhanden ist, Jetzt können Sie es für, ähm, zusätzliche
Überwachung im Hinblick auf die
Verhinderung von Netzwerkanwendungsdaten sowie für die
Einhaltung von Identitätsbestimmungen und Erkennung und Reaktion auf Bedrohungen durch
Dritte verwenden. Dies basiert auf
jahrelanger Erfahrung, in der der Drittanbieter tatsächlich
mit verschiedenen Produkten gearbeitet
hat und seine Produkte im Rahmen der Drittanbietersicherheit
auf
dem AWS-Marktplatz
vorgestellt werden Rahmen der Drittanbietersicherheit
auf
dem AWS-Marktplatz
vorgestellt Drittanbietersicherheit
auf
dem AWS-Marktplatz Wir werden
im letzten Teil dieses Videos
über die Demo sprechen . Es handelt sich
lediglich um eine kurze Demo darüber, wo Sie die
Sicherheitsprodukte
von Drittanbietern auf dem AWS-Marktplatz
finden AWS-Marktplatz Ich werde dir das zeigen. Aber dann werden wir mehr oder
weniger über jedes Konzept
sprechen, und wir werden
über die Produkte sprechen, mehr oder weniger wie einige Beispiele, auch das werde ich Ihnen geben. Lassen Sie uns über die
Netzwerksicherheit sprechen. Wie Sie wissen, haben wir verschiedene Sicherheitskonzepte
in Bezug auf Ihr AWS, was standardmäßig enthalten ist. Darüber hinaus können Sie
AW-Sicherheitsprodukte auf dem
Amazon-Marktplatz kaufen, z. B.
Produkte wie Firewalls, Intrusion Detection Systems Intrusion Prevention-Systeme zur Überwachung und Steuerung
Ihres Nun, das gibt Ihnen
einen etwas erfahrenen Überblick über die Produkte,
die von Herstellern
wie Checkpoint,
ähm, Sie haben Ebenso haben Sie eine Menge,
ähm, Sie wissen schon,
Software, die Ihnen
bei IDS und
IPS in Bezug auf
Einbruchmeldesysteme und Schutz helfen wird IPS in Bezug auf
Einbruchmeldesysteme und Schutz Einbruchmeldesysteme Ebenso haben Sie andere
Netzwerksicherheitsprodukte. Wir werden
das auch anhand der Demo überprüfen
, auf der Sie in diesem Video zu sehen
sein werden. Im nächsten geht es um
Anwendungssicherheit. Tools, die Anwendungen vor Sicherheitslücken
schützen, wie z. B. Web Application Firewall (VAF),
die bereits Teil der Anwendung ist, DDoS-Schutz und einmalige
Anwendungssicherheit meiste davon ist bereits
als Teil von AWS verfügbar, aber es besteht immer noch die Möglichkeit, auch
Sicherheitsprodukte von Drittanbietern zu
aktivieren Wie zum Beispiel
Trend Micro Deep Security als weiteres Produkt,
signalisiert das VAF, dass es ein anderes Produkt eines Drittanbieters handelt,
und dann können Sie
FI big IP Advanced WAF Espo verwenden FI big IP Advanced WAF Ich kombiniere die
jahrelange Erfahrung dieser Product Owner
und dann stellen sie ein
Produkt zusammen, das Sie verwenden können Auch hier wären die Lizenzierung und die Kosten getrennt,
und Sie müssen möglicherweise
etwas mehr dafür bezahlen ,
da Sie dieses
Produkt
direkt vom Anbieter kaufen werden . Und um
diese Produkte zu aktivieren, benötigen
Sie einen
Root-Benutzer, denn unabhängig davon ob ein Produkt einem Marketplace aktiviert oder ein
Abonnement aktiviert wird, muss
dies
von einem Root-Benutzer aus erfolgen. Lassen Sie uns nun über
Datenschutzprodukte sprechen. Jetzt sind die Lösungen für
Verschlüsselung, Schutz vor Datenverlust, Schlüsselverwaltung und
Sicherheitsspeicherung bereits Teil
Ihrer AW-Services. Einige davon haben wir in unserer Schulung besprochen. können Sie sich auch für
einen externen
Sicherheitsanbieter entscheiden einen externen
Sicherheitsanbieter In dieser Situation können Sie sich auch für
einen externen
Sicherheitsanbieter entscheiden, den Sie als Teil von AWS
konfigurieren können . Und das sind einige Beispiele, die
ich Ihnen zum Thema Semantic Data Loss Prevention,
Talus Cyber Trust, Das ist also ein anderes Unternehmen. McCafe-Schutz vor Datenverlust. Ebenso haben Sie Unternehmen,
die Ihnen zusätzlich zu dem Datenschutz was AWS bereits bietet,
Datenschutz bieten können Identitäts
- und Zugriffsmanagement angeht, verfügen
wir über eine
Multifaktor-Authentifizierung mit nur einem Vorzeichen, ebenso für die
Verwaltung
privilegierter Zugriffe Sie können auch
Drittanbieter wie
OCTA, Ping Identity verwenden . Ebenso können
Sie die Software von
Drittanbietern und
dann deren Anbieterprodukt
in Verbindung mit dem verwenden ,
was Sie in Bezug auf
Ihr vorhandenes
Identitätszugriffsmanagement in AOBS haben Ihr vorhandenes
Identitätszugriffsmanagement in Was die Zusammenstellung
und Verwaltung angeht, hier drüben. Also Tools, die helfen,
Kompilierungsanforderungen
wie GDPR, HIPAA,
SOC 2 und mehr zu verwalten Kompilierungsanforderungen
wie GDPR, HIPAA, , sodass Sie mit
den Informationen arbeiten oder bei der Sie können auch
mit Plunk Cloud,
Audit Board und Quality Compliance Suits arbeiten Audit Board und Quality Compliance Suits Ebenso sind
Produkte von Drittanbietern erhältlich, die Sie im AWS-Markt
abholen können Wie das nun funktionieren wird
, hängt von den Produkten
ab. Jedes Produkt wird also
eine andere Arbeitsweise haben und es mit seinen
Optionen und so
umgehen,
was sich für jedes Produkt ändert, was bei der Demositzung auch schnell zum
Einfügen passt. Das letzte Problem, das wir uns als Teil des
Sicherheitsprodukts
eines Drittanbieters auf ganzer Linie ansehen Sicherheitsprodukts
eines Drittanbieters auf werden, ist Ihre
Bedrohungserkennung und -abwehr. Jetzt Sicherheitsprodukte
zur Erkennung und Abwehr potenzieller Bedrohungen
wie Antivirensoftware, Endpoint Detection and
Response und SIEM-Lösungen, die
erweiterte Sicherheit in Bezug
auf die Erkennung einer Bedrohung und die
Reaktion auf eine Bedrohung ermöglichen , sowohl auf Serverebene als
auch auf Service-Ebene auf W. Jetzt können Sie Produkte von
Drittanbietern
wie CrowdStrike Falcon verwenden . Sie können
Splunk Enterprise Security verwenden. Ebenso verfügen Sie über mehrere
Produkte, die
Sie tatsächlich gegen die Bedrohung einsetzen und diese abwehren
und auf die Bedrohung reagieren nun die Vorteile der
Verwendung von
Sicherheitsprodukten von Drittanbietern betrifft , so besteht darin, dass Sie über eine Lösung für
die schnelle
Bereitstellung verfügen , die vorkonfiguriert und für ABS
optimiert ist, da diese Produkte
für AWS entwickelt wurden, das auf dem Markt erhältlich ist, und von AWS vertrauenswürdig
und zugelassen ist Das ist der Grund,
warum es da ist. Dann haben Sie eine nahtlose
Integration mit Ihren bestehenden Produkten
auf AWS wie
Cloud Trial, Cloud Watch, Guard Duty und Security Hub,
sodass Sie tatsächlich einen
Überblick über alle Produkte
von
Drittanbietern aus dem Security Hub haben , Ihnen eine
allgemeine Beschreibung gibt. Dann haben Sie das Modell „
Pay-as-you-go“. Da es
einige Produkte gibt, für
die auch eine
30-Tage-Testversion verfügbar ist, zeige
ich Ihnen das. Und das auch, wenn Sie den
monatlichen Stundenplan verwenden müssen, oder Sie können sogar ein
AVO-Abonnement abschließen je nachdem, welches Produkt
Sie auswählen Sie werden auch einen
Herstellersupport erhalten. Also für Produkte von
Drittanbietern, sodass Sie sie
per E-Mail oder über ihren
Support-Chat-Kanal erreichen
können . Im Grunde bieten sie also
einen umfassenden Support für die Produkte, die sie Ihnen
verkaufen, weil
Sie für das Produkt bezahlen, was auch ihren
Support beinhaltet. Das ist so ziemlich das, worüber ich sprechen
möchte. Lass uns hier einfach einen
Marktplatz einrichten. dem AWS-Marktplatz können Sie also Deploy-Software
kaufen. Also jetzt hier drüben, ich habe das Abonnement hier
verwaltet. Ich habe kein
Abonnement, wie Sie sehen können. Jetzt kann ich auf
Produkte entdecken klicken und ich kann hier
Produkte entdecken und dann hier
nach verschiedenen Arten von
Produkten suchen . Sie haben also den
Katalog hier, dem es um verschiedene
Arten von
Produkten geht , und Sie kennen die Herausgeber und die
Liefermethode hier. Sie haben die Preismodelle. Sie haben Software,
die kostenlos ist, was bedeutet, dass sie zu Demo-Zwecken oder
ähnlichem
zur Verfügung gestellt wird . Sie beginnen also kostenlos und werden
dann irgendwann bezahlt. Dann sind einige nutzungsabhängig, und Sie können die
Preiseinheit basierend auf Benutzern,
Host, kundenspezifischen Einheiten und Reifen sehen , und dann haben Sie den Anbieter in den
Sicherheitsprofilen hier. Zertifikate angeht, haben
Sie die Zertifikate
hier, wo es sich um
ein Konformitätszertifikat handelt , oder es könnte sich um die
Besonderheiten von AWS handeln, zum Beispiel
Sicherheitsspezialität hier drüben, was Ihnen tatsächlich
die sicherheitsrelevanten Dinge zeigt , über
die wir gerade gesprochen Sie sehen hier den
Trend Cloud One, bei dem es im Grunde um
die CN APP handelt, die
in der Lage ist ,
die gesamte Cloud-Umgebung zu schützen die gesamte Cloud-Umgebung Dies ist eine Sicherheit , die auch in die
D Wop-Tools integriert ist Sie haben
hier eine andere Art von
Sicherheitsplattform namens Cloud
Infrastructure Security, die eine Vielzahl
von Sicherheitssignalen korreliert, um eine echte Infiltration in Form
von Angreifern nachzuverfolgen , die in Ihr System eindringen oder in dieses
eindringen Sie haben auch Datadog Pro. auf SAS basierende einheitliche
Beobachtungs- und Sicherheitsplattform bietet volle
Transparenz Sie haben auch ACA-Sicherheit. Ebenso stehen Ihnen hier so
viele Sicherheitsfunktionen zur Verfügung. Palo Alto, das ist also etwas, das wir bereits
besprochen haben Sie können also sehen
, dass es eine kostenlose
30-Tage-Testversion für Paige gibt,
und Sie können sehen, dass es sich um
eine Cloud-Firewall der nächsten
Generation handelt,
die die beste
Netzwerksicherheit ihrer Klasse bietet eine kostenlose
30-Tage-Testversion für Paige gibt,
und Sie können sehen, dass es sich um und Sie können sehen, dass es sich eine Cloud-Firewall der nächsten
Generation handelt, die die beste
Netzwerksicherheit ihrer Klasse Die nutzt
künstliche Intelligenz und maschinelles Lernen um Zero-Data-Exploit
und all diese Dinge zu stoppen Es hat eine Bewertung
von einem neuen Benutzer bekommen, glaube
ich, kein zufriedener
Kunde, glaube ich. Ebenso gibt es
Sicherheitsmaterial, in dem es darum geht. So können Sie
es sich ansehen und Sie können sich hier auch
einige
Spezialisierungen von Managed Security Services ansehen hier auch
einige
Spezialisierungen von Managed Security Services Es gibt vier davon hier
drüben, die Deep Watch. Es gibt also auch so
viele interessante Sicherheitsanwendungen von
Drittanbietern. Aber wenn Sie mich fragen würden, sollte ich mich wirklich für einen Drittanbieter entscheiden? Das
hängt ganz von Ihrer Bewerbung ab. Wenn Sie mit der von AWS
bereitgestellten Standardsicherheit nicht zufrieden sind, können
Sie sich jederzeit
für
eine Drittanbietersicherheit entscheiden , die
Ihnen zusätzlich mehr Sicherheitsaspekte und Vorteile bietet, wenn Sie
sich für diese entscheiden. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Ich hoffe, dass es
für Sie hilfreich war, es zu verstehen. Wenn Sie also Fragen
dazu haben wissen Sie,
wie Sie diese beantworten können. Meist ginge
es bei den Fragen um alles. Sie werden Sie nach
Sicherheitsprodukten von Drittanbietern fragen Sicherheitsprodukten von Drittanbietern Möchte ich dieses
zusätzliche Maß an Sicherheit haben? Ist es für AWS möglich, einen Drittanbieter zu
integrieren. Also fragen sie dich vielleicht so
etwas wie O V. davon. Sie würden nicht auf jedes dieser Dinge näher eingehen, aber sie fragen Sie vielleicht, sie
werden Sie nicht nach
den Beispielen fragen,
aber sie werden Sie nach, ähm, Sie wissen schon, einem bestimmten Service
fragen und sagen, ich möchte ein maßgeschneidertes,
ähm, Sie wissen schon, maßgeschneidertes Sicherheitsprodukt eines
Drittanbieters,
etwas, das wieder aktiviert wird. Ebenso werden Sie Fragen zu
diesem speziellen Thema erhalten . Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Wir sehen uns im nächsten.
43. Vertrauenswürdiger Berater von Labs: Hey, Leute, willkommen zurück
zum nächsten Video. In diesem Video
werden wir
über AWS Trust Advisor sprechen . Jetzt ist es wichtig,
dass Sie ein
wenig darüber verstehen. Ein
Trust-Advisor-Service in Echtzeit, der Sie bei der Optimierung der
AWS-Umgebung unterstützt , indem er Ihnen Empfehlungen zu
Sicherheit und Kosten-Leistung gibt. Trusted Advisor gibt
Ihnen all diese Art von Empfehlungen
in Echtzeit zu Ihren Services, die Sie derzeit nutzen. Wenn Sie nun wissen,
wie es funktioniert, überwacht
der Monitor Ihre AWS-Umgebung und bietet Anleitungen zur
Verbesserung der Sicherheit, einschließlich Empfehlungen zur
Aktivierung von Multifaktor-Authentifizierung, Sicherheitsgruppen
und IAM-Richtlinien Es ist wie ein Tool, das als
Service verwendet wird. Sie können also in dieser
Architektur selbst sehen, der verrostete vertrauenswürdige
Berater hier auf all Ihre Dienste zugreift und Ihnen ein Gesamtbild Ihrer
Dienste gibt und Ihnen, ähm, den Vorschlag dafür
oder eine Empfehlung dafür Es handelt sich also um einen Service, Sie müssen
also nur nach einem vertrauenswürdigen Berater
suchen Das sollte jetzt
als Service angeboten werden, wie Sie dort sehen
können. Also habe ich
es der Einfachheit halber bereits geöffnet. nun die Empfehlung angeht, können
Sie sehen, dass die vertrauenswürdige
Empfehlung darin besteht , dass
keine Aktionen für Sie empfohlen Es hat Null untersucht, und es ist grundsätzlich
ausgeschlossen,
Sie wissen schon, eingeschlossen
ausgeschlossen, ich meine, ich habe noch nicht einmal irgendwelche Prüfungen durchgeführt Jetzt können Sie also
tatsächlich alle Schecks herunterladen, wodurch alle erforderlichen
Schecks gelöscht werden. Jetzt können Sie sehen, dass Sie Ihren AW-Supportplan
aktualisieren , um alle Trusted
Advisor-Checks zu erhalten. Derzeit habe ich
den kostenlosen Tarif, sodass derzeit keine
Überprüfung erforderlich ist. Und um das zu tun, muss
ich den Plan
auf eine Stufe hochstufen , auf der
es einen vertrauenswürdigen Berater gibt. Das ist jetzt also für einen
vertrauenswürdigen Berater. Sie können sehen, dass
der Basisplan,
auf den ich vertraue,
Empfehlung, nur Servicecodes und die Sicherheitsprüfung des
Kurses beinhaltet. Aber wenn Sie sich für einen Entwickler
oder ein Unternehmen oder ein Unternehmen entscheiden , haben
Sie hier eine ganze Reihe von Prüfungen und nur Dienste, die für
Basisentwickler mehr und nur Dienste, die für
Basisentwickler mehr
oder weniger dieselben sind. Ich habe jetzt
alle Schecks heruntergeladen, aber wenn ich die Schecks aktualisiere,
schauen wir mal, ob irgendwas
davon auftaucht. Derzeit gibt es keine Aktion. Lass uns einfach auf Info klicken. Ich sehe hier nichts. Lassen Sie uns einfach über das
Kosten-Nutzen-Verhältnis sprechen. Hier
ist das Kosten-Nutzen-Verhältnis eine dieser Empfehlungen. Jetzt sehen Sie wieder, dass
dafür ein Upgrade erforderlich ist, sodass es für uns nicht verfügbar ist. Es überprüft also
Ihre Nutzungsfähigkeit Ihre Kosten für jeden der Dienste und
berät Sie auf dieser Grundlage. Trusted Advisor
empfiehlt Ihnen daher möglicherweise,
ungenutzte Ressourcen zu löschen oder Kapazitäten zu
reservieren, falls
festgestellt wird, dass diese nicht effektiv
genutzt werden. In Bezug auf die
Leistungsprüfung ist es wieder dasselbe. Es wird
die Leistung
Ihrer Anwendung überprüfen, z. B. den Durchsatz
bereitstellen, überlastete
EC-2-Instances
und bisher nicht
ausgelastete Instanzen
überwachen und Ihnen nur das geben, bisher nicht
ausgelastete Instanzen dass ich
denke, dass der Kostenoptimierer Ihnen die denke, dass der Kostenoptimierer Ihnen nicht ausgelasteten Ressourcen zur Verfügung stellt,
und die Leistung gibt
Ihnen die überlasteten
Ressourcen, sodass Sie den müssen Die CPU oder der Festplattenspeicher. Ähm, in Bezug auf die
Sicherheit hier drüben, also das ist jetzt etwas
, das für uns verfügbar ist. Jetzt können Sie sehen, dass das etwas
ist, das kostenlos ist. Jetzt hier, Sicherheitsgruppe, sie denkt sich hier eine
Ausnahme aus. Es heißt also, dass 12 von 27 Sicherheitsgruppen uneingeschränkten Akteuren Zugriff auf
bestimmte Portnummern gewähren Das ist also ein Sicherheitsrisiko, und es gibt
Ihnen tatsächlich diese Informationen Also zum Beispiel 80, 25, 443 und 465. Also das ist etwas, das grün
ist, was okay ist. Und hier ist der rote, der besagt
, dass die
Sicherheitsgruppe an
die Ressourcen angehängt ist , die
uneingeschränkten Zugriff auf Ports 2021 22 bieten die Ports 2021 22 bieten. Das ist Ihre
SSH-Portnummer, ich denke, diese ist Und es gibt noch andere
Portnummern, die wir aktiviert haben. Es hat sich damit befasst
und uns mitgeteilt, dass dies eine rote
Sicherheitswarnung ist , dass dies ein Problem sein könnte. Jetzt erhalten Sie
hier auch eine Liste der eine Liste der
Regionen, in denen diese Portnummern jetzt aktiviert sind. Das ist komisch. Ich habe AP South
nie benutzt. Jetzt können Sie sehen, dass
es mir gegeben hat diese spezielle Sicherheitsgruppe diese 22 in dieser Gruppe geöffnet
hat. Das ist ein
Sicherheitsrisiko
für mich , weil ich diese spezielle Region noch nie
benutzt habe. Jetzt können Sie die anderen
Sicherheitsgruppen hier sehen, die auftauchen und sagen,
Sie sollten 22 geben,
aber dann wollen sie, dass Sie bei den geistigen Eigentumsrechten spezifisch sind, aber dann wird es für mich
chaotisch,
die IPR von meinem System zu bekommen , weil
ich nicht von einer Organisation verwende Wenn ich von
einer
Organisation verwende, die bestimmte Schutzrechte hat , weil ich der Organisation beitrete . Ich verwende ein VPN oder so. Von dort aus
greife ich dann auf den AWS-Server zu. Aber dann mache ich das nicht,
sodass es
für mich chaotisch wird, wenn ich
jedes Mal
meine fest codierte IP-Adresse angeben müsste jedes Mal
meine fest codierte IP-Adresse angeben Das ist also etwas, das für mich
keine gute Sache ist. Jetzt gibt es auch noch
andere Dinge, die es
überprüft, wie EBS,
RDS, S Three Buckets,
MFA, was eine
Multifaktor-Authentifizierung für Root-Benutzer ist Es ist da. Es gibt noch andere
Dinge, für die hier wirklich
ein Upgrade erforderlich ist,
damit Sie diese
Aktionspunkte hier überprüfen Es
gibt eine Menge Prüfungen. Was die
Fehlertoleranz angeht, glaube
ich nicht, dass sie
für uns verfügbar ist, also haben Sie sie. Da. Jetzt gibt es hier
die Service-Limits wie die
Startkonfiguration von Auto Scaling, wir haben noch kein Auto Scaling abgeschlossen. Wir haben hier noch kein
Dynamo-DV gemacht. Das alles überprüft also
Ihre Service-Limits, ob Sie das dafür zugewiesene
Kontingent erreichen dafür zugewiesene
Kontingent Nun ist das Kontingent im Grunde ein
bestimmter Schwellenwert, den Sie jedem der Dienste zuweisen
würden Standardmäßig sind es 80 Prozent. Verwenden Sie also mehr als das, dass es überprüft. Und eine Sache, die herauskommt, ist die Nutzung des
Lambda-Code-Speichers. Das ist also irgendwie nicht in unserem Plan
enthalten. In Bezug auf die betriebliche
Exzellenz dient
diese Überprüfung als
Empfehlung zur Verbesserung der
Betriebsbereitschaft Ihrer AWS-Ressourcen. Das gibt
Ihnen also im Grunde genommen , dass dies
eine der Ressourcen ist. Auch hier ist es nicht Teil
unseres speziellen Plans. Ordnung. Also das
ist so ziemlich dein vertrauenswürdiger Berater hier drüben. Jetzt können Sie sehen, dass wir den vertrauenswürdigen Berater
aktiviert haben. Sie können die
Benachrichtigung auch
hier konfigurieren . Ich glaube, es wird
SNS für die Benachrichtigung Sie können hier also
Kontakte hinzufügen,
und dann wird der
Empfänger im Grunde genommen über und dann wird der
Empfänger im Grunde genommen einen der
vertrauenswürdigen Berater
informiert Das ist so ziemlich das, was ich in diesem Video behandeln
möchte. Danke, Leute, für
eure Zeit und Geduld. Jetzt können Sie sehen, dass die
Empfehlung ins
Bild gekommen ist , wenn wir einfach nach dem Zufallsprinzip
auf jedes einzelne klicken, und Sie können diese
eine Empfehlung
zu unserer
Sicherheitsgruppe hier sehen . Nochmals vielen Dank
für Ihre Geduld und Zeit. Ich werde
dich am nächsten sehen.
44. Labs AWS CLI-Betrieb mit mehreren Befehlen: Hey Leute, wir kommen
zurück zum nächsten Video. Und in diesem Video werden wir über
die Benutzererstellung sprechen Damit Sie von einem beliebigen CLI-Modus
Ihres AWS aus darauf zugreifen
können, müssen Sie dafür auf
einen Benutzer zugreifen. Ich werde Ihnen von dem
Befehl erzählen, den Sie verwenden müssen , um
auf den Benutzer zuzugreifen, aber zuerst
müssen wir einen Benutzer erstellen. Und gib ihm den Zugangsschlüssel. Access Key
können Sie nun von
Ihrer CLI aus auf Ihren AWS-Service zugreifen Mit Access Key
können Sie nun von
Ihrer CLI aus auf Ihren AWS-Service zugreifen
, der hier läuft. Dafür müssen
Sie einen IAM-Benutzer erstellen, also öffnen Sie IAM einfach hier. Ich habe hier bereits einen Benutzer
namens Dev Ich werde diesen Benutzer
nicht verwenden Nun, hier gibt es zwei Optionen Sie können einen Benutzer erstellen und dann können Sie, Sie wissen schon, einen
Zugriffsschlüssel für diesen Benutzer
erstellen, und Sie können ihn der AWCLI zur Verfügung stellen Aber wenn es eine Anforderung gibt
, dass Sie
um den Zugriffsschlüssel
Ihres Root-Benutzers geben müssen um den Zugriffsschlüssel
Ihres Root-Benutzers In dieser Situation, wenn Sie ein
verwaltungsorientiertes Skript ausführen, bei dem
Sie den Zugriffsschlüssel des verwaltungsorientiertes Skript ausführen, bei dem Root-Benutzers benötigen, können
Sie das auch tun.
Es wird jedoch nicht empfohlen, Root-Zugriffsschlüssel nicht zu
verwenden, aber immer noch für Gelegenheiten, z. B.
wenn Sie viel Kommandozeilen-Scripting durchführen und Konten organisatorisch
hinzufügen
möchten , wenn Sie ein
verwaltungsorientiertes Skript ausführen, bei dem
Sie den Zugriffsschlüssel des
Root-Benutzers benötigen, können
Sie das auch tun.
Es wird jedoch nicht empfohlen, den Root-Zugriffsschlüssel nicht zu
verwenden,
aber immer noch für Gelegenheiten, z. B.
wenn Sie viel
Kommandozeilen-Scripting durchführen und Konten organisatorisch
hinzufügen
möchten,
und
Sie möchten irgendwelche benutzerbezogenen Aktivitäten ausführen
oder etwas, das
über das hinausgeht, was nur
Root-Benutzer tun können In diesen Situationen
müssen
Sie möglicherweise einen Zugriffsschlüssel
für Ihr Root-Konto erstellen. In diesem Fall können
Sie zu Ihrem
Benutzernamen gehen und mit der mittleren Maustaste auf
Ihre Sicherheitsanmeldeinformationen klicken. Sobald Ihre
Sicherheitsnachweise geladen sind, haben
Sie dort
eine Option nun diese Option verwenden, können
Sie den
Zugriffsschlüssel tatsächlich erstellen , indem Sie hier
klicken. Diese Option würde jetzt
direkt in Ihrem
Root-Benutzerkonto angezeigt. Deshalb
gehen Sie hierher und klicken auf
Sicherheitsanmeldedaten. Denken Sie daran, dass
ich mich bei
meinem Root-Konto angemeldet habe und dann diese Option verwenden muss. Wenn Sie sich mit
einem normalen Konto anmelden, können
Sie den
Zugriffsschlüssel für den Root-Benutzer nicht generieren. Dazu müssen Sie sich zunächst beim Root-Benutzerkonto
anmelden
und dann zu Ihrem Kontonamen und von dort aus zu Ihrem Kontonamen und den
Sicherheitsanmeldedaten
wechseln. Sobald Sie darauf klicken, ist
der Vorgang derselbe
, den ich
für einen normalen Benutzer durchführen werde. Jetzt werde ich hier einen Benutzer namens AWS Iphone CLI
erstellen . Das ist also ausschließlich für den
Zugriff auf die CLI-Schnittstelle vorgesehen. Hier
müssen Sie Admin,
ähm, keinen Zugriff auf die Verwaltungskonsole gewähren, sodass Sie sie einfach verlassen können, ohne
sie zu aktivieren. Sie klicken auf Weiter, und Sie
können es tatsächlich zu
einer bestehenden Gruppe hinzufügen oder Sie
können ihr direkt Richtlinien hinzufügen. Okay. Ich benötige also
Administratorzugriff, weil ich darüber
Administratorzugriff haben möchte. Also würde ich das auswählen und zum nächsten Bildschirm
gehen. Klicken Sie jetzt einfach auf Creates. Dies sollte dazu führen, dass ein Benutzer
erstellt wird. wurde kein
Zugriff Bisher wurde kein
Zugriff auf diesen Benutzer gewährt. Klicken Sie jetzt auf diesen Benutzernamen und dann erstellen wir den
Zugriff auf den Benutzer. Jetzt kann der Zugriff auf den Benutzer über die Admin-Konsole
erfolgen. die Admin-Konsole aktivieren, können
Sie das Passwort
für die Admin-Konsole aktivieren. Das werden wir für diesen Benutzer nicht verwenden, da dieser Benutzer
für den Befehlszeilenzugriff generiert wurde. Dafür müssen
Sie also einen Zugriffsschlüssel erstellen. Sie können also sehen, dass der
Zugriffsschlüssel für
programmgesteuerte Aufrufe wie AWS über die
AWS-CLI bestimmt ist programmgesteuerte Aufrufe wie AWS über die
AWS-CLI CLI ist also auch ein Teil davon. SDK ist auch ein Teil davon. Power Shell ist auch ein Teil davon. API-Aufrufe gehören also auch dazu. Ebenso haben Sie diese Artikel. Wenn Sie eine
dieser Methoden für
die Kommunikation mit AWS verwenden, müssen
Sie einen Zugriffsschlüssel erstellen. Wenn Sie
einen Zugriffsschlüssel erstellen, gibt es hier eine Option. Was ist die Verwendung dafür? Ich werde CLI verwenden, also habe ich diesen
speziellen Anwendungsfall
in diesem Szenario ausgewählt , akzeptiere die Lizenz,
akzeptiere leider die Empfehlung, gehe dann zum nächsten
und klicke dann auf Create Key, und dann solltest du den Zugriffsschlüssel
haben. Jetzt haben Sie mehrere
Möglichkeiten, dies zu tun. AWS-Konfiguration. Jetzt konfigurieren ist die Option für AWS, die Konfiguration für
einen bestimmten Zugriffsschlüssel vorzunehmen. Wenn Sie jetzt die Eingabetaste drücken, werden
Sie nach
einer Zugriffsschlüssel-ID gefragt. Jetzt kopiere ich die
Access Key-ID hierher
und füge dann
das Zugriffspasswort hier ein. Und dann ist
die Region der USA Ost. Wenn Sie sich also nicht sicher sind,
in welcher Region Sie arbeiten, gehen Sie zu Ihrer Startseite. Sie werden hier North
Virginia sehen, und Sie werden den
US-Bindestrich East Bindestrich eins sehen Also das Gleiche gebe
ich hier an,
US-amerikanischer Bindestrich, östlicher Bindestrich Und das
Standardausgabeformat ist JSON. Sie können also sowohl JCN
als auch einfach Enter eingeben. Okay. Also standardmäßig
wird es
dich nicht nach diesen beiden fragen , und
es wird auch nicht kommen. Ich habe das schon getestet. Deshalb kommt es.
Da wird es nein, nein, nichts dergleichen sagen. Ich werde sagen. Also hier
gibst du US Iphone Diphen eins Hier gibst du Jason. Und dann OK, äh, du wirst tatsächlich anfangen zu sehen , dass
die Artikel auftauchen, ich meine Hier müssen Sie also keine ID oder so
etwas
angeben , weil
Ihre Schlüssel-ID eindeutig genug ist Es wird wissen, dass es den
Authentifizierungscode für dieses
spezielle Konto selbst hat , sodass Sie sich darüber keine Gedanken machen
müssen. Was Sie jetzt tun
können, ist, dass Sie sich tatsächlich
bei diesem Benutzer angemeldet haben
, den Sie gerade erstellt haben. Wenn Sie IM verwenden, müssen
Sie auf Fertig klicken, dieses Passwort ist weg. Okay? Also lass es so wie es ist. Gehen Sie einfach zu diesem Benutzernamen und
klicken Sie auf diesen Benutzernamen. Dann werden Sie sehen, welche Art von Erlaubnis Sie
für diesen Benutzer haben. Das heißt, Administrator ist die
Richtlinie, die wir ausgewählt haben. Es wird also die Richtlinie geladen. Geben Sie ihm
erneut Zugriff darauf. Okay, lass es laden. Okay, Sie können den
Administratorzugriff sehen. Sie nun
Administratorzugriff haben, werden
wir einige Aktionen
in S Three Bucket ausführen. Lassen Sie uns also zuerst den Bucket
S Three öffnen. Das ist das Einfachste, was
wir auf dieser Ebene tun können. Okay? Also werden wir eine Datei hochladen, wir erstellen eine Datei und laden
sie in einen der Buckets Sie haben also alle drei Buckets hier
drüben, Test-Bucket. Wenn Sie noch keinen
Bucket haben, erstellen Sie einfach einen Bucket. Erstellen Sie einfach einen Bucket namens
Test-Bucket mit Ihrer ID. Und sobald Sie
den Test-Bucket haben, werden
Sie sehen, dass hier
keine Datei vorhanden ist. Sie können also Befehle
wie einfache Befehle verwenden, wie zum Beispiel,
um die
Buckets auf Ihrem S drei aufzulisten Sie haben hier also drei
Buckets, also können Sie AWS S Three,
den Servicenamen LS, den Servicenamen Hier werden also einfach die Buckets aufgelistet, die Teil Ihres Amazon S
Three Jetzt hast du drei
Eimer hier drüben. Nun, was bedeuten
diese drei Buckets wir nehmen
für dieses Beispiel einen Test-Bucket Wir werden
hier eine Datei namens demo, also cat Demo, erstellen. Es tut mir leid. Demo, damit werden Elemente in diese Datei
geschrieben. Das ist eine Demo-Datei. Control D, nachdem Sie die Eingabetaste gedrückt haben, geben Sie
einfach Control D. Oder
Sie können auch eine VI-Demo machen und dann diesen Inhalt schreiben und mit der
Datei weiterspeichern. Das liegt also an dir. Jetzt können Sie eine einfache AWS-Kopie mit
drei Kopien dieser
speziellen Datei erstellen, eine
Demo-Datei, zwei davon mit einem Cons-Lash Bucket testen. Dadurch wird die Datei
im Grunde genommen von diesem Speicherort
von Ihrem Systemstandort
in Ihren S Three-Bucket kopiert. Die Funktionen werden hier aktualisiert Sie werden die Demo-Datei sehen. Okay. Die Demo-Datei wurde also diesen
speziellen Test-Bucket
übertragen. Wenn Sie diesen löschen möchten, können
Sie die Demo
wie im Namen verwenden. Und dann kannst du RM machen und dann kannst du
diesen bestimmten Hule auswählen Das sollte jetzt entfernt
werden. Okay. Sehr einfacher Befehl
, um sicherzustellen, dass Ihre Funktionen von Ihrer CLI aus
funktionieren. Sie können dies auch über diesen Teststart mit der
Befehlszeile tun. Ich öffne eine
Eingabeaufforderung unter Windows. Also das ist meine
Windows-Eingabeaufforderung hier drüben. Also nur eine Sekunde. Also habe ich hier eine
Windows-Eingabeaufforderung geöffnet. Jetzt kann
ich das auch in dieser
Windows-Eingabeaufforderung konfigurieren. Also, jetzt drücke ich auf Konfigurieren, es wird so bleiben, also gehst du zurück zu diesem Ding kopierst den Zugriffsschlüssel. Fügen Sie ihn oder einen geheimen
Schlüssel ein, fügen Sie ihn und geben Sie dann hier
US Phone Typh One ein. Lassen Sie uns den ersten US-Bindestrich bestätigen. Das ist der eine. Dann JSON. Jetzt habe ich mich bei diesem Artikel angemeldet. Jetzt werde ich AWS s3s verwenden. Also verstehe ich diese Liste. Also kannst du es
jetzt beeinflussen. Ich habe mich jetzt bei diesem System
angemeldet , weil ich diese virtuelle Maschine
ausschalten werde. Sie sehen, dass hier eine einfach zu virtuelle Maschine
läuft. Gehen wir also dahin, wo es einfach ist. Also ja, du siehst also,
dieser Server läuft und da sind
wir gerade. Wir sind tatsächlich auf diesem Server. Also lass uns diesen Server ausschalten. Okay? Also das werden
wir tun. Also
werden wir zunächst die Beschreibung
der Instanz verstehen . AW ist also einfach zu beschreiben,
ich rufe Instanzen an,
tut mir leid, beschreibe Iphon-Instanzen tut mir leid, beschreibe Iphon-Instanzen Dadurch erhalten
Sie die Ausgabe der,
Sie wissen schon, die
Instanzendetails hier drüben Geben Sie einfach einen Space Park und gehen Sie dem Detail auf den Grund. Sobald Sie
den Grund erreicht haben, enthält
der Boden sehr
wichtige Informationen. Ihre öffentliche IP-Adresse, lassen Sie uns vergleichen, ob dies
die öffentliche IP-Adresse ist. Wenn Sie einfach
hierher gehen und die Sitzung bearbeiten, können
Sie 52, 55, 22,
203 sehen , und das ist dasselbe hier, interne IP-Adresse. Was ist wichtig, ist
diese Instanz-ID? Das ist es, was wichtig ist.
Also, was ist das? Das ist im Grunde
deine Instanz-ID. Das ist also der eine. Sie sehen also diese Instanz-ID,
also ist es die eine. Wenn Sie also das
Stoppen der Instanz kontrollieren möchten, müssen Sie dafür die
Instanz-ID verwenden. Mal sehen, was passiert,
wenn ich AWS EC Two starte Iphon-Instance
mit der Instance-ID
stoppe Ich muss die Instanz-ID angeben,
bei der es sich um Iphone Iphonstceiphon-IDs handelt Und dann füge ich die ID hier ein und
drücke Enter. Und jetzt, ähm, tut mir leid. Nehmen wir zum Beispiel S. Jetzt sollten Sie sehen, wie sich
das ausschaltet. Sie können sehen, dass dieses
System ausgeschaltet wird. Und Sie konnten die Instanz von hier aus
herunterfahren. Es gibt also so viele Optionen Sie als Teil
Ihres EC Two ausführen können. Sie können zum Beispiel eine Instanz erstellen. Sie können viele
andere Dinge erstellen,
Optionen, Sie wissen schon, welchen
Teil Ihrer EC zwei Instanzen haben. Sie können also auch
so viele andere Optionen verwenden. Und wenn Sie
mehr über spezielle Servicehilfe erfahren möchten, können
Sie jederzeit EC two help eingeben. Dadurch erhalten Sie
alle Optionen, die Sie für ECT
eingeben können . Okay. Ebenso kannst du einfach
Platz geben und es gibt dir alle
Optionen hier. Ebenso kannst du es kontrollieren. Sie können auch die
Instanz starten , die Sie heruntergefahren
haben, also geben Sie das einfach hier hin. Nun, dies wird nicht
dieselbe IP-Adresse verwenden. Sobald Sie angefangen haben, können
Sie zur Beschreibung der
Instanz gehen und die Beschreibung
dieser öffentlichen IP-Adresse
abrufen. So können Sie sehen, dass sich die öffentliche
IP-Adresse geändert hat. Kopieren Sie also diese öffentliche IP-Adresse, bearbeiten Sie sie und fügen Sie sie hier ein. Auch hier ist eine öffentliche IP-Adresse
im Grunde eine IP-Adresse, die,
ähm, Sie wissen schon,
automatisch und
ohne Ihr
Zutun vergeben ähm, Sie wissen schon, automatisch wird, weil öffentliche IP-Adresse ständig
ändert, weil Sie keine statische IP-Adresse haben oder wir
sie als Elastic IP-Adresse bezeichnen Elastic IPS ist
kostenbindend. Das heißt, wenn
Sie eine Elastic IP-Adresse verwenden, müssen
Sie etwas Geld bezahlen damit
Sie eine statische
IP-Adresse auf Ihrem System haben. Jedes Mal, wenn Ihr System neu gestartet wird, erhalten
Sie eine neue
öffentliche IP-Adresse aber Ihre private
IP-Adresse bleibt dieselbe Leider können wir
es nicht mit einer privaten IP-Adresse verbinden es nicht mit einer privaten IP-Adresse Okay? Also das sind
zusätzliche Informationen, die für
euch im Moment nicht so sehr benötigt werden. Aber Sie konnten so ziemlich einige Aktivitäten
auf Ihrer CLI ausführen. Es gibt so viele
Befehle da draußen. Ich habe Ihnen gerade nicht einmal einen
Prozentsatz von dem gegeben , was
ich Ihnen gezeigt habe war nicht einmal ein Prozentsatz,
weil es
so viele Dinge gibt , die Sie mit CLI tun
können. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Ich hoffe, diese Demo war hilfreich
für Sie, Sie wissen schon, um zwischen den
Theorieeinheiten ein wenig zu
entspannen. Nochmals vielen Dank. Pass auf dich auf.
45. Labs AWS Cloud Formation IAC: Hallo Leute, willkommen zurück
zum nächsten Video. Denken Sie jetzt
daran, dass
Sie auf Ihrer Git-Seite die
Konfigurationsdetails finden, welche Befehle
ich bisher ausgeführt habe. Ich habe es hier
für euch als Referenz rübergebracht . Nun, der Inhalt hier ist auch für dein
vorheriges Video angegeben. Denken Sie also daran, auf
der GitHub-Seite darauf zu verweisen und es sich zu besorgen. Sie können
es viel einfacher kopieren und einfügen. Denken Sie daran, dass WQ hauptsächlich
zum Speichern und Beenden dient. Also das setze ich immer dann normal ein, weißt du,
wenn
du
hier eine Datei siehst, wie ein Pifive wo ich sie öffne, um einige Informationen zu
bearbeiten Lassen Sie uns nun über die
Wolkenbildung sprechen. In dieser Situation werden
wir nun die
CloudFormation-Vorlage
verwenden, um Verbindung herzustellen und
mit unserer Anwendung zu arbeiten Jetzt würden wir
denselben Benutzernamen verwenden , da er
Administratorzugriff hat In derselben
Konfigurationsdatei hier drüben sind
die Anmeldeinformationen also bereits geladen Ich muss also nicht wirklich mit einer
Konfiguration separat
arbeiten Jetzt muss ich
eine Yama-Datei entwerfen , die Informationen
zur Wolkenbildung enthält. Die
Bildung eines Wolkenunterstrichs ist drei. Bitte ignorieren Sie die
Rechtschreibfehler hier, und dann werde ich
das als Yamal-Datei erstellen, die
Anweisungen enthält, die einen
S-Drei-Bucket erstellen sollen Denken Sie jetzt daran,
diesen ST-Bucket einzigartig zu machen. Ich werde meine
Konto-ID angeben, damit sie
einzigartig wird , weil ich mir ziemlich
sicher bin , dass es
sie bereits gibt. Dieser Name würde mit Sicherheit schon
existieren. Also werde ich einfach
weitermachen und
die Kontonummer angeben , damit im Grunde dieser
spezielle S-Drei-Bucket entsteht. Nun, Flow Formation ist ein Automatisierungstool, bei
dem es sich um einen
Standardservice von AWS handelt. Mithilfe von Cloud Formation kann ich eine Infrastruktur
erstellen, die so einfach wie das Erstellen eines S
Three-Buckets oder das Erstellen EC Two-Instance, oder Sie können damit alles Mögliche
machen es
gibt keine Grenzen. Jetzt führe ich hier
einen Befehl aus , der
es mir ermöglicht, einen Stack zu erstellen. Es heißt also
CloudFormation-Stack. Jeder Stapel wird erstellt
und innerhalb des Stacks tatsächlich
bestimmte Dinge Zum Beispiel wird dieser bestimmte Dateiinhalt
tatsächlich ausgeführt Davor können Sie sehen, dass der Vorlagentext von S Three
Bucket hier drüben übernommen
wurde. Um diese Datei zu haben, sollten
Sie den
endgültigen Namen hier auf
den Dateinamen korrigieren , den wir in dieser Situation
erstellt haben. Also werden wir einen Bucket,
ST-Bucket,
erstellen , und dieser endgültige
Name muss geändert werden. Was ist der endgültige Name, den wir gerade erstellt
haben. Ordnung, die Region
ist USeast One, das ist eine bevorzugte
Region für uns, und der Stack-Name ist MS Three Lassen Sie mich Ihnen jetzt schnell
die Konsolenansicht für
Cloud-Bildung geben die Konsolenansicht für
Cloud-Bildung Wenn Sie dort also Cloud
Formation eingeben, werden
Sie es
einem anderen Dienst zuordnen. Und derzeit habe ich, glaube
ich, eine
CloudFormation-Vorlage zu einem frühen Zeitpunkt ausgeführt . Möglicherweise sehen Sie einige Hinweise darauf, ignorieren Sie sie bitte Okay, jetzt können Sie sehen,
dass es derzeit einen
Röntgen-Sample-Stack gibt , der
verwendet wurde, um eine
bestimmte Anwendung zu erstellen. Und diese Erstellung ist abgeschlossen. Wenn ich jetzt
diesen Befehl ausführe, werden
Sie sehen, dass dieser
MS-Drei-Stapel hier drüben
erscheint und
er wird anfangen zu funktionieren. Nun, da das Ziel
dieser speziellen, Sie wissen schon, Datei so einfach ist, kann
sie entweder erfolgreich sein
oder scheitern, etwa weil es ein Problem mit
dem Dateinamen oder
irgendwelche anderen Probleme gibt , dann kann es ein Fehlschlag sein. Und vor allem denke ich, dass es ein Erfolg sein
würde. Um dies bereitzustellen,
müssen
Sie am Ende nur noch die Eingabetaste drücken. Dadurch wird sichergestellt
, dass
der Cloud-Stack mithilfe
dieses CLI-Befehls bereitgestellt der Cloud-Stack mithilfe wird, mit dem
die Cloud-Formation bereitgestellt wird Mit dieser
Methode können Sie jetzt auch Änderungen an Ihrem AWS
beeinflussen Wir schauen uns nur verschiedene
Möglichkeiten an, AWS zu beeinflussen, nicht nur über Ihre
Managementkonsole, sondern auch über die
Befehlszeilenschnittstelle auch mithilfe von Cloud-Formation. Wenn ich die Option S
three und die Befehlszeile erstellen möchte, gibt es eine Option, sie zu erstellen. AWS S drei und dann gibst du die Option Erstellen
und was du willst. Das ist eine
Befehlszeilenmethode, um
dasselbe zu erstellen , was wir
im vorherigen Video
getan haben , nämlich SDK mit SDK, wir haben es als B erstellt. Jetzt werden
wir
Cloud Formation verwenden, indem wir Yama-Dateidefinition
schreiben die Cloud Formation
versteht und über
den
CloudFormation-Service ausführt Jetzt können Sie das tatsächlich
ausführen. Jetzt können Sie sehen, dass es hier eine ID
erstellt hat. Kann diesen Befehl verwenden, um Informationen darüber zu
überprüfen. Ich kann das hier sehen, es scheint im Gange zu sein. Also im Gange. Jetzt kannst du das tatsächlich auch hier
sehen. Jetzt solltest du zwei davon sehen. Sie können sehen, dass die Erstellung abgeschlossen ist. Es scheint also erfolgreich
erstellt worden zu sein. Jetzt können Sie sehen, dass die Erstellung abgeschlossen ist. Sie können einige
Informationen dazu in der Ausgabe hier sehen . Es gibt keine Ausgabe. Sie können die Ereignisse
auch hier überprüfen. Okay, also wenn die Veranstaltung in
Bearbeitung ist , ist der
Fortschritt abgeschlossen. Wenn ich jetzt hier drüben zu S
drei gehe, sollte
ich den neuen Bucket sehen. Okay, Sie können
diese Informationen auch
von hier abrufen . S drei Ls, damit Sie sehen, dass
mein Beispiel drei Eimer ist, das können
Sie auch hier sehen. Mein Beispiel ist Three Bucket. Nun der Bucket, den wir hier
in dieser Datei
erwähnt haben ,
nämlich Cloud Formation. Sie können sehen, dass
es sich bei meinem Beispiel um drei Buckets handelt, die
erfolgreich erstellt wurden. Jetzt haben Sie die
vierte Zugriffsmethode verstanden. Im nächsten Video zeige
ich Ihnen nun die
fünfte Methode. Nochmals vielen Dank, dass Sie sich das angesehen haben. Wir sehen uns beim nächsten Mal.
46. Labs AWS Cloud Shell: Hallo Leute. Willkommen
zurück zum nächsten PDO In diesem PDO werden wir
uns Cloud Shell ansehen. Dies ist die fünfte Methode für den
Zugriff auf Ihren AWS-Service. Bei Cloud Shell müssen
Sie nun sicherstellen, dass Sie sich in
der AWS-Managementkonsole befinden . Anstatt jedoch
eine Shell zu öffnen entweder
das Befehlsdienstprogramm
auf Ihrem Windows-Server installieren auf Ihrem Windows-Server indem Sie
entweder
das Befehlsdienstprogramm
auf Ihrem Windows-Server installieren und Ihre Eingabeaufforderung so aussehen
lassen, dass sie
Ihre AW-Services bedienen kann, oder Sie erstellen einen Linux-Server und installieren
dasselbe Befehlsprogramm. Ja, Sie haben eine weitere Möglichkeit,
dies
mithilfe von Cloud Shell zu lösen. Nun, Cloud Shell ist dieses
Symbol hier oben, und dieses Symbol
erstellt tatsächlich eine Umgebung
, mit der Sie arbeiten können. Ich
würde sagen, die Funktion ist, dass
das Tool
auf dieser Cloud Shell vorinstalliert ist. Diese Cloud Shell selbst ist
ein Linux-System, auf
dem vorinstallierte
Tools wie AW oder CLI,
Python, Git No JS und mehr enthalten sind. So können Sie nach Bedarf andere
Tools installieren. Denken Sie jetzt daran, dass es
auf persistentem Speicher läuft, da für jede Region
ein GB Persistenzspeicher angegeben ist Dieser Speicher erinnert
sitzungsübergreifend,
was bedeutet, dass Sie die Dateien
und das Skript Sie
speichern, dort sehen
können, wenn Sie sie zurückgeben Dieses Ding werden Sie haben, wenn Sie Cloud Shel tatsächlich
haben Sie werden
hier einen
schnelleren Zugriff haben, anstatt
einen Server zu erstellen und ihn dann
auszuführen, wie wir es getan haben.
Sie können sehen, dass
dieser Server ihn bereits hat Wenn ich jetzt Ss mache, können Sie
jetzt
sehen, dass
alle meine drei S-Buckets angezeigt werden
, die ich hier habe. Nun, wie wird es überhaupt angezeigt? Ich bin nicht
mit AWS Configure angemeldet. Nun, das müssen Sie nicht, da Sie
sich bereits bei dieser
Verwaltungskonsole angemeldet haben. Über die Management Console rufen
Sie also eine Cloud Shell auf, was bedeutet, dass Sie über diese Datei verfügen
werden Lassen Sie uns also einfach hier eine
Datei erstellen. Es tut mir leid. Also
hier drüben eine Datei namens Datei A zu erstellen, richtig. Also jetzt, wo ich diesen
schließe und wieder öffne. Wenn Sie also einfach, Sie wissen schon, diese Cloud Shell entfernen, können
Sie
sie von hier aus wiederherstellen. Sie werden die Datei also
auch nach dem
Abmelden und Einloggen immer noch sehen . Das wird also
ein GB für dich sein. Jetzt ist Cloud Shell
bereits in Ihre AWS-Anmeldeinformationen
und Ihre AWS-Umgebung integriert , sodass Sie dafür
keine spezielle
Konfiguration ausführen müssen dafür
keine spezielle
Konfiguration So ziemlich genau das
wollte ich Ihnen in Bezug auf eine andere Art
des Zugriffs auf
Ihre AWS-Ressourcen sagen eine andere Art
des Zugriffs auf , die
Verwendung von Cloud Shell Leider müssen Sie mit Cloud
Shell zuerst auf die Verwaltungskonsole zugreifen
, damit
Sie es aktivieren können. Und über die Management Console rufen
Sie die Cloud
Shell von dort aus auf Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir
sehen uns beim nächsten.
47. Labs AWS Direct Connect: Hey, Is, komm zurück
zu diesem Video. In diesem Video
werden wir
über AWS Direct Connect sprechen . In dieser Direktverbindung werden
wir nun verstehen, wie es sich von
VPN unterscheidet und wie es sich
von HPO im öffentlichen Internet unterscheidet Lass uns mit diesem Video weitermachen. Jetzt haben wir diese drei Punkte , die Sie mit
dem letzten Video vergleichen.
Wir haben verstanden, was VPN ist. Jetzt können wir verstehen, was
Direct Connect ist und
wie es sich dann von VPN und wie es sich
vom öffentlichen Internet unterscheidet. macht Spaß, zunächst zu verstehen,
wie es sich vom
öffentlichen Internet unterscheidet , da es sich um ein Intranet
handelt Wenn Sie von einem Unternehmen
aus darauf zugreifen und den Zugriff auf Ihre VPCV
über das Internet
einschränken
möchten , können Sie nur über das Intranet
darauf zugreifen . Im Internet gibt es hier noch ein Element namens
Direcconnect. Direct Connect bietet jetzt eine dedizierte private
Netzwerkverbindung zwischen Ihrem eigenen
Promise-Rechenzentrum Büro, von dem aus Sie
arbeiten, und AWS. Im Gegensatz zu VPN
durchquert VPN nicht das öffentliche Internet. VPN erfordert, wie ich
im vorherigen Video sagte,
VPN-Internet, damit Sie eine
Verbindung zu den VPN-Diensten
oder -Endpunkten herstellen können, oder In Bezug auf eine
direkte Verbindung
funktioniert dies jedoch nicht mit öffentlichen Internet, das
eine hohe Leistung,
geringe Latenz und eine
zuverlässigere Verbindung bietet geringe Latenz und eine
zuverlässigere Verbindung Das ist das
Hauptverkaufsargument von Direct Connect. Das Wort Direktverbindung
bedeutet nämlich, dass eine
direkte Verbindung zu Ihrem
Onpromises-Rechenzentrum hergestellt wird direkte Verbindung zu Ihrem
Onpromises-Rechenzentrum Sie können also sehen, wie ein dediziertes
Netzwerk von
AWS zu Ihrem Rechenzentrum kommt und
dann wieder zu AWS zurückkehrt Das bedeutet, dass Ihr
Rechenzentrum direkt
über ein privates Netzwerk
verbunden wird direkt
über ein privates Netzwerk
verbunden und die Latenz gering ist. Etwas, das
Sie
aus diesem Bild selbst verstehen können . Was sind nun die Hauptmerkmale? wichtigsten Funktionen gehört eine
private physische Verbindung zu AWS, die das
öffentliche Internet umgeht Direct Connects
bietet also im Vergleich
zu internetbasierten Verbindungen eine geringe Latenz und eine
konsistentere
Leistung zu internetbasierten Verbindungen Sie können auch
aus verschiedenen
Bandbreitenoptionen wählen , z. B. 50 MB/s und 100 GB/s
einer Datenübertragung, die Sie zwischen
Ihrem Rechenzentrum und Ihrem AWS durchführen
können Ihrem Rechenzentrum und Ihrem AWS durchführen Was ist nun der Anwendungsfall hier? In Situationen, in denen Sie das verwenden können? Sie können es für Unternehmen verwenden
, die häufig
große Datenmengen
zwischen Zusagen an AWS übertragen . Dies wird also hauptsächlich für
eine Hybrid-Cloud-Lösung oder ein Hybrid-Cloud-Modell
empfohlen
oder verwendet eine Hybrid-Cloud-Lösung oder ein Hybrid-Cloud-Modell
empfohlen
oder Und die Leistung hier. Die Anwendung erfordert eine leistungsstarke
Netzwerkverbindung mit niedriger Latenz. Das ist also die beste
Lösung dafür. Unternehmen, die sowohl lokale als auch Cloud-Ressourcen nutzen und eine stabile
Verbindung zwischen ihnen benötigen. Entweder verbinden sie eine lokale
Datenbank, die
die Kundendaten enthält , und ihre Anwendung
wird auf AWS gehostet, was wirklich erfordert, dass
die Daten in verschlüsseltem Format
übertragen
und dem Kunden bereitgestellt werden in verschlüsseltem Format
übertragen . In dieser Situation
oder in diesem Prozess benötigen
Sie also eine sehr, Sie wissen schon, stabile
Verbindung zwischen ihnen. Dies ist eine der Methoden Sie eine
stabile Verbindung herstellen können, und für diese Verbindung
ist kein Internet erforderlich, was bedeutet, dass Ihre
Daten
zu keinem Zeitpunkt gefährdet Daran sollten
Sie sich also erinnern. In Ordnung, ich habe
das so ziemlich theoretisch
behandelt und Sie kennen auch den Unterschied zwischen einem VPN und Direct
Connect. Also lass uns gehen und die praktischen Übungen machen. Direct
Connect angeht, so wird es,
Sie wissen schon, als separater Service auf
AWS angeboten, der
Direct Connect heißt. Wenn Sie jetzt
zu Direct Connect gehen, können
Sie
diese Dokumentation tatsächlich sehen. soll es Ihnen also leicht
machen, eine dedizierte
Netzwerkverbindung gemäß Ihren eigenen Zusagen an AWS herzustellen. Das bedeutet, dass Ihr Büro, Ihr Rechenzentrum oder, Sie wissen schon, Registrierung an
einem gemeinsamen Standort eine direkte
Verbindung zu AWS
haben kann ,
und es kann sich dabei um eine
private Es tut mir leid, das kann es sein. Es ist eine private
Verbindung zwischen ihnen. Sie können sich die
Funktionen hier ansehen, z. B. reduzierte Bandbreitenkosten, konsistente Netzwerkleistung, private Verbindung zu AWS. Außerdem ist es elastisch, da
es von 50 MBS auf 100 MBS angehoben werden kann von 50 MBS auf 100 MBS angehoben Okay, das ist die maximale Verbindung, aber hier können Sie sehen,
dass der
Verbindungsanbieter ein Gbit/s bis zehn Gbit/s Ebenso können Sie dies skalieren. Wie Sie hier sehen können, Sie einfach auf Verbindung erstellen, klicken Sie einfach auf Verbindung erstellen, um eine Verbindung herzustellen. Hier sagen Sie, welches
Resilienzniveau Sie benötigen. Maximale Belastbarkeit, Sie
haben eine hohe Belastbarkeit, Sie haben Entwicklung
und Tests. Dies ist hier die niedrigste
unkritische Arbeitslast mit geringerer Belastbarkeit. Geben Sie dann als Nächstes ein und dann können Sie hier
die Geschwindigkeit auswählen, die zwischen einem Gbit/s
und 400 Gbit/s liegt, und den gewünschten
Standort Also hier ist der Standort
Ihrer Rechenzentren hier drüben. Das ist also Ihre AW-Site. Dort befindet sich
der Standort, an dem Sie
eine Verbindung herstellen möchten . Das ist also eine AW-Site hier drüben. Sie können also sehen, dass es sich an diesem bestimmten Ort
und beim Dienstanbieter befindet. Der
Dienstanbieter hilft
Ihnen also dabei, die Verbindung
zum Rechenzentrum herzustellen, und hier gibt es auch zusätzliche Einstellungen
und einige zusätzliche
Einstellungen. Dann gibt es noch diese
Verbindungszusammenfassung , sodass Sie die
acht Anbieter sehen können. Es
kommen zwei Verbindungen von
Ihrem Standort aus , und durch Überprüfen und
Erstellen werden diese Verbindungen erstellt. Aber wie Sie sehen,
kostet das etwa 0,6/Stunde, etwa 4:39 pro Monat für die Portnutzung und
zusätzliche Datenübertragung Sie können Auch für die Datenübertragung wird
nur eine Gebühr erhoben und
es werden zwei Verbindungen hergestellt. In diesem Fall wird dies also
die Widerstandsfähigkeit gegen Misserfolge erhöhen. Wenn es sich um
eine größere Verbindung handelt, können
Sie hier tatsächlich die
maximale Widerstandsfähigkeit erkennen. Wir haben tatsächlich eine
größere Information. Erster Standort, Sie
haben diesen Anbieter, der zweite Standort ist ein
Backup-Standort hier drüben. Und dann haben Sie
einen anderen Anbieter. AT und TF haben wir
bereits ausgewählt, also wählen wir Verizon Hier habe ich vier Verbindungen hier 90$ pro Stunde ausgeben, etwa 65.880 monatlich und Gebühren für die
Datenübertragung
sind getrennt. Das bedeutet, dass Sie
sehen können, dass
die Abrechnung beginnt,
sobald die Verbindung zwischen dem AWS-Router
und der Route und Ihrem Router hergestellt ist,
oder 90 Tage Was auch immer zuerst kommt. Sie haben also auch die Möglichkeit
, dies zu erstellen, und dies ermöglicht
die direkte Verbindung direkte Verbindung ist
viel teurer als das VPN selbst, da sie das private Netzwerk verwendet
, um eine Verbindung herzustellen. Das ist so
ziemlich alles, was ich
Ihnen auf der Demo-Seite zeigen möchte alles, was ich
Ihnen auf der Demo-Seite ,
damit Sie den Kern dessen verstehen, was wir hier eigentlich
tun. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns
beim nächsten Mal.
48. Labs AWS SDK mit Python: Ich habe zum nächsten
Video in diesem Video zurückgesprochen Wir werden über SDK sprechen. Eines der Themen, die wir haben und das hier als Teil
Ihres Programms behandelt wird , ist auch die
Verwendung von SDK. Jetzt werden wir hier schnell eine Demo zum SDK
sehen. Das ist also API ist SDK CLI. Wir haben also die CLI fertiggestellt, also ist es Zeit für
uns, das SDK zu erkunden. Auch dies wird nicht Teil Ihrer Prüfung
sein, Sie können dies
also durchaus überspringen. Ich werde
Ihnen hier nur ein einfaches, ähm,
SDK-orientiertes Zeug zeigen , das Sie auf Ihrem AWS verwenden
können. Denken Sie jetzt daran, lassen Sie
mich noch einmal einloggen. Ich habe mich gerade
in das System eingeloggt. Also hier werden
wir über SDK sprechen. Ich werde hier eine
Sprache verwenden, die häufig
verwendet wird, nämlich Python. Ich werde die praktische
Sitzung mit Python durchführen. Dafür müssen Sie sicherstellen
, dass Sie Python
auf Ihrem System installiert haben. Mach ein Pseudo, ähm,
es tut mir leid, es gibt eine Verzögerung im System Pseudo yum installiere
Python Three Iphone Y,
schau, ob es es aufnimmt Python 3 ist
bereits installiert. Lassen Sie uns also
Python P PIP IPhony installieren. Python PIP ist erforderlich
, damit Sie
die Boto Three installieren können Boto Three ist Ihr
Python-Treiber für Ihr SDK-Kit, das im Grunde für Ihre
AWS-SDK-Konfiguration bestimmt ist Jetzt können Sie den Befehl PIP
three hier verwenden
und dann Boto Three
installieren Das ist im Grunde deine
Python-Konfiguration für, ähm, du weißt schon, dein AWS. Dies hilft Ihnen, eine Verbindung zu
AWS herzustellen und das SDK von Boto aus auszuführen. Sie können also hier sehen, dass es das 40 CLO
Boto installiert, drei Roots.
Äh, Version Entschuldigung, Boto
Three, 11235-Version,
Boto Core, und es wird auch ein Three-Transfer
installiert Das wird sicherstellen, dass Sie das STK hier haben Wenn Sie nun irgendwelche Python-,
ähm, Sie wissen schon, Befehle
oder Python-Skripte ausführen ähm, Sie wissen schon, Befehle
oder Python-Skripte die von AWS aufgerufen werden, werden die Elemente tatsächlich
von, Sie wissen schon, AWS vom Backend abgerufen. Nun, wir
haben AWS zuvor konfiguriert, sodass Sie einfach
überprüfen können, ob es noch
da ist , wählen Sie einfach drei. Es ist immer noch
mit dem IS-Service verbunden. Jetzt haben Sie auch
eine alternative Möglichkeit, sodass Sie einfach diese Datei öffnen können, die sich in Ihrem Home-Ordner befindet. Rufen Sie den AWS-Ordner auf. Und darin haben
Sie eine Datei
namens Credentials. Sie können also Ihre Anmeldeinformationen
hier
speichern . Jetzt können Sie sich das ansehen. Der Berechtigungsnachweis ist
tatsächlich hier gespeichert. So loggst du dich ein. Also, noch bevor Sie das tun, können
Sie diese
Anmeldeinformationen direkt dort eingeben, und dann können Sie darauf zugreifen. Sie müssen die
AWS-Konfiguration also nicht mit den
Anmeldeinformationen dort ausführen AWS-Konfiguration also nicht mit den
Anmeldeinformationen dort Jetzt, wo Sie die Anmeldeinformationen
dort eingegeben haben und sie standardmäßig
da sind, müssen Sie sich darüber keine Gedanken mehr machen Jetzt werde ich hier
eine Datei erstellen, die eine Python-Datei ist, und diese Python-Datei wird die drei S-Buckets
auflisten Also, jetzt diese Python-Datei, wir werden den Code kopieren und einfügen
, den ich für Sie
herausgeben werde. Dies ist eine Python-Konfiguration in die Sie b23 importieren, was Ihr SD-Fall
eines Entwicklungskits ist , das AWS im Hintergrund
verwendet Erstellen Sie hier einen S Three-Client , der im Grunde
Ihr S Three-Bucket ist Und hier ist diese Antwort eine Bucket-Antwort mit
drei Listen. Dann drucken wir hier den Wert, der
besagt, dass S drei Buckets vorhanden sind , und es wird
eins nach dem anderen gedruckt und es wird
eins nach dem anderen gedruckt, was
Teil Ihrer Antwort hier ist. Sagen wir einfach
kurz diese Datei. Und dann lassen Sie uns Python ausführen. Und dann können Sie tatsächlich, äh, die
Python-Drei
ausführen, die in
der PUI gespeichert
ist und
die Ihnen die Ausgabe hier gezeigt hat die Ihnen die Ausgabe hier gezeigt Also, bestehende Buckets,
Sie haben drei Buckets. Also das ist im Grunde, ähm,
du weißt schon, das Ganze über
ein
SDKs-Softwareentwicklungskit laufen ein
SDKs-Softwareentwicklungskit Das ist also eine weitere Methode
, um auf Ihre bestehende,
ähm, Sie wissen schon,
Infrastruktur in Ihrem AWS zuzugreifen ähm, Sie wissen schon,
Infrastruktur in Ihrem AWS Wir haben also
über, Sie wissen schon, die
Verwaltungskonsole gesprochen , tut mir leid, die
Verwaltungskonsole, wir haben über CLI gesprochen. Wir haben über die
Verwendung von Python auch über
das SDK gesprochen . Denken Sie jetzt daran, dass Sie AWS Config
nicht ausführen müssen. Wenn Sie also eine Verbindung
mit einer neuen Sitzung herstellen, müssen
Sie AWS Config hier in
diesem Szenario wirklich nicht
ausführen ,
da Sie das
USM und das Passwort, tut mir leid,
die Schlüssel-ID und den
Schlüsselzugriffscode direkt
in die Datei laden tut mir leid,
die Schlüssel-ID und den
Schlüsselzugriffscode direkt , die ich
bereits erwähnt habe Diese Datei wird es also
tatsächlich aufnehmen, sodass Sie die AWS-Konfiguration
in diesem Szenario nicht wirklich
ausführen müssen AWS-Konfiguration
in diesem Szenario nicht wirklich
ausführen Und diese Python-Datei wird ausgeführt, weil sie
zu Boto Boto
geht, zu diesen speziellen
Anmeldeinformationsdateien und dann eine Verbindung zu
dem Konto herstellt, dem sie zugeordnet ist Dann wird es die Logik
innerhalb des Python-Skripts ausführen. So funktioniert es im Grunde. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Wir sehen uns beim nächsten.
49. Einführung in Labs CLI: Hallo, Leute. Willkommen zurück zu den nächsten s, wir werden über die AWS-Befehlszeile
sprechen. unserer Schulung werden
wir uns nun mit
einer der Funktionen befassen,
die im Wesentlichen für
Ihren programmatischen Zugriff vorgesehen ist Wir müssen also einen
Benutzer erstellen, auf den es zugreifen kann, also werden wir das in einiger Zeit tun Aber ab sofort
werde
ich die Befehlszeilenschnittstelle für uns starten lassen. Und dafür müssen wir es für ein anderes
Betriebssystem herunterladen. Um auf die
Befehlszeilenschnittstelle zuzugreifen, einfach die CLI von Google AWS herunter, und Sie können auf
diese Seite mit der Befehlszeilenschnittstelle zugreifen, bei der es sich um die Slash-CLI von aws.amazon.com
handelt Jetzt sollten
Sie zu dieser Seite gelangen, auf der Sie Dokumentation
zur Ausführung
dieses Tools Ebenso wie andere Tools, was ein Teil davon ist. Hier haben Sie also die Schritte, die zu dieser Version ,
die Sie als ALI Two verwenden . Sie bietet neue Funktionen wie verbessertes Installationsprogramm, neue
Konfigurationsoptionen und auch Identity Center
, einen Nachfolger von AWSSO Es gibt verschiedene Funktionen. Es gibt auch AWS S
, eine Entwicklerbewertung. Das ist also ein weiteres
Befehlszeilenprogramm , das Ihnen,
ähm, Sie wissen schon, Komfort
- und Produktivitätsfunktionen bietet. Also ein Teil der Verwendung hier,
wie Sie
einige grundlegende Befehle über die
Befehlszeilenschnittstelle ausführen können . Also das sind Dinge hier drüben. Sie können sich auch über die Hilfe zum automatischen Scannen informieren und
eine Gruppe für automatisches Skifahren erstellen. Ebenso haben Sie hier
so viele Optionen, die Sie verwenden können. gibt es eine vollständige Referenz Hier gibt es eine vollständige Referenz
in Bezug auf
die Arbeit mit, ähm, Sie wissen schon, mehr
Verweise auf die
Befehlszeilenoptionen, was auch
als Teil davon angegeben wird. Nun, wir werden einige
der grundlegenden Aspekte untersuchen, wie Sie wissen, dass
dies, ich meine, wir müssen etwas über die
Kamana-Oberfläche wissen, aber sie funktioniert nicht vollständig, so dass das nicht Teil
Ihrer Zertifizierung ist Aber nur zu Ihrem Verständnis Wir werden tatsächlich
an der Installation arbeiten Wir werden
mit, ähm, wissen Sie,
einigen der
Standardbefehle arbeiten , die wir uns auch in Bezug auf die CLI
ansehen werden. Okay? Also das werde ich
als Teil dieses Videos tun. Nochmals vielen Dank, dass Sie sich das angesehen haben. Im nächsten Video werden wir die Windows-Installation, die
macOS-Installation und die
Linux-Installation
sehen macOS-Installation und die
Linux-Installation und Sie auch über die Amazon
Linux-Installation informieren Linux-Installation Nochmals vielen Dank. Wir
sehen uns im nächsten Video.
50. Labs Linux CLI-Installation AWS Linux Upgrade: Hallo Leute, willkommen zurück
zum nächsten Video. In diesem Video werden
wir, ihr wisst schon, diesen Server
herunterfahren,
den vorherigen Server
, den wir zuvor benutzt haben, und ihn
dann tatsächlich beenden. Das ist besser als herunterzufahren. Und dann erstellen Sie die
Amazon Linux-Version. Also Amazon Linux One, wir haben es bereits gemacht, sodass Sie diesem Video noch einmal folgen können. Es ist jetzt nur eine Änderung in der
Betriebssystemauswahl. Sie können also sehen, dass das System ausgeschaltet
wird, das ist also okay Also öffne das, bearbeite
dieses bestehende, und wenn du es bearbeitest,
ändere einfach die IP-Adresse Alles andere ist gleich,
außer dem Benutzernamen, iPhone benutzt EC Two,
PhoNue Das ist der Nutzername Klicken Sie also einfach auf Okay und doppelklicken Sie
dann darauf. Also, wenn du es verbindest. Es dauert ein bisschen
. Da hast du's. Jetzt sind wir mit EC Two Instance verbunden
. Perfekt. Sobald Sie mit der
Easy Two-Instanz verbunden sind, müssen wir sie nur noch mit dem Befehl
curl herunterladen Das gleiche Zeug. Ähm, denken Sie daran ,
in dieser Situation
haben Sie AWS CLI bereits installiert. Schauen wir uns das an. Lass uns
zuerst diesen Curl runterladen Okay, diese Datei wurde heruntergeladen. Okay. Lassen Sie uns jetzt einfach AWS ausführen und dann
Phoniphon-Version eingeben Schauen Sie also, ob es
bereits installiert ist. Jetzt kann ich sehen, dass
die alte Version gespeichert
ist, nämlich 215. Jetzt müssen wir
es auf die neueste Version aktualisieren. Okay? Also dieses Video, Sie können es als Ausführung des
Upgrades betrachten , das wir geplant
haben. Diese Datei komprimieren. Zip ist auch in Abs Linux
variabel, das ist
also eine gute Sache. Sie müssen
dieses Paket nicht separat installieren. Nachdem Sie die Datei entpackt haben, gehen Sie in AWS und
führen Sie sudo dot slash aus Es ist besser. Ich kopiere basierend. Kopiere den Befehl von hier aus. Ich gebe keinen anderen
Befehl ein. Ich tippe nur
den gleichen Befehl. Mit einem Schrägstrich wird der
Standardspeicherort installiert. Wenn Sie sich
bezüglich des Standorts nicht sicher sind, können
Sie jederzeit angeben, welches
AWS Sie verwenden möchten. Das wird es dir sagen. Okay, es ist also an einem
anderen Ort. Sie können diesen Benutzer in AWS sehen. Sie müssen also nur den
Heimatstandort der AWS eingeben. Ähm Benutzer, ich suche nur
nach dem AWS-Home-Ordner. Ich sehe es hier nicht, also lass uns sehen, dass es
ein Einheimischer hat. Nein,
der Home-Ordner ist dort nicht vorhanden. Ordnung, ich habe also nach Unterlagen
gesucht, aber es gibt nichts Vergleichbares. Also fahren wir mit
demselben Befehl fort. Wir werden diesen
Befehl einfach kopieren, um ihn zu aktualisieren. Der Home-Ordner
befindet sich also an einem anderen
Ort, oder? Wenn Sie nun den Ordner Bin
eingeben, der sich
an diesem Speicherort befinden wird, verwenden Sie einen Bin-Ordner. Der
Installationsort, den ich
bisher gefunden habe , war nicht an diesem Ort. Also der, den ich
gefunden habe, ist auf dem OPT AWS. Also der Standort ist es, also werde ich einfach mit diesem Verzeichnis versuchen, um zu
sehen, ob es akzeptiert wird. Also kannst du das sehen.
Jetzt kannst du das ausführen. Mal sehen, ob es
jetzt mit der neuesten
Version funktioniert . Da hast du's. Es ist also gerade
mit 218 aktualisiert, ich habe OPTAWS gegeben, weil ich diesen Ordner auf Optaws
gefunden habe Es ist sehr seltsam,
ihn in diesem Verzeichnis zu finden, aber da dieses
Betriebssystem ein bisschen alt ist, ist das der Grund, warum es dort ist Jetzt haben Sie also die V Two
Ocean als Teil der OptaWS. Also so
müssen Sie es machen. Ich werde all die
benutzerdefinierten Befehle, die
ich
auf Ihrer GitHub-Seite namens AWS ausgeführt habe, kopieren ich
auf Ihrer GitHub-Seite namens AWS ausgeführt habe, auf Ihrer GitHub-Seite namens AWS Ich werde den Link zur
Github-Seite dort drüben einfügen. Das
wird also direkt auf
Github übertragen, der Notepad
plus eins Also werde ich
es dort kopieren und einfügen, damit ich es so nenne, als würde ich
deine AW-CLI Was wir
bisher behandelt haben, ist im Grunde die
Installation der AWS-CLI Das haben
wir also getan, und wir haben keinen Befehl, also kopiere ich den
Befehl einfach hierher. Und wir haben auch gesehen, wie Sie Ihre AWS-CLI erfolgreich
aktualisieren können, und meistens sollte dieser
Befehl funktionieren, aber falls sich Ihr AWS in einem anderen Ordner
befindet, müssen Sie ihn möglicherweise in diesen Ordner
ändern Also habe ich Ihnen gezeigt,
wie das auch in Bezug auf ein anderes Verzeichnis geht,
ich habe es Ihnen auch gezeigt. Das ist also so ziemlich
das, was wir im
CLI-Teil der Dinge behandeln wollen .
Nochmals vielen Dank. Im nächsten Video werden wir
einige Befehle sehen, die wir als Teil der CLI
ausführen können, und ich werde Sie
im nächsten Video sehen.
51. Labs Linux CLI Installation Ec2 Instanzen erstellen: Hallo, Leute, willkommen zurück
zum nächsten Video. In diesem Video
werden wir sehen, wie man eine Linux-Installation durchführt. Aber ich werde das in
mehrere Teile aufteilen ,
damit
es für Sie einfacher wird, dies zu tun da die Linux-Installation
viel länger dauert
und wir planen, sie auf der EC-Two-Maschine durchzuführen. Nun, ich habe Ihnen keine
Informationen darüber gegeben , wie man eine Z2-Maschine
erstellt, also werde ich
das nur als
Teil dieses Videos tun . Nun, wir haben
eine EC-Two-Instance erstellt, aber wir haben
sie nie gestartet oder damit gearbeitet, also werde ich sie einfach noch einmal komplett neu erstellen Dafür müssen wir
zunächst die CLI verstehen.
Es gibt bestimmte Voraussetzungen, Es gibt bestimmte Voraussetzungen damit Sie sie installieren können Es gibt tatsächlich eine ganze
Installationsseite, wenn Sie suchen,
was ist das nochmal? Ähm, hier finden Sie die vollständigen Installationsschritte in Bezug auf die Arbeit mit der
Windows-Installation, MacOS-Installation, wie Sie hier sehen
können, und
der Linux-Installation. der vorherigen Seite
haben wir die EC-Installation
wie das ExcelFle macOS-Paket gesehen ,
das genau wie eine EXE-Datei ist Wenn Sie nach einem mCOS-Paket
suchen, ist
das Windows-Paket genau
dasselbe wie das mCOS-Paket, sodass es dort keinen Nun, was die Linux-Installation angeht, ist
die Anweisung ziemlich langwierig, wie Sie sehen können, sie wird einfach immer wieder unterbrochen, weil sie eine
Menge Komponenten enthält Lassen Sie uns nun zunächst
die Voraussetzungen hier verstehen. Das bedeutet, dass Sie Zip als Teil
Ihres Linux-Pakets haben
müssen , um diese Installation
durchführen zu können. Sie benötigen GLPsy, GRO sowie s als Teil
Ihres Linux-Pakets, wenn Sie
es mit Ihrer CLI installieren möchten Und die CLI wird
für Sento Fedora,
Ubantu und Amazon Linux
gleichermaßen unterstützt und auch auf Linux gleichermaßen Da AWS also kein anderes
Repository als SNAP von Drittanbietern
unterstützt, ist SNAP ein Tool, das im
LinxOperting System installiert
ist, das genau wie YAM ein Repository-Manager anderes
Repository als SNAP von Drittanbietern
unterstützt, ist SNAP ein Tool,
das im
LinxOperting System installiert
ist, das genau wie YAM ein Repository-Manager
ist. AWS unterstützt hier nur SNAP
. Sie finden also
auch Anweisungen dazu. Denken Sie jetzt daran, wenn
Sie mit
Amazon Linux arbeiten und die AWS-CLI
haben, die vorinstalliert
ist. Wenn Sie also hier sehen können, ist auf Amazon Linux-Image die
AWS-CLI vorinstalliert. Wenn Sie nun Ihre AW-CLI aktualisieren
möchten, müssen
Sie sie zuerst entfernen. Haben Sie also einfach den
Befehl, es zu entfernen. Sie haben dir den
Befehl gegeben, es zu entfernen. Und wenn Sie es erfolgreich
entfernt haben, können
Sie es, Sie wissen schon, mit den drei
verschiedenen Methoden
installieren. Die erste Methode besteht im Grunde darin, die Datei von
Amazon AWCali
amazon aws.com
herunterzuladen Amazon AWCali
amazon aws.com Dies ist also die offizielle Website Sie
Ihr Paket aus der Zip-Datei herunterladen Ihr Paket aus der Zip-Datei Sie es unter
Linux installieren Also auch hier ist ZIP erforderlich, da Sie ein
Zip-Dateiformat für Linux
herunterladen werden ein
Zip-Dateiformat für Linux
herunterladen Unzip ist also ein separates
Paket, das Sie installieren
müssen, falls es
noch nicht installiert Und Sie haben AW CLI. Wir
benennen diesen Dateinamen tatsächlich AW CLI V-Zip-Datei mit zwei Punkten
um und komprimieren ihn
mit dem Befehl NZP Und dann
installieren wir es mit Sudo Sie werden einen AWS-Ordner haben
und dann werden wir den
darin enthaltenen
Installationsbefehl ausführen, und das wird
Ihre AWS-CLI auf diesem
Betriebssystem installieren Ihre AWS-CLI auf diesem
Betriebssystem Der Vorteil dabei ist, dass Sie
im Grunde die neueste Version
herunterladen da es
keine Version gibt, sodass sie mit der neuesten Version verknüpft
wäre. Im Gegensatz zu dieser Version wird es also nicht
die Standardversion haben , wenn das
Putting-System fertig ist. Sie haben also Amazon
im nächsten Jahr 2023, aber es gibt kein 2024, aber die CLI hätte die
neueste Version hier drüben, was bedeutet, dass Sie die neueste
Version
nicht hier haben werden. Für euch, die das als Teil
davon installieren, müsst ihr
es zuerst entfernen und dann
den Anweisungen folgen. Ich werde dir Schritt für Schritt erklären,
wie es geht. Also werden wir
zwei separate Videos erstellen, eines für Defol
Linux, Bond-Variante Und wir werden auch eines für Ihr,
Sie wissen schon, Amazon Linux
erstellen . In Ordnung. Klingt gut. Also lass uns
weitermachen und das praktisch machen. Was wir zuerst tun müssen, bevor wir mit der Arbeit beginnen
, ist , dass wir zwei Instanzen hier drüben
zur Europäischen Kommission gehen
und eine neue Instanz erstellen müssen . Wenn Sie also bereits eine Instanz
erstellt haben, entfernen Sie sie
einfach und
nehmen Sie die Clunch-Instanz Jetzt werde ich die
Instanz mit dem Namen
AWS CLI verwenden , da wir CLI hier
ausprobieren. Also eine Instanz, Sie können sie mit Amazon Linux
erstellen, eine
andere mit upANTF, wir
werden eine Ubundu-Instanz erstellen Wählen Sie die Option aus, für die die
kostenlose Version aktiviert ist, und Sie sollten sehen können, dass sie
sich für die
64-Bit-X86-Architektur entscheidet Und dann T zwei Micro,
das reicht uns. Und was Kepare angeht, werde
ich die
bestehende Tastatur hier benutzen Wenn Sie noch keine Tastatur haben
, ist es an der Zeit, sie tatsächlich zu erstellen. Ich würde Ihnen
empfehlen, daraus eine
PPK-Datei zu erstellen Klicken Sie auf Erstellen und dann hier
auf den angegebenen Namen Sie können diese Datei wiederholen und speichern Wählen Sie hier PPK aus
, da wir
Put as In über das mobile System verwenden werden Put as In über das mobile System Stellen Sie also sicher, dass Sie
PPK angeben , denn wenn Sie die
Sitzung hier bearbeiten, richtig? Ich habe hier auch PPK gegeben. Du kannst das PPK sehen. Das ist also im Grunde genommen
Putty für uns, um
es aus dem Mobilfunk-Begriff zu verbinden Sie verwenden also PPK und
klicken dann auf Paar erstellen. Sobald Sie also ein Paar erstellt haben, wird
es in
Ihre Download-Leiste heruntergeladen ,
sodass Sie es tatsächlich
bereitstellen können , wenn Sie eine
Verbindung zur Instanz späteren Zeitpunkt können
Sie es mit Mobile Exterm herunterladen Es ist viel einfacher und Sie haben auch
die unbezahlte Version. Dies ist also eine Testversion
oder eine kostenlose Version oder Testversion, in der Sie sie
für inoffizielle Zwecke verwenden können, und Sie können die
Netzwerkänderungen,
LOS, von überall aus verfolgen. Stellen Sie
also sicher, dass
dies aktiviert ist Sie müssen
nichts anderes aktivieren. Und dann hast du das EGB konfiguriert und klickst dann
auf Launch Instance Das sollte ungefähr
ein paar Minuten dauern und das sollte den,
Sie wissen schon, Amazon-Computer regeln Sie wissen schon, Amazon-Computer Es tut mir leid, Sie öffnen
Do-Maschine für Ihre AW-CLI und dann können Sie hier
eine weitere Instanz
starten oder Sie können warten, bis
das vorbei ist, und dann
das neu erstellen oder wie Sie möchten, ich werde es auf einmal erledigen. Aw CLI, Amazon Dinux, also
denken Sie daran, dass Sie
nur eine Instanz kostenlos haben können, also machen Sie das eine mir also nichts aus, wenn
es für mich etwas kostet, also mache ich es trotzdem Ich entscheide mich hier für Amazon
Linux, da der Name auch impliziert
, dass es sich um Amazon Linux handelt. Ich wähle dieselbe Instanz aus. gebe die Informationen über meine Tastatur an, die
ich standardmäßig verwende Und dann gebe ich hier Informationen über SSA, ohne irgendwelche Informationen zu
ändern. Dies
wird die
Standardinformation bei der Startinstanz sein Dadurch wird eine AMI-Maschine gestartet. Amazon-Maschinen-Image, sodass auch das Amazon-Betriebssystem
verwendet wird . Ein Teil davon. Ihr habt zwei
Instanzen eine ein arabisches CI für euch
ist, es wird nur eine Instanz sein. Sie können das später machen. Die einzige Änderung zwischen diesen beiden ist das
Betriebssystem. Und wenn Sie
das Betriebssystem ändern, denken
Sie daran, dass sich auch der
Benutzername ändert. Für Ubundu wird es U
Bundu als Benutzername sein. Für Amazon Machine Image wird
es für Iphen-Benutzer
einfach sein Das wird der Benutzername sein. Du kannst das auch überprüfen
, wenn du dieses
Erstellungsprozesses etwas erstellst. Ich weiß es, deshalb
habe ich es nicht überprüft. Sie können es auch überprüfen,
indem Sie mit der rechten Maustaste auf Verbinden klicken, und Sie können
den Benutzernamen tatsächlich hier sehen. Das ist eine andere Möglichkeit
, es zu überprüfen. Also, ähm, bis jetzt haben wir den Artikel
fertiggestellt. Habe ich es geschlossen? Ich glaube, ich habe es geschlossen. tut mir leid. Ja, das
tut mir leid. Ja, ich glaube, ich habe es geschlossen. Nun, da Sie den ersten Abschnitt
abgeschlossen haben, haben
wir die
Instanzerstellung
hier auf der CLI abgeschlossen . Bei der nächsten Methode werden
wir mit MobikStem darauf zugreifen
, werden
wir mit MobikStem darauf zugreifen diese beiden Dienste
verwenden Mobitem und dann werden wir AWCLI darauf
installieren Nochmals vielen Dank, dass Sie sich
das Ich werde es beim nächsten sehen
52. Labs Linux CLI-Installation Offline-Methode: Hallo Leute, willkommen zurück
zum nächsten Video in diesem Video. Wir werden die verschiedenen Methoden zum
Herunterladen
und Installieren des Pakets sehen Herunterladen
und Installieren des Pakets Sie wird auch
als Offline-Methode bezeichnet. Sie haben also beispielsweise Server in einer Infrastruktur, auf die
das Internet nicht zugreifen kann
. Wie würden Sie
Nap zur Installation verwenden? Nun, das kannst du eigentlich nicht. Sie werden diese Datei also tatsächlich
herunterladen, versenden und dann über Befehlszeilenmethode
installieren. Dies ist im Grunde ein
internetfreies Programm, bei dem Sie Internet
auf Ihrem Jump-Server haben werden. Oder bei dem Sie diesen Vorgang auf
einem Jump-Server
durchführen und wenn Sie den Vorgang
abgeschlossen
haben, verschieben Sie dieses Paket auf den eigentlichen Server und installieren es
dann. Jetzt kopiere ich
einfach diesen Befehl. Zuvor
werden Sie, glaube
ich, die Version 218 von AWS CLI installieren . Mal sehen, welche Version
diese installiert wird. Das ist ein Curl-Befehl. Standardmäßig verfügt jedes
Betriebssystem über den
Befehl curl Befehl Curl besagt, dass die Ausgabedatei
einen benutzerdefinierten Dateinamen haben sollte.
Sie werden sehen, dass die
Datei heruntergeladen wird Jetzt verwende ich
den Befehl unzip. Okay. Ein Zip ist nicht da. Also ich kann mit Snap
selbst installieren, Snap Unzip installieren. Also okay, es ist nicht in der Lage, es zu bekommen Lass mich APK ausprobieren. Also sollte der APT es herunterladen. Entschuldigung, wenn ich
vorher APK gesagt habe, meinte ich APT. Also versuchen wir es einfach mit
sudo APT, Install. Es tut mir leid. Installiere nz Es wird also
das Paket von NZP heruntergeladen. Lassen Sie uns jetzt einfach diese NZP-Datei
verwenden, um diese Picular-Datei zu entpacken Das System ist etwas
verzögert, wissen
Sie, aufgrund der geringeren
Menge an Konfiguration, die wir im System
haben, also ist es Das Netzwerk ist auch in Ordnung
, schätze ich. Ich kann sehen, dass es gerade
diese bestimmte Datei entpackt. Nun, diese Datei können Sie
im Grunde auf
einem System entpacken und Sie können sie als
Tarball erstellen Sie können einfach Star
Iphone CV von verwenden und dann den
Tarball so erstellen Und dann sollte das zu
jedem Ihrer Systeme passen. Möglicherweise haben Sie eine Frage,
wenn ich
dieses Paket nicht
installieren oder herunterladen kann installieren oder herunterladen , wie
ich es dann versenden soll. Jetzt hast du einen Tarball. Jetzt können Sie es
an mehrere Systeme senden und dann, ähm, das installieren Schau dir hier eine Dateigröße an. Es ist 223 MBT Star Ball. Sie können diese Teerkugel auch
abschießen, wodurch sie noch weiter reduziert wird Es tut mir leid, Gs, der Tarpl, es noch weiter reduzieren
wird
, sodass Sie es über
zwei Systeme senden können , die kein Internet
haben. Also, weil diese
Jumpbox so
konzipiert sein wird , dass sie eine Verbindung zu
diesen Servern herstellt, richtig? Also kannst du das sehen. Es ist sogar weniger als die Zip-Datei selbst. Also, was ist der nächste Schritt? Im nächsten Schritt
können Sie entweder auf
den AWS-Ordner zugreifen und den Befehl
Doslash install ausführen Nun, dieser Installationsbefehl,
ich denke, Sie benötigen einen Root-Benutzer Also musst du Psudo und
dann Dot Slash Install machen. Damit sollten Sie also
alle AWS-Sachen finden. Und da dies lokal verwendet
wird,
können Sie die AWS-iPhone-Version eingeben. Okay, es heißt also, dass
es kaputt gehen wird. KIEFER. Jetzt können Sie sehen, welches
AWS Ihnen den vollständigen Pfad gibt, in
dem AWS installiert ist Wenn Sie eine neueste
Version davon wünschen, können
Sie sie auch aktualisieren. Das ist etwas. Woher wissen Sie nun, an
welcher Position oder an welchem Ort
es installiert ist?
Sie können den AWS-Befehl verwenden, Sie können den AWS-Befehl verwenden der
Ihnen den
Standort mitteilt. Wenn wir uns diesen Befehl ansehen, Sie aufgefordert,
eine bestehende Installation zu aktualisieren. Sie haben eine ältere Version davon und haben
diese Zip-Datei heruntergeladen Sie können lediglich diesen
Befehl mit dem Speicherort ausführen. Jetzt können Sie sehen, dass es auf dem Benutzer Local Bend
installiert ist. Sie haben diese Ausgabe erhalten, also verwenden Sie Local Bind, was natürlich der
Standardspeicherort ist. Solange Sie Snap nicht verwenden erstellt
SNAP wie Sie sehen, an einem anderen Ort. Es wird SNAP mit einem Schrägstrich
versehen und dann werden all
diese Dateien dort abgelegt Aber wenn Sie es während
der normalen Installation verwenden, können
Sie diesen Befehl tatsächlich
verwenden Um Ihre Version
Ihrer USB CLI zu aktualisieren. Es ist so, dass der aktuelle
Standort derselbe ist. Wir müssen
das
Installationsverzeichnis überprüfen , ob dies dasselbe ist. Also lass uns die LS I und LTR machen. Ja, Sie können sehen, dass das
Installationsverzeichnis existiert, oder? Also das ist so ziemlich das. Also können wir diesen Befehl ausführen. Wenn Sie eine neuere Version
oder die neueste Version nach 29 haben, können
Sie diesen Befehl ausführen. Und dieser Befehl funktioniert
so, als ob Sie sich bereits
im APs-Ordner befinden, richtig. Sie müssen das also nur entfernen. Also hinkt es einfach sehr hinterher. Also um zu installieren.
Lot Slash installieren Jetzt können Sie sehen, dass es
übersprungen wird, weil es dieselbe Version erkannt
hat, die
Sie aktualisieren möchten Diese Art von Upgrade können Sie
auch durchführen, wenn Sie eine ältere Version installiert
haben und planen
, diese zu aktualisieren Im nächsten Video werden
wir uns mit Amazon Linux befassen und es dort auf die
neueste Version
aktualisieren. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Wir sehen uns im nächsten.
53. Labs Linux CLI-Installation mit Snap: Hey Leute, wir kommen
zurück zum nächsten Video. In diesem Video werden wir
sehen, wie man
dieses spezielle Gerät nutzt und es mit MbiXtem
verbindet Nun, das ist eines der Videos. Ich habe es noch nicht gemacht,
also kannst du dieses
mobile Extem installieren, das kostenlos ist Und dann können Sie tatsächlich Ordner wie diesen
erstellen. Es tut mir leid, Ordner
wie dieser neue Ordner und dann die AWS-CLI auswählen. Das ist der
Ordnername, und
darin können Sie tatsächlich auf Ihre Sitzung
klicken. Dann können Sie tatsächlich zu
Ihrer AWS-CLI gehen und das
öffentliche IPR von dort kopieren, es hier
ablegen, den
Benutzernamen vom Connector nehmen, mit der rechten Maustaste klicken und eine Verbindung herstellen und
den Benutzernamen hier drüben Sie können also einen
Benutzernamen angeben und dann diesen
Benutzernamen hier eingeben und dann AWS CLI Open als Spitznamen dafür
angeben auch AWS CLI Open als Spitznamen dafür
angeben
, damit er verschwindet.
Er wird hier angezeigt. Und vergessen Sie dann nicht, Good Advance zu
geben und dann Private K zu
verwenden und den
Ordnerdateinamen hier anzugeben. Für mich habe ich als Teil davon
schon einen Dateinamen hier. Ich werde
diesen Ort einfach für mich kopieren. Ich kann nicht kopieren. Lassen Sie mich es einfach bearbeiten
und dann durchsuchen. Klicken Sie einfach hier und
Sie können den Standort
durchsuchen und dann
den Standort lokalisieren Ordnung. Ich habe den Standort genau bestimmt, wie Sie hier sehen
können Das sollte mir
reichen Also klicken Sie auf Okay. Und dann doppelklicken Sie
einfach darauf. Ich werde Sie fragen, ob Sie die Authentifizierung akzeptieren möchten . Ähm, okay, das ist komisch. Ich sage, ich unterstütze kein
Authentifizierungsformular. Lass uns das einfach noch einmal versuchen. Scheint, als ob es diesen Ort nicht
eingenommen hat, also versuchen wir es einfach noch einmal. Okay, es heißt also, dass Sie die maximale Anzahl
von Speicherabschnitten
erreicht haben . Okay, ich hab's. Ich muss ein paar Sessions hier
drüben erzählen , weil ich
in der Testversion bin, richtig, damit ich hier
mehr Sessions speichern kann. Lass uns das gleich anklicken. Also wird es dir hier
eine Frage stellen. Akzeptierst du, akzeptierst
du,
den Treuhänder zu teilen und
so Also musst du nur ja sagen
und dann solltest du in der
Lage sein, dich darauf einzulassen Jetzt bin ich im U
Bundu-Betriebssystem, wie Sie hier sehen können, und der AWS-Befehl funktioniert, Sie wissen schon, nicht Es gibt also mehrere Möglichkeiten, die AWS DS-Version zu
installieren, und Sie können sehen, dass die
App AW CLI installiert, Sie haben SNAP installiert AW CLI Dies ist also eines der
unterstützten Elemente hier, wie wir in diesem Dokument besprochen
haben. Wenn Sie also auf die
Installation mehrerer Methoden klicken
, müssen Sie sie herunterladen und installieren, und
das ist diese. Sie haben ARM für ARM Linux,
wie Sie es installieren möchten. Sie haben hier nur ein anderes
Architekturpaket und Sie haben das Snap-Paket. Für Snap
müssen Sie also nur diesen Befehl verwenden. Sie installieren also einfach AWS CLI
und installieren das dann. Also, wenn du einfach das, ähm,
Pudo Sudo siehst , schätze ich Also werden wir einfach
Sudo eingeben. Installieren Sie einfach AWS CLI Classic. Jetzt wird dieses Paket
heruntergeladen und es wird
nicht nur dieses Paket,
sondern auch seine Abhängigkeit installiert . Hier sehen Sie die AWS
iPhone iPhone-Version. Jetzt sollte das mit AWS CLI, 218, erscheinen. Wenn ich AWS
eintippe, sehen Sie jetzt denselben
Hilfebefehl , den wir zuvor gesehen
haben. Dies ist eine der einfachen
Methoden zur Installation. Wenn Sie also
auch die andere
Methode zur Installation verwenden möchten, werde ich es Ihnen
im nächsten Video zeigen. Um das zu entfernen, denke ich, sollte
der Befehl remove hier entfernt werden, das sollte das Paket entfernen. Okay, Sie können sehen,
dass das jetzt entfernt ist. Wenn ich Typen eintippe, ich
habe eine iPhone-Version, kann
man sehen, dass BDS nicht gefunden Also ziemlich einfache Methode
der Installation mit Snap. Im nächsten Video
zeige ich Ihnen die andere
Installationsmethode, da Snap
manchmal nicht Teil Ihres
Betriebssystems ist. Wenn du zum Beispiel zu Sentos oder einem
anderen Betriebssystem wechselst, wirst
du Snap nicht haben, dann wird
es für dich zu einer
Komplikation Also werde ich dir
die andere Methode zeigen , die hauptsächlich
von großen Leuten benutzt wird, also sehe ich dich
im nächsten Video
54. Labs Windows CLI-Installation: Hallo Leute. Willkommen zurück
zum nächsten Video. Und in diesem Video werden wir
die Windows-CLI installieren. Wenn Sie also einfach
darauf klicken, sollte Ihre Windows-CLI auf Ihr System
heruntergeladen werden. Wenn Sie auf das macOS klicken, wird
es heruntergeladen Ebenso werden wir zuerst die
Windows-Installation
abschließen. Damit Sie die
Windows-Installation kennen, finden Sie
sie hier. Wir gehen einfach zu den Optionen, Sie werden hier einen Download
finden, der hätte sein sollen. Wie Sie hier sehen können, habe ich es bereits mehrmals heruntergeladen ,
wie Sie sehen können. Ich werde diese Datei öffnen. Nun, das kommt mit
den Informationen was Sie einrichten werden. Das ist also eine Version zwei
Ihrer AWS-Befehlszeilenschnittstelle. Also klicken Sie einfach auf Weiter. Stimmen Sie den Allgemeinen
Geschäftsbedingungen hier zu. Klicken Sie einfach
erneut auf Weiter, nachdem Sie zugestimmt haben. Hier wählt es
den Pfad aus, in dem Ihre CLI-Version zwei
installiert werden soll Ihre CLI-Version zwei
installiert Klicken Sie auf Weiter. Und dann
klicken Sie auf und installieren. Nun, das Mac-Betriebssystem
ist genau das Gleiche. Ich habe kein
Mac-Betriebssystem. Wenn Sie also das
Mac-Betriebssystem herunterladen, öffnen Sie es, damit es Ihnen genau die gleichen Schritte
anzeigt oder zeigt
, die wir gerade befolgt haben. Jetzt müssen wir das nur noch
installieren und dann müssen wir nur noch auf Fertig stellen
klicken, sobald die
Installation abgeschlossen ist. Was jetzt passiert, ist so
, als
ob es mit
unserer Befehlszeile erstellt wird, also wird es als
Teil unserer
Windows-Befehlszeile verwendet . Ich warte nur darauf, dass
das Produkt installiert ist. Okay, jetzt, wo die
Installation abgeschlossen ist, klicken Sie auf die Schaltfläche Fertig stellen. Öffnen Sie jetzt ein
Befehlszeilenfenster, damit ich zu meiner Ausführungsaufforderung gehe. Ich gebe CMD an meiner Eingabeaufforderung ein und
klicke dann auf Okay Also gehe ich zu einem anderen
Doppelpunkt hier drüben. Eine weitere Eingabeaufforderung ist geöffnet. Jetzt können Sie sehen, dass dies nur
eine normale
Eingabeaufforderung ist. Sie können
dasselbe auch für Macos tun. Öffnen Sie Ihre
Eingabeaufforderung und geben Sie AWS ein. Wenn Sie zuvor AWS
eingegeben hätten, hieß
es, der
Befehl wurde nicht gefunden. Diesmal können
Sie jedoch nach der
Installation der CLI feststellen, dass dieser
spezielle Befehl funktioniert. Also AWS-Hilfe, und alle verfügbaren
Hilfethemen finden
Sie hier. Sie geben hier einfach eine
Leertaste ein, damit alle
verfügbaren Optionen hier angezeigt werden. können sehen, was Sie von der Konsole aus
tun können.
Sie können es auch
von der AWS aus tun. Es tut mir leid, AWS CLI auch. Ebenso haben Sie hier
alle Befehle , die Sie verwenden können. Das sind also die Gegenstände. Im Grunde
sind dies die Dienste, die von AWS angeboten werden, und dies sind die verschiedenen
Arten, auf sie zuzugreifen. Wir werden uns zu einem späteren
Zeitpunkt genauer damit befassen, sodass
wir in einer separaten Sitzung
darüber sprechen werden , wie Sie in
Zukunft
mit Ihren AW-Services arbeiten können. Ich werde euch ein paar Informationen
zu SS 3 geben, sowie auch zur einfachen
Instanzensteuerung. Also werde ich
dir das einfach beibringen. Nur um Ihnen den
Einstieg in AW CLI zu erleichtern, damit
Sie es bei der nächsten Schulung
oder der nächsten Zertifizierung nicht
schwierig finden. Das ist also so
ziemlich das, was ich in diesem Video
behandeln möchte. Nochmals vielen Dank für
Ihre Zeit und Geduld. Wir sehen uns im nächsten Video.
55. Laborverfügbarkeitszonen: wir nun verstanden haben,
was eine Region ist, wollen wir verstehen, welche
T-Zonen verfügbar sind. Verfügbare T-Zonen sind im Grunde genommen Rechenzentren,
die verfügbar sind. Nun, innerhalb einer Region Ihnen möglicherweise mindestens
zwei T-Zonen zur Verfügung ,
oder es gibt derzeit möglicherweise maximal
sechs verfügbare T-Zonen
in der Region USA Ost, eine Region, nämlich Northland Virginia In dieser Region sehen
Sie also sechs AZ,
was bedeutet, dass es sich um sechs Theta-Zentren
handelt Diesen sechs Theta-Centern
wird nun ein Subnetz
zugewiesen, das
jeweils einen Subnetznamen klassifiziert, der jeder Availability Zone zugewiesen ist Was ein Subnetz-Subnetz ist, ist eine Gruppe von
IP-Adressen, die den
Diensten
zugewiesen werden können, die Sie in jeder dieser Verfügbarkeitszonen hosten Nun, das ist unter VPC
konfiguriert,
okay, Virtual VPC nimmt also
viele Subnetze auf, die
jeder Availability Zone zugeordnet sind, und diese werden als
Teil aller Dienste konfiguriert , die
Sie konfigurieren werden Wenn Sie also
eine EC-2-Instance konfigurieren, konfigurieren
Sie tatsächlich, ähm, Sie werden tatsächlich das sein,
was Sie gemäß
der EC-2-Instance
konfigurieren würden , Sie konfigurieren ein
sogenanntes Subnetz Ebenso werden Sie, es tut mir leid, Sie werden VPC
als Teil Ihrer EC Two-Instance konfigurieren als Teil Ihrer EC Two-Instance In diesem Szenario
ordnen Sie Ihre virtuelle
private Cloud zu, die über ein Subnetz verfügt, und
jedes Subnetz hat jede der
Verfügbarkeitszonen, und dann
erstellen Sie einen Dienst diese bestimmte Wir haben diesen Prozess auch gesehen. Ich zeige Ihnen diesen
Prozess nur noch einmal. Wie wir hier
im vorherigen Video Regionen gesehen haben , hat
jede Region eine
Verfügbarkeitszone. Nehmen wir zum Beispiel diese spezielle Region
Nord-Virginia, die 2006 gegründet wurde.
Dies ist der erste. Wenn Sie sich das ansehen,
ist Irland das zweite Land,
das 2007 andauerte. Wie Sie hier sehen können, haben
Sie hier die sechs
Verfügbarkeitszonen. Wir werden etwas später über lokale Zonen
und Wellenlängen sprechen . Bei Availability Zones handelt es sich jedoch
im Grunde um ein Rechenzentrum. Wie viele
Rechenzentren gibt es also? Es gibt sechs Rechenzentren. Wenn Sie
die Ansicht hier auflisten möchten, werden
Ihnen tatsächlich die
Regionen mit Verfügbarkeitszone angezeigt, sodass Sie die Anzahl
der Regionen hier sehen können. Es gibt
neuerdings Osaka, Japan, tut
mir leid, Tokio,
Japan, wo es vier gibt COL hat hier vier als
Verfügbarkeitszone hier drüben. Jetzt können Sie
den Gesamtwert sehen. Es hat also 41
Verfügbarkeitszonen, 13 Regionen. Das ist also die Region Asien-Pazifik
und China. Hier haben Sie also die regionale Klassifizierung und
wo sie bald erscheinen wird. Okay, es gibt
Ihnen also einen vollständigen Überblick über alles, was Sie haben. Und das ist dann
Region für Region, weißt
du, Klassifizierung hier
drüben. Also das ist so ziemlich viel. Lassen Sie uns also verstehen, was eine
Verfügbarkeitszone ist. Verfügbarkeitszone,
wie gesagt, Sie, es gibt
insgesamt 108 Verfügbarkeitszonen mit 34 Regionen. Okay? Jetzt gibt es 34 Regionen mit
jeweils mehreren
Verfügbarkeitszonen. Sie haben insgesamt
108 Verfügbarkeitszonen , die für Sie verfügbar sind. Das sind also nichts anderes als
Ihre Rechenzentren. Kann ich jetzt den Standort
dieser Rechenzentren erfahren? Nun, das können
Sie nicht, weil die
Availability Zone etwas
ist, was AWS selbst verwaltet. Sie werden nur die Hauptadresse eines bestimmten Standorts oder
einer
bestimmten Region
kennenlernen . Abgesehen davon wirst
du es nicht wissen. Aber wie können Sie sonst
etwas mehr Details darüber erfahren? Wenn wir zu Virtual
Private Cloud wechseln, enthält Ihre Standard-VPC
die Details Wenn Sie also auf Ihre Standard-VPC klicken,
werden die damit verbundenen
Subnetze angezeigt Wenn Sie
ein Subnetz konfigurieren, sehen Sie im Grunde all diese, Sie wissen schon, verfügbaren Elemente hier in Bezug auf Wenn Sie also zu subnutl gehen, um ein Subnetz zu
erstellen, wählen Sie eine VPC Jetzt haben Sie die Möglichkeit, die Availability Zone auszuwählen Jetzt können Sie also sehen
, dass dies die verfügbaren Ilt-Zonen sind ,
die
in dieser speziellen VPC verfügbar Diese VPC gehört also zu Nord-Virginia. Also, wenn ich sage, dass ich nach
der Region Mumbai suchen möchte, dann klicke ich mit der mittleren Maustaste
auf die Region Mumbai Jetzt habe ich
hier in der Region Mumbai eine VPC geöffnet. Ja, Sie können tatsächlich
mehrere Tabs mit unterschiedlicher
Regionskonfiguration öffnen mehrere Tabs mit unterschiedlicher
Regionskonfiguration Für einen Latenztest
habe ich, wissen Sie,
VPCs hier in der Region Mumbai erstellt , um
den Latenztest zu
überprüfen
, auf den wir zu einem
späteren Zeitpunkt noch eingehen werden Wenn Sie sich also in der
VPC der Region Mumbai befinden, werden
Sie feststellen, dass Sie dort eine VPC
haben,
die standardmäßig konfiguriert ist Dies ist die Standard-VPC. Wenn Sie das
Subnetz hier konfigurieren, konkretes Subnetz angeben und zehn
auswählen, leider
die Standard-VPC, oder wenn Sie
eine neue VPC erstellen und
ihr ein Subnetz zuweisen möchten, auch hier wieder,
wenn Sie zu einer
Variablitätszone kommen, sehen
Sie die
Availability Zone, die als Teil
dieser speziellen Region verfügbar ist, nämlich der dieser Die Region Mumbai hat drei Verfügbarkeitszonen. Das Gleiche. Falls ich Oregon
abhole, tut mir leid. Also, wenn ich ein Subnetz
erstellen wähle, lass uns ein Subnetz erstellen
hier drüben zeigt eine Jetzt sehen Sie
die Avabit-Zone, das sind vier
Verfügbarkeitszonen in
der Region Oregon Hier erfahren Sie nun, wie
viele Rechenzentren Ihnen zur Verfügung
stehen Äh, an diesem Ort, in dieser speziellen Region. So erfährst du also, wie viele Availability Zones es
gibt und wie
man sie benutzt, okay? Im Moment
wissen Sie also nichts über das Netzwerk oder Ihr
Subnetz oder
so, also machen Sie sich darüber keine Gedanken Aber ich gebe Ihnen nur,
wie Sie sich
die verschiedenen verfügbaren
Artikel ansehen die verschiedenen verfügbaren
Artikel Normalerweise wird es als A,
zwei B, zwei C, D usw. erwähnt . Das Gleiche gilt auch hier für
die Architektur.
Sie werden sehen, dass die
Availability Zone denselben
Namen wie die Region ,
außer dass direkt daneben ein
Zeichen hinzugefügt ABCDE, EF heißt Hier gibt es sechs
Availability Zones, also es beginnt einfach bei A und dann BCD E F, also geht es weiter bis F. Ebenso sind die Availability
Zones benannt Wenn ich mir also
diese spezielle Zone ansehe, also diese verfügbare Zone,
ähm, der Name der Region ist Sie wird also USS Two A,
BCD genannt, weil sie vier
Availability Zones hat. In Ordnung. Also das
solltest du
aus diesem Video verstehen,
und das soll
sicherstellen, dass du verstehst, was eine
Verfügbarkeitszone mit ihrer Handzone ist. Denken Sie also daran,
sich das nächste Video anzusehen , das Ihnen
etwas mehr
Details zur Verfügbarkeitszone gibt. Nochmals vielen Dank. Wir
sehen uns beim nächsten.
56. Labs Cloud Front – Website einrichten: Hey, Leute. Willkommen zurück
zum nächsten Video. Und in diesem Video werden wir praxisnah über CloudFront
sprechen Hier werden wir
also eine Website auf
Cloudfront erstellen und sie im Cache durchsuchen Das ist also eine ziemlich einfache,
praktische Erfahrung
in Bezug auf CloudFront, und es ist so einfach, dass wir eine einzige Datei erstellen
müssen Jetzt habe ich mich in
die EC-Two-Sion eingeloggt , die ich zuvor
erstellt habe Also ich bin mir ziemlich sicher, dass du
das hast , dass ich
dich nicht gebeten habe, es zu löschen, also musst du das hier drüben
laufen lassen. Das heißt also
AW CLI Ion Machine. Ich verwende dasselbe
, das ich für CLI erstellt habe. Jetzt werde ich hier
eine Datei
namens Index Door GMO erstellen hier
eine Datei
namens Index Door GMO Nun, das wird
meine Indexseite von GMO sein, also werde ich hier ein
H-Tag geben. Ich werde
dieses H-One-Tag schließen und hier habe ich den Inhalt Das ist meine Website von Pocket. Also werde ich diese
Art von HGMO-Seite hier erstellen. Ich werde hier ein
HGMO-Tag verwenden. Nur um darauf hinzuweisen, dass
es sich um eine HGMO-Seite handelt. Ich werde auch
dieses GMO schließen, und das wird
der Inhalt hier sein. Das sind im Grunde hervorgehobene
Inhalte hier drüben, wo es heißt, das ist meine
Website von S Three Bucket Speichern Sie jetzt beim Beenden
dieser Datei .
Diese Datei sollte eigentlich so aussehen. Sobald Sie diese Datei haben,
können Sie sie auf S drei hochladen. Stellen Sie einfach sicher, dass Sie immer noch mit
AWS verbunden
sind , denn Sie haben
sowieso eine Verbindung hergestellt, schätze
ich. Sehen wir uns S3s S wenn Sie es verbinden,
ja, Sie sind verbunden. Jetzt erstellen
wir zunächst einen Bucket oder verwenden nur diesen
Test-Bucket. Mein Beispiel, S Three Bucket selbst, werden wir
als Namen für unsere Website verwenden, und dann werde ich diesen
Inhalt dorthin übertragen, S Three Copy, Index oder SMO Zu diesem S drei Buckets. Ich gebe S einfach einen Schrägstrich mit drei
Doppelpunkten kopiere es in diesen Bucket Es tut mir leid, ich sollte CP sein. Ich sollte es kopieren lassen. Jetzt sollte
ich das in meinem ST-Bucket haben, ich
werde das als Lesezeichen speichern, weil wir es so oft benutzt haben Also hier
hat mein Beispiel-Bucket den Index zur HMO-Datei. Sie können
die Datei hier nicht wirklich lesen, weil S 3 ein Ort ist, an den Sie die Datei kopieren und speichern
können, aber es gibt keine Möglichkeit,
den Inhalt der Datei zu lesen , weil eine Datei alles Mögliche sein kann, also erlaubt ST
Ihnen das nicht Nun, da Sie
die Datei
von Ihrem Linux-System
in den S-3-Bucket kopiert haben , sollten
wir damit einverstanden sein,
daraus eine Website zu erstellen. Da wir nun
über eine Website
auf diesen ST-Bucket zugreifen werden , müssen wir
diesen ST-Bucket Berechtigungen
akzeptiert,
damit er vom Internet aus durchsucht werden kann Standardmäßig wird ein ST-Bucket so
erstellt, dass alle
öffentlichen IP-Adressen blockiert werden, ähm, also müssen wir
das deaktivieren , damit Cloud Friend
den Inhalt von,
äh, diesem STR-Bucket der Öffentlichkeit zugänglich
machen Um das zu tun, können Sie hier
auf Erlaubnis klicken. Und innerhalb dieser Erlaubnis sehen
Sie die Einstellung „Bucket für öffentlichen
Zugriff blockieren“. Es ist also derzeit aktiviert. Das heißt, es
blockiert tatsächlich den gesamten öffentlichen
Zugriff auf diesen Bucket. Klicken Sie also hier
auf Bearbeiten und deaktivieren Sie dies und Sie können auf die Schaltfläche Speichern
klicken. Also ist es konform
und dann klicken Sie auf Enta Ich glaube, ich habe
die Schreibweise Klicken Sie auf Bestätigen und
damit sollten Sie Internet
auf Ihren Bucket
zugreifen Ihr CloudFront
kann diese Informationen verwenden und wir können diese
spezielle Datei
über das Internet projizieren spezielle Datei
über das Internet projizieren Gehen wir jetzt zu
CloudFront hier drüben. Lassen Sie uns
das alles schließen und dann
CloudFront öffnen . Jetzt ist
CloudFront Jetzt können Sie auf Cloud klicken und eine Cloud-Distribution
erstellen. Wenn Sie jetzt auf
CloudFront-Verteilung klicken, können
Sie den
Ursprung Ihrer Website auswählen Es kann also von beliebigen Aktionselement
hier sein, es kann von einem Load
Balancer stammen, wenn Sie Ihre
Anwendung auf einen EC Two verweisen Load Balancer zeigt
auf Ihre Anwendung auf EC Two und EC Two zeigt
auf Ihre Anwendung
, die darauf läuft Aber in dieser Situation werden
wir es von S Three Bucket aus verwenden Also das ist der eine
und von hier, dem ursprünglichen Pfad hier drüben, können
wir das eigentlich ignorieren. Im Moment müssen wir hier keinen Quellpfad
angeben. Wenn Sie hier drüben einen Namen haben
, der, Sie wissen schon,
etwas ist , das Sie als Webseitennamen
verwenden können, und das ist der Name, den Sie hier eingeben
können. Es gibt bestimmte Aspekte, die
Sie nicht ändern können. Das
wird zum Beispiel ein
Cloud-Freundesname sein, sodass du so ziemlich alles
haben kannst, was du willst. Aber dein Domainname wäre hier in
etwa so. Der Origin-Pfad ist im Grunde genommen wenn Sie danach einen
bestimmten Pfad angeben möchten,
R, wir brauchen ihn momentan nicht. Also gehen wir einfach mit der Öffentlichkeit. Also öffentlich, was bedeutet, dass
jeder darauf zugreifen kann. Wenn Sie einen individuellen
Kopf oder eine Information haben, können
Sie sie hier angeben. Also das wird jetzt zu Origin Shield
passen. Origin Shield fügt eine
zusätzliche Caching-Ebene hinzu, die dazu beiträgt, die Belastung
des Origins zu reduzieren und gleichzeitig dessen Verfügbarkeit
zu schützen Und jetzt haben wir hier
das Cache-Verhalten, also das ist die
Cache-Einstellung hier. Viewer-Protokoll
ist HTTP und HTTPS oder leitet HTTP zu HTTPS um.
Ich würde das wählen. Wenn jemand auf die HTTP-Website
zugreift, wird Ihnen die
HGTV-Website separat angezeigt, und dasselbe Steuerelement wird auch auf der
HTTPS-Website
angezeigt Es wird jedoch immer
dringend empfohlen , nur über HTTPS zu surfen Wenn Sie hier jedoch nur HTTPS
auswählen, die Personen, die versuchen HTTP für Ihre URL zu verwenden,
nicht darauf zugreifen Es gibt also immer eine
Weiterleitung von HGTP zu
HGTPS . Erlaubt die Methode Das heißt also,
deine Anfrage oder deine oder,
du weißt schon, Informationen über den
Informationskopf hier drüben zu bekommen du weißt schon, Informationen über den
Informationskopf hier drüben Nun, es ist nicht empfehlenswert all diese
Informationen
zur Verfügung zu haben, da durch die
Veröffentlichung von Informationen Informationen auch
an Ihren Dienst weitergeleitet werden
können. Das ist nicht eingeschränkt. Ansicht mit eingeschränktem Zugriff. Dies ist im Grunde für
Ihre Cookie-Einstellungen, und dann haben Sie hier auch einige
Cookie-Einstellungen, die Optimierung der Cache-Richtlinien Wir werden die Standardeinstellung verwenden , die für
ST empfohlen wird .
Wir werden auch hier die
Standardeinstellungen haben. Jetzt hast du hier so
viele Einstellungen. Also hier hast du
den vA-Schutz. Also aktivieren wir
hier den
VAF-Schutz für jede Art von
Angriff auf unsere Website Und dann
nutzen Sie hier in der Umgebung den gesamten Edge-Standort, beste Leistung, verwenden Sie
Nordamerika und Europa Das bedeutet also, dass
Ihre Informationen priorisiert werden. Auf dieser Grundlage
wäre die Preisgestaltung also davon abhängig. Wenn wir uns
für alle Edge-Standorte entscheiden unabhängig vom Standort, wird
jeder Edge-Standort das übernehmen. Wenn Sie also auf die
Preisinformationen klicken,
CloudFormation, tut mir leid,
CloudFront-Preise Nun, Sie werden sehen, dass es hier eine kostenlose ID gibt
, ein TB an Daten, die pro Monat
aus dem Internet übertragen werden , ist kostenlos oder 10.000 HTTP- oder
HTTPS-Anfragen pro
Monat oder zwei,
ich glaube, es sind 2 Millionen
Cloudfront-Funktionen pro Monat abgerufen werden,
und dann kostenloses SSL-Zertifikat, keine Einschränkungen, alle Wenn Sie
die vollständige Preisgestaltung verstehen möchten, wenn Sie den
endgültigen Wert überschreiten, können
Sie hier sehen, wie die Cloud
ab einem TB in den Ruhestand geht. Damit erhalten
Sie bereits ein TB in den Ruhestand. Hier können Sie tatsächlich
nach Preisen suchen, wie viel Datentransfer
Sie erwarten möchten Es ist ein GB pro Monat, Datenübertragung, wieder ein
GB pro Monat. Die Anzahl der Anfragen
wird um sein, für ein GB Daten würde 5.000 Anfragen
bedeuten, was in
dieser Berechnung so ist, Sie werden sehen,
wie viel Ihnen Rechnung gestellt
wird, Ihnen wird berechnet. Die erste ist, dass es 0,09 USD sein wird
. Es ist ziemlich billig und die monatlichen Gesamtkosten
betragen etwa 0,12 USD Das ist so ziemlich deine Berechnung für die
Vereinigten Staaten, aber dann kannst du sie
tatsächlich, du weißt schon, auch für verschiedene Standorte
überprüfen und die Berechnung
für verschiedene
Standorte hier finden . Sie haben hier auch ein
Sicherheitssparpaket, dem
Sie tatsächlich sparen können, indem Sie
sich die häufig gestellten Fragen
durchlesen. Sie können also bis zu
30 Prozent von,
äh, Sie wissen schon, pro Monat in
der Cloud sparen . Aber wie auch immer, wie wir den Basisartikel hier verwenden werden. Also hier die HTDV-Version. Wenn Sie also ein
benutzerdefiniertes Zertifikat, ein
SSL-Zertifikat, haben , können Sie es hier
auswählen, aber wir werden das Standardzertifikat
verwenden Hier ist die Protokollversion. Wir verwenden hier die Standardprotokolle und die
Standard-Logs. Darin geht hier die Standardprotokolle und die
Standard-Logs um
die Viewer-Anfrage, es um
die Viewer-Anfrage,
wer sie sich ansieht, und
Sie können sie einschalten was bedeutet, dass Sie sie hier auf einen
Bucket legen
können. Also werden wir es in den
Test-Bucket hier drüben stellen. Ungültiger Bucket für die standardisierte
Protokollierung aktiviert ACO. Ebenso benötigen Sie
es jetzt nicht , weil
es kompliziert wird. Klicken Sie auf Verteilung.
Dadurch sollten Sie eine
CloudFront-Verteilung erstellen der CloudFront-Distribution
können Sie
jetzt eine Website erstellen
und diese hosten lassen Und Sie können hier tatsächlich sehen , dass sich das Gerät derzeit in der
Bereitstellungsphase befindet. Da steht die Registerkarte Sicherheit. Ich, weißt du, es kreiert das, teile deine Meinung und
bitte um Feedback. Lassen Sie uns hier weitermachen und sehen sich
das
im Bereitstellungsstadium entwickelt. Sie werden immer noch bereitgestellt, daher kann
es einige Zeit dauern. Ich suche hier nur nach Ereignissen aller
Art, für die Sie auch benutzerdefinierte
Fehlerseiten hinzufügen können. Sie können hier Verhaltensweisen,
Ursprünge und Sicherheit hinzufügen . Wenn es irgendwelche
Sicherheitsrator-Warnmeldungen oder ähnliches gibt, können
Sie das tatsächlich sehen Sie können die Metriken,
Ihre
Vertriebsmetriken auch hier überprüfen . Es gibt keine Daten, weil ich vermute, dass es hier
immer noch passiert was die Verteilung
der Bereitstellung angeht. Lassen Sie mich das Video pausieren und
pausieren, sobald der Vorgang abgeschlossen ist. Also Leute, gerade erst angefangen, ihr könnt sehen, dass die Bereitstellung abgeschlossen
ist und ihr seht das Datum der Bereitstellung
, die abgeschlossen ist. Wenn Sie darauf klicken,
werden Sie tatsächlich die
Anforderungen
hier sehen , ebenso wie in den Details der allgemeinen Details dieser
speziellen Distribution. Sie können die Sicherheit sehen,
Sie können den Ursprung sehen. Der Ursprung wird tatsächlich,
die S, drei Bucket Details hier
drüben haben die S, drei Bucket Details und das ist
im Grunde dein Ursprung. Wenn Sie also
diese Anwendung durchsuchen möchten, können
Sie diese Distribution
unter meinem Namen hier benutzen, aber sie ist immer noch die letzte Änderung, da sie
gerade bereitgestellt wird. Wenn Sie also nur
auf diese Website zugreifen, können
Sie sehen, dass sie heute
Abend mit Access verfügbar ist. Nun, das fasst ziemlich gut zusammen
, dass es immer noch bereitgestellt wird, also werden wir noch etwas länger
warten. Es sind also schon
zehn bis 15 Minuten vergangen, also müssen wir vielleicht noch ein paar Minuten
warten, und dann sollte es meiner Meinung nach bereitgestellt
werden. Also denken Sie jetzt daran, dass Sie diesen
speziellen Aktionspunkt bearbeiten
können. Ich glaube, ich habe hier etwas
falsch gemacht. Deshalb ging es zurück zur Bereitstellung, denn als wir das
letzte Mal sahen, dass es hier tatsächlich
die Zeitpläne vorgab, weiß ich nicht, was
ich hier falsch
gemacht habe,
aber es ging wieder zur Bereitstellung über ,
geben Sie mir etwas Zeit, also lassen Sie es klären Denken Sie jetzt daran, dass
Sie
den Index Toga auch als Ihre
Stammseite angeben können ,
um den Index m
als Ihre Stammseite zu haben Hier in den Einstellungen hier drüben haben
Sie das
Standard-Stammdokument Hier können Sie weitermachen und es
bearbeiten und diesen,
ähm, Index hier in HTML einfügen und Sie können die Änderungen speichern Nun, vielleicht war das
der Grund? Ich weiß es nicht. Wenn Sie hier einfach auf dieses
Indexpunkt-HGML zugreifen, schauen wir mal. Du bekommst immer noch diesen Zugriff war eine Ausnahme.
Gib mir nur eine Sekunde. Nun, dieser Fehler könnte bedeuten dass auf das S Drei
nicht zugegriffen werden kann, Objekt
S drei, das auf
STMO indexiert ist, nicht Von dort
kommt Access Dinit. Also, wie werden wir es reparieren? Zunächst werden wir S drei
öffnen und versuchen, S drei zu durchsuchen
und festzustellen ob der ST tatsächlich
zugänglich ist, damit wir verstehen
können, ob
dies ein Problem
mit Cloud Front oder ST selbst ist . Lassen Sie uns diese
S3-Datei hier öffnen und Sie erhalten hier
tatsächlich eine URL , mit der Sie diese
Datei öffentlich durchsuchen können. Wir haben das aktiviert, wir
haben es deaktiviert. Lassen Sie uns diesen aktualisieren. Wenn ich Control Refresh mache, können
Sie sehen, dass wir hier
dasselbe Ergebnis erhalten. Der vorherige
kam aus dem Cache. Wenn Sie eine Kontrollaktualisierung
durchführen, halten Sie die Strg-Taste gedrückt und drücken Sie die Taste F fünf Dadurch wird der
Cache aktualisiert und Sie werden aufgefordert, die neuen Ergebnisse abzurufen. Sie erhalten diesen Zugriff
auf Stufe S. 3. Damit Sie dieses
Cloud-Front-Problem beheben können, scheint
die Cloud-Front in Ordnung zu sein. Es stellt die Anwendung bereit, aber das Problem ist , dass diese Ausnahme von der dritten Seite
kommt. Um diese Ausnahme zu beheben, können Sie zunächst
die Berechtigungen Ihres Buckets verstehen .
Etwas geschlossener. Was wir also
getan haben, ist, wissen Sie, wir haben den Blog mit dem
Namen Public Access deaktiviert, aber wir haben dem Access How-Bucket immer noch keinen öffentlichen
Zugriff
gewährt. Damit Sie hier
rüber kommen können, haben
wir eine Zugriffskontrollliste. Wenn Sie nun die
Zugriffskontrollliste hier lesen, gewährt
das dem Bucket-Besitzer im Grunde genommen
Zugriff auf Lese- und Sorry-, Listen- und Schreibobjekte sowie Bucket-ACLs zum
Lesen und Schreiben Bucket-ACLs, wissen Sie,
etwas, das Sie als Besitzer tun
können,
das ist offensichtlich, dass
Sie das nicht tun können Aber für den öffentlichen Zugriff können
Sie sehen, dass das hier so
gut wie nicht
verfügbar ist. Nun, hier wird
es kompliziert. Jetzt müssen wir das nur bearbeiten und
den öffentlichen Zugriff aktivieren, aber das Problem ist, dass
die Bearbeitung deaktiviert ist. Wenn Sie die Informationen sehen, diesen Bucket die
Einstellung „
Bucket Owner erzwingt “ auf den
Objekteigentum angewendet Im Grunde gilt
dies also für die oberste Ebene. Wenn Sie also, wissen Sie,
spezifische Anforderungen für
diesen speziellen Bucket
ändern möchten , müssen
Sie
den
Objekteigentum hier ändern indem Sie auf
Hier bearbeiten klicken und dort auf deaktivierte ACL ändern, um ACO zu aktivieren Sie müssen also bestätigen
, dass Sie ACR für
einen bestimmten Bucket aktivieren , und dann auf Änderungen speichern
klicken Wenn Sie nun
zu derselben Option kommen, sehen
Sie
hier die Schaltfläche
Bearbeiten . Klicken Sie auf die Schaltfläche Bearbeiten. Jetzt haben Sie das Verhältnis von Objekt
und Bucket. Für alle, die öffentlich zugänglich sind, können
wir die Objekte auflisten,
die sich im Bucket befinden, aber wir können nicht, dass Bucket
Co nicht gelesen werden kann. Okay? Also können wir nur
den Zugriff auf Objekte auflisten. Also klicken Sie einfach auf, ich
verstehe. Speichern Sie die Änderungen. Aber das gilt nur für diejenigen die zu einem
späteren Zeitpunkt erstellt werden, aber dieser ist schon da, also müssen wir vielleicht
die Einstellung für sich selbst vornehmen .
Guru-Erlaubnis hier drüben, und du hast den gleichen
Satz von so
ist, wann immer das erstellt wurde,
es ist dieselbe
Berechtigung zu
diesem Zeitpunkt, klicke
einfach hier auf Bearbeiten
und lies weiter über Objekte auswählt, damit die Leute
die Objekte lesen können , die sich
in diesem öffentlichen Bucket befinden, und ich sage, verstehe, und dann speichere ich die Änderungen. Wenn Sie jetzt diese
URL durchsuchen, schauen Sie, ob sie funktioniert. Jetzt können Sie sehen, dass dies genau
derselbe Inhalt
dieser bestimmten Datei Dieser Inhalt funktioniert also. Schließe das und aktualisiere
es so
ziemlich und du kannst sehen, dass dieser Inhalt jetzt
aus S Three Bucket stammt. Jetzt wird dieser Inhalt im Grunde auf Ihrem Cloud-Freund
gehostet. Sie können die CloudFront-URL sehen
, von der ich sie
hier aus dieser CloudFront-URO übernommen habe Dann habe ich sie hier rübergebracht Wenn ich jetzt versuche, das sind
die Bucket-Informationen, S drei Bucket-Informationen Wenn Sie einfach HTDP
hierher stellen, können Sie das sehen. Sie möchten diese
Informationen deaktivieren, ganz einfach. Es gibt zwei Möglichkeiten für Sie. Sie können die
Bucket-Informationen ändern indem Sie zu Bucket Permission gehen, und dann können Sie sie bearbeiten und Sie können sie entfernen und die Änderungen
speichern. Nun, diese spezielle Information wird nicht kommen.
Sie kommt immer noch. Das ist so ziemlich, weißt du,
ich dachte, es würde
den öffentlichen Zugang zum
Objekt deaktivieren , aber
ich denke trotzdem, es ist eine
allgemeine Information Ihnen den Inhalt
dessen
zeigt, was es hat. Also das ist in Ordnung, denke ich. Also hier haben Sie die Information , dass
es einen Index zur Datei gibt. Ich habe dir gesagt, dass es
einen anderen Weg gibt, oder? Gehen Sie also hier in das
Root-Objekt und bearbeiten Sie dieses Root-Objekt und sagen das
Root-Objekt
auf den Indexpunkt HGMO zeigen soll Das ist also auch eine andere
Möglichkeit, dies zu deaktivieren. Aber ich denke, es wird
diese Änderungen sofort implementieren. Warten wir also, bis die
Änderungen implementiert sind. Es kann ein paar Minuten dauern. Oder um eingesetzt zu werden. Jetzt denke ich, dass die
Bereitstellung abgeschlossen ist Ich glaube, es heißt Bereitstellung. Aber wenn Sie einfach die Website
eingeben, können
Sie sehen, dass Sie nicht den Zugriff
haben, den Sie
zuvor hatten , und Sie
rufen direkt den Index ab,
der die Frontdatei ist. Auf diese Weise
können wir also verhindern, dass Informationen auf
der Startseite Ihrer CloudFront-Website gedruckt
werden der Startseite Ihrer CloudFront-Website Jetzt können Sie sehen, wie
oft ich es aktualisiere. Ich erhalte diese Seite,
ohne sie zu tippen. Wenn Sie also
auch HTTP eingeben, ist das kein Problem, es wird zu HTPS umgeleitet und Sie erhalten den Index
für GM-Inhalte Das liegt daran, dass
ich gerade
Index H GML als
Standard-Root-Objekt aktiviert Index H GML als
Standard-Root-Objekt In diesem Fall erhalte ich jedes Mal, wenn ich auf diese Website oder diesen
bestimmten Domainnamen zugreife, auf diese Website oder diesen
bestimmten Domainnamen zugreife,
den Inhalt
von Index H So können Sie es auf
CloudFront hosten. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Es war
nützlich für dich. Lassen Sie mich weitermachen und
diese spezielle Cloud-Front löschen weil wir nicht wollen
, dass sie läuft weil sie viele,
Sie wissen schon, Gebühren von AWS übernehmen
wird . Lassen Sie uns
also weitermachen und
das, was nicht bereitgestellt wurde, deaktivieren Und wenn es dann deaktiviert ist, haben
Sie die Möglichkeit, diese spezielle,
Sie wissen schon, Instanz zu löschen Also ich denke, es ist immer noch
betriebsbereit, schätze ich. Ja. Ja,
gib ihm einfach etwas Zeit und du wirst die Option haben, das zu löschen. Nochmals vielen Dank. Ist Sume das nächste Video.
57. Labors Beschreiben, wann mehrere Regionen verwendet werden sollen: Hallo Leute, willkommen zurück
zum nächsten Video. In diesem Video werden wir darüber sprechen
, wann mehrere AWS-Regionen
verwendet werden sollten. Dies ist eine der
wichtigsten Fragen hier.
Es geht darum , Sie zu fragen, wann Sie mehrere AWS-Regionen
verwenden sollten. Hier werden wir uns also mit Disaster Recovery, Geschäftskontinuität, geringer Latenz für Endbenutzer
und Datensouveränität befassen. Dies sind also einige der
Punkte, mit denen wir uns Rahmen dieses
speziellen Videos befassen werden. Denken Sie jetzt daran, dass
ich
wegen der geringen Latenz am Ende
der Sitzung ein Video erstellt habe. Nun, ich beende den
nächsten Aktionspunkt. Am Ende der
Sitzung habe ich
ein praktisches Video erstellt, in dem Sie
die Latenz praktisch ausprobieren können die Latenz um ein bisschen
mehr über Latenz zu erfahren. Das ist das einzige, was ich Ihnen in Bezug auf
all diese Aktionspunkte zeigen kann all diese Aktionspunkte denn mehr oder weniger
Disaster Recovery, Geschäftskontinuität und
Datensouveränität hängen
alles von Theorie ab und es gibt keine tatsächliche Möglichkeit, sie umzusetzen. Aber die niedrige Latenz kann ich Ihnen in der Praxis
zeigen. Aber um
diese Kursübersicht nicht zu stören, habe ich das Video am Ende
dieses speziellen Abschnitts platziert Lassen Sie uns mit diesem
Video fortfahren und wir werden es verstehen. Zunächst beginnen wir
mit der Notfallwiederherstellung. Jetzt
kann die Verwendung mehrerer AWS-Regionen erhebliche Vorteile bieten. Im vorherigen VDO
haben wir über die Arbeit mit mehreren Availability
Zones gesprochen, okay Availability Zones bieten
Ihnen
tatsächlich Stabilität gegenüber
Ihrer Anwendung
und bieten Ihnen eine Ihrer Anwendung
und bieten Ihnen hohe Verfügbarkeit
Ihrer Anwendung Aber was ist, wenn Sie
mehr als das benötigen? Zum Beispiel, wenn
Sie das Modell
der globalen Infrastruktur sehen . Also im Moment sind wir hier drüben. Wir haben unsere
Anwendung
hier in
Nord-Virginia bereitgestellt hier in
Nord-Virginia Es tut
mir leid, in Nord-Virginia haben wir
unsere Anwendung bereitgestellt. So perfekt. Jetzt befinden sich
meine Kunden also in Amerika, also im nördlichen Teil Amerikas, hauptsächlich
an diesem Standort. Aber plötzlich erhalte ich eine Anfrage von mehreren
Personen aus Indien. In dieser Situation muss ich
jetzt
einen Server an diesem Standort einrichten, muss ich
jetzt
einen Server an weil jedes Mal, wenn die Leute darauf zugreifen, sie hierher kommen und dann auf diese Region zugreifen
müssen . Das bedeutet, Sie wissen schon, eine Menge Latenz hier
drüben, wenn
wir von Indien nach
Amerika kommen , oder? Also,
ich möchte es
auf regionaler Basis meiner, äh,
Sie wissen schon, Anwendung implementieren auf regionaler Basis meiner, äh,
Sie wissen schon, , die
ich hier hoste. Ich
plane also einen Dienst,
einen Loadbalancer, der tatsächlich, wissen Sie, den
Service zwischen
der amerikanischen Region und der indischen Region ausgleicht und
meinen Dienst in
der Region Mumbai hosten
kann den
Service zwischen
der amerikanischen Region und der indischen Region ausgleicht und meinen Dienst in
der Region Mumbai hosten Und die erste Frage ist, können wir das
schaffen? Ja, das können wir. Damit
kommen wir nun zu dem Thema Multiregion für AWS. Hier kann die Verwendung mehrerer
AWS-Regionen
erhebliche Vorteile in Bezug auf
Verfügbarkeit, Leistung
und Compliance bieten erhebliche Vorteile in Bezug auf . Im Folgenden sind einige
der Szenarien aufgeführt, in denen Sie mit mehreren Regionen arbeiten
können. Notfallwiederherstellung ist heute eines
der wichtigsten Dinge, bei
dem sichergestellt werden soll, dass Infrastruktur und
Anwendung Ausfälle
wie
den Ausfall einer einzelnen Region schnell und
zuverlässig beheben können Ausfälle
wie
den Ausfall einer einzelnen Region schnell und
zuverlässig Dabei handelt es sich um ein regionales Versagen bei dem es sich um
einen Cyberangriff handeln könnte
, der
in der arabischen Region stattgefunden hat. Das könnte sich also tatsächlich
auf mehrere Regionen auswirken, tut mir leid, auf mehrere
Verfügbarkeitszonen in einer Region Es handelt sich also um eine Strategie Infrastruktur
über mehrere Regionen hinweg repliziert wird, , bei der
die Infrastruktur
über mehrere Regionen hinweg repliziert wird, sodass im Falle eines
regionalen Ausfalls oder eines Angriffs auf eine bestimmte Region auf eine
sekundäre Region umgestellt werden kann regionalen Ausfalls oder Angriffs auf eine bestimmte Region auf eine
sekundäre Region Wenn ich dasselbe
tun möchte, kann
ich auch, wenn ich
Kunden nur in den USA habe,
meine Anwendung in Nord-Virginia hosten lassen, eine USE-Anwendung Nord-Virginia hosten lassen, verwenden und ich kann sie
auch auf
Ohio Espo hosten , nur um
hier
eine Redundanz zu haben , und ich kann die Instanzen einfach
ausschalten bis hier eine
Katastrophe passiert, dann kann ich
zu den Instanzen wechseln. Denken Sie jetzt daran, dass Sie einige Dienste konfigurieren
können, es gibt auch eine Option
, das zu tun. nun die
Geschäftskontinuität anbelangt, besteht
das Ziel darin, den
unterbrechungsfreien
Geschäftsbetrieb bei
Ausfällen oder Katastrophen aufrechtzuerhalten unterbrechungsfreien
Geschäftsbetrieb bei und sicherzustellen, dass der Service
weiterhin verfügbar bleibt Jetzt besteht die Strategie darin, die Region für die Replikation
kritischer Infrastrukturen und Daten zu
nutzen kritischer Infrastrukturen und Daten ,
sodass bei einem Ausfall einer Region der
Betrieb problemlos von einer anderen Region aus
fortgesetzt werden kann Nun die nächste
wichtige Sache zur niedrigen Latenz für Endcer Das habe ich dir zu Beginn
des
Videos über niedrige Latenz
erzählt Beginn
des
Videos über niedrige Latenz Der
Zweck besteht nun darin, die Latenz
zwischen dem Endbenutzer
und Ihrer Anwendung sicherzustellen Latenz
zwischen dem Endbenutzer ,
indem Sie die
Ressourcen näher an Ihrem
geografischen Standort bereitstellen . Verteilung der Anwendungen
auf mehrere Regionen, wobei jeweils zwei wichtige
Benutzergruppen zusammengeführt werden, um sicherzustellen, dass schnellere Reaktionszeiten und ein verbessertes Benutzererlebnis
gewährleistet sind. Beim nächsten Thema geht es um
Datensouveränität und Compliance. Hier sind Daten so
wichtig wie
die Einhaltung der lokalen Datenschutzgesetze
und -vorschriften, die
vorschreiben, dass sensible
Daten innerhalb bestimmter
geografischer Grenzen gespeichert
werden müssen. Zum Beispiel, ähm, Daten, die sich auf
Benutzerinformationen einer bestimmten Region beziehen, für ihren Namen und ihre
ethnische Zugehörigkeit und, Sie wissen schon, ihre
Sozialversicherungsnummer oder jegliche Art von Informationen, die
Sie zu
diesen Daten haben , müssen, Sie wissen schon, den
regulatorischen Anforderungen in
dieser bestimmten Region entsprechen , weil
jede Region
spezifische Anforderungen wie die DSGVO haben wird . Also genauso, äh, weißt du, musst
du dich an
diese Informationen halten. Das ist auch etwas
, was Sie auf regionaler Ebene
tun können . Wenn Sie also beispielsweise
mit den VAE zusammenarbeiten, können
Sie in dieser Region Ihr eigenes
UA-Rechenzentrum haben,
und in dieser Region werden
alle UA-bezogenen Informationen nur
in dieser Region gespeichert . Das ist also nur ein Beispiel. Das sind so ziemlich, ähm, die Gründe, warum oder
welche Vorteile oder wann
man bei der Arbeit mit AWS mehrere Regionen nutzen sollte. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Wir sehen uns im nächsten.
58. Einführung in den Standort der Labs Edge: Hallo Leute, willkommen zurück
zum nächsten Video. Lassen Sie uns über den Edge-Standort sprechen. Wie Sie in der Listenansicht sehen
können, gibt es diese
Edge-Standorte auf der ganzen Welt. Was sind Edge-Standorte und warum gibt es so viele
Edge-Standorte Um etwas über
die Randstandorte zu erfahren, können Sie sehen, dass es in
jeder dieser Regionen, wie in Nordamerika, diese vielen
Randstandorte gibt. In Europa gibt es diese
vielen Randstandorte, und was Südamerika angeht, es diese vielen
Randstandorte. Und im asiatisch-pazifischen Raum gibt es so viele H-Standorte. Nun, wir wissen, dass wir
zwei, wissen Sie, wir haben drei
Verfügbarkeitszonen in Indien, Sie können Hydrobad sehen,
Sie haben drei, Sie haben Mumbai, Sie haben drei Also insgesamt sechs verfügbare
Y-Zonen in Indien. Und das kann man
in Brasilien sehen, oder? Sie haben also
eine verfügbare, tut mir leid, Sie haben drei
Verfügbarkeitszonen in Brasilien in Südamerika. Und entsprechend haben Sie auch
andere Edge-Standorte. Jetzt haben Sie zwar
drei verfügbare Zonen, aber Sie haben immer noch diese
vielen Edge-Standorte. Was ist nun Edge-Standort und warum sind so viele
Edge-Standorte verfügbar? Heute
handelt es sich bei Edge-Standorten um AWS-Rechenzentren , die dem
Endbenutzer Inhalte mit geringer Latenz bereitstellen. Jetzt sind sie Teil des AWS-Netzwerks für die Bereitstellung von
Inhalten, das als CDN bezeichnet wird Und was sie liefern,
ist, dass sie zwischenspeichern. Sie speichern all die Dinge
, die ihr macht. Und wenn Sie dann die Seite
aktualisieren, nicht vom Server, kommt sie
nicht vom Server,
sondern vom Cache, weil
der Cache im
Content Delivery Network gespeichert wird
, also diesen Edge-Standorten. Jetzt können Sie also sehen, dass, wenn Sie
Inhalte jeglicher Art in Brasilien hosten und Ihr Kundenstandort in Brasilien
ist. Sie werden also
natürlich
Ihre Region als Basel wählen und
dann,
Sie wissen schon, Ihre
Bewerbung in Brasilien hosten . Okay. Wenn Sie das tun, wenn Sie Ihre
Anwendung in Brasilien
hosten haben Sie Ihre
EC Two-Instance und
alles wird in
Brasilien erstellt, weil Sie den Kunden
bedienen, der
sich an diesem Standort befindet. Wenn Sie den Kunden
beliefern , der sich an diesem Standort befindet, das ist Brasilien, würden Ihre
gesamten Inhalte jetzt aus diesem speziellen
Rechenzentrum stammen , richtig? Aber da ist das, wissen
Sie, im Süden haben
Sie Bogota Also es ist ein anderer Ort in
Südamerika, ähm, und, ähm, ich glaube, es
ist Teil von Kolumbien,
wie Sie sehen können Und es gibt andere Orte, wenn man über
Brasilien spricht, Menschen, nicht nur in Brasilien, sondern auch Menschen aus Bolivien,
Peru, Kolumbien, Venezuela. Sie werden also tatsächlich
versuchen, auf Ihre Website zuzugreifen, die verfügbar ist,
oder auf Ihre Anwendung, die in Brizo verfügbar ist Wenn Sie das tun, brauchen Sie
quasi einen Cache-Standort,
Sie wissen schon, um das herum Oh, okay, also, das ist der
tatsächliche Name des Landes. Okay, ich habe es nicht bemerkt. Also das ist Buenos
Aires, Argentinien. Sie haben einen anderen Ort aus Brasilien, Las Bo und dann
Peru hier, und dann Chile. Ebenso, wie ich Ihnen bereits gesagt habe, würden
die Leute
Anwendungen von
verschiedenen Orten wie
Argentinien, Bolivien, Peru aus durchsuchen . Ich habe dir gerade gezeigt, dass
das Kolumbien ist. Was sie getan haben, ist,
dass sie einen kleinen Ort mieten, an dem Sie diese
paar Dienste anbieten, die von AWS als
Content Delivery
Network oder AWS CDN bezeichnet werden, sowie Amazon CloudFront Sie werden Amazon
CloudFront verwenden und diese beiden Dienste hier
an einem anderen Ort platzieren an einem anderen Ort Wenn also Leute
Ihre Anwendung
von diesem Ort aus durchsuchen , würde der Cache an
diesem Ort selbst Und es muss nicht reisen, wissen
Sie, Ihre
Webset-Anfrage
muss nicht den ganzen Weg zurücklegen Sie können auch
den Cache-Level kontrollieren, also
quasi
alle 24 Stunden kontrollieren , sodass Sie den Cache leeren
können Also beim ersten, du weißt schon, nach 24 Stunden,
wird der Cache automatisch gelöscht, und die erste Anfrage
ruft ihn vom eigentlichen Server
ab
, der in Brasilien gehostet wird Und sobald
der Inhalt heruntergefahren ist, wird er in das CDN
geladen Und CDN wird dann damit beginnen,
den Inhalt aus
Ihrer lokalen Quelle bereitzustellen
, Ihrem Content
Delivery Network hier drüben Mit dieser Methode werden
Ihre Inhalte jetzt viel schneller sie werden viel schneller empfangen Und ja, es sind
zwischengespeicherte Informationen, aber sie werden trotzdem viel schneller
sein Denken Sie jedoch daran, dass
der Cache
je nach Website, mit
der
Sie es zu tun haben, ein- oder ausgeschaltet werden kann , ein- oder ausgeschaltet je nach Website, mit
der
Sie es zu tun haben Also zum Beispiel, wenn
Sie
Ihren Bankantrag überprüfen möchten , um den
Geldbetrag auf Ihrem Konto zu
überprüfen. Jetzt ist der Cache-Inhalt nutzlos,
weil er Ihnen die wiederholten
Informationen 24 Stunden lang nicht anzeigen kann . Es muss also
die neuesten Informationen
von Ihrer Bank abrufen die neuesten Informationen
von Ihrer Bank Das bedeutet, dass
in dieser Situation kein Cache
vorhanden ist und Ihr
Content Delivery Network nicht genutzt wird Wenn es sich jedoch um eine E-Commerce-Website , auf der
sich
die Verkäufe in den nächsten 24 Stunden nicht
ändern werden. Es wird also einfach sein,
wenn Sie die Bilder
dieses bestimmten Produkts
im Content Delivery Network speichern dieses bestimmten Produkts
im und dann das
Produktbild herunterladen. Denn wenn Sie die gesamte
Seite direkt auf einer Website platzieren, die Artikel, deren Laden
mehr Zeit in Anspruch nimmt, Ihre Bilder, richtig? Wenn Ihre Bilder also schneller geladen werden
können, können
die Daten
aus der Datenbank aktualisiert werden. Aus diesem Grund verwenden sie normalerweise
eine separate URL für Bilder und eine separate
URL für Ihre Inhalte. Wenn Sie also zwischenspeichern, speichert
der Cache
die Bilder und all diese großen Videos
und ähnliches,
sodass Sie
das Video beim Abspielen viel schneller herunterladen können . Da jemand in
Ihrer Nähe das Video
bereits
heruntergeladen hat
, ist dieses Video bereits
im Cache verfügbar. Anstatt
es also von einem weit entfernten Ort herunterzuladen, wird
es
vom nächstgelegenen Ort heruntergeladen da es bereits zwischengespeichert ist Dies ist der Grund
für einen Edge-Standort. Dies ist das Beispiel, das
ich
Ihnen geben möchte , und im nächsten Video werden
wir uns die Beziehung
zwischen all diesen
dreien ansehen , damit Sie die
Beziehung zwischen ihnen
verstehen können die
Beziehung zwischen ihnen
verstehen weil diese
Frage auch von der Beziehung handelt. Wir werden
dies mit dem nächsten
Video abschließen , in dem wir
über die Beziehung zwischen
Regionen, verfügbaren
Zonen und Standorten sprechen über die Beziehung zwischen Regionen, verfügbaren
Zonen und Standorten Nochmals vielen Dank. Wir
sehen uns im nächsten Video.
59. Labs Peering Verbindungskonfiguration: Hallo, Leute. Willkommen zurück
zum nächsten Video. In diesem Video
werde ich Ihnen erklären, wie ich den Server in
einer anderen Region
anpinge. Dies ist ein zusätzliches Video, wenn Sie sich
jetzt ansehen möchten, wie Sie die
Peer-Kommunikation so konfigurieren , dass sie
von einer virtuellen Maschine zu einer
anderen virtuellen Maschine pingt , die sich in einer anderen Region befindet. Öffnen Sie also zwei ECT-Konsolen Ich klicke zweimal mit der mittleren Maustaste auf die
ECT-Konsole, und dann machen wir auch
zweimal den PC. Ich teile nur die beiden
EC-Konsolen auf der rechten Seite auf. Ich habe EC zwei Konsolen, BPC, VPC und E, oder du kannst
es einfach machen, zwei und A ist gerade in derselben
Region wie Sie hier im
Highlight hier sehen können, es ist alles in der Ich werde diese 21
EC Two-Instance
und VPC für North Virginia öffnen und VPC für North Und dann werde ich
das auf die Region Mumbai ändern. Es muss also nicht
die Region Mumbai sein. Es könnte übrigens jede andere
Region sein. Jetzt werden die Sessions, die
Sie hier machen werden, tatsächlich
für UmbiRegion
hier drüben fortgesetzt, und diese VPC wird auch die Region Mumbai
widerspiegeln Sie müssen also zwei
Konfigurationssätze vornehmen. Zunächst
muss die Instanz ausgeführt werden und ihr muss eine
IP-Adresse zugewiesen sein. Nun, die IP-Adressserie basiert
im Wesentlichen auf dem Subnetz der VPC, der
Sie sie zuweisen Wenn Sie
irgendeine Art von Server erstellen, werden
Sie tatsächlich
einen Server in einer bestimmten, äh,
VPN, Sie wissen schon, tut mir leid, VPC erstellen ,
und diese BPC wird zum Zeitpunkt der Erstellung oder
des Starts der Instanz
angegeben Erstellung oder
des Jetzt haben Sie hier die
Standard-VPC, die gerade läuft Dies ist die Standard-VPC. Dies sind die Standard-Subnetze. Für
jede Region würde automatisch eine Reihe von Subnetzen
erstellt werden , und dies ist die
Anzahl der verfügbaren Zonen. Basierend auf der Anzahl
der verfügbaren Zonen erhalten
Sie hier die
Anzahl der verfügbaren Zonen, die Sie hier
sehen können ,
und die grundlegende
Anzahl der Subnetze finden Sie Das ist die
Standardkonfiguration. Standardmäßig
wird es keine PR-Verbindung geben, also sollten Sie diese auch nicht
finden. Ich habe gerade den bearbeitet, den ich für
die Erstellung verwendet habe. Es wird also ein Internet-Gateway geben, es wird eine Routing-Tabelle geben. Routingtabelle können Sie
auf das Internet zugreifen, da Sie hier das
Internet-Gateway verwenden. Okay, das Internet-Gateway sorgt
dafür, dass die VPC Ihrem lokalen Netzwerk
als auch mit Ihrem
Internet verbunden
ist als auch mit Ihrem
Internet Das ist also die IPTRSS-Serie. Wenn Sie das Subnetz sehen finden
Sie die Informationen zum Apfelwein hier Da Sie also sechs davon haben, geben Sie einmalig,
aber wenn Sie sehen,
dass die ersten
beiden nichts an 17231 ändern, und dann für verschiedene Verfügbarkeitszonen geben
Sie acht an, es beginnt bei Null und 32 und dann 48 und
dann 64 und 80. Dadurch erhalten Sie eine beträchtliche
Anzahl verfügbarer IP-Adressen,
die Sie zuweisen können. Denken Sie daran, dass diese VPC und diese IP-Adresse
für Ihr lokales Netzwerk bestimmt sind, also für Ihr System, was bedeutet, dass
Sie mit diesem System 491 Systeme
mit jeweils einer IP-Adresse zuweisen können Das ist es, was das bedeutet. Dies ist die Anzahl der Instanzen, die
Sie erstellen können Die
verfügbare IP-Adresse gibt
an, wie viele iPaddre
für jede Instanz verfügbar sind Das ist also so
ziemlich die Standardeinstellung. Wir haben keine Änderungen
an der Standardversion vorgenommen. Wir haben zwar die Standardversion, werden aber tatsächlich eine benutzerdefinierte
verwenden. Darüber werden wir sprechen. Da wir
von Ihrer Region Nord-Virginia
nach Mumbai kommunizieren . Zunächst müssen Sie eine EC Two-Instance
erstellen. Aber das Problem, wenn Sie jetzt
eine EC-Two-Instance erstellen , werden
Sie zu einem
späteren Zeitpunkt eine Ausnahme bekommen weil wenn Sie eine
Peer-Verbindung herstellen, wird
es nicht funktionieren. Wenn Sie sehen, dass Sie hier eine
Peer-Verbindung herstellen, erstellen Sie eine Peer-Verbindung und geben Sie hier einfach
einen zufälligen Namen ein. Also USA zwei I&D. Also das ist quasi
von den Vereinigten Staaten nach Indien Und hier
ist der VPC der D-Four-VPC,
ich nehme ihn, der
die Apfelweininformation von 17231 hat die Apfelweininformation Denken Sie daran, dass
die VPC, die standardmäßig in
allen Regionen
erstellt wird standardmäßig in
allen Regionen
erstellt , dieselben Apfelweininformationen verwendet Wenn Sie also hier auf die
Apfelweininformationen klicken, werden
Sie feststellen, dass diese Ich werde entfernen, was
ich manuell hinzugefügt habe. Also entferne das einfach. Also wirst du nur
diesen einen Apfelwein haben. Also, wenn du den Apfelwein siehst, 17231 passt zu
dem Apfelwein Wenn ich also versuche, ihn mit
den gleichen Cider-Informationen zu erstellen, muss ich nur diese VPC-ID
hierher
kopieren und auswählen, Also hier wählst du aus,
hier wählst du zwei aus. Wählen Sie also eine andere
VPC für die Peer-Breite aus. Wählen Sie hier also eine andere
Region aus und geben Mumbai und die VPC-ID Jetzt wird diese VPC-ID nicht funktionieren. Ich sage es dir, ich
zeige es dir. Klicke einfach auf PR-Verbindung erstellen. Sobald Sie darauf geklickt haben, kehren Sie erneut zu Pro Verbindung
zurück
und Sie werden feststellen, dass die Verbindung fehlgeschlagen ist. Wenn Sie darauf klicken, um den Grund für den Fehler zu verstehen, ist der Fehler
entweder
darauf zurückzuführen, dass entweder die VPC-ID falsch oder die Count-ID
falsch ist oder sich der Apfelwein überschneidet In unserem Fall überschneidet sich der Apfelwein, weil sich
der Apfelwein, von dem aus und zu dem
wir eine Verbindung herstellen selben Netzwerk befindet So kannst du den 17231 sehen. Und auch hier in der
VPC ist es 17231. Auf der einen Seite
sollte es anders sein. Okay. Also werde ich
die Standardversion für diese spezielle Region, ähm,
Nord-Virginia verwenden. Und hier werde
ich eine neue VPC erstellen, klicken Sie
einfach auf Create VPC, dann VPC und dann
wird der Name lauten,
Latenztest VPC, IP-Version für manuelle Eingabe, und ich habe 17232 Punkt
Null Punkt Null Schrägstrich 16 gegeben Nun, wenn Sie das vergleichen sehen, ist das am
31. Ich gebe hier 32. Das wird also
eine eindeutige IP-Adresse sein und Tenancy ist Standard Wählen Sie nicht „Dediziert“ aus. Es wird dir mehr berechnen. Und denken Sie daran, bevor eine VPC erstellen, VPCs sind kostenpflichtig. Wenn Sie also mehr als eine VPC
erstellen, wird Ihnen
das in
Rechnung gestellt, aber nicht so viel. Wenn Sie die VPC hier sehen und
die VPC hier drüben,
fehlt etwas wird Ihnen
das in
Rechnung gestellt,
aber nicht so viel. Wenn Sie die VPC hier sehen und
die VPC hier drüben,
fehlt etwas. Das ist Ihr Subnetz.
Wenn Sie das sehen, gibt es
hier Subnetze, die an die
Routingtabelle und dann an Ihr
Internet-Gateway angeschlossen Routingtabelle und dann an Ihr
Internet-Gateway Im Moment gibt es hier keine Routingtabelle, die von
Defa erstellt wurde, aber hier gibt es kein
Subnetz Auch hier gibt es keine
Internetverbindung. Wir müssen hier also
zunächst
einige Aktivitäten ausführen, um ein
Subnetz zu erstellen. Gehen Sie also zum Subnetz Jetzt haben Sie bereits drei
Subnetze, die hier bereits der VPC zugewiesen sind, sodass
Sie nichts tun können Ein Subnetz kann also einer VPC
zugewiesen werden. Sie können sehen, dass es IPR
der Serie 31 zugewiesen ist. Wir verwenden also selbst eine
neue VPC. Also werden wir
diesen VPC-Namen ändern. Okay, also erstellen Sie ein
Subnetz und wählen Sie die VPC aus. Sie sehen also die Latenztest-VPC. Das ist der Name, den wir gegeben
haben, oder? Und hier drüben wird auch
17232 angezeigt. Also das brauchen wir.
Geben Sie hier einen Subnetznamen ein. Versuchen Sie nun zunächst zu verstehen, wie die Subnetznamen konfiguriert
sind. hier mit der mittleren Maustaste auf das
Subnetz, und dann wähle ich das aus, um mir den Namen der
Subnetz-Verfügbarkeitszone anzusehen Also habe ich dieses eine B, ein C, ein A. Ich kann verstehen, dass es drei
gibt, also sollte es ein B, ein A sein. Also
konfiguriere ich hier zuerst ein Subnetz und wähle
dann
hier ein Und dann kannst du
den Apfelweinblock hier drüben sehen, also sollte es
derselbe IPDreso 32 sein Punkt Null Punkt Null Schrägstrich 16. Für das erste sollte es dasselbe sein, aber Sie können hier selbst ein weiteres
Subnetz hinzufügen Es ist nicht erforderlich, dass Sie
alle drei Elemente hinzufügen. Ich muss nicht drei hinzufügen. Sie können nur zwei hinzufügen
, das ist auch völlig in Ordnung. Aber mindestens zwei sollten als Teil einer VPC
vorhanden sein. Also, wenn das ein niedriges Gleichgewicht hat und, Sie wissen schon,
ausfalltolerant Sie können
diese IP-Adresse eigentlich nicht noch einmal angeben. Wenn Sie hier und hier dieselbe
IP-Adresse angeben, blockiert
der Apfelwein
auch den Estin, den Sie für diesen
erstellen,
sodass er zur Auswahl
dieser er zur Auswahl bestimmten
Availability Zone dieselbe
IP-Adressserie verwendet,
die etwa 65.000
IP-Adressen hat , wenn Sie diese
wählen Das Problem ist jedoch, dass auch
dieselbe IP-Adresse verwendet wird Es wird also ein Problem werden. Es wird es nicht akzeptieren. Wenn Sie auf Erstellen klicken,
wird die Meldung Adressüberlappung angezeigt.
Das musst du ändern. Sie können diese Leiste verwenden und sie auf die
nächste verfügbare ändern. Das ist komisch. Das ändert sich
normalerweise, also kann ich hier drüben auf 16 gehen. Ich weiß nicht, warum es aus irgendeinem Grund nicht
funktioniert. Aber du kannst es so ändern. Wenn Sie
auch den vorherigen sehen , wird er
dasselbe sagen. Also 310, 311-63-1302. Für jeden Apfelwein müssen
Sie die Erweiterung dieser IP-Adresse angeben, damit
Sie die spezifische
Anzahl an IP-Adressen zur Verfügung haben Jetzt gebe ich nur noch zwei
davon und habe es auf 16 geändert. Jetzt sollte ein Klick auf Subnetz erstellen
eigentlich funktionieren. Mal sehen, was hier
das Problem ist. Ich glaube, ich muss 22
geben. Lassen Sie
mich das für eine Sekunde bestätigen. Ja, ich muss hier
20 geben, nicht 16. Sorry. 20 hier drüben, 20 hier als Bob. Deshalb hat es sich nicht geändert. Wenn es also auf Standard gesetzt wird, denke
ich, dass es sich jetzt ändern wird. Ich kann mir vorstellen, dass sich das 0-16 ändert. Der Fehler tut mir leid. Jetzt siehst du, dass 4.096 IP-Rs verfügbar sind, weil
ich 16 angegeben habe, nicht funktioniert Die Reichweite ist so riesig, Sie gesehen haben, dass sie
bei 65.000 IPR liegt, die wir nutzen können. Deshalb hat es bei mir
nicht funktioniert. Jetzt ist es behoben, Nutricons erstellen ein Subnetz und Sie haben hier zwei
Subnetze erstellt Insgesamt haben Sie also drei Subnetze für drei
verfügbare T-Zonen in der Region Mumbai
und Jetzt haben wir die Erstellung
des Subnetzes abgeschlossen und es
der VPC zugewiesen Wenn wir nun zu VPC gehen und die VPC
auswählen, wird die Ressourcenübersicht angezeigt Sie haben das Subnetz für eine Routing-Tabelle
konfiguriert, aber wir haben
die Routing-Tabelle nicht richtig konfiguriert Bevor Sie jedoch
zur Routing-Tabelle wechseln, konfigurieren Sie das
Internet-Gateway. Andernfalls
erreicht Ihr Dienst
, der unter
dieser VPC gehostet wird , keinen Zugang zum Sie können also zum
Internet-Gateway wechseln und ein neues Internet-Gateway
erstellen Und dann den Latenztest IGW, den ich als
Internet-Gateway-Namen gebe In diesem Internet-Gateway müssen
Sie jetzt eine Konfiguration vornehmen Sie müssen eine VPC
für das Internet-Gateway anhängen. Wählen Sie die VPC und die
Latenztest-VPC aus und klicken Sie auf Anhängen. Wenn Sie nun zu VPC gehen und die Ressourcenzuweisung
überprüfen, sehen
Sie diese Was Sie jedoch nicht sehen werden,
ist das Anhängen
dieser Routentabelle und
des Internet-Gateways Wenn Sie diesen hier sehen, sehen
Sie, dass er hier
angehängt ist. Es gibt also eine Mitteilung. Also, um das anzuhängen,
gehen Sie zu Route Table. Ich habe bereits eine Routentabelle, sodass Sie sie von hier aus
sehen können. Da steht Routentabelle. Sie können einfach darauf klicken, um
die Routentabelle zu öffnen , dann die Registerkarte. Jetzt können Sie sehen, dass dies
eine Standard-Routing-Tabelle
ist, die dieser
speziellen Latenztest-VPC zugewiesen ist Dies ist nun die
Standardkonfiguration, die in
jeder Routentabelle Hier erfahren Sie mehr über
die 17232-Serie. Klicken Sie nun auf Routentabelle bearbeiten. In dieser Routentabelle
müssen Sie angeben, was
Sie weiterleiten möchten. Klicken Sie zunächst auf. Ändere das lokale
nicht, lass es so sein. Lass uns hier auf
Route hinzufügen klicken und nach einer Verbindung suchen, die mit dem
Internet verbunden ist. Was möchten Sie mit dem Internet
verbinden? Alles, die gesamte IP-Adresse, die sich in dieser speziellen VPC befindet, sollte
Internet-Gateway-Zugriff haben Wählen Sie hier
Internet-Gateway aus und geben Sie das Internet-Gateway an
, das wir gerade erstellt Was jetzt passiert ist, dass
das markiert wird. Diese Routentabelle wird also
über dieses Internet-Gateway Bescheid wissen , das wir erstellt haben. Wenn Sie jetzt zur
VPC wechseln, wählen Sie die VPC aus. Wenn Sie zu Resource Maps gehen, werden
Sie feststellen, dass
hier gerade
eine Verbindung besteht hier gerade
eine Verbindung Also jede Art von Service EC 2-Instanz, die
Sie
jetzt erstellen werden, stellt eine Verbindung zu
diesem Internet-Gateway her. Wenn Sie diese VPC
als Teil der EC Two-Instance ausgewählt haben als Teil der EC Two-Instance Jetzt haben Sie zwei Optionen
zur Auswahl für VPC. Ich muss diese VPC auswählen,
wenn ich diese, ähm,
Sie wissen schon,
Kopplungsverbindung verwenden möchte , weil sie diese
Reihe von IP-Adressen verwenden wird Wenn Sie also etwas erstellen, zeige
ich Ihnen das, ich zeige es Ihnen schnell, ähm, also jetzt bin ich hier
auf der VPC Ich bin hier auf der EC-2-Instanz. Es gibt keine Instanz, die
als eine Instanz läuft, die beendet ist. Klicken Sie auf Launch Instance und testen Sie
dann einfach eine Instanz. Testen Sie eine Instanz, die die Standard-VPC
verwendet. Standard-VPC ist nicht das,
was wir konfiguriert haben, sodass Sie die Standard-VPC sehen können Wenn ich hier
wieder diese
Standard-Version auswähle, müssen Sie hier ein neues Schlüsselpaar für
diese bestimmte Region erstellen ein neues Schlüsselpaar für
diese bestimmte Keypair ist völlig anders. Sie müssen hier
ein weiteres
Schlüsselpaar erstellen und dieses
herunterladen Denken Sie daran, PPK
zu wählen ,
wenn Sie planen, auf den Server ich
aber nicht
auf den Server zugreifen werde, also werde
ich es nur als Demo tun Wenn ich diesen Server jetzt erstelle, ist
sein Server im Betriebszustand, aber Sie sehen die
IP-Adresse, sie ist 17231 Ich kann das Pairing nicht durchführen , wenn es denselben
IP-Adressbereich hat Es muss einen
anderen IP-Adressbereich haben. Dafür muss ich diese Instanz nur erneut
beenden. Dieses Mal muss ich
die Instance starten. Das Gleiche, Latenztest. Dann
werde ich dieses Mal auf klicken. Ich habe Weblogik
als Schlüsselnamen ausgewählt. Ich werde diese
Netzwerkeinstellung bearbeiten und die
Latenztest-VPC
ändern Diesmal
können Sie sehen, dass entweder APA oder B
ausgewählt wird entweder APA oder B
ausgewählt Sie können die gewünschte
verfügbare Zone auswählen. Und dann hier, um die
IP-Adresse zuzuweisen, aktivieren Sie sie. Dies bedeutet im Grunde,
dass Sie eine
öffentliche IP-Adresse erhalten. Klicken Sie auf Launch Instance
, hier wird
eine Instanz erstellt. Nun, diese Instanz wird
sehr bald laufen. Klicken Sie also einfach auf Onda Fresh. Jetzt kannst du sehen
, dass es läuft. Jetzt
läuft diese Instanz auf 17232, eins. Das
wollten wir haben. Jetzt, wo Sie mit dieser IP-Adresse arbeiten, können Sie diese IP-Adresse
tatsächlich kopieren Versuchen Sie, es vom
Server aus North Virginia aus zu pingen, aber es würde kein Ping ausgeführt werden, da wir keine Konfiguration vorgenommen
haben Das ist eine Peering-Konfiguration. Wir haben noch kein Paring durchgeführt. Lassen Sie uns jetzt weitermachen und
die Pairing-Konfiguration vornehmen. Um nun die
Pairing-Konfiguration vorzunehmen, müssen
Sie nur
noch zu einem der Dienste gehen ,
beide sind in Ordnung Ich würde also empfehlen, zu
North Virginia VPC zu gehen , sobald Sie
in der North Virginia VPC Hier gibt es eine Pairing-Verbindung Klicken Sie einfach auf
Peering-Verbindung und erstellen Sie
dann Wählen Sie den Namen der
Kopplungsverbindung aus, was auch immer Sie wählen, und wählen Sie dann diese bestimmte VPC
aus, wählen Sie eine andere Region
als Ziel aus,
wählen Sie die Region Mumbai oder
eine andere Region die Neue VPC, kopieren Sie die neue VPC-ID,
die auf 17232 gehostet wird Weil hier eine
andere IP-Adressserie verwendet wird. Klicken Sie nun auf Kopplung erstellen. Kehren Sie jetzt zur
Peering-Verbindung zurück. Jetzt können Sie diese
initialisierte Anfrage sehen, sodass diese Ausgabe anders ist Jetzt wurde sie zu „
Ausstehende Annahme“ geändert. Jetzt, wenn Sie einfach zu Ihrer VPC in Mumbai
zurückkehren, wenn Sie hier zu
Peering-Verbindungen wechseln Wenn Sie dies einfach aktualisieren, können
Sie die
ausstehende Verbindung sehen, und hier finden Sie Informationen Sie können die
ausstehende Verbindungsanfrage in
einem anderen Aktionsmenü annehmen oder ablehnen . Oder heute ist es an der Zeit, dies zu tun. Also geh hier rüber,
handle, nimm die Anfrage an. Jetzt wird
diese Anfrage akzeptiert und
es wird die Cider-Kommunikation von
der
17231-Serie zur 17232-Serie herstellen Cider-Kommunikation von
der 17231-Serie zur 17232-Serie Akzeptiere die Anfrage.
Lassen Sie uns nun sehen, ob es Vorräte sind. Und Sie können sehen, dass es gerade aktiv
ist. Sie haben also die Quelle, fordern einen Apfelwein an, haben
CIDR hier akzeptiert, richtig? Also, noch eine Sache, die Sie tun
müssen, bevor Sie darauf zugreifen. Ich glaube nicht, dass es
jetzt auch funktionieren wird. Das Einzige, was Sie noch tun
müssen, ist, dass Sie auf
der EC zwei Ebenen Ihrer
Sicherheitsgruppe einrichten müssen . Sicherheitsgruppe muss also
aktualisiert werden , da sie derzeit nur 22 Portnummern für
alle Quellen akzeptiert, oder? Sie müssen ihr also sagen, dass sie
den ICMP-Ping akzeptieren soll , auch weil
sie sich
ohne den ICMP-Ping nicht selbst pingen kann, auch weil sie den ICMP-Eingang nirgends
zulässt ICMP ist Ihre Ping-Anfrage. Klicken Sie nun auf Regeln für eingehenden Datenverkehr bearbeiten und wählen Sie dann ICMP,
IP-Version vier, und
dann geben Sie einfach Klicken Sie dann auf
Regel speichern und dies sollte ICMP-Regeln
als eingehende Verbindung zulassen Ich glaube, ich habe es als solches ersetzt. Tu das nicht. Sie müssen eine neue Regel hinzufügen, indem Sie auf eine neue Regel klicken
oder sie hinzufügen. tut mir leid. Ich
glaube, ich habe ersetzt. Aber
für unser Training ist das egal, äh, es ist völlig okay. Sie
haben immer noch keinen Zugriff darauf. Lassen Sie mich bestätigen, ob dies
die von mir
verwendete IP-Adresse ist oder nicht, da sich die IP-Adresse
geändert hätte , wenn Sie eine andere
erstellt hätten. Es sieht so aus, als wäre es
derselbe, gib mir eine Sekunde. Okay. Eine weitere Sache, die
wir tun müssen, ist das. Nun, da Sie Ihre
Pairing-Verbindung
aktiviert haben , Ihre Routing-Tabelle auf
der Pairing-Verbindung
leer . Siehst du das? Es gibt also keine Möglichkeit, dass das
Routing über VPC erfolgt. Sie müssen also
eine Routentabelle erstellen, und wenn Sie sich
diese Routentabelle ansehen, sollten
Sie Teil der
vorhandenen Routing-Tabelle sein, die Teil Ihrer VPC ist Wenn Sie also zu Ihrer VPC gehen, zu Resource Mapping
gehen, haben
Sie hier die Routing-Tabelle, klicken Sie darauf und öffnen Sie
ein weiteres Fenster In diesem Fenster müssen Sie, genau wie Sie das Internet-Gateway
konfigurieren, die
Route bearbeiten und eine Regel hinzufügen In dieser Regel
können Sie
dieselbe Instanz hier nicht wiederholen . Sie können dieselbe Instanz nicht
wiederholen. Ich versuche das einfach und stelle dann hier die
Pairing-Verbindung her. Das ist die Pairing-Verbindung. Es sagt Ihnen also
, welche Verbindungen Sie
vorbereiten müssen , und Sie erhalten
den Vorschlag hier. Das ist die, die
derzeit, ähm, du weißt schon, benutzt wird. Wählen Sie also diese
Kopplungsverbindung aus und speichern Sie die Änderungen. Nun hieß es, dass
es bereits existiert. Ich habe also
gesagt, dass Sie nicht dieselbe
IP-Adressserie verwenden können. Sie können also auch
0.0.0.16 angeben. Klicken Sie also einfach auf Speichern und
Sie können das tatsächlich sehen. Sie können also
alternativ, äh, diese anstelle von dieser angeben, Sie können auch die
Remote-Adresse angeben. Sie können also 17231
Punkt Null Punkt Null Schrägstrich
16 angeben , aber wenn Sie
0.0.0.16 angeben, ist das Es bedeutet alles in dieser
Serie auf dieser bestimmten Seite Das kannst du auch
geben und auf O Speichern klicken. Wenn Sie nun zur
Peering-Verbindung zurückkehren und
diese Kopplungsverbindung auswählen, gehen Sie zur Routentabelle.
Die Routeninformationen werden hier angezeigt . Das sagt Ihnen ziemlich genau , dass die Routentabelle erstellt wurde Lassen Sie uns jetzt weitermachen
und sehen, ob es passt. Okay, gib mir nur eine Sekunde. Das Letzte, was
wir tun sollten, um das zum Laufen zu bringen, ist, da wir das Hinzufügen
der
Routentabelle auf dem Zielserver,
der Mumbai ist, abgeschlossen
haben dem Zielserver, . Jetzt müssen
Sie dieselbe
Routentabellenerweiterung für, Sie wissen schon, den PCX-Zusatz vornehmen, wie pro Verbindungserweiterung auch auf
Ihrem Quellserver Hier haben wir also die
Quellserverinformationen angegeben, denen es sich um Ihre
Quell-Cider-Informationen und die PCX-Daten auf dem Jetzt müssen Sie hier in dieser Routing-Tabelle dasselbe
angeben Gehen Sie jetzt zu VPC, wir
verwenden die Standard-VPC, gehen Sie zu Resource Map
und Sie erhalten hier
die Abkürzung
für Ihre Routentabelle Wenn Sie sich für diese Methode entscheiden, werden
Sie sich nicht irren, denn manchmal gibt es riesige Routing-Tabellen, von denen Sie nicht
wissen, um welche es sich handelt Wenn Sie die VPC herausfinden
und die Karte sehen gelangen
Sie tatsächlich zur eigentlichen Routing-Tabelle,
der richtigen Dann haben
Sie in der Routing-Tabelle diese Routen hier
, bearbeiten Sie diese Route Und dann füge eine
Regel hinzu und gib dann die IP-Adresse des anderen Endes an. Es ist 32320 Punkt
Nullpunkt Schrägstrich 16. Wenn Sie sich das ansehen, nehmen Sie hier
ein Beispiel. Hier haben Sie die
Peer-Verbindung mit 31 eingefügt, das ist Ihr Quellserver. Jetzt müssen Sie hier
den
Zielserver
angeben und erneut die Peer-Verbindung herstellen und die Peer-Verbindungs-ID verwenden. Sie können also auch sehen,
dass dort US IND steht. Dies ist die
Peer-Verbindungs-ID auf dem Remote-Ende. Das ist also etwas
, das Sie aufnehmen und dann die Änderungen speichern. Nachdem Sie die Änderungen gespeichert
haben, können Sie einfach
versuchen,
die IP-Adresse zu pinnen , und
Sie werden eine Antwort vom Server erhalten. Das bedeutet, dass
Sie eine Antwort
von dieser bestimmten
Serverinstanz erhalten . Auf diese Weise
müssen Sie also eine regionsübergreifende
Pairing-Verbindung verwenden ,
damit Sie einen Server
auf einem Remote-Host
erreichen können einen Server
auf einem Remote-Host
erreichen Jetzt können Sie SSSARH
auch mit dem Remote-Host ausführen. Sie müssen es nur in
der
Service-Sicherheitsgruppe aktivieren , Sobald Sie also in
der Sicherheitsgruppe sind, Sicherheitsgruppe
hinzugefügt haben,
fügen Sie Regel S hinzu, und dann können Sie angeben,
dass 172 u eins gesetzt 231 Punkt Null Punkt Null Schrägstrich 16 Serie 31, jeder
kann SS so machen. Wenn Sie jetzt
die Regel hier speichern, ist
SSSuch ab dem 31. erlaubt Ich werde ssSuch machen, ohne den Schlüssel zu
haben, also werde ich mich nicht einloggen können, aber du kannst sehen, dass das die Verbindung für mich
akzeptiert Ich habe den Schlüssel nicht, also
werde ich mich nicht einloggen können. Aber wenn ich den Schlüssel
habe, kann ich den Schlüssel
hier ablegen und mich
einfach anmelden, weil ich diese Verbindung
zu
dieser iPre-Serie hergestellt habe diese Verbindung
zu
dieser , weil
ich sie
von der Region North Virginia bis
zu dem Server durchsuche von der Region North Virginia , der in der Region Mumbai
gehostet wird Sobald der Peer verbunden ist
und Sie die Route zum
Peer
hinzugefügt haben , ähm, wenn Sie
den Peer zur Route hinzugefügt haben, wird
es für Sie
sehr einfach sein eine Sicherheitsgruppe
zu konfigurieren. Jetzt können Sie auch
eine Sicherheitsgruppe
für diesen Zweck erstellen . Und dann verwenden Sie jedes Mal, wenn
Sie eine EC Two-Mission
erstellen, diese
Sicherheitsgruppe
anstelle der Standardsicherheitsgruppe, die jedes
Mal erstellt
wird, wenn Sie
eine EC Two-Instance erstellen , weil
Sie jedes Mal, wenn
Sie eine EC Two-Instance starten ,
eine neue Sicherheitsgruppe erhalten, Sie haben so viele Sicherheitsgruppen weil jedes Mal, wenn Sie eine EC Two-Instance
starten, im
Grunde genommen eine neue erstellt wird. Um dies zu vermeiden, können Sie einen Standard
erstellen und
ihn als Standard aufrufen. Und jedes Mal, wenn Sie
eine EC Two-Instance erstellen, können
Sie diese
bestimmte Sicherheitsgruppe auswählen. Okay. Das ist also nur
ein Video, um zu zeigen wie es
über eine andere VPC kommunizieren kann Denken Sie jetzt daran, dass die VPCs auf der Grundlage
der Anzahl der VPCs
berechnet werden auf der Grundlage
der Anzahl der VPCs
berechnet Eine VPC wird kostenlos sein. Wenn Sie also mehrere VPCs
haben werden, wird das ein Problem sein Entfernen Sie also zunächst die
Pairing-Verbindung durch Aktion. Lösche die Pairing-Verbindung. Wählen Sie
auch die direkte Routing-Tabelle aus. Dadurch wird die
Tabelle an beiden Enden durcheinander gebracht, und dann können Sie
sehen, dass sie gelöscht Sobald Sie das getan haben, löschen
Sie die
VPC und prüfen Sie, ob sie Ihnen das erlaubt Nein. Es braucht immer noch die, ähm, ich glaube, die Ressource
muss beendet werden. Also das ist unsere, äh,
EC Two Instance. Also werde ich einfach unsere
EC Two-Instance hier drüben herunterfahren. Also das wird uns
etwas Geld sparen. Also je früher du es schaffst, desto eher nimmst du es ab, richtig? Es wird nicht
aufgeladen, da es zu
jedem Zeitpunkt 1 Stunde dauern
kann , also ist es besser, es abzunehmen. Also entferne einfach die Subnetze. Das sind die zusätzlichen Subnetze, die
ich mit dem Namen
D erstellt habe . Subnas ist also gelöscht Ich glaube, ich kann jetzt versuchen, mit
dem PC zu löschen. Es kann ein
bisschen dauern. Dann entfernen wir auch die
Routentabelle. Die Dürretabelle,
aber sie geht nicht, also ist sie die Haupt-Routing-Tabelle. Es kann eine
Weile dauern diese
Boot-Class-Suns gelöscht werden Dretke, lass uns versuchen, es
zu entfernen. Okay. Jetzt geht es runter,
sobald du das Subnetz löschst VPC ist jetzt gelöscht, und Sie sollten auch mit
den Routentabellen gut Dies wird also ebenfalls entfernt
und Ihre Pairing-Verbindung
wird ebenfalls Dadurch werden
Ihnen
Gebühren oder
zusätzliche Gebühren berechnet. Also hier, die Pairing-Verbindung, wenn Sie sie in der Region Mumbai löschen, wird
sie auch hier gelöscht Sie
müssen es also nicht separat angeben. In Bezug auf die Route wird die Route ebenfalls
entfernt. Also Subnetz, wir haben keine VPC
erstellt, wir haben
keine erstellt Das sollte also
all die Arbeit, die wir bisher
gemacht haben, zunichte machen und es wird verhindern, dass Ihnen am nächsten Morgen etwas
berechnet Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Wenn Sie Fragen haben, hinterlassen Sie diese im Fragenbereich. Ich freue mich sehr über
Ihr Feedback denn durch Ihr Feedback werde
ich sicherstellen, dass ich meine Arbeit
verbessere und darauf
aufbauend mein Training verbessere. Nochmals vielen Dank.
Wir sehen uns auf der
60. Einführung in Labs Regionen: Hallo, Leute. Willkommen zurück
zum nächsten Video. In diesem Video werden
wir die Beziehung
zwischen Regionen,
verfügbarer T-Zone
und Edge-Standort
verstehen die Beziehung
zwischen Regionen,
verfügbarer T-Zone
und Edge-Standort
verstehen . Dies ist das erste Thema
in den Aufgabenstellungen von 3.2, sodass wir jede
dieser Komponenten verstehen können, und dann werden
wir die
Beziehung zwischen ihnen verstehen. Um weiter fortzufahren, habe
ich Ihnen die
Weltkarte hier gegeben. Sagen wir einfach, dass
wir
die Weltkarte auch in Bezug auf
AWS auf ihrer Website selbst überprüfen werden. Aber lassen Sie uns einfach annehmen,
dass dies Ihre Weltkarte ist. Auf dieser Weltkarte ist eine
der Regionen auf Ihrer
Weltkarte US-IP und er ist eine. Das ist der Name der Region
, der von,
Sie wissen schon, AWS so angepasst hat, dass
er als Regionsname beibehalten wird. In diesem Video werden Sie zunächst die
Region verstehen und dann gehen
wir zu den Availability Zones
und dann zu den Edge-Standorten über. Lassen Sie uns also zunächst mit der
Region beginnen. Was ist Region? Region ist im Grunde genommen ein allgemeiner Begriff und
bezieht sich
auf einen bestimmten
Ort auf Ihrer Karte. Amerika
ist zum Beispiel eine Region, und ich meine, in Amerika haben
Sie Südamerika,
Sie haben Nordamerika, was wiederum
Regionsklassifizierungen bedeutet Als die Araber also Regionen erwähnen
wollten, wollten sie sicherstellen dass die Regionen jetzt hier durch Namen
getrennt sind. In diesem Namen hier drüben können
Sie den Osten der USA sehen Das bedeutet also, dass
es nach Osten
zwei und nach Osten drei gehen auch nach Osten
zwei und nach Osten drei gehen kann, sodass sie die Anzahl der
Regionen innerhalb dieses US-Ostens tatsächlich erhöhen können. Jetzt können Sie die USA
als die Vereinigten Staaten und Sie können sehen, dass der Osten sagt, er
läge im Osten. Die New Yorker Seite
wird also im Grunde als Ostseite bezeichnet
. Die Westseite besteht im Grunde aus Los
Angeles und Las Vegas. Diese gelten als
die Westseite oder das
Westende der USA. Und dann
sind die zentralen Regionen im Grunde Texas oder, Sie wissen schon, was
in der Zentralregion liegt. Also, was sie
getan haben, ist wie im Osten, sie haben es zu einem gemacht,
ist der erste Standort dem aus die AWS
mit ihren Diensten begonnen hat. Das ist also im Grunde eine Region. Wird als USC bezeichnet, die
über mehrere Rechenzentren verfügt. Die Mindestanzahl von
Rechenzentren, die eine Region haben
sollte, beträgt also zwei Dies ist die
Mindestanforderung für AWS, um eine Fehlertoleranz
zwischen zwei Rechenzentren zu gewährleisten. diesem Grund Aus diesem Grund wird jedes Mal,
wenn eine neue
Region
entsteht, sichergestellt, dass diese
Region mindestens zwei hat oder dass
mindestens zwei
als Rechenzentren als
Teil der Region beibehalten werden . Rechenzentren werden als
Verfügbarkeitszone bezeichnet , worauf
wir im nächsten Video eingehen werden. Gehen wir nun zu den
globalen Rechnungs-Futures, gehen wir zu Google und geben Sie
globale Infrastruktur ein. mit meiner Kehle tut mir leid.
Also geht jemand zu AWS Global Infrastructure
und er wird tatsächlich auf diese Website gehen, nämlich awstoramazon.com Und hier werden Sie die globale Infrastruktur sehen
. Sobald Sie sich hier in der
globalen Infrastruktur befinden, können
Sie all diese Informationen sehen z. B. wie viele Regionen es gibt, Availability Zones es gibt CloudFrind-Pops Jetzt werden wir
ausführlich über
jeden dieser Punkte sprechen , machen Sie sich also
keine Sorgen Aber denken Sie daran,
ähm, wenn Sie über Regionen
sprechen. Die Fragen würden sich nicht darauf beziehen wie viele Regionen es in AWS
gibt. Die Fragen
wären nicht so,
weil die Regionen ständig wachsen, also werden sie Sie nicht fragen, wie viele Regionen es in AWS
gibt. Diese Art von, wie die
Anzahl der Regionen, die Anzahl der
verfügbaren IT-Zonen, wäre also Anzahl der Regionen, die Anzahl der nicht die Frage. Aber sie würden Sie fragen, welche
Mindestverfügbarkeitszonen Teil einer Region sind. Das ist also eine zwingende
Anforderung, wissen Sie,
dass AWS selbst festlegt,
dass es
eine Mindestanzahl von zwei
Availability Zones haben sollte eine Mindestanzahl von zwei
Availability Zones , um
Redundanzen und
Fehlertoleranz in Bezug auf den Ausfall eines
Rechenzentrums gewährleisten zu können Fehlertoleranz in Bezug auf den Ausfall eines
Rechenzentrums gewährleisten Wenn Sie jetzt runterkommen, werden
Sie sehen, dass es sich tatsächlich um Nordamerika
handelt Sie können sehen,
dass das Südamerika ist. Sie können sehen, das
ist aus Ostasien, und dann haben Sie
Westasien hier drüben. Asien ist also
zweigeteilt, weil es quasi Europa
und auch
Ihren afrikanischen Kontinent und Ihren Mittleren Osten einschließt . Und dann,
ähm, wissen Sie, es tut mir leid, das ist Westasien und
das ist Ostasien. Es tut mir leid. Das tut mir leid. Falls ich dich nur verwirrt habe. Damit du
das hier sehen kannst, du hast Regionen hier drüben, die in blauer Farbe
auftauchen, tut
mir leid, grüner Farbe Und das sind im Grunde Regionen. Die Regionen hätten eine bestimmte Anzahl
verfügbarer T-Zonen wie Sie hier sehen können. Ich habe also mindestens zwei gesehen, aber ich sehe derzeit
nichts, welche zwei verfügbaren Te-Zonen verfügbar sind. Ich sehe nur, dass es sich bei den meisten von ihnen um drei verfügbare T-Zonen
handelt. Diese spezielle Region befindet sich in Brasilien und diese in Südafrika. Und diese beiden befinden sich in Australien, wie Sie sehen können, und hier bauen
sie Daten
auf, ich meine, eine Region mit
mindestens zwei Rechenzentren, Verfügbarkeitszonen in Auckland. Sie haben eine in Jakarta, Indonesien, Sie
haben in Singapur, Sie haben eine in Malaysia, dann kommt eine in Thailand
und Sie haben eine, die in Taiwan
kommt Taiwan ist im Grunde,
äh, wissen Sie, Taipeh, ich denke,
das sollte
der Ort sein , an den
es kommen wird Und Sie haben einen in Hongkong, und dann haben Sie drei
in China, zwei in China, einen
in Südkorea, Seoul, und Sie
haben zwei in Japan. Sie haben auch zwei in Indien. In Russland gibt es hier nicht viel. Diese Region ist Russland, Mongolei ist hier
quasi völlig leer. Diese Länder
wie Afghanistan,
Pakistan auch nicht, und da drüben gibt es
nichts Haben Sie einen in Bahrain,
Sie haben einen in den Vereinigten Arabischen Emiraten und Sie haben
demnächst einen in Saudi-Arabien. Wenn
ich also jede Region markiert habe, können
Sie die Anzahl
der verfügbaren Zonen sehen. Sie haben
auch eine in Tel AV, das ist Israel, und Sie haben eine in Irland, eine im Vereinigten Königreich Jetzt können Sie sehen
, dass Großbritannien auch drei
Verfügbarkeitszonen hat. Also mehr oder weniger
hat alles standardmäßig
drei
Verfügbarkeitszonen. Und Sie können auch eine interessante
Sache namens Startdatum sehen . Als diese Availability
Zone entstand, sodass Sie Irland sehen können viel früher als das
Vereinigte Königreich selbst, sie
viel früher als das
Vereinigte Königreich selbst,
denn ich wette, das liegt daran, dass der
Landerwerb und der
Bau
von Rechenzentren in den Vereinigten Staaten
einfach ein wenig kostspielig
sind. Dann vielleicht in Irland. Das könnte der
Grund dafür gewesen sein , dass es spät auftaucht. Nun, die einzigen zwei
Orte, an denen Sie
mehr verfügbare Zonen haben , sind
im Grunde Ihre Zone in den USA Ost
, also Ihre Nord-Virginia,
ähm, und diese hat sechs
Verfügbarkeitszonen Die andere ist Oregon. Dieser hat also ungefähr
vier Verfügbarkeitszonen. Abgesehen davon
habe ich nicht gesehen, welche Zone mehr Verfügbarkeitszonen hat, aber das könnte sich
in Zukunft ändern Nun, ähm, ist es besser, mehr als drei
Verfügbarkeitszonen zu haben Nein, ist es nicht. Wenn Sie zwei Verfügbarkeitszonen haben
, wäre das ausreichend. Drei dienen nur dazu, das Gleichgewicht zu
brechen. Wenn du zwei hast, wenn du
drei hast, bricht das Gleichgewicht. Deshalb werden drei mehr
oder weniger überall bevorzugt, und das ist der Standardbetrag. Aber zwei allein
reichen aus, denn
Sie haben das primäre
Rechenzentrum und Sie haben die
Backup-Rundanz für
den Fall , dass das primäre Rechenzentrum Probleme haben sollte Das sind also die Regionen, und Regionen haben einen Namen Wenn Sie also
zur AWS-Konsole gehen, werden
Sie hier alle
Regionen sehen. Einige sind für
Sie aktiviert, andere nicht. Wenn du also siehst, dass es
13 Regionen gibt, ist das für meinen Account nicht
aktiviert, also kann ich einfach mit der
mittleren Maustaste darauf klicken. Okay, der
Mittelklick hat nicht funktioniert, also gehst du einfach zum unteren
Bildschirmrand und
klickst dann auf Verwaltete Regionen. Okay, jetzt
wird
dieser Bildschirm geladen und Sie werden sehen, dass
die Regionen gerade deaktiviert wurden. Jetzt können Sie diese Region tatsächlich
aktivieren, indem Sie diese Regionen auswählen und auf die Schaltfläche Aktivieren
klicken. Aber ich verwende die Region nicht, also möchte ich,
dass sie deaktiviert wird. Und auch die Regionen
, die Sie nicht verwenden, können
Sie, Sie
wissen schon, deaktivieren. Aber das ist etwas, was Sie mit den Standardanwendungen nicht
tun können. die Standardprodukte, die
Sie da draußen haben,
müssen Sie also , wissen Sie,
das aktiviert sein, das ist standardmäßig aktiviert
,
was bedeutet, dass Sie sie nicht
wirklich deaktivieren können, aber Sie können
diese zusätzlichen Artikel aktivieren und deaktivieren , wenn Ihr
Kundenstamm hier drüben ist. Das ist also der Grund, warum es standardmäßig nicht aktiviert
ist, also können
Sie es zu einem späteren
Zeitpunkt aktivieren. Aber das ist die Region. Jede Region wird einen Namen haben. Sie können also sehen, dass Ost eins Ost zwei ist und dann Westbound
West zwei da ist Sie haben also Ost eins, das ist Ihr Nord-Virginia
und dann Ohio Das sind also zwei Orte
in Ihrer Ostseite. Und dann auf
der Westseite haben Sie Kalifornien und Nordkalifornien
und Oregon. Das sind also zwei
Standorte, die Sie haben. Also haben Sie hier
verschiedene Standorte, zum
Beispiel, äh, Asien-Pazifik,
Sie haben Mumbai, das
ist AP South One,
und dann HydraDrRegion wird Süd-Zwei
sein,
schätze ich, hier drüben Beispiel, äh, Asien-Pazifik, Sie haben Mumbai, das
ist AP South One, und dann HydraDrRegion wird Süd-Zwei
sein,
schätze ich, hier drüben Süd-Zwei
sein,
schätze ich, Also ja, AP South bis zur Region Hyderabad. Also das ist in Indien. Ebenso versuchen sie, die Zahl zu
nutzen, um sie weiter zu erhöhen, sodass sie mehrere Regionen
in mehreren Städten
haben können . Das wird ihnen also wirklich
helfen, sich zu globalisieren und auf der ganzen Welt
präsent Nun, wie ich Ihnen sagte,
dies sind Regionen. Im nächsten Video werden wir also
verstehen, was
Verfügbarkeitszonen sind. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Ich werde dich sehen
61. Wellenlänge des Labors, lokale Zonen, Latenz in der Praxis: Hey, Leute, willkommen zurück
zum nächsten Video. In diesem Video werden wir
über Latenz sprechen. Was ist nun Latenz? Latenz ist im Grunde
die Langsamkeit, die Sie erleben, wenn Sie eine Website besuchen oder eine Anwendung öffnen oder wenn Sie
etwas in das System eingeben und dann
eine spätere Antwort erhalten, Sie erhalten eine langsamere Antwort
vom Server Wenn Sie zum Beispiel
Enter eingeben, führen Sie hier einen großen
Befehl aus. Sie listen die Dateien nicht wie 10.000 Dateien
in diesem Ordner auf. Sie drücken einfach die Eingabetaste. Wenn Sie die Eingabetaste selbst drücken, werden
Sie feststellen, dass Ihre Antwort
langsamer wird. Die reibungslosere Reaktion ist also
im Grunde genommen, wenn ich die Eingabetaste drücke Sie sollte
sofort ausgeführt werden Aber wenn es eine Verzögerung von
Millisekunden gibt, Sie Wenn es eine Verzögerung von Sekunden gibt, werden
Sie anfangen, den
Unterschied zu bemerken, weil, äh, Ihre Augen- und
Handkoordination
sich ein wenig von dem unterscheiden,
was Sie Das ist also eine Erfahrung,
bei der Sie sehen können, ähm, Sie können den
Begriff Latenz sehen Also, diese Latenz kommt,
wenn ich das tippe, okay? Aber es gibt eine Möglichkeit, die Latenz
tatsächlich zu messen. Schauen wir uns zum Beispiel an, wie es
aussieht, wenn
Sie keine Latenz haben. Also habe ich ein Diagramm vorbereitet. Okay. Also habe ich ein Diagramm erstellt, also werde ich langsam
dieses spezielle Dokument aufdecken , das Sie hier sehen Zunächst ist es also wie bei der
IntraEZ-Kommunikation, die unter minus
einer oder unter einer Millisekunde bis zwei Millisekunden liegt Die schnellste
Kommunikation, die in derselben Availability Zone verfügbar ist. Jetzt kann ich es dir noch
schneller zeigen , wenn du einen lokalen Gastgeber
bezahlst. Loclos bedeutet sich selbst. Es ist die Loopback-IP-Adresse. Sie wird jetzt
standardmäßig als Oculos bezeichnet , da ihr ein
Hostname Wenn ich also die Oculos anpinge, kannst
du sehen, kannst
du sehen Das ist also die schnellste, die Sie je sehen
können, weil es ungefähr
0,0.026 Millisekunden
dauert Es ist so schnell, dass es sich selbst erreichen
kann. Das ist also perfekt, oder? Aber Sie werden diese Art von
Reaktion in keinem anderen
netzwerkbezogenen Bereich sehen können . Auch wenn du das selbst anpingst. Ich gehe zum Beispiel hier rein, ich habe bestimmte
EC Two-Instances gestartet. Ich werde dir das zeigen. Nennen wir laufende Instanzen. Ich habe also drei Instanzen, die hier
laufen. Ich bin tatsächlich an der Basis-CLI
angemeldet und kopiere die
private IP-Adresse. Okay, ich verwende die
öffentliche IP-Adresse derzeit nicht. Ich werde es später benutzen. Wenn ich die
private IP-Adresse dieses bestimmten
Servers an diesen Server anhefte, werden
Sie hier eine
geringe Latenz feststellen,
die fast der entspricht, die Sie hier sehen. Hier drüben sind es also alle 26. Es ist 27 und 28 wird kommen. Ebenso sehen Sie, äh, die gleiche
Latenz, weil
es dieselbe IP-Adresse
auf demselben System ist. Was ist nun, wenn ich
ein anderes System anhefte, das sich in
derselben Availability
Zone befindet. Also kannst du das sehen. Dies ist ein weiteres System, das
ich für den Latenztest erstellt habe, und es
wurde tatsächlich in derselben
Availability Zone erstellt. Okay? Sie können also die verfügbare Zone ändern,
wenn Sie sie erstellen Ich habe es dir auch schon gezeigt. Also benutze das, um, ähm, du weißt schon, deine
Verfügbarkeitszone dort einzurichten. Es ist also eine sehr einfache
Startinstanz. Und dann bearbeiten
Sie dies in der Instanz einfach und wählen
dann aus, welche
verfügbare IIT-Zone Sie Auf diese Weise können
Sie ganz einfach auswählen, welche
Verfügbarkeitszone Sie möchten Sie ganz einfach auswählen, welche
Verfügbarkeitszone Kopiere das, pinke das. Dies ist der nächste Server
, den wir erstellt haben, aber er befindet sich auf derselben AZ. Sie hier in diesem Diagramm, das eigentliche Diagramm
beginnt hier,
die Kommunikation innerhalb von AZ Kommunikation in der Verfügbarkeitszone. Ich kann sehen, dass es
in eine Millisekunde kommt, also ist es im Grunde
nicht 0,0, richtig, weil es nicht
hineinzahlt, manchmal
sind es 0,9 Aber meistens sind es etwa 1,5,
1,6, 1,8, Wenn Sie also den Durchschnitt nehmen, wird
es ein Durchschnitt von etwa
1,1 — 0,5 sein. Sie können sehen, dass der
Durchschnitt bei 1,44 liegt. Hier hat er sich bereits
gemittelt. Aber hier liegt der Durchschnittswert bei 0,025. Also ist es ziemlich schnell, sehr offen zu
sein, okay? Also, weil es eine Verbindung
zu einem Server direkt nebenan herstellt. Okay? Also, das ist der erste, den du gerade gesehen
hast. Die nächste ist wie eine
Cross-Availability-Zone. Also habe ich diesen Server in einer
anderen Availability
Zone mit einem F erstellt . Okay? Also starte die Instanz
und erstelle sie auf einer F. Das ist also eine weitere
Availablet Zone Lassen Sie uns also weitermachen
und diese anpingen. Jetzt können Sie sehen, dass, wenn es sich in einer anderen
verfügbaren Zone befindet, es sich in einem anderen Rechenzentrum Sie sehen, dass ein bisschen davon etwas mehr Zeit in
Anspruch nimmt, aber es liegt immer noch im Durchschnitt Also haben wir es um 16 Uhr geschlossen, also werden wir es wohl
um 16 Uhr schließen. Sie können sehen, dass der Durchschnitt hier
ein wenig von
eins.44 auf eins.799
gestiegen hier
ein wenig von
eins.44 auf eins.799
gestiegen Das bedeutet, dass es etwas mehr
Zeit in Anspruch
nimmt, aber keinen großen Unterschied in Bezug auf
Ihre durchschnittliche Lebenszeit Es tut mir leid, durchschnittliche Zeit, es erhält eine Antwort
vom Server. Das sagt dir also im Grunde , dass die Avabit-Zone auf der anderen Seite auch in Ordnung
ist, okay? Ähm, lass uns jetzt über die Region sprechen. Dies ist eine zusätzliche
Konfiguration, die ich für die
Regionskonfiguration vorgenommen habe. Wenn ich also zu IFI gehe, klicke mit der
mittleren Maustaste auf EC Two und ändere diese Region
auf Asia Pacific Mumbai Ich habe hier
drüben einen Dienst eingerichtet, tut mir leid, EC Two Instance, und dieser läuft
auf AP South One A. Das ist die Availability Zone Ich habe
die VPC-Routentabelle konfiguriert und dann
die Kommunikation
zwischen ihnen konfiguriert .
Deshalb funktioniert es Wenn Sie denken, dass
es
bei Ihnen nicht funktioniert , sondern wenn Sie es nur
erstellen, würde
es nicht funktionieren, weil es eine Menge
Arbeit im Backend erfordert. Das nennt man
Peer-to-Peer-Kommunikation. Jetzt müssen Sie also
überlegen oder sehen, was das Ergebnis ist, das
Sie
tatsächlich erhalten werden. Weil diese
spezielle IP-Adresse immer noch die eigene IP-Adresse von AWS
ist, wie Sie sehen können, habe ich sie genauso
abgeglichen. Ich habe hier eine andere
Serie gegeben, 17231. Das ist 172, 32, sonst würde es keine
Verbindung herstellen, es wird ein
Fehler ausgegeben , wenn es sich im selben
Netzwerkbereich befindet, derselbe Apfelwein Wenn ich das anhefte, kannst du sehen, dass es hier viele
Millisekunden Also hier sind es 187
Millisekunden. Also
das nennt man Kreuzregion,
ähm, lass es bei 16 kommen Regionsübergreifendes AWS. Okay? Also, du kannst sehen, dass 187
Millisekunden durchschnittlich sind. Sie können also tatsächlich eine
Verbindung zu einem anderen AW-Service
herstellen, der in einer anderen Region
gehostet wird Aber das einzige
Problem ist, äh, die Kommunikation hier wird,
ähm, Sie wissen schon, so sein, als ob es hier eine Menge Verzögerung gibt. Es tut mir leid, ähm, ja, die
Latenz wäre da. Es tut mir leid. Ich gehe hier ein
bisschen runter, Kreuz. Eine Kommunikation dauert ein,
zwei, äh, zehn Millisekunden Intra AZ, wir haben es überprüft. Cross AZ, wir haben es überprüft. Region zu Region, da
Sie sehen können, dass es zwischen 50 Millisekunden und 300 Millisekunden liegt Es geht uns also immer noch gut, weil wir zwischen 50 und 300 sind. Wir haben das
Maximum von 300 nicht erreicht. Vielleicht, wenn ich einen Service an der Ecke
eingerichtet
hätte , vielleicht in der Region
Tokio oder, ähm, in dieser Region, vielleicht in der Region China oder
vielleicht in Australien. Dann könnte es
300 Millisekunden dauern,
Unterschied, das könnte es sein.
Also wissen wir es nicht Also müssen wir das versuchen.
Okay. Als Nächstes geht es um den
Standort am Rand, vor der Cloud. Nun, hier
braucht es ein bisschen, du weißt schon, Gegenstand von dir. Hier haben Sie also die Cloud-Front mit der
Edge-Position. Wenn Sie
in dieser Situation Cloud-Front
erstellen wollen , ja, dann erhalten Sie quasi eine Antwort
mit einer Millisekunde
bis 20 Millisekunden Jetzt wird diese Latenz reduziert und
der Endbenutzer, wenn sich dieser Endbenutzer in der Nähe der Cloud-Front
befindet Das ist also auch ein
Lichtzustand , denn
wir sehen diesen Plan, wissen
Sie, Cloud Friends
gibt es nicht überall. Okay? Also, wenn ich das sage, wenn
ich es in Indien sehe, richtig? Also überprüfen wir den
Standort am Rand, richtig? Also in Indien, also in Indien, es ist Pune, dort Mumbai,
es ist Neu-Delhi,
ihr Chennai, das Bangalore, dort ist Arabad Wenn also jemand von
keinem dieser Standorte aus surft,
sondern von Kerala
aus, schätze ich, vom anderen Southend
aus,
dann geht sondern von Kerala
aus, schätze ich, vom anderen Southend
aus, anderen Southend
aus, er Und dann
gehen sie zuerst zum Mumbai-Server, holen sich diese Ressource zum ersten Mal und dann
wird sie in
der Cloudfront in der
Region Chennai zwischengespeichert Aber dann bekommen sie immer noch die Verzögerung hier drüben oder die
Latenz hier drüben, weil sie immer noch Jen durchgehen
müssen ,
weil es nicht so ist dass die
Leute, die in
Jane surfen, viel schneller sind als im Vergleich zu Kiera oder dort drüben. Also genauso, wenn du
zum südlichen Ende gehst,
dann wirst
du ein Problem bekommen wirst du auch in dieser
Perspektive immer noch
Latenz haben Also wirst du auch in dieser
Perspektive immer noch
Latenz haben. Aber weißt du, es ist besser,
als aus Mumbai zu kommen, oder? Also diese Latenz
haben sie hier
in 20 Millisekunden angegeben hier
in 20 Millisekunden Also ein bis 20 Millisekunden. Es kann also bis zu
einer Millisekunde schneller sein , wenn
es eine
Randposition gibt und der Endbenutzer Aber wenn sie weit weg sind, kann
es bis zu 20 Millisekunden Das
haben wir also bisher gesehen. Und dann in Bezug auf lokale
Zone und Wellenlänge. Das sind zwei Dinge, die ich
dir gesagt habe , wir werden
es später überprüfen, oder? Das sind im Grunde lokale Zonen, ich zeige es Ihnen hier. Jetzt werden Sie
lokale Zonen nicht mehr als Regionsnamen oder
Ortsnamen sehen können , wie Sie den H-Standort sehen, aber dann können Sie lokale Zonen hier
sehen. Lassen Sie uns nun zunächst verstehen, was eine lokale Zone
ist. Nun sind sowohl Wellenlängen- als auch lokale
Zonen darauf ausgelegt, die AWS-Infrastruktur
näher an Endbenutzer und Geräte zu erweitern Sie dienen
jedoch leicht
unterschiedlichen Zwecken und zielen auf unterschiedliche Anwendungsfälle ab. Lassen Sie uns zunächst
etwas über die Wellenlängenzone erfahren. Nun, die Wellenlänge, wenn
es um Wellenlänge geht oder jemand Wellenlänge zu
dir sagt oder bei der Frage, denke an fünf G. Fünf
G ist eine Wellenlänge,
also die, die sich durch eine Welle bewegt. Eine AWS-Wellenlänge ist also eine spezialisierte
AWS-Infrastruktur, die den AWS-Rechen- und Speicherservice in einen
Telekommunikationsanbieter
integriert, wie das Rechenzentrum am
Rand eines Fünf-G-Netzwerks Dadurch wird die
Latenz minimiert, die durch Weiterleitung des Datenverkehrs vom
Five-G-Netzwerk zur Sie verwenden das
Fünf-G-Telekommunikationsnetz, um die Daten in die
Cloud zu übertragen, was viel schneller ist Kennst du die Geschwindigkeit von
fünf G? Es ist wirklich schnell. Nicht viele Orte haben
diese Wellenlängenzone. Jetzt wird die Wellenlängenzone für Dienste mit
extrem niedriger Latenz verwendet . Die Wellenlänge wird für
extrem niedrige Latenzen verwendet, was bedeutet, dass
sie
sehr teuer sein wird , da sie
fünf G verbraucht . In welchen Situationen würden Sie extrem niedrige Latenz
verwenden? Anonymes Fahren eines Fahrzeugs. Wenn Sie sich Los Angeles und andere
Teile Kaliforniens ansehen, werden
Sie feststellen, dass
Autos
ohne Fahrer auf der Straße fahren werden , oder? Wenn Sie das gesehen haben, verwendet es die Five-G-Technologie, um
eine extrem niedrige Latenz zu erreichen. Wir sprechen hier nicht von
niedriger Latenz. Wenn Sie dieses
Diagramm hier sehen, sprechen
wir von
extrem niedriger Latenz, die weniger als
zehn Millisekunden beträgt Das ist, als ob Sie
direkt neben dem Server wären. Also hier siehst du das Kreuz A-Z. Cross AZ ist das
, das
dir tatsächlich ein bis zehn Millisekunden gegeben hat dir tatsächlich ein bis zehn Millisekunden Was Ultra-Ultra-Linsenzonen vielversprechend
ist, sind weniger
als zehn Millisekunden,
oft weniger als fünf Millisekunden vielversprechend
ist, sind weniger
als zehn Millisekunden,
oft weniger als fünf Millisekunden. Im Grunde verwendet es also
die fünf G-Anwendungen, die von Ihrem Datenanbieter oder
Telekommunikationsanbieter
bereitgestellt werden, z. B. wenn Sie über
AT&T sprechen oder wenn Sie über Verizon sprechen AT&T Also nutzen sie
diese Netzwerke auch für eine schnellere Bereitstellung von Daten mit extrem niedriger Latenz für
anonyme Fahrzeuge, AR VR als argumentierte Realität
oder virtuelle Realität und als
Echtzeit-Gaming-Zweck Ebenso haben Sie verschiedene
Situationen, in denen Sie Ihre
Art von Waveland-Zone nutzen
werden Wenn Sie also das
globale Diagramm hier sehen, haben
Sie nicht an allen Orten so viele
Wellenlängen Sie haben also acht
Waveland-Zonen in Nord-Virginia und
einige Jetzt konzentrieren sich diese Waveland-Zonen also hauptsächlich auf
die Region Kalifornien
sowie auf den
Bundesstaat New York, wie
hier die Region Kalifornien
sowie drüben Damit soll sichergestellt werden, dass heutzutage viele autonom
fahrende Autos kommen, und Robo-Taxis kommen auch Für diese Situationen wird
es also verwendet, ebenso wie AR VR Also hier, Sie können in London sehen, Sie haben auch Wellen, ähm, es gibt
zwei Wellenlängenzonen. Nun, das wird auch Teil
Ihrer Availability Zone sein , aber es bietet eine kritische Infrastruktur
für Ihre Anwendung. Lassen Sie uns nun
über die lokale Zone sprechen. Nun, wenn Sie über lokale Zonen
sprechen wollen, ist die
lokale Zone nicht so
schnell
wie eine Wellenlängenzone mit niedrigerer Latenz, aber sie ist immer noch gering, wenn Sie über
AZ-übergreifende Kommunikation sprechen. Nun, wie Sie diese,
Sie wissen schon, niedrige Latenz erreichen können , indem Sie ein mobiles
Rechenzentrum oder ein Rechenzentrum in der
Nähe von Metropolen
haben. Wenn Sie beispielsweise Nord-Virginia
sehen, haben
Sie hier 14 lokale
Zonen. Nun, diese 14 lokalen Zonen
werden in viele Orte aufgeteilt. Ich bin mir ziemlich sicher, dass man im
New York, äh, wissen Sie, im New York Strip, sowie in den Regionen von Oregon, Bo hier drüben sieben lokale
Zonen sehen
kann. Sie haben keine lokalen
Zonen, was London angeht. Okay, aber Sie haben hier
lokale Zonen. Also, was ist eine lokale Zone? Wie ich Ihnen bereits sagte, erweitert die lokale Zone
im Grunde Ihren AWS-Service. Also, was ist der erweiterte
Service? Sie berechnen Speicher, Datenbank. Diese drei
Dienste werden also erweitert, und wo sie erweitert werden, sie näher an NDCER, da
sie an einem bestimmten
geografischen Standort platziert werden sie an einem bestimmten
geografischen Standort Das sind sehr
dicht besiedelte Gebiete, okay, sehr dicht besiedelte
Gebiete, wo auch immer
Sie sich befinden, Sie werden sehen, ob die lokale Zone
in der Region Japan liegt Sie können sehen, dass
es eine lokale Zone gibt , weil Tokio
sehr dicht besiedelt ist. Also haben sie dort drüben eine lokale
Zone. So können sowohl die Kunden
als auch
die
Leute, die AWS verwenden, tatsächlich schneller reagieren . Mal sehen, ob Mumbai eine lokale Zone
hat Mumbai hat hier auch zwei
lokale Zonen, die wiederum
für eine
schnellere Kommunikation verwendet werden, und die
Benutzerbasis wird viel schneller auf
Ihre Anwendung zugreifen können, weil Sie
näher an der lokalen Zone sind. Nun, die Region Mumbai hat keine Waveland-Zone, das
muss daran liegen, der Five G kürzlich in Indien
veröffentlicht wurde oder daran liegen
könnte,
dass kein
autonomes Fahrzeug
oder ARVR gibt, das so beliebt ist . Sobald es also populär wird und die Leute anfangen, Dinge damit zu
entwickeln, und wenn das
Echtzeit-Gaming ins Spiel kommt, dann wird AA Blas auch
Waveland-Zonen veröffentlichen Im Moment
wissen wir also , was wir bisher
verstanden haben, ist, dass der Datenbankdienst für den
Datenverarbeitungsdienst, der Speicherdienst , näher an den dicht besiedelten
Gebieten
gehostet wird näher an den dicht besiedelten
Gebieten
gehostet , was lokale Zonen angeht Dadurch wird die Latenz für
Anwendungen, die einen Zugriff mit
niedriger Latenz auf ein
zugesagtes Rechenzentrum oder auf
Benutzer an bestimmten Standorten erfordern zugesagtes Rechenzentrum oder auf
Benutzer an bestimmten Standorten Lokale Zonen sind nützlich für Workloads, die eine Kommunikation mit sehr niedriger
Frequenz
erfordern, aber nicht unbedingt eine extrem niedrige, äh, Wellenlängenlatenz Das sind also die tatsächlichen Unterschiede
zwischen beiden, und genau so sieht die
Latenz aus,
wenn man das macht Jetzt haben wir all
diese Latenzprüfungen durchgeführt. Lassen Sie uns eine Latenzprüfung
für unsere öffentliche IP-Adresse durchführen. Jetzt weißt du, dass diese
öffentliche IP-Adresse hier keine öffentliche
IP-Adresse hat, ignoriere sie Nehmen wir also die
öffentliche IP-Adresse hier. Also
nehmen wir eins davon. Es spielt keine Rolle
, für welchen du dich entscheidest. Wenn Sie also einfach die öffentliche
IP-Adresse des Servers anpingen, werden
Sie feststellen, dass er hier
die Latenz hat, aber sie ist sehr gering. Nimm die öffentliche IP RS von
diesem und versuche, diesen zu pingen. Es funktioniert aus
irgendeinem Grund nicht. Lass uns das einfach auffrischen. Lass uns das hier versuchen. Ja,
1,554 Das ist also im Grunde Ihre
öffentliche IP-Adressantwort. Aber was Sie herausgefunden haben, was
für Sie sehr gut zu verstehen ist, ist, dass Sie das bekommen, wenn Sie von Region zu Region
gehen. Jetzt können Sie auch versuchen, google.com zu
pingen,
und
Sie können hier auch die Zeit abrufen , die
Sie benötigen, um zu antworten Sie können auch auf
awsotmazon.com nachschauen und Sie können die Uhrzeit hier überprüfen. Das ist also viel schneller als google.com.
Das siehst du Das kommt also wieder
von cloudfront.net. So
kommt es also im Grunde. Also auch hier kommt es von,
ich glaube, es kommt auch
von so etwas wie einem CloudFrint, der
vom Google-Dienst Also, weißt du, es geht im Grunde
darum,
ähm, du weißt schon, wie man
die Latenz herausfindet , so wie sie von
Cloudfrint kommt Das ist ein sehr gutes Beispiel. Sie können sehen, dass
es viel schneller ist. Als tatsächlich
unter einer öffentlichen IP-Adresse zu surfen. Hier surfe ich, ich meine,
tut mir leid, dass ich hier eine öffentliche
IP-Adresse habe, die 1,25 und 1,54 ist Der Durchschnitt wird hoch sein, aber hier liegt er bei 1,25 und manchmal kommt er mit einem
Nullpunkt von 0,8, und das wird den Durchschnitt reduzieren Sie können sehen, dass 11
hier drüben sind und der Durchschnitt hier
bei 13 liegt Was bedeutet, dass Cloud
Friend wirklich funktioniert. Ich bin gerade am
Standort London, die Cloud-Front kommt
im Moment vom Standort London. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Ich hoffe, es war
hilfreich für Sie zu
verstehen, wie Latenz funktioniert und wie Ihre Anwendung in Bezug auf die Latenz
funktioniert. Wir haben auch hier
eine direkte Verbindung, was wir nicht erklärt haben. Jetzt können Sie sehen, dass das
öffentliche Internet hier das höchste
ist, wo Sie
aufgrund
der
Netzwerkverbindung und des Routing eine höhere variable Latenz haben eine höhere variable Latenz aufgrund
der
Netzwerkverbindung und des Routing Und der direkte Anschluss, über den
wir gesprochen haben. Das bedeutet also, dass, ähm, Ihre AWS-Infrastruktur direkt mit Ihrer, äh,
privaten Infrastruktur verbunden ist. Also auch in dieser Situation man etwa eine Millisekunde
bis zehn Millisekunden Also, ich meine, die
Wellenlängenzone ist
viel schneller als, äh, äh Du siehst, wie beliebt die
beiden gerade werden. Bei diesen beiden handelt es sich um neue Einschlüsse. Deshalb haben sie es zu einem
Teil dieser Zertifizierung gemacht. Diese werden also im Rahmen
dieser Zertifizierung hinzugefügt. In diesem Skill gibt es zwar keine
Fragen zu ihnen, aber es ist trotzdem sehr gut,
etwas über diese beiden neuen Dienste zu wissen . Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir
sehen uns im nächsten
62. Labs Auto Scaling Group mit dynamischer Richtlinie – Praxisbeispiel: Hallo, Leute. Willkommen zurück
zum nächsten Video. In diesem Video werden
wir über
einen der wichtigsten
Services auf AWS sprechen ,
nämlich Ihr Auto-Skilling Autoski ist nun
Teil Ihres EC Two, und es wird meistens
als EC two bezeichnet. Autoskilling werden wir uns
ansehen, weil es
da
draußen auch noch andere Auto-Skillings gibt,
und
darüber draußen auch noch andere Auto-Skillings gibt, reden wir nicht Wenn Sie also hier zur EC
Two-Konsole gehen, werden
Sie hier unten
Autoscaling-Gruppen sehen Nun, das gibt Ihnen eine kurze Vorstellung von Auto
Scaling, was es ist,
und Sie können
die Dokumentation lesen,
Sie können sich über und Sie können
die Dokumentation lesen, die Vorteile
und ähnliches Aber wir wissen bereits,
was Autoscaling ist. Wir haben
Autoscaling bereits in den
vorherigen Videos konfiguriert Autoscaling bereits in den
vorherigen Wir haben Auto Scaling auf ECS-Instanz
konfiguriert, als wir der
ECS-Instanz
konfiguriert, als wir Auto Scaling
dazu gehörten, und es gab keine Option
für Sie, es zu deaktivieren, und nur
so geht es weiter Lassen Sie uns die Auto
Scaling-Gruppe hier erstellen. Geben Sie nun hier einen Namen für diese
Auto Scaling-Gruppe ein. Ich gebe das
als HTTP-Server AG,
AG als Auto Scaling an. Denken Sie jetzt daran, dass Sie
eine Startvorlage benötigen , um eine Auto Scaling-Gruppe zu
erstellen. Was ist nun eine Startvorlage? Warum brauchen wir es
plötzlich? Ähm, lass mich dir das erklären. Wenn Sie zu Easy to Console wechseln, laufen dort mehrere Instanzen, oder? Also wenn Sie sich diese ansehen, ähm, ignorieren Sie alle
beendeten Instanzen Aber wenn jetzt bestimmte
Instanzen laufen,
können Sie diese Instanzen dann zu einem
Teil Ihres
Auto-Skillings machen ? Das können Sie nicht Wenn Sie bereits
Instances ausführen, können
Sie sie nicht zu einem Teil
einer Auto-Skilling-Gruppe machen Sie müssen Instanzen mithilfe einer
Auto-Skilling-Gruppe
von Grund auf neu erstellen mithilfe einer
Auto-Skilling-Gruppe
von Grund auf neu Das ist die ganze Agenda
von Auto-Skilling. Das bedeutet, dass ich keine
bestehende Gruppe von Instanzen
zur Auto-Skilling-Gruppe hinzufügen kann bestehende Gruppe von Instanzen
zur Auto-Skilling-Gruppe Zweitens, wenn Sie sich erinnern, haben wir das ECS gemacht Also mussten
wir auch in diesem ECS-Cluster neue
Auto-Skiing-Server
durch Auto-Skiing über
ECS einrichten, genau wie die Server, was Teil der
Bereitstellung von Containern ist. Wir mussten eine neue
Auto-Scaling-Gruppe erstellen, sodass Sie
dann in der Lage
sein werden,
Umfragen und dann
Container innerhalb dieser Gruppe zu erstellen . Hier
gilt dasselbe oder dieselbe Logik. Ihre bestehenden Instanzen
kommen nicht in Frage. Aber was Sie
tun können, ist, wenn Sie eine bestehende Instanz laufen lassen und Sie möchten,
Sie wissen schon, einen solchen
Instanztyp als Vorlage erstellen möchten, können
Sie diese auswählen und
mit der rechten Maustaste darauf klicken. Gehen Sie dann zu Image und Template und erstellen Sie eine Vorlage
aus dieser Instanz. Es
wird also eine Vorlage erstellen, genau wie diese Instanz
im Vorlagenbereich. Und diese Vorlage,
sobald Sie sie erstellt haben, können
Sie hierher kommen und dann die Vorlage auswählen, die Sie erstellt haben. Es tut mir leid,
die Sie erstellt haben. Wenn Sie noch
keine Startvorlage haben, klicken Sie
einfach auf
Startvorlage erstellen und wir werden sofort eine neue
Startvorlage erstellen. Ich habe bereits eine Vorlage für
die Markteinführung, die genau dieser Vorlage entspricht, dieser speziellen Startvorlage. Wir werden uns also
ansehen, wie das geht. HDDPI EC Two
war also der Name dafür. Das ist also eine Startvorlage. Und sehr einfache Details , die Sie
zur Startvorlage angeben werden. Es ist nicht so, ähm, es ist ein komplexes Zeug für alle. Also geben wir einer Startvorlage den
Namen. Wir geben
den Instanztyp an. Dazu gehören die
Instanzgröße und die Instanzfamilie. Wir werden
hier auch die Anleitung zum
Auto-Skifahren spezifizieren Anleitung zum
Auto-Skifahren , ob Sie dafür
eine Anleitung benötigen. Lassen Sie es aktiviert sein, wir werden mit den Standardfunktionen
weitermachen. Sie werden auch
einen Schnellstart auswählen ,
Betriebssysteme, was diese spezielle Vorlage als Betriebssystem haben soll, also werden wir das auswählen. Dann wählen
wir hier im Instanztyp die
kostenlose, berechtigte Instanz
oder die Instanz, die Sie
auswählen möchten, und geben dann Keypare oder die Instanz, die Sie
auswählen möchten, auf Kepare ist wichtig, weil Diensten, die im
Rahmen des automatischen Scannens erstellt wurden, wir bei den Diensten, die im
Rahmen des automatischen Scannens erstellt wurden, hier dasselbe Schlüsselpaar verwenden Jetzt müssen Sie keine Netzwerkeinstellungen
angeben, wir können das auch später tun Es werden keine Volumen benötigt. Da Sie sehen können, dass das Allzweck-Volume hier bereits
zugewiesen wurde, können
Sie es auf etwa 20 GB erhöhen
,
sodass Sie
auf jedem System und jedem Server mehr Dateigröße
aufnehmen können . Erstellen Sie also hier eine
Startvorlage. Sie sollten es für dich erstellen, aber dieser Name existiert bereits, also werde ich
ihn einfach ignorieren. Ich gehe hier rüber und wähle die Instanz hier aus. Ich habe es genauso erstellt , wie ich es dir gerade
gezeigt habe. Haben Sie ein Schlüsselpaar, äh, Sie
müssen hier mikroskopieren. Es ist kein Spot-Instance. tut mir leid. Klicken Sie also hier
auf Weiter
und Sie werden
die Anforderungen in Bezug auf
die
Startoptionen hier sehen die Anforderungen in Bezug auf . Hier hat sich also nicht
viel geändert. Dies wurde
aus Ihrer Startvorlage importiert. Okay. Also aus deiner Vorlage, die dort berichtet wird, oder? Von da an sind diese Einstellungen also
wichtig. Eine der wichtigen
Einstellungen, die Sie sehen
werden, ist die
Netzwerkeinstellung. Hier werden wir die
Standard-VPC verwenden und hier werden wir alle verfügbaren
T-Zonen auswählen Unser Service
wird also immer dann in einer
der verfügbaren Zonen erstellt , wenn wir die Erstellung des Dienstes anfordern Nun, hier versucht
das Auto Scaling nach
bestem Wissen und Gewissen für die
Availability Zone
automatisch , die
gesündeste verfügbare Zone einzustellen Wir behalten das als Standardoption bei,
fahren Sie mit
der nächsten Seite fort Dies sind nun die
Optionen für Ihre erweiterten
Autoscaling-Optionen hier. Denken Sie nun daran,
dass diese Optionen auch zu einem
späteren Zeitpunkt geändert werden
können . Sie können
sie
also jetzt hier oder auch später konfigurieren Wir haben also noch keinen Load
Balancer, von dem wir
nicht erfahren haben, was den Load Balancer angeht Wir werden uns zu einem späteren Zeitpunkt
damit Wenn Sie jedoch einen Load Balancer haben und planen, einen vorhandenen Load Balancer hinzuzufügen, können Sie Dieser Load Balancer wird Teil Ihrer
Auto-Skilling-Gruppe Dann geht es bei VPC-Salat im Grunde um
die Möglichkeit, Ihre
VPC-Last-Zielgruppe der Auto-Skilling-Zielgruppe
zuzuordnen,
was es einfacher macht, die
Netzwerkverfügbarkeit zu verbessern, die
Netzwerkkapazität und -fähigkeit zu
verbessern,
und es ist auch einfach zu skalieren Auto-Skilling-Zielgruppe
zuzuordnen,
was es einfacher macht, die
Netzwerkverfügbarkeit zu verbessern, die
Netzwerkkapazität und -fähigkeit zu
verbessern, und es ist Wenn Sie jetzt jedoch die Option
An die VPC angehängt auswählen, müssen
Sie eine
VPC-Lats erstellen lassen, aber wir sind noch nicht damit fertig, also verwenden wir einfach die Standardoption. Nun, hier im Gesundheitscheck werden
wir die
Standardoption hier verwenden. El Check
ist standardmäßig für die EC Two aktiviert. Sie werden einen
Monitoring-Bereich haben in dem Sie sich die Überwachung all Ihrer EC
Two-Instances sowie Ihrer
Auto Scaling-Gruppe jetzt ansehen können. Aktivieren Sie die Verfügbarkeit fehlerhafte Knoten ersetzen Standardmäßig wird es jedoch aktiviert oder
erneut aktiviert, sodass Sie sich darüber keine Gedanken machen müssen Hier handelt es sich um einen verteilten Dienst und das Volumen wird angehängt
und es wird dafür verwendet, aber es wird wieder eine
separate Gebühr berechnet. Bezug auf die Überwachung sollten Sie
die Standardüberwachung verwenden, die im
Lieferumfang der
Autoscaling-Gruppe enthalten Wir werden derzeit
keine Überwachung auf Cloud Watch oder
Instance Warm Up aktivieren keine Überwachung auf Cloud Watch oder derzeit
keine Überwachung auf Cloud Watch oder
Instance Warm Up da alles separat
berechnet wird Also werden wir den
nächsten durchgehen. Dann ist die gewünschte Kapazität, Mindestkapazität ist eins und die maximale Kapazität ist fünf. Lass uns darüber sprechen. Was
ist die gewünschte Kapazität? Gewünschte Kapazität ist
im Grunde genommen die aktuelle Kapazität,
wenn Sie eine automatische
Gruppierungsinstanz erstellen Wie hoch ist
die aktuelle Kapazität der automatischen Gruppierung Sie können nicht auf Null gehen, da Ihre
Mindestkapazität eins ist Wenn Sie „Gewünscht“
gleich Null und „Minimum“ Eins auswählen, erstellen
Sie
eine Serverinstanz mit einer Kapazität von Null. Das wird für Sie nicht
funktionieren, also sollte es immer
das Minimum sein, und der gewünschte Wert sollte bei der Erstellung
derselbe sein. Aber was dann passiert, ist,
wenn das System feststellt wir nach der Konfiguration der Richtlinie dass wir nach der Konfiguration der Richtlinie derzeit
keine Richtlinie Wenn wir eine Richtlinie auf der
Grundlage der Richtlinie konfigurieren , würde sich die
gewünschte Kapazität ändern Wenn ich eine Richtlinie spezifiziere, z. B. eine gezielte Richtlinie
auf dynamischer Ebene, sage
ich, dass
Sie mehr
Service einrichten müssen, um diese Anfrage zu bearbeiten, wenn mein CPO-Durchschnitt
50 Prozent erreicht Sie mehr
Service einrichten müssen, um diese Anfrage zu bearbeiten Wenn Sie sich jetzt in einem
solchen Szenario befinden, Ihre Richtlinie aktiviert und
es wird nach
der CPU-Tisierung Wenn es 50 überschreitet, wenn es 50 überschreitet, dann wird
die Kapazität automatisch erhöht Das basiert also auf den Richtlinien, die
Sie anwenden werden. Also, wenn es für zwei geht, dann ist Ihre gewünschte
Kapazität zwei. Ihr Minimum ist
eins, das Maximum sind fünf,
was bedeutet, dass es in Bezug
auf die gewünschte Kapazität bis zu
maximal fünf sein kann . Okay? Also das ist es, was wir hier als unsere
Regel festlegen. Sie können also auf einer Skala von
1 bis 5 skalieren und wieder auf eins zurückskalieren, da dies die gewünschte
Mindestkapazität ist. Hier in der Wartungsrichtlinie haben
wir mehrere
Optionen angegeben. Dies bedeutet im Grunde, wie viele Server
verfügbar sein sollten , wenn eine Instanz
gewartet werden muss. Zum Beispiel gibt es
einige Wartungsarbeiten, die in
Bezug auf die Aktualisierung von
Instanzen durchgeführt werden, und es wird festgelegt, wie viele Instanzen
maximal verfügbar
sein sollten. In dieser Situation gibt es
derzeit also keine Richtlinie,
was bedeutet, dass es
sich um eine neu ausbalancierte Richtlinie handelt, was bedeutet, dass die
neuen Instances
gestartet werden , bevor
andere bestehende Instances beendet Hier gilt dasselbe:
Starten Sie vor dem Beenden,
was bedeutet, dass eine neue Instance
gestartet wird und wartet bis
sie bereit sind, bevor die andere Instanz
beendet wird Es handelt sich also um eine vorrangige
Verfügbarkeit, weshalb dies empfohlen wird Gleichzeitig können Sie gleichzeitig starten und beenden. Aber das beinhaltet
ein bisschen, Sie wissen schon, es ist eine Kosteneinsparung, aber dann ist es auch mit ein
bisschen Ausfallzeit verbunden. Es ist also immer besser, die Verfügbarkeit zu priorisieren,
denn das ist das Ähm, das ist ein bisschen Geld Sie ausgeben müssen, weil Sie
diese Instanz hinterlegt haben und
warten , bis die Instanz
bereit ist, bevor Sie sie beenden, was bedeutet, dass Sie eine zusätzliche Instanz haben werden, die bereit sein wird. Und wenn sie dann bereit ist, wird sie beendet Also das ist immer
bereit, es tut mir leid, das ist immer
empfehlenswert, wenn
man mit einer
Registrierung in Echtzeit arbeiten will. Alles klar Das ermöglicht also einen
skalierbaren Schutz. Wenn Sie ihn aktivieren, wird
Ihr Server immer dann, wenn er versucht, nach oben zu
skalieren, vor Skalierung
geschützt Das bedeutet, dass sich die
Servergröße nicht verringert , da dieser
Schutz aktiviert ist Also deaktiviere das ab sofort
und klicke auf Weiter. Sie können hier ein SNS-Thema
für diese speziellen
Fälle hinzufügen , in dem Sie senden
können Benachrichtigungen mit
einem einfachen
Benachrichtigungsdienst Klicken Sie auf Weiter. Das
brauchen wir momentan nicht. Fügen Sie hier Steuern hinzu, wenn Sie Text hinzufügen
möchten, und klicken Sie dann auf
Auto Scaling-Gruppe überprüfen und erstellen. Wir haben eine größere
Auto-Scaling-Gruppe. Jetzt ist die Kapazität aktualisiert. Eine Instanz
muss erstellt werden. Sie können in der
Instanzverwaltung sehen, welche Instanzen hier
erstellt werden. Es wird also eine Instanz erstellt
und eine Instanz läuft. Um eine gute Übersicht zu haben, können
Sie das
EC-Dashboard mit den beiden C-Instanzen aufrufen und dort
die eine Instanz sehen , die gerade
läuft. Nun, das ist dieselbe Instanz , die hier konfiguriert ist. Dies wird also im Grunde durch diese spezielle
automatische Skalierung verstärkt Sie können also auf
dem Aktivitätsbildschirm
sehen, wie die Kapazität
tatsächlich um 0-1 erhöht
wird Kapazität
tatsächlich um 0-1 erhöht Bis jetzt haben wir hier noch
keine Richtlinien festgelegt, dies sind die
Standardoptionen, die wir eingerichtet haben Was auch immer die
Standardoptionen hier sind, Sie können diese
Optionen ändern. Sie können Lats sehen. Sie können das Balancing sehen, Sie können Gesundheitschecks sehen. Sie können die
Wartungsrichtlinien für Instanzen hier einsehen. Sie können sich die erweiterte
Konfiguration in Bezug auf die Summe ansehen, mit der
Autoscaling-Gruppe
arbeitet Nun, wo ist die Richtlinie? Richtlinie gilt hier Die Richtlinie gilt hier für Auto-Skiing oder
automatisches Skinning Hier gibt es drei verschiedene
Arten von Richtlinien. Eine davon ist die dynamische
Qualifizierungspolitik, prädiktive und
geplante Sie können aus einer dieser Richtlinien wählen,
wodurch diese Kapazität
auf der Grundlage von, ähm,
Sie wissen schon,
Instanz, ähm,
Auslastung und Durchschnittswert der von Ihnen konfigurierten
Richtlinie erhöht
oder verringert werden kann auf der Grundlage von, ähm,
Sie wissen schon,
Instanz, ähm,
Auslastung und Durchschnittswert der von Ihnen Instanz, ähm, verringert Sie haben den
Monitoring-Bildschirm hier, hier können Sie
die Überwachung
Ihrer Auto
Scaling-Instances sehen und Sie können die beiden
EC-Instances hier sehen. Wenn Sie mehrere
EC Two Instances haben, wird eine
konsolidierte Version davon angezeigt. Denken Sie jetzt daran, dass die Überwachung dieser Instances etwas
Zeit in Anspruch nehmen
würde , bis sie
Daten gesammelt hat, denn jedes Mal, wenn
Sie eine neue Instance starten, würde es einige Zeit dauern,
bis
die Daten dieser Instances
hier eingetragen sind. In Ordnung. Also lass uns jetzt über
die Richtlinien hier drüben sprechen. Die erste Richtlinie, über die ich sprechen
möchte, ist die Schaffung einer dynamischen
Skalierungspolitik. eine dynamische Skalierungsrichtlinie klicken auf eine dynamische Skalierungsrichtlinie klicken, gibt es hier drei
Richtlinientypen. Sie haben die Skalierung der
Zielverfolgung. Sie haben die schrittweise Skalierung
, also
lassen Sie uns zunächst über die Skalierung der
Zielverfolgung sprechen . In diesem Fall werden Sie nun eine bestimmte Art
von Ressource oder Metriken
in Ihrer EC Two-Instance
überwachen . Zum Beispiel die durchschnittliche
CP-Auslastung. Wenn Sie also sehen, dass die
durchschnittliche CPU-Auslastung einen Zielwert
von 50 prozentual
übersteigt. Es wird eine
neue Instanz erstellt oder es
wird horizontal skaliert. Jetzt können Sie eine
Art Warmup-Instanz erstellen. Aufwärminstanz besteht
im Grunde darin, dass bestimmte
Zeitpläne, z. B. in Sekunden
,
vorgibt damit sich die Instanz
aufwärmen und dann in den Auto Scaling-Dienst oder Teil des
Auto-Scaling-Dienstes sein kann Dieses Beispiel kann ich Ihnen in Bezug darauf
geben wann Sie
mit Anwendungen arbeiten, was
nach dem Start der Instanz etwa
fünf bis zehn Minuten dauert nach dem Start der Instanz In solchen Situationen ist
es dann immer empfehlenswert, ist
es dann immer empfehlenswert diese bestimmte Sekunde
fünf bis zehn Minuten vorzugeben, diese in Sekunden
umzurechnen
und sie hier anzugeben. Dadurch wird sichergestellt
, dass die Instanzen nicht in die Auto
Scaling-Gruppe gelangen, es sei denn, sie werden,
Sie wissen schon,
diese 300 Sekunden oder
welche Sekunden auch immer Sie hier angeben werden
, durchlaufen diese 300 Sekunden oder . Also, das ist der
erste hier drüben. Die zweite ist Step-Scaling. schrittweisen Skalierung wird im Grunde die Integration
mit Cloud Watch Alarm
verwendet. Wenn Sie nun
einen Cloud-Watch-Alarm erstellen und dieser Alarm ausgelöst wird, wird die
Aktion im Grunde hier übernommen. Jetzt können Sie hier mehrere Optionen
hinzufügen , in denen
Sie Schritte hinzufügen können. Die schrittweise Skalierung erfolgt grundsätzlich
Schritt für Schritt mit der Skala. Wenn mein Alarm zum Beispiel 50 Prozent
erreicht, möchte
ich hier eine Kapazität
oder eine Einheit hinzufügen. Stimmt das? Und dann sage ich hinzufügen und dann wähle ich Cloud Wash habe gerade nichts. Du kannst die Wolke sehen,
da ist niemand. Wenn Sie also diesen hinzufügen, können
Sie hier
einen weiteren Schritt hinzufügen. Und der nächste Schritt könnte das Herunterskalieren
sein. Es ist also so, als ob Sie, wenn es am Tag
40% erreicht , herunterskalieren möchten. Es kann also auch dazu
dienen, Kapazität zu erhöhen oder Kapazität zu entfernen. Ebenso können
Sie mithilfe
Ihres Cloud-Wash-Alarms
je nach Schritt nach oben oder unten skalieren . Die nächste ist die einfache Skalierung. Also das benutzt auch eine, äh, du weißt schon, Cloud,
die, ähm , die gleiche Sache, die gleiche Sache hinzufügt ,
entfernt, aber du wirst hier nur eine
Option haben, das zu tun. Das ist also eher
eine einfache Skalierung. Lassen Sie uns also mit der gezielten
Skalierung in diesem Artikel fortfahren
und dann
20% als Zielwert verwenden, sodass es für uns einfach ist, dies zu tun. Lilicon erstellt und sie sollten Ihre
Tracking-Richtlinie erstellen Und mit dieser
Tracking-Richtlinie wird die durchschnittliche
CPU-Auslastung Ihrer Instanz-Instanz hier nachverfolgt . Derzeit liegt Ihre durchschnittliche
CPU-Auslastung bei etwa 2%. Jetzt haben wir hier einen Befehl,
der
verwendet werden kann, um die
Belastung des Systems zu erhöhen Sie können das
Pseudo-EmiPhony-Installationsproblem verwenden. Das ist also ein Tool, und dann können
Sie diesen Befehl ausführen stressiphon Iphon
CPU.to dauert 60 Sekunden,
oder Sie können ihn auch zu 600 Sekunden machen oder Es hängt also davon ab, wie schnell Ihre Anwendung gestartet wird. Gehen Sie dazu
einfach hierher,
wählen Sie Ihre Instanz aus, klicken Sie mit der rechten Maustaste und verbinden Sie Ihre Instanz. Sobald Sie mit Ihrer Instance
verbunden sind, können
Sie sowohl diese
Befehle zur Installation von
Stress als auch zur Ausführung
der Belastung ausführen ausführen. Also installiere ich gerade
Stress. Lassen Sie mich Stress ausführen. Nun, das wird
600 Sekunden lang Stress für eine CPU
ausführen,
da es sich um 600 Sekunden lang Stress für eine CPU eine T
Two-Mikroinstanz handelt. Sie hat also nur eine CPU. Sie können
es also selbst hier auf diesem
Überwachungsbildschirm überprüfen , ob es
erhöht wird oder nicht. Es ist also nicht aktiviert. Okay, es ist also angekommen. Sie können das
auch hier auf der EC
Two unter Autoscaling
Group Passport sehen Two unter Autoscaling
Group Passport Wir gehen also davon aus, dass dies
zunehmen wird, wenn wir diesen Befehl
ausgeführt haben Mit diesem Befehl wird die
Last für 600 Sekunden auf eine CPU übertragen. sollte also noch
ein paar Minuten dauern, fünf bis zehn Minuten, tut mir leid, Es sollte also noch
ein paar Minuten dauern,
fünf bis zehn Minuten, tut mir leid,
zwei bis 3
Minuten,
bis
diese Zahlen in
Ihrer Überwachung berücksichtigt ,
bis
diese Zahlen in
Ihrer Überwachung werden. Dann sollten Sie die erhöhte Auslastung sehen können
, und wenn sie
20 Prozent überschreitet, werden
Sie feststellen, dass sich die gewünschte
Kapazität erhöhen würde. Also werde ich zu Ihnen zurückkommen
und irgendwann werde ich
das Video pausieren und eine Pause einlegen und Ihnen
zeigen, wie das gemacht wird Hey, Leute. Willkommen zurück. Ich war in einer kleinen Pause unterwegs. Also, als ich diesen Befehl ausführte,
war
das, als ob ich eine kleine Pause machen wollte, also eine kleine Pause wie in
mehr als 15, 20 Minuten. Was also passiert ist, ist die Kapazität auf 1—4 erhöht wurde, wie Sie sehen können, und dann auf vier bis fünf
gehalten wurde. Dann
war die Ausführung des Skripts beendet und dann
fing es an, 5-4 zu beenden, und dann können Sie
vier bis drei und
dann drei bis zwei
und dann zwei zu eins sehen dann drei bis zwei
und dann zwei zu Es begann, es zu reduzieren
und fing an, diese Instanzen zu löschen und
zu beenden,
was nicht erforderlich ist, da das Skript abgeschlossen wurde und dann
das Dateisystem Ich denke, bei der Überwachung werden
Sie die genauen
Statistiken darüber sehen, was passiert ist Leider wurde die
Überwachung nicht durchgeführt. Okay. Sie können es also nicht finden, aber das ist das
Gesamtbild der CPU-Statistiken. Ich werde das einfach
noch einmal machen. Dies ist die laufende Instanz, also werde ich
den CPO auf dieser erhöhen Ich werde nur noch einmal eine Verbindung zu dieser speziellen
Instanz herstellen. Ich werde diese
beiden Befehle dort ausführen. Also lass uns einfach darauf warten. Also gut, jetzt wird dieser
Befehl ausgeführt, also werden Sie
die Änderungen sehr
bald sehen . Ich werde aktiv sein. Ich war einfach stark abgelenkt, deshalb habe ich das hier gelassen Mal sehen, ob das
die Belastung des Systems erhöht. Sparen Sie bei mir. Es sollte sehr schnell
reinkommen. Also begann die Last aufzutreten. Ich denke, das ist die
AM-Installation, weil die AM-Installation eines
Pakets gestresst ist, oder? Also das Netzwerk, weißt du, es gab Eingabe und Ausgabe. Deshalb ist es
im Netzwerk aktiv. Aber die CPU
sollte momentan aktiv sein. Lassen Sie mich dieses Video pausieren und warten wir, bis
die CPU hochgefahren ist Okay, Leute, ich kann also sehen , dass das Update
gerade stattfindet. Sie können also in der
Überwachung hier sehen, die ACPU-Instanz 49% erreicht
hat Wenn Sie also die
Aktivität hier drüben sehen, laufen sie hier 1—3 Es hat also verstanden, dass die Zielverfolgungsrichtlinie
verletzt wurde, also wurde ein Alarm ausgelöst und aufgrund dessen das
Incident Management,
Sie sehen, dass zwei weitere Instanzen gebildet wurden und es in Betrieb ist Wenn Sie zur
Autoscaling-Gruppe zurückkehren, stellen
Sie fest, dass aus der gewünschten
Kapazität automatisch
drei geworden sind ,
ohne dass wir Jetzt, wenn die 60 oder
600 Sekunden vorbei sind, oder wenn ich die Steuerung C ausführe, werden
Sie feststellen,
dass die erstellten
Instanzen automatisch beendet werden, und dann werden Sie sehen, dass die Dienste als Einheit in
den gewünschten Zustand zurückversetzt Ich habe es storniert. Wenn Sie
die Überwachung durch EC Two sehen, werden
Sie feststellen, dass es jetzt
allmählich abnimmt,
und dann werden Sie anfangen, Aktivitäten
wie ein automatisches 3:1 -Spiel
ohne unser Zutun zu
sehen . Lassen Sie mich dieses Video pausieren
und Ihnen das auch zeigen. Lass es uns jetzt ansehen. Also werde ich mit
der Überwachung beginnen. Also ist die Ladung gesunken. Mal sehen, wie viele Instanzen
wir gerade haben. Wir haben drei Instanzen. Lassen Sie mich sehen, ob es einen
Plan gibt, es zu Fall zu bringen. Irgendwann nach
ein paar Minuten sollte
es also heruntergefahren sein, sodass nicht
die laufende Skalierung ausgelöst wird, sondern Sie können
die Instances vor der
Skalierung schützen , sodass Sie
tatsächlich aktiv werden und den
Skalierungsschutz einrichten können . Das wird also vor Skalierung
geschützt sein, wird verhindern, dass dieser spezielle
Server skaliert aber ich weiß nicht, warum das
jemand tun würde, aber ich sage es Ihnen nur. Es gibt hier auch eine weitere
Option, mit der
Sie die Skalierung
der älteren Umfrage beenden können. Hier muss es irgendwo
eine Option geben. In diesem speziellen Punkt, der
als Kündigungsrichtlinie bezeichnet wird, kann die
Kündigungsrichtlinie so etwas wie in der alten Instanz festgelegt werden. Diese Richtlinie sieht
im Grunde vor, dass die Reihenfolge der
Kündigung im Grunde
die neueste Instanz ist , was bedeutet, dass die neueste Instanz
, die erstellt wurde,
tatsächlich zuerst beendet wird ,
tatsächlich zuerst beendet und
nicht die alte Instanz. alte Instanz würde dort ewig
laufen, bis sie nicht wirklich beendet werden
muss. Und hier können Sie
Instances für Skalierung
und Schutz aktivieren . Jede neue Instanz
wird standardmäßig erstellt. Wir werden weitermachen, wissen Sie, Hautschutz, den wir
nicht benötigen, weil wir ihn
skalieren wollen , wenn es
nicht wirklich erforderlich ist. Das ist also der
Sinn der Dynamik, bei der man nach oben skaliert und wieder
rein skaliert, wenn nicht
viel Geld für eine Anfrage ausgegeben wird. Wir geben der Sache etwas mehr Zeit,
um zu sehen, ob sie skaliert,
weil sie das früher getan hat, also ich denke, es sollte, es
ist nur eine Frage der Zeit. Warten wir einfach, bis
es mit der Skalierung beginnt. Ordnung, Leute, ich
will euch nicht weiter aufhalten , aber das wird,
ihr wisst schon, reduzieren
und dann werde ich
ein weiteres Update dazu posten , wenn
ich ein weiteres Video mache. Damit ich euch das zeigen werde. Aber normalerweise dauert es
etwa 5 Minuten, fünf bis
10 Minuten, bis es feststellt, dass das
System nicht
mehr belastet wird , und dann
beginnt es zu skalieren, also
mach dir darüber keine Sorgen. Ich werde es dir im nächsten Video zeigen. Bevor ich mit dem Video anfange, gebe
ich dir nur
ein kurzes Update
dazu , um dir zu zeigen, dass
es das getan hat. Im nächsten Video werden wir über die beiden
anderen Richtlinien
sprechen, und dann werden wir zur
Schließung von Auto
Scaling-Gruppen kommen . Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir sehen uns
im nächsten.
63. Labs AutoScaling Load Balancer – Praxisanleitung: Meine Herren, wir kommen zurück zum
nächsten Video in diesem Video, wir werden über Load Balancer
sprechen In diesem Video werden wir nun
weiter vorgehen. Zuvor haben wir den
Easy to Load Balancer konfiguriert. Ich habe meine Instance
und auch die Load
Balancer-Konfiguration dominiert und auch die Load
Balancer-Konfiguration In diesem Video werden
wir nun
mit unserem
Load Balancer hier arbeiten . Derzeit habe ich einen Load Balancer und
lasse mich diesen löschen In Ordnung, ich habe den Regisseur. In dieser
Load-Balancing-Sitzung werden
wir die
Autoscaling-Gruppe
als unseren Load Balancer verwenden als unseren Load Balancer Im Moment haben
Sie also keine
Autoscaling-Gruppe Es ist kein Load Balancer für
Sie verfügbar. eine
Autoscaling-Gruppe zu erstellen, was wir zuvor getan haben, müssen Sie
eine Vorlage starten Lassen Sie uns jetzt eine Vorlage
starten. Klicken Sie auf Vorlage starten
und lassen Sie mich
diese Vorlage dann als Web-Iphon benennen diese Vorlage dann als Web-Iphon Es ist für AG, dann
gebe ich As Autoscaling,
Autoscaling Group, ASG an. Wir können es so benennen
und dann die Vorlage starten, also machen wir es ASG an. Wir können es so benennen
und dann die Vorlage starten,
also machen wir es als Startvorlage LT.
Das wird nun unsere Webstartvorlage
für unsere Autoscaling-Gruppe
sein Wenn Sie nun
eine Vorlage für eine
Auto Scaling-Gruppe erstellen , wird
empfohlen, die
Autoscaling-Anleitung hier zu aktivieren . wird Ihnen helfen,
die Vorlage für EC
Two Autoscaling einzurichten die Vorlage für EC
Two Autoscaling Das ist das Erste, was
du tun wirst. Danach wählen
Sie hier
den Schnellstart und
dann Amazon Linux. Dann
erstellen Sie einen Instance-Typ
, für den ich T Two Micro und
dann das
Standardschlüsselpaar, das ich verwenden werde,
wählen werde. Und hier können Sie hier
eine bestehende
Sicherheitsgruppe auswählen . Also werde ich
die Standardeinstellung wählen, die jeden Datenverkehr zulässt sodass ich mir keine Gedanken
über die Gruppen hier machen muss. Subnetze, Sie können standardmäßig
zwei Subnetze oder ein
Subnetz auswählen ,
oder Sie können es einfach so belassen, dass es in Startvorlagen enthalten ist.
Das funktioniert also auch Sie müssen sich darüber also
keine Gedanken machen und können dann
die Netzwerkkonfiguration entfernen. Ich brauche es nicht. Wählen Sie nur die Sicherheitsgruppe aus, die Internetzugang
hat. Wählen Sie hier die
GB-Größe aus, sodass sie zehn GB beträgt. Jetzt
müssen Sie endlich
auf die
Vorabdetails hier drüben gehen auf die
Vorabdetails hier drüben In diesen Details werden Sie diesen Artikel hier
kopieren und einfügen. Das vorherige Update 11t statt Hello
von EC Two Instance habe ich Hello von
Easy auf Auto Scale gesetzt Kopieren Sie das, fügen Sie hier ein und klicken Sie dann
auf Vorlage starten Dadurch wird nun
eine einfach zu startende Vorlage erstellt. Das ist ziemlich einfach.
Die Startvorlage wird erstellt. Lassen Sie uns das überprüfen. Jetzt
wurde die Startvorlage erstellt. Als Nächstes wird
eine Autoscaling-Gruppe erstellt. Jetzt können Sie Ihren
Load Balancer für die
Autoscaling-Gruppe bereit halten, falls er vorhanden ist, aber Sie können
hier selbst in der
Autoskiing-Gruppe
einen Load Balancer erstellen , sodass Sie sich darüber keine Gedanken machen müssen Wählen Sie „
Auto-Skining-Gruppe erstellen“ und
geben Sie der Autoskeing-Gruppe einen Namen Verwenden Sie dann hier Auto-Skiing-Gruppe
von
Webfen Dann werden die Df-Details hier
geladen. Klicken Sie auf Weiter. Jetzt müssen Sie hier
VPC auswählen und
die Verfügbarkeitszone auswählen Ich werde
hier
alle verfügbaren Zonen auswählen, damit mein Service auf alle
verfügbaren Zonen verteilt
werden kann . Klicken Sie auf Weiter Hier können Sie nun eine Autoskilling-Gruppe
ohne Load Balancer
auswählen
oder einen vorhandenen Load Balancer anhängen,
wo Sie aus dem
vorhandenen
Load Balancer auswählen können,
oder Sie können einen wo Sie aus dem
vorhandenen
Load Balancer auswählen können neuen Load Balancer erstellen Autoskilling-Gruppe
ohne Load Balancer
auswählen
oder einen vorhandenen Load Balancer anhängen,
wo Sie aus dem
vorhandenen
Load Balancer auswählen können,
oder Sie können einen
neuen Load Balancer erstellen. Wenn Sie jetzt einen
neuen Load Balancer erstellen, können Sie mit der
Auto-Skilling-Gruppe nur noch entweder einen Network Load Balancer
erstellen können Sie mit der
Auto-Skilling-Gruppe nur noch entweder einen Application Load Balancer oder einen Network Load Balancer
erstellen. Da es sich um einen
Anwendungsinhalt handelt, erstellen
wir einen Application Load
Balancer,
und dann wird der Load
Balancer-Name HSLB oder ALB sein erstellen
wir einen Application Load
Balancer,
und dann wird der Load
Balancer-Name HSLB oder ALB sein. Das heißt, das ist Application Load Balancer. Interner Internetanschluss
Wählen Sie Internetanschluss. Sie können diese
Subnetze nicht deaktivieren, da wir aus
allen Subnetzen oder
Availability Zones eine
Auto-Scan-Gruppe erstellt haben Auto-Scan-Gruppe allen Subnetzen oder
Availability Zones Alle Availability Zones sind für Ihren
Load Balancer
ausgewählt Und dann haben Sie hier
die HTTP-Portnummer, Sie können auch andere
Portnummern hinzufügen Sobald Sie
dies nicht gerade erstellt haben, aber sobald Sie es erstellt haben, können
Sie zur Load
Balancing-Konsole gehen und
dem vorhandenen Load Balancer weitere Listener hinzufügen Aber bei der Erstellung
können Sie hier nur einen Listener
hinzufügen, das sind acht Listener, das ist ein Standardlistener . Dann können Sie hier die Zielgruppe
auswählen. Jetzt können Sie
eine bestehende Zielgruppe auswählen oder eine neue Zielgruppe
erstellen. Dadurch wird tatsächlich ein TG erstellt. Ich gebe hier nur einen
Namen. Ich
erstelle automatisch eine Zielgruppe. Du musst sie nicht spezifizieren. Wenn Sie sich erinnern,
haben wir in der vorherigen Version eine Zielgruppe erstellt. In dieser Zielgruppe haben
wir, ähm, wir hatten eine Liste von
Instanzen, die erstellt wurde, und dann haben wir die
bestehende Instanz in
unsere Zielgruppe importiert und
dann diesen
bestimmten Instanzteil
der Zielgruppe gespeichert oder registriert . Jetzt müssen
Sie das nicht mehr tun,
denn wenn Sie AG um
oder Auto-Skilling-Gruppe erstellen , werden
Sie unabhängig den Auto-Skilling-Gruppeninstanzen
sein, automatisch zu dieser Zielgruppe
hinzugefügt werden Sie müssen nicht wirklich jede Instanz
hinzufügen oder jede Instanz Ihre Zielgruppe
registrieren Ich sollte
automatisch hinzugefügt werden. Deshalb habe ich gesagt, dass Sie im Rahmen
der
Load-Balancing-Konfiguration
eine Zielgruppe erstellen Rahmen
der
Load-Balancing-Konfiguration
eine Zielgruppe . Sobald Sie damit fertig sind, sagen wir
hier, dass
wir Lets
VPC nicht benötigen , und dann
gehen wir zur
Standardkonfiguration über, aktivieren irgendeinen dieser
Überwachungsdienste oder so, weil es zusätzlich berechnet wird zusätzlich berechnet Klicken Sie auf Weiter Diese
Kapazität ist eins, Mindestkapazität ist eins, maximale Kapazität ist fünf Also Auto-Skiing-Richtlinie
optional, Ziel Auto Scaling. Hier haben Sie also
die Möglichkeit, auszuwählen welche Art von Richtlinie
Sie auswählen möchten. Es gibt also die Option „Kein
Auto-Skiing“, bei der Sie wie wir das später tun
können,
oder wir können uns für die
Standardrichtlinie wie wir das später tun
können,
oder wir entscheiden, die auf gezielte automatische Skalierung und einen
CPU-Durchschnittswert von 80 Prozent basiert Sobald der
CPU-Durchschnittswert also 80%
erreicht, werden neue Instanzen
gestartet Okay. Priorisieren Sie jetzt die
Verfügbarkeit, indem Sie sie vor dem Beenden
starten, eine Instance starten
und sie
registrieren lassen, bevor Sie sie aus
Wartungsgründen beenden Und dann wollen wir den skalierbaren Schutz nicht
aktivieren. Wir haben also bereits in den vorherigen Videos
darüber gesprochen . Gehen wir zum nächsten Bildschirm, und dann wollen wir kein SNS Gehen wir also zum nächsten Bildschirm. Wir möchten keine Tags hinzufügen
und dann auf
Automatische Screening-Gruppe erstellen klicken. Jetzt wird diese
Auto-Skilling-Gruppe erstellt, und dann wird Ihr Load
Balancing erstellt Also werden all diese
Aktionselemente erstellt.
Sie können sehen, dass eine
Autoscaling-Skilling-Richtlinie, Load
Balancer, eine Zielgruppe, ein Listener und auch
eine Sie werden also sehen, dass jetzt eine Instanz
läuft. Okay? Wenn die Instanz als erste Instanz
erstellt wird, ist
es ein gewünschter Zustand. Load Balancer hätte
erstellt, damit Banza erstellt wurde, Zielgruppe wäre erstellt
worden, wie Sie hier sehen können Lassen Sie mich den alten entfernen, das sorgt nicht für Verwirrung Dann hast du die Auto
Scaling-Gruppe erstellt. Wenn Sie in die
Autoscaling-Gruppe gehen, stellen
Sie fest, dass sie
die gewünschte Kapazität erreicht minimale und maximale Kapazität
wird hier definiert. Sie haben alle anderen
Konfigurationselemente. Wenn Sie zur Skalierungsrichtlinie wechseln, haben
wir die
dynamische Skalierung aktiviert. Das ist für 80 Prozent hier
, CPU-Auslastung. Instanzverwaltung, wir haben nur eine Instanz konfiguriert, das ist die gewünschte, und
dann Überwachung und anderes dann Überwachung und Wir gehen zum Load Balancer, er nennt ihn Load Balancer Sie werden sich die Regeln für
die Zuhörer besorgen. Der Standard-Listener konfiguriert
also und fügt bei Bedarf zusätzliche
Listener Und beim Netzwerk-Mapping
können Sie sehen, dass diese Zuordnung allen Zonen
, allen Verfügbarkeitszonen, die in der Region
verfügbar sind, zuordnet Wenn Sie dieses
Ressourcen-Mapping sehen, der HTTP-AT-Listener Verbindung zur Regel
der Zielgruppe her, und dann wird die Zielgruppe angezeigt und innerhalb der
Zielgruppe ist
die Serverinstanz, die wir und dann wird die Zielgruppe
angezeigt und innerhalb der
Zielgruppe ist
die Serverinstanz, die wir konfiguriert
haben,
bereits aktiviert Also musstest du hier nicht
wirklich etwas tun. Die Zielgruppe hat also
automatisch auf diese
spezielle Instanz verwiesen , die hier läuft. Schauen wir uns die Website an,
um zu sehen, ob sie funktioniert. Zuerst werden wir
diese einzelne Website durchsuchen und
sehen, ob eine funktioniert. Kopieren wir die hier
eingefügte IP-Adresse. Da hast du's. Hallo
von Autoscale Einfach automatisch zu skalieren. Die Instanz funktioniert. Mal sehen, ob die
URL für den Lastenausgleich funktioniert oder nicht. Kopieren Sie den DNS-Namen hierher und geben Sie ihn dann dort aus. Prüfen Sie, ob die
Load-Balancing-URL einwandfrei funktioniert und ob die Low-Balancing-URL ebenfalls einwandfrei
funktioniert. Das ist eine gute Nachricht.
Sie können es sowohl von der Instance als
auch vom Load-Balancing aus direkt
aufrufen. Nun, wenn es eine Anforderung gibt dass der Server hochskaliert
werden muss oder, es
tut mir leid, nach unten skaliert werden muss, können
Sie das
autonom tun, können
Sie das
autonom tun weil
Sie eine Richtlinie festgelegt haben,
was bedeutet, dass
Sie, wenn
Ihre CP-Auslastung 80 Prozent
erreicht, 80 Prozent
erreicht,
mehr Instanzen einrichten werden, um die Last zu
bewältigen,
und sie wird auch skaliert
, weil ,
dass der Server hochskaliert
werden muss oder, es
tut mir leid, nach unten skaliert werden muss, können
Sie das
autonom tun, weil
Sie eine Richtlinie festgelegt haben,
was bedeutet, dass
Sie, wenn
Ihre CP-Auslastung 80 Prozent
erreicht,
mehr Instanzen einrichten werden, um die Last zu
bewältigen,
und sie wird auch skaliert
, weil wir das nicht tun
aktivieren Sie den Schutz durch Skalierung
des Schutzes Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben, um die
Autoscaling-Gruppe zu entfernen, sodass die meisten Elemente verloren gehen
würden Und dann müssen Sie möglicherweise Ihren Um, Ihre
Zielgruppe und Ihren Load Balancer
manuell löschen Zielgruppe und Ihren Load Balancer Sie müssen
Ihre Startvorlage ebenfalls manuell löschen. So
müssen Sie also ein Rollback durchführen. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Wir sehen uns beim nächsten.
64. Labs EC2 Load Balancer – Praxisanleitung: Hallo Leute. Willkommen
zurück zu einem anderen Video. In diesem Video werden
wir über
die praktische Erfahrung
mit Load Balancer sprechen die praktische Erfahrung
mit Load Balancer Im vorherigen Video
hat M verstanden, dass der
Load Balancer unter
dem EC Two Service Dashboard verfügbar ist Und darunter werden
Sie den Load Balancer haben. Jetzt werden Ihnen
mehrere Load
Balancer zur mehrere Load
Balancer Also
werden wir zunächst den
Application
Load Balancer über
eine separate EC Two-Instance konfigurieren Application
Load Balancer über eine separate EC Two-Instance Lassen Sie uns nun weitermachen und eine EZ Two-Instance
erstellen, mit der wir arbeiten können Nun, diese EC-2-Instance sollte etwas
zu, wissen Sie,
etwas haben , das darauf gehostet wird, sodass
wir sie leicht durchsuchen können. Oder um darauf zuzugreifen. Nehmen wir an, HTTP ist ein sehr verbreitetes Beispiel
, das wir normalerweise verwenden, weil es
das einzige ist, was Sie auf unserer Website tatsächlich
durchsuchen können . Das ist also viel einfacher. Also, was ich in diesem
Video machen werde , ist, dass ich zuerst eine
Instanz von EC Two starte und sie dann als
Webpon-Server oder Siphon One erstelle Webpon-Server oder Siphon Das ist also die erste
Instanz von Web EC 21. Es wird dringend
empfohlen, dass Sie hier
Auto Scaling verwenden, anstatt einen EC-2-Instance-Start
durchzuführen denn wenn Sie eine Instance
starten, bedeutet das im Grunde, dass Sie nur eine
Server-Instance davon haben. Kein Problem, Sie können
einen weiteren Server hinzufügen und
ihn dann Teil der Gruppe machen. Das ist also auch da. Aber wenn Sie einen Dienst wie diesen
manuell erstellen, besteht eine gute Chance, dass ihn
jemand anderes auch
löscht weil selbst Sie einen
Löschschutz und
all diese Dinge haben , aber ein einzelner Dienst wie dieser nicht unter Lastenausgleich
oder Hochverfügbarkeit fällt Das ist also etwas, das
Sie in Betracht ziehen sollten. Aber in diesem Beispiel werden
wir das tun. Im nächsten Beispiel werden
wir über
Autoscaling und das Hinzufügen des Load
Balancers sprechen Autoscaling und das Hinzufügen des Load
Balancers Wir werden uns diese Perspektive
ansehen, also werden wir uns für
Amazon Inuxie entscheiden Wir werden D bis Micro wählen. Wir werden den Standardschlüssel wählen
, den ich hier habe. Wir werden eine bestehende
Sicherheitsgruppe auswählen, die wir bereits verwendet haben, die
sogenannte Standardsicherheitsgruppe, die die
Verkehrsverbindung von überall aus ermöglicht. Wenn wir also auf Gruppenregel
vergleichen klicken, können
wir sehen, dass damit
jeder eine Verbindung
zum Server herstellen kann. Es tut
mir leid, eine Verbindung zu
Ihrer Infrastruktur herzustellen, unabhängig davon die Sicherheitsgruppe zugewiesen
ist Also habe ich einfach auf Abbrechen geklickt. Also, jetzt
ist die Sicherheitsgruppe etwas, auf das
wir überall zugreifen werden. Dann werde ich hier Story Ten GB
konfigurieren. Es wird nicht so
viel Platz benötigt. HGB funktioniert gut, aber
ich werde das tun. Starten Sie die Instance jetzt nicht. Da wir das tun werden. Es gibt zwei Möglichkeiten
, das zu tun, okay? Sie können die Instance starten und dann eine Verbindung
zur Instance herstellen und
dann HTTP installieren und
dort HTTP konfigurieren. Auf der Instanz. Aber anstatt das zu tun, werden
wir es nur mit
diesem machen. Wenn Sie hier auf
Erweiterte Details
klicken und wenn
Sie nach unten kommen, stehen
Ihnen optionale
Benutzerdaten zur Verfügung. Hier können Sie Hash und
dann Exclamatory Bin Bash eingeben, und dann können Sie
um update, IPhony eingeben Dadurch wird ein allgemeines Update durchgeführt,
und dann installiere ich IPhony HTTPD. Dies ist der Prozess, den
wir
installieren und dann wiederholen möchten installieren und dann Dies ist die GVO-Seite von EC Two
Instance H. Sie können H One auch hier eintragen, dadurch wird
es hervorgehoben. Dann H GMO Du kannst das kopieren und es
auch auf die Vorderseite
setzen und den Schrägstrich entfernen Das wird also in einer Datei wiedergegeben, die im Grunde der
Standard-Seitenindex für HMO,
Unterwäsche, W GMO , Index H GMO Das ist also die Datei, auf die
es aktualisiert wird. Und dann System CTL, starte HTDPD-System
CTL, aktiviere HTDPD Dadurch wird der HTTPD-Dienst gestartet und auch
der HTTPD-Dienst aktiviert . Wenn das System neu gestartet
wird, wird es also im Grunde gestartet. Ich habe diesen hier drüben hingelegt. Sie können einen Screenshot davon machen. Das ist im Grunde der Befehl. Es ist ein sehr einfacher Befehl, hier
gibt es keine Komplikationen. Im Grunde aktualisiere ich
Yum, installiere HTTPD, erstelle diese spezielle Zeile und ersetze sie im
Standardindex Ich starte und aktiviere HTTPD. Das ist es. Klicken Sie jetzt einfach
auf Launch Instance. Wenn Sie jetzt die Instance starten, müssen
Sie nicht wirklich
eine Verbindung zur Instance und HTTP installieren, da diese Elemente im Rahmen
der Instanzerstellung ausgeführt werden . nach dem Start dieser Instanz Wenn Sie nach dem Start dieser Instanz einfach zu den
laufenden Instances wechseln und diese
aktualisieren und dann
diese auswählen und die
öffentliche IP-Adresse haben, kopieren Sie
diese öffentliche IPRRSPase
hierher und geben Sie einen HTTP-Doppelstrich ein. Es wird erwartet,
dass Sie die Seite sehen, über hierher und geben Sie einen HTTP-Doppelstrich ein. Es wird erwartet, dass Sie die Seite sehen die Es kann einige Zeit dauern, da
es möglicherweise Yam aktualisiert
und dann die Komponenten
installiert, sodass es etwas Zeit in Anspruch nehmen kann Aber das solltest du dir ansehen.
Hallo von Easy to install. Lassen Sie Control aktualisieren. Ich glaube, ich habe es von „hello“
von „easy“ auf „instance“ ersetzt. Ich glaube, ich habe es ersetzt, indem ich es woanders
kopiert habe. Das sind also die Formulierungen, die
wir endlich aufgenommen haben. Hallo von easy to instance, und das sind die gleichen Seiten hier unter dieser IP-Adresse auftauchen Perfekt. Nachdem wir die Konfiguration
der Instanz
abgeschlossen haben, konfigurieren
wir
den Load Balancer Jetzt wählen wir
den Standard-Load Balancer
für jede Anwendung aus, bei dem es sich um Ihren Application Load Balancer handelt Ihren Application Load Balancer Hier nennen wir es Webby Fin ALB Jetzt müssen Sie
sicherstellen, dass Sie mit dem Internet verbunden sind, da Sie sonst
nicht darauf zugreifen können Sie werden die DNS-Adresse nicht erhalten und Sie werden nicht von meinem Desktop aus
durchsucht Stellen Sie also sicher, dass es
mit dem Internet verbunden ist und dass
es sich um eine IP-Adresse handelt Version vier ist aktiviert Dual-Stack bedeutet, dass Sie
Version vier und Version
sechs erhalten , und Dual-Stack ohne Version vier bedeutet
, dass Sie
nur die IP-Adresse der Version sechs erhalten . Das ist so ziemlich, dass wir uns
im Moment für Version vier entscheiden
werden . Das mit den
Hintergrundgeräuschen tut mir leid. Also hier habe ich die
VPC-Konfiguration hier drüben. Jetzt, in dieser VPC, habe ich diese ganze
Availability Zone Es ist zwingend erforderlich, dass Sie Zone
auswählen mindestens zwei verfügbare Zonen und
jeweils ein Subnetz pro Sie können auch
alle Zonen auswählen. Es gibt keine Probleme damit. Ihr Service, der in dieser
Hinsicht anwendbar ist,
wird also Teil davon sein, und Ihr Low-Balancer wird ebenfalls Teil aller
Zonen
sein Lassen Sie mich also zwei oder
drei Zonen auswählen, die benötigt werden. Also werde ich mich hier für
vier Zonen entscheiden. Die Sicherheitsgruppe
ist dieselbe, die für
die Standardgruppe ausgewählt
wurde, also ist die Standardgruppe ausgewählt. Dann ist hier die
Listener-Konfiguration. Das ist der sehr
wichtige Teil davon. Nehmen wir zum Beispiel an, Ihre Anwendung funktioniert auf HTTP oder sie funktioniert auf
HTTPS, entweder. Aber wenn Ihre Anwendung sowohl auf HTTP
als auch auf HTTPS
funktioniert ,
ist das kein Problem. Sie können hier einen weiteren Listener
hinzufügen, z. B. Listener hinzufügen. In diesem können Sie HTTPS
konfigurieren. Sie können 443 sehen und dann eine Zielgruppe
auswählen. Aber meine Anwendung läuft derzeit
nur auf HTTP. In diesem Szenario möchte ich keinen weiteren
Listener für HTTPS hinzufügen Aber was Sie tun müssen,
ist, dass wir hier
etwas auswählen müssen , das als
Zielgruppe bezeichnet wird Sie werden
keine Zielgruppe sehen. Ich bin mir nicht sicher, warum ich hier die
Zielgruppe sehe. Dann entferne ich
diese Zielgruppe. Ich glaube, ich habe
Aktion D entfernt. Sie wurde entfernt. Lass mich das auffrischen. Ich hab's. Zielgruppe, was ist eine Zielgruppe? Warum müssen wir eine Zielgruppe
erstellen? Jetzt erstellen wir
den Load Balancer? Aber in dieser Load
Balancer-Konfiguration, die wir bisher gemacht haben, gibt es keine Methode zur Angabe
des Ziels, oder? Wir sagen, dass mein Load Balancer mit dem Internet verbunden
sein sollte, sodass Benutzer aus dem Internet
darin surfen können sollten Wir sagen, die
Netzwerkkonfiguration für meinen Lastenausgleich sollte
mein Lastenausgleich in diesen,
ähm, vier
Verfügbarkeitszonen in dieser VPC eingerichtet werden ähm, vier
Verfügbarkeitszonen in dieser VPC Aber wir sagen nicht,
wohin es gehen muss, wohin die Anfrage
weitergeleitet werden muss In unserem Fall ist das unsere
Anfrage, an unsere Instanzen weitergeleitet
zu werden , hier drüben Derzeit läuft nur eine
Instanz, was im Internet einfach zu handhaben ist Nun, wie ich
das von der
Roadbalancer-Seite aus angehen werde das von der
Roadbalancer-Seite aus Das nennt man eine Zielgruppe. Eine Zielgruppe zielt entweder darauf ab, ich zeige es dir, wenn
ich auf Erstellen klicke. Wenn ich auf Create klicke, siehst
du, dass es
entweder auf Instances abzielen kann. Sie können
mehrere Instanzen auswählen und sie zu einem Teil
des Roadbalancers machen. Es wird
jedoch dringend davon
abgeraten, dies zu tun, aber das ist die wichtigste
Methode, die Sie verstehen sollten Wenn Sie
den Load Balancer konfigurieren, ist
dies das Erste,
was Sie tun müssen Um den Balancer
über Instanzen und dann über Auto Scaling und dann
über die Lambda-Funktion zu konfigurieren , was auch immer Sie tun möchten,
Sie können es später tun Dies unterstützt nun den
Lastenausgleich von Instanzen innerhalb einer VPC oder einer bestimmten VPC und erleichtert
auch die automatische Skalierung von EC
Two Wir werden später über
Tochterskalierung sprechen Wie werden wir
den
Load Balancer für einen späteren
Zeitpunkt konfigurieren Load Balancer für einen späteren
Zeitpunkt Oder Sie können eine
IP-Adresse auswählen, unter der Sie auch Load Balancer-VPC
und
On-Promises-Ressourcen
unterstützen können unterstützen auch Load Balancer-VPC
und
On-Promises-Ressourcen Außerdem
erleichtert sie das Routing
mehrerer IP-Adressen
und mehrerer IP-Adressen Anstelle von Instanzen
können Sie auch eine IP-Adresse wählen. Sie können auch
Lambda-Funktionen
oder auch den Application Load
Balancer auswählen Application Load
Balancer
gehört ebenfalls zur Zielgruppe Wenn Sie also den
Network Load Balancer verwenden, können
Sie die Zielgruppe verwenden, um den Application Load
Balancer gezielt anzusprechen Dann können Sie
dem Application
Load Balancer hier Informationen darüber geben , welcher Teil
der Zielgruppe ist, welche die nächste ist Wir haben noch keinen
Application Load Balancer erstellt, wir sind dabei, ihn
zu erstellen Ich habe nicht auf die Schaltfläche Load
Balancer erstellen geklickt, daher wurde er noch nicht erstellt Also werden wir uns für
die Option Instanzen entscheiden. Hier werde ich es
als Web-iPhone-Zielgruppe schaffen, Iphone TG sagt Zielgruppe. Und hier konzentriere ich mich auf meine Zielgruppe, die sich
auf diesen TCP-Port von 80 konzentrieren wird. Meine Anwendungen,
die in dieser Instanz ausgeführt
werden,
werden unter diesem speziellen,
ähm, Protokoll und,
ähm, der Portnummer laufen. Sie haben auch die Möglichkeit,
direkt HTTPS auszuwählen. Okay, was ist also
auf die AD-Portnummer ausgerichtet. Anstatt TCP auszuwählen, können
Sie also direkt
HTTPS auswählen, tut mir leid, HDDP Wenn Sie also HTTPS in Ihrer Anwendung
aktiviert haben, können
Sie HTTPS auswählen Aber in diesem Vanilla-HTTP ist nur HTTP aktiviert. Okay, nicht HTTPS. Nun, hier können Sie die Standard-VPC
sehen. Sie können das HTTP-Protokoll sehen. Hier können Sie einige
der Attribute
des
HTDPelTH-Prüfprotokolls sehen , das Kontext-Root,
das Ihr Stammverzeichnis
ist Ebenso sehen Sie hier einige
Standardoptionen
und klicken dann auf Weiter Jetzt müssen Sie hier Ihre Ziele
auswählen oder registrieren. Ab sofort ist die
verfügbare Instanz, die sich im laufenden Zustand befindet, diese bestimmte Instanz. Hier haben wir unseren Web-HTTP-Server
gehostet Klicken Sie unten
einfach auf
Include pending. Jetzt unten als ausstehend einschließen. Wenn Sie das tun, können
Sie sehen, dass diese verfügbare Instance zu
Ihrer Zielinstanz wird. Sobald sie zu Ihrer
Zielinstanz geworden ist, können
Sie auf
Create Target Group klicken. Sobald die
Zielgruppe erstellt ist, sehen
Sie hier die Gesamtzahl der
Ziele
als ein einziges und derzeit
unbenutztes und erstes Ziel. Im Moment wurde sie noch keinem
Load Balancer zugeordnet,
aber wir werden das tun Nachdem Sie
die Zielgruppe erstellt haben, können
Sie diese schließen
und dann zu
Ihrem vorherigen Bildschirm zurückkehren , auf dem Sie
die Zielgruppe auswählen müssen Klicken Sie einfach auf Aktualisieren und
wählen Sie dann die Zielgruppe aus, die Sie erstellt haben. Nachdem Sie
die Zielgruppe ausgewählt haben, können
Sie weitermachen und auf Balancer erstellen klicken Es gibt einige erweiterte
Optionen für die Zielgruppe, auf die wir zu einem
späteren Zeitpunkt eingehen werden wenn dies erforderlich ist. Aber ab sofort können Sie
sehen, dass der Zuhörer und
die Regel hier drüben besagt
, dass sie das GDB-Protokoll AD haben, das an
Ihre Web-Zielgruppe weitergeleitet wird Web-Zielgruppe wird
die Instanzen haben , die Teil davon sein
werden Stickyession ist Stickiness
ist Stickiness ist nichts
anderes als eine Ressource. Wenn eine Anfrage an eine
bestimmte Serverinstanz weitergeleitet wird, wird dadurch sichergestellt, dass diese Jedes Mal, wenn diese Information oder das Browser-Cookie eingeht dieser bestimmte Benutzer die Anfrage ständig aktualisiert,
landet er
auf demselben Server
, der zum ersten Mal verarbeitet
wurde Das wird als Sticky Session bezeichnet. Das muss auf
Zielgruppenebene aktiviert werden. Das ist deaktiviert, das ist okay. Jetzt können Sie sehen, dass
Sie 100% erhalten, was bedeutet, dass der Dienst
, der konfiguriert ist diese Zielgruppe konfiguriert ist, zu 100% verfügbar
ist. Dann gibt es noch eine Regel, und wenn Sie auf die Regel klicken, können
Sie
die Regelinformationen verstehen, zum
Beispiel, wie das Routing abläuft. Eines der wichtigsten Dinge, die
ich Ihnen im
Load Balancer zeigen möchte , ist
das Netzwerk-Mapping In der Netzwerkkartierung können
Sie all diese,
ähm, Sie wissen schon, Server sehen , oder tut mir leid, all die verfügbaren
T-Zonen und Subnetze für diese verfügbaren T-Zonen
sind hier abgebildet. Eine weitere wichtige
Sache, die ich
Ihnen zeigen möchte, ist die
Ressourcenzuweisung hier drüben. Die Ressourcenzuweisung zeigt Ihnen
deutlich, wie sie zugeordnet ist. Wenn also jemand reinkommt und
auf diesen DNS-Namen zugreift, wird
er zu diesem
HDP-AD gelangen und dann gibt es hier
im Grunde eine Regel, die hier
im Grunde eine Regel, an
die Zielgruppe weiterleitet Der Name der Zielgruppe
ist Web iPhone TG, und diese Zielgruppe hat ein Ziel innerhalb dieser bestimmten
, äh, Gruppe und es gibt
nichts Ungesundes und die Zielgruppe ist diese
spezielle Instanz
ausgerichtet, die EC Two-Instanz Es gibt Ihnen die vollständige
Hierarchie und wie die Anfragen
an die nächste Person weitergeleitet werden. Diese grundlegenden Informationen geben
Ihnen Informationen darüber, wie die
Informationen weitergegeben werden. Jetzt können Sie sehen, dass die Überwachung nicht so weit fortgeschritten
wäre, aber die Überwachung informiert Sie über die Leistung der ELB, wie viele, 500 Fehler, 400 Fehler
und all die Fehler, die
genauso fokussiert sind oder die Sie gerade erhalten haben Sie können es auch in
andere AW-Dienste integrieren , was wiederum zusätzliche
Kosten verursacht, wie WAV oder Config oder Global Ich werde Ihnen auch die
vollständigen Informationen
zu diesen Aktionspunkten Wir sind nicht hier, um
all diese Dinge zu konfigurieren. In Sicherheitsgruppen
haben wir die SG, die wir standardmäßig in
den vorherigen Videos
erstellt haben , dieselbe Sicherheitsgruppe, die wir
hier auswählen. Das
fasst die Konfiguration ziemlich gut zusammen. Lass uns weitermachen und das durchstöbern. Zum Surfen kopiert es
den DNS-Namen und ersetzt
dann einfach diesen
anstelle der IP-Adresse. Wenn Sie die Eingabetaste drücken, wird HTTPS aufgerufen. Achten Sie
nur darauf, dass Sie HTTP auswählen. Ich glaube, es kam auf HTTP. Jetzt nur um die
Aktualisierung zu steuern und Sie können sehen , dass diese Instanz hierher
kommt. Das ist so ziemlich das,
was ich
Ihnen zeigen möchte , wenn Sie
zum Beispiel
eine weitere Instanz erstellen . Was wir tun
werden, ist,
ein weiteres Web-iPhone
EC zu erstellen , zwei oft zwei. In diesem Fall
werden wir dann alles als Standard
belassen. In diesem Fall werden wir dasselbe
kopieren und einfügen und dann sagen,
wie beim Ken-Server hier. Wir werden
hier
zusätzliche Informationen geben , die besagen, dass es sich um einen zweiten Server
handelt, also wähle ich
das Schlüsselpaar aus und starte es. Jetzt startet es also
die Instance. Jetzt haben wir
unserem bestehenden Server
eine neue Instanz hinzugefügt . Warten wir nun, bis
die Instanz initialisiert ist, also
wird sie initialisiert Nun, was wir nach der
Initialisierung tun , werden wir diese Instanz
durchsuchen, um zu
sehen, ob diese Instanz einzeln einwandfrei
funktioniert Äh, huh. Ich glaube, es kommt
immer noch Ja, es würde einige
Zeit dauern, bis es verfügbar ist und dann lecker aktualisiert wird und Komponenten
und all diese Dinge
installiert Es wird
ein bisschen Zeit in Anspruch nehmen. Also lass uns einfach sehen
, ob das gut funktioniert. Ich werde
dieses Video pausieren sobald
es fertig ist.
Ich will dich nicht aufhalten Nun, es
funktioniert nicht wegen
der Sicherheitsgruppenkonfiguration, also werde
ich das einfach ändern. Also werde ich
die Sicherheitsgruppe einfach
auf eine andere ändern , die wir normalerweise verwenden. Also gehe ich einfach zur
Sicherheit und ändere die Sicherheitsgruppe. Und dann werde ich das
einfach entfernen und ich wähle den Standard
aus und füge ihn hinzu. Also das sollte das Problem beheben. Also, ja, sag hier. Jetzt hast du den Namen der zweiten
Instanz hier drüben. Wenn Sie also
die erste Instanz durchsuchen, erhalten
Sie diese Instanz, und dann
wird der zweite Server diese Instanz aufrufen. Ab sofort
durchsuchen wir sie also einzeln auf dieser IP-Adresse
direkt auf dem System. Jetzt werde ich hinzufügen, alles, was ich tun muss, ist, dass ich die
Straßenbalance hier nicht ändern
muss. Ich muss nichts tun.
Gehe zur Zielgruppe. Ähm, wählen Sie die Zielgruppe aus und dann muss ich nur noch dieses Ziel
registrieren. Klicken Sie
einfach auf Ziel registrieren und
wählen Sie die zweite Instanz aus, die hier drüben ist. erste Instanz ist bereits da, wählen Sie eine zweite Instanz
der ausgewählten aus und fügen
Sie sie dann unten in die Liste ein und
registrieren Sie dann ausstehende Ziele. Jetzt haben Sie zwei Ziele. Nun, das ist ein
sehr gutes Beispiel Ich möchte Ihnen zeigen, wie Sticky Session funktioniert. Standardmäßig Sticky
Sessions auf SP, was bedeutet dass ich standardmäßig keine Sticky
Session habe, was bedeutet, dass, wenn ich das aktualisiere, richtig, also ich einen zweiten Server
bekomme, wenn ich ihn erneut
aktualisiere, werde
ich ihn
vom ersten Server bekommen. Das ist also die Sache, wenn die
Sticky Session deaktiviert ist. Sie bekommen tatsächlich jedes
Mal, wenn
Sie aktualisieren ,
Ihre Anfrage, Sie wissen schon, an
einen anderen Server gesendet. Das ist im Grunde die
Round-Robin-Methode. Wenn Sie also sehen, dass ALB standardmäßig
konfiguriert ist ,
Round-Robin-Methode Das bedeutet also,
dass Ihre Anfrage eine nach der anderen bearbeitet
wird Äh, auf jeden Server, den es hat. Also das ist die Deform-Methode, bei der Ihre Anfrage
als Teil der Methode weitergeleitet wird Hier können Sie sehen, dass die Überwachung begonnen
hat zu funktionieren. Es wurden zwei
Überwachungen eingeführt. Erstens die Antwort,
Entschuldigung, Anfrage, die
Anzahl der
eingegangenen Anfragen und
die Antwortzeit. Dann sind ein paar andere in Bezug auf Fehler
hierher gekommen. Es gibt also diesen 404-XX-Fehler, was bedeutet, dass etwas, das damit zusammenhängt es Erlaubnis verweigert oder die Datei , die
Erlaubnis verweigert oder die Datei
nicht gefunden wurde oder
etwas Ähnliches, könnte 400 X sein. Also 404403 würden all diese
Ausnahmen
kommen und hier angezeigt werden und
dir sagen,
wie viele
Ausnahmen von deinem Load-Balance
auf dich zukommen deinem Load-Balance
auf Also eine sehr nützliche Methode, ihn
zu identifizieren. In Bezug auf die Zielgruppe verfügt die
Zielgruppe über
alle Informationen darüber
, wie Ihre Anfrage weitergeleitet werden
soll Okay, im Moment hat
diese Availability
Zone zwei Ziele, sodass Sie diese
Informationen von hier abrufen können Sie können auch die Überwachung
dieser virtuellen Maschinen sehen und wie viele Hosts Sie als Teil
dieser Zielgruppe
hinzugefügt haben und
welchen Status sie haben. Also haben wir eins bis
zwei hinzugefügt und alle diese
beiden sind gesund. Deshalb ist es so weit. Wenn es nicht gesund ist,
wird es sinken. Es gibt hier also keinen ungesunden
Wirt. Sie können den Durchschnitt
gesunder Gastgeber sehen. Sie können auch die angestrebte
Antwortzeit und
all die Dinge sehen , die
aus diesem Bereich kommen. Ebenso
erhalten Sie sozusagen all diese Details. In den Zielgruppen haben
Sie jetzt die
Einstellungen für den Gesundheitscheck hier. Hier
geht es also um zwei aufeinanderfolgende Fehlschläge
bei der
Gesundheitsprüfung die als ungesund angesehen werden Und dann wird
dieser Host
als fehlerhaft markiert und er wird nicht Teil Ihres Load Balancers
sein Fünf aufeinanderfolgende
Gesundheitschecks sind also ein Erfolg. Wenn also ein ungesunder Host in einen
ungesunden Zustand übergeht, muss
er
fünf Zustandsprüfungen durchführen um wieder in
den gesunden Zustand zurückzukehren Das Intervall beträgt also 30 Sekunden
, das Timeout 5 Sekunden
und der Erfolgscode ist und der Erfolgscode 200, hauptsächlich in
HTTP-Sprache, bedeuten also Erfolg. Dann gibt es hier ein paar Attribute , was Klebrigkeit angeht Hier können Sie Klebrigkeit
aktivieren. Hier können Sie
Ihren Modus für das Ertrinken von Runden
tatsächlich auf
den gewichteten
Durchschnitt oder einen anderen
Modus ändern Ihren Modus für das Ertrinken von Runden
tatsächlich auf
den gewichteten
Durchschnitt oder einen anderen
Modus . Klicken Sie einfach auf Bearbeiten Sie haben die wenigsten ausstehenden Anfragen gewichtet nach dem Zufallsprinzip, und Sie haben Round Robin.
Das ist die Standardeinstellung. Dann haben Sie hier die
Klebrigkeit, sodass Sie die
Klebrigkeit auswählen können, wenn Sie möchten , dass diese Klebrigkeit verfügbar Jetzt habe ich gerade die Klebrigkeit ausgewählt
. Die Dauer der Klebrigkeit beträgt einen Tag. Jetzt können Sie es auch sieben Tage lang schaffen Sekunden
und
Minuten vertragen auch kaum Es wird immer empfohlen, eine eintägige
Sticky-Session abzuhalten. Wie soll die
Sticky Session Road Balance Generator-Cookies oder anwendungsbasierten Cookies bestehen anwendungsbasiertes Cookie bedeutet, dass Ihre Anwendung
einen eindeutigen Cookie-Namen hat und Sie
die Straßenbilanz verfolgen können. Das ALB wird den Namen des Cookies nachverfolgen und dann im Grunde genommen
die Bindung daran beibehalten Load Balancer Track
bedeutet, dass es
automatisch eine Cookie-Sitzungs-ID generiert und diese Sitzungs-ID nachverfolgt
wird Speichern wir jetzt einfach die Änderungen und schauen uns dann gleich
unsere Website an Jetzt aktualisiere ich das. Derzeit stecke ich nur bei dieser
einen Serverinstanz fest. Jetzt
ändert sich die Instanz nicht mehr so oft. Sie können sehen, dass ich bei
der zweiten Serverinstanz feststecke der zweiten Serverinstanz egal wie
oft ich aktualisiere. Das ist es, was Sticky
Session bedeutet. Es hat eine Weile gedauert
, bis es diese Änderung durchgemacht hat. Aber in dem Moment, in dem die
Veränderung vollzogen ist, können Sie sehen, dass ich erfrischend bin,
Sie können sehen,
dass es sich ändert,
was auch immer wir gesagt haben dass ich erfrischend bin,
Sie können sehen,
dass . Da ich eine
kontrollierte Aktualisierung durchführe, halte
ich sowohl die Steuerung als
auch die FI zusammen. Jetzt können Sie sehen,
wie oft
ich es noch aktualisiere, und das geht nicht
auf den ersten Server. Es bleibt nur beim
zweiten Server. Das wird Sticky Session genannt. Ich habe dir all diese Dinge
über den Load Balancer gezeigt. Im nächsten Video werden
wir dieselbe Load
Balancer-Konfiguration für, ähm, über die Auto-Skilling-Gruppe vornehmen, und dann werden wir sehen, was der Vorteil davon
ist Nochmals vielen Dank, dass Sie sich
dieses Video angesehen haben. Wir sehen uns
beim nächsten Mal.
65. Labs ECS Entfernung – praktische Schritte: Hey, willkommen zurück
zum nächsten Video. Das Entfernen könnte aufgrund der
Arbeit, die wir geleistet haben,
kompliziert sein . Also werde ich Ihnen zeigen, wie man die Komponenten
des ECS
entfernt. Wählen Sie also einfach den Cluster aus. Lassen Sie uns zuerst eins nach dem anderen gehen. Wir müssen uns dem besten Gegenstand hier
zuwenden, den Bereitstellungen. Also müssen wir
die Bereitstellungen beenden,
ähm, die Aufgabe löschen Ich meine, beenden Sie die Aufgabe, ähm, löschen Sie die Aufgabe, und
dann müssen Sie den Dienst
im Cluster
löschen Also mussten wir den umgekehrten
Weg einschlagen. Als wir angefangen haben, haben wir mit der
Bereitstellung von Cluster-Taskdiensten begonnen, dann müssen Sie rückwärts vorgehen Gehen Sie einfach zu Service,
dann zu Deployments, und dann werden Sie sehen,
dass Deployment 7 gerade läuft Sie benötigen jetzt den
Aktualisierungsservice.
Ich stelle sicher, dass Ihre
gewünschte Aufgabe Null ist Dadurch wird sichergestellt, dass
keine Aufgabe ausgeführt wird Dies entspricht dem Beenden der
gesamten Aufgabe, denn
wenn Sie die Aufgabe beenden, gibt es in der Aufgabendefinition die Option, Ihre
Aufgabe zu beenden. Wenn Sie die Aufgabe beenden, wird sie
automatisch erneut gestartet. Als Erstes wird verhindert, dass Ihre Bereitstellung eine Aufgabe
auffüllt, sodass Ihre Bereitstellung auf Null gesetzt wird, sodass Sie sehen können, dass sie
nicht mehr bereitgestellt Sobald Sie nicht mehr
bereitgestellt sind, können
Sie zur Aufgabe übergehen Sie können sehen, dass es hier keine
Aufgabe gibt. Das ist gut. Gehen Sie zu Ihrer Aufgabendefinition, wählen Sie die Aufgabendefinition aus, und ich denke, Sie müssen zu jeder
dieser Aufgaben
gehen und sie auswählen. Aktion abmelden, Sie
müssen sie alle registrieren. Sie können sehen, dass
jetzt alles weg ist, das sollte gut sein.
Gehen Sie zurück zum Cluster. Geben Sie einen Clusternamen ein und
löschen Sie dann den Dienst. Wenn Sie das tun können, dann sind Sie auf der sicheren Seite,
jetzt sind Sie auf der sicheren Seite. Wir registrieren uns, wir haben die Bereitstellung aufgehoben
und den Dienst gelöscht. Und dann
können Sie zur Aufgabe gehen. Ich denke, es wird jetzt
automatisch weg sein. Ja, es ist weg. Wählen Sie als Nächstes den Cluster aus,
löschen Sie den Cluster,
kopieren Sie ihn, fügen Sie ihn ein und
ändern Sie das D in ein
kleines D und klicken Sie auf
die Schaltfläche Löschen, um kleines D und klicken Sie auf Ihren Cluster zu
löschen. Ich meine, wenn wir die
Load-Balancing-Sitzung durchführen, werden
wir sie erneut erstellen. Aber dieses Mal werden wir es
manuell tun, weil wir nicht möchten, dass diese Serverinstanz bis
zu diesem Zeitpunkt läuft. Das
Löschen des PCS-Clusters kann also
etwas Zeit in Anspruch nehmen . Sobald dies erledigt ist, werden wir
auch den Namespace
entfernen , da das Entfernen des Namespace für uns
sehr wichtig ist Entfernen des Namespace für uns
sehr wichtig Ich werde dieses Video pausieren. Nun, das Löschen des
Clusters bedeutet, dass
auch Ihre EC Two-Instance entfernt wird Ihre EC Two-Instance , weil Ihr
Auto-Skilling beim
Löschen des Clusters
entfernt würde ,
sodass Sie sehen können, dass es keine
Auto-Skiing-Gruppe mehr gibt Das ist also im Grunde das
Löschen des Clusters. Sie werden hier einen Link haben, der Ihnen sagt
, dass Sie
zu Ihrer Cloud-Formation weiterleiten sollen. Jetzt können Sie sehen, dass
es erfolgreich gelöscht wurde. Es hat ungefähr 5 Minuten gedauert, ich glaube 2 Minuten für mich. 5 Minuten. Also jetzt
denke ich, dass das weg sein sollte. Ja, bitteschön. Namensraum, wählen Sie den Namensraum, ähm, und Sie haben den Namen hier drüben. Nun, der Namespace fällt
unter Cloud-Mapping, also ist es im Grunde der Namensraum im
Namen des Namespaces. Dann drücken Sie einfach die T-Taste. Es kann ungefähr
ein paar
Minuten dauern , bis es als PLL abgeschlossen sodass Sie sehen können, wie es
sich abdreht Lassen Sie es so, wie es ist, schließen Sie
einfach den Tab, es wird datiert und es ist nicht wirklich wichtig für uns
, dass das sofort entfernt wird Lassen Sie es sich also
Zeit nehmen, um das zu erledigen. so ziemlich geklärt all die Dinge, die
wir gerade geschaffen haben, so ziemlich geklärt. Wir haben keinen Cluster,
wir haben keine Aufgabe, wir haben nichts,
was wir gerade getan haben. Wir haben weder die
Autoskiing-Gruppe die Instanz für uns
verfügbar Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Wir sehen uns im nächsten.
66. Labs ECS Setup Teil 1 Praxisorientierte Anleitungen: Hallo Leute, wir kommen zurück
zum nächsten Video in diesem Video, wir werden über ECS sprechen. Dies ist das erste Thema,
mit dem wir beginnen werden, um Ihren
AWS-Rechenservice zu
verstehen. Wir haben bereits mehrere
Standorte gesehen , die einfach zu instanzieren sind,
also werden wir nicht darüber sprechen, sondern wir werden eine
ECS-Instanz erstellen und dann damit arbeiten. Jetzt bietet
die ECS-Instanz zwei Optionen. Entweder können Sie sich für
Fargate oder EC Two Instance entscheiden. In diesem speziellen Video werden
wir das ECS
mit EC Two Instance
anstelle von Fargate verwenden mit EC Two Instance
anstelle von Fargate Später werden Sie in diesem speziellen Abschnitt
sehen, diesem speziellen Abschnitt
sehen wir
über ECS mit Fargate
und die Arbeit mit ECS auf Fargate sprechen werden und die Arbeit mit ECS auf Das ist im Grunde ein
serverloser Rechendienst. Ordnung, also lassen Sie uns diesen Pfad für das ECS mit Est Rufen Sie also
den Dienst ECS auf und
klicken Sie dann mit der mittleren Maustaste darauf, um
ihn in der neuen Registerkarte zu öffnen. Denken Sie daran, dass dies
eine mehrteilige Konfiguration ist, also werden wir hier
mehrere Elemente konfigurieren, und schließlich werden wir unseren Cluster zum Laufen
bringen, okay Das ist also das Erste, womit ich in diesem Video beginnen
werde Zunächst
werden wir
einen Cluster konfigurieren . Klicken Sie auf Cluster
erstellen So
können Sie mit dem
ECS-Service interagieren , indem Sie
einen Cluster erstellen Jetzt bietet Ihnen
der Cluster die Infrastruktur
, Sie einen Container ausführen können, aber wir werden keinen Container erstellen , während wir einen Cluster
erstellen. ersten Schritt erstellen wir eine Infrastruktur
wie einen Cluster, in
dem wir
die Anzahl
der Instanzen angeben , die auf einem Cluster ausgeführt
werden sollen. Und dann werden wir
eine Aufgabendefinition erstellen. In dieser Aufgabe werden wir
angeben, welche Art von Container wir
als Teil dieses Clusters ausführen möchten. Und wir werden auch einen Dienst unter
dem Cluster
konfigurieren und
die Aufgabe integrieren und dann
diese Aufgabe ausführen lassen und dann den Cluster.
Der Dienst innerhalb des Clusters wird
mit Containern Klicken wir auf Create Cluster. Der erste Schritt besteht darin, einen Cluster zu
erstellen. Ich gebe
HTTP, äh, ECS-Cluster. Nun, das wird
der Name meines Clusters sein. Das wird mir sagen, dass es
sich um ein HTTP handelt, bei dem ich
diese Anwendung , die
GeneX-Anwendung für HTTP-Anfragen,
ECS, in Worten, verwende,
es ist das, was wir als Container-Service anbieten Und dann ist es ein Cluster. Also
das ist nur, um das zu definieren. Wenn Sie einen Clusternamen erstellen, wird
Ihnen auch der
Namespace zugewiesen,
sodass Ihnen dort ein
Namespace zugewiesen wird In dieser Situation entscheiden
wir uns jetzt für EC Two und
nicht für Fargate Bei Fargate müssen Sie im Grunde
keine EC-Two-Serve-Instance wie
diese angeben . Wenn du das auswählst Sie können sehen,
dass automatisch ein
serverloser Rechendienst erstellt oder generiert wird
, der wartungsfrei ist In Bezug auf EC Two Instance ist jedoch Wartung
erforderlich, wenn Sie
tatsächlich den EC
Two Instance Creator haben werden tatsächlich den EC
Two Instance Creator haben Das mit den
Hintergrundgeräuschen tut mir leid. Hier haben Sie also die ASG, das ist
also nichts anderes als eine
Autoscaling-Gruppe Auto Scaling-Gruppe werden wir zu einem
späteren Zeitpunkt
sprechen Ich denke, es wird hier behandelt. Wir werden also viel detaillierter
über äußere Skalierungsgruppen sprechen , aber hier nur einen Überblick. Wir werden also
Autoscaling-Gruppen erstellen und diese schrittweise skalieren Daher werden wir normalerweise
die minimale und die
maximale gewünschte Kapazität definieren die minimale und die
maximale gewünschte Kapazität Okay? Minimal
bedeutet also, dass die Anzahl der Server mindestens eingerichtet
werden muss, sie sollte immer beibehalten werden, was bedeutet, dass sie nicht vom Minimum
herunterskaliert wird, sondern
bis zum Maximum hochskaliert wird. Oder Sie können sagen, auf
das Maximum zu skalieren und
auf das Minimum zu skalieren. Minimum, wir können es bei
eins belassen und Maximum
können wir bei fünf belassen. Dadurch wird sichergestellt, dass die
maximale Anzahl von Diensten , die erstellt werden können,
fünf beträgt und die Mindestanzahl, die ständig beibehalten wird, eins ist. In Bezug auf das
Bereitstellungsmodell für
Ihre Auto-Skilling-Gruppe gibt es hier zwei
Optionen . Eine ist On-Demand
- und Spot-Instance. Das sind die Arten
von Instanzen, okay? Wir haben also
genug darüber gesprochen. Bei der On-Demand-Instanz handelt es sich
im Grunde um eine
nutzungsabhängige Bezahlung, für die keine
langfristigen Verpflichtungen
oder Vorabkosten
erforderlich sind. Das bedeutet
, dass Sie eine EC-2-Instanz
erstellen,
indem Sie zu EC Two wechseln handelt es sich
im Grunde um eine
nutzungsabhängige Bezahlung, für die keine
langfristigen Verpflichtungen oder Vorabkosten
erforderlich sind. Das bedeutet
, dass Sie eine EC-2-Instanz
erstellen,
indem Sie zu EC Two Das ist also im Grunde eine
On-Demand-Instanz, Sie wissen schon, oder? Also das Gleiche machen
wir hier drüben. Also müssen wir diese Last die ganze Zeit laufen
lassen, und das ist für
Webinhalte, richtig? Also brauchen wir es. Mit
Spot-Instance können Sie jedoch
90 Prozent sparen,
was einem Rabatt entspricht, der
Ihnen gewährt wird. Das einzige Problem ist jedoch,
dass ungenutzte
ECR-Ressourcenkapazität genutzt wird Aber die Auslastung
steigt, und Sie wissen schon, es gibt keinen ungenutzten Speicherplatz, dann müssen Sie natürlich auch
keinen Service mehr entsorgen Es besteht also die Gefahr, dass
Ihnen, Sie wissen schon, kein
Service zur Verfügung steht. Also wollen wir auf
das Risiko verzichten, weil wir mindestens einen Dienst
benötigen
, der ständig läuft, und Sie werden in diesem Fall auf
Abruf gehen. Im nächsten geht es um das
Container-Instance-AMI. Was diese Container-Instance
angeht, gibt es zwei Formulierungen wir zu einem
späteren Zeitpunkt sehen Der eine ist der Container und
die Container-Instance. Container-Instance ist im Grunde der
Ort, an dem die Container gehostet
werden. Dies ist wirklich erforderlich ,
damit Sie hier den
Instanztyp auswählen können. Ich habe das mit
diesem T two micro gemacht, aber es ist sehr langsam, also werde
ich mich für T
two large oder medium entscheiden . Medium ist viel besser. Also werde ich mich für
T Two Medium entscheiden, das
zwei CPs und vier GB RAM hat zwei CPs und vier GB RAM Jetzt hier drüben werde
ich neue
Rollen erstellen verwenden. Also, wenn Sie
nichts haben und es
standardmäßig ist , eine neue Rolle zu
erstellen, dann ist das sehr gut. Also
mach einfach damit weiter. Es kommt einfach, weil
ich es schon versucht
habe, und das ist der Grund, warum es in diesem Namen bereits eine
Rolle gibt. Also einfach eine neue
Rolle erstellen sollte kein Problem sein. Bedingungen für das Schlüsselpaar,
verwenden Sie einfach die Standardtastatur
, die Sie haben Ich wähle hier einfach Tom Cad , weil ich das
Schlüsselpaar Ich habe auch Docker Cub,
das werde ich wählen. Was auch immer wir bisher gemacht haben, wir haben mit solchen Tastaturen gearbeitet wählen Sie
einfach das und Was die Netzwerkeinstellungen angeht, werden
Sie
die Standard-VPC
und alle verfügbaren Subnetze verwenden , also alle verfügbaren T-Zonen , also alle verfügbaren T-Zonen Diese fünf Instanzen können für alle diese
fünf Availability Zones
erstellt werden alle diese
fünf Availability Zones
erstellt Also bestehende Sicherheitsgruppe, ich habe das gerade angegeben, habe gerade die
Standardsicherheitsgruppe
genommen. Wenn Sie sich diesbezüglich nicht sicher sind, gehen Sie zu EC Two. Gehen Sie zu Sicherheitsgruppe und suchen Sie dann nach
der Sicherheitsgruppe. Dann verstehen Sie, dass dies die gesamte Datenverkehrssicherheitsgruppe
ist. Der gesamte eingehende Verkehr
wird standardmäßig akzeptiert. Ordnung. Nun, da wir diese Aufgabe abgeschlossen
haben. Lassen Sie uns nun mit
der automatisch zugewiesenen
öffentlichen IP-Adresse fortfahren . Im Grunde genommen wird nur eine Subnetzeinstellung
verwendet. Wir wollen hier
keine bestimmte Einstellung angeben . Die Überwachung ist optional, und ich möchte mich nicht für eine
Überwachung entscheiden, da während
der Überwachung Gebühren anfallen können. Auch hier
ist die Verschlüsselung für
Ihren verwalteten Shop
sowie für Fargate FM und Ihr Geschäft optional Ihren verwalteten Shop
sowie für Fargate FM und Ihr Geschäft Daher verwenden wir
Fargate derzeit nicht. Äh, wenn du es verschlüsseln willst, erstelle einen KMS-Schlüssel und dann kannst
du diesen,
du weißt schon, KMS-Schlüssel hier wählen . Das heißt also, wir verschlüsseln die Daten mit dem Schlüssel,
aber wir brauchen ihn nicht Im Moment
benötigen wir keine Verschlüsselung. Wenn Sie für diesen Cluster Tags
angeben müssen, können
Sie diese Tags
hier hinzufügen. Klicken Sie auf Erstellen Okay, jetzt wird der
Cluster
klar, du weißt schon, erstellt Nun, die
Clustererstellung kann etwa fünf bis zehn Minuten dauern. Für mich ist es also
immer noch im Gange, und Sie können sehen, dass
die Clustererstellung, Aufgabendefinition, die
Serviceerstellung, alles
durch Cloud-Bildung erledigt wird, weil die Cloud-Bildung im Grunde das Sprungbrett jeder einzelnen ECS-Konfiguration ist,
weil ECS aus kleinen Komponenten und diese kleinen Komponenten zusammen ausgeführt
werden, und wie es ausgeführt wird zusammen
entsteht durch Wolkenbildung Sie werden also fast überall
Wolkenbildung sehen . Nachdem Sie den Cluster
erstellt haben, klicken Sie
einfach auf den
Cluster und Sie können tatsächlich einige Details
über den Cluster sehen in der Übersicht
tatsächlich einige Details
über den Cluster sehen. Sobald die Clustererstellung
abgeschlossen ist, erhalten Sie viel
mehr Details . Äh, Sie werden Dienste,
Aufgaben,
Infrastruktur und Infrastruktur sehen Aufgaben,
Infrastruktur und Infrastruktur Es muss
diesen einen Server bereitstellen,
also stellt es immer noch
diesen einen Server bereit,
die ähm, Container-Instance Das wird hier auftauchen,
sobald es das getan hat. Und dann
wird Metric
herkommen und dann die Aufgabe planen. Nun, Aufgabe ist im Grunde die Art und Weise,
wie wir Container erstellen. Das
nennen wir im Grunde eine Aufgabendefinition, wir werden es gleich
erledigen. Aber was eine Aufgabendefinition ist, ist im Grunde genommen eine Aufgabe, die
nichts anderes als ein Entwurf
Ihrer Anwendung ist nichts anderes als ein Entwurf
Ihrer Anwendung Es ist im Grunde eine Textdatei
im JSO-Format, die
die Parameter beschreibt , die der
Container haben muss Ich kann angeben, welche Art von
Starttyp verwendet werden soll Und es kann
das Docker-Image haben, das Sie als
Teil des Containers ausführen möchten Wie hoch ist die
CPU-Speicherauslastung, Statistiken, wie viel CPU-Speicher soll
jedem Container zugewiesen werden wie viel Speicherplatz auch
erwähnt werden, wie viel Speicherplatz
Sie benötigen. Sie haben Soft Limit
und Hard Limit
und dann, auf welchem
Betriebssystem es ausgeführt werden soll, ähm, Betriebssystem, ähm, Docker-Image, es ist alles dasselbe Und es geht auch um die
Login-Konfiguration, sodass Sie Logs verwenden können, um, Sie wissen schon, alles zu
vermitteln, um zu verstehen ,
Sie wissen schon, woran gearbeitet wird Und dann könnte es um Umgebungsvariablen gehen
, die ausgeführt werden müssen. Sie können auch festlegen, ob Sie mehrere Container
haben Sie können auch festlegen ,
dass jeder Container zuerst gestartet welcher
zuerst gestartet werden soll. All diese Dinge
sollten in einer Aufgabe definiert werden. Und die Aufgabe wird über einen Dienst
ausgeführt. Der Dienst ruft
diese Aufgaben auf und dieser
Dienst führt die Aufgabe aus. Bisher haben wir also eine Infrastruktur für den Betrieb
Ihrer Container
geschaffen. Jetzt können Sie sehen, dass die
Container-Instance erstellt wurde. Dies ist die Instanz-ID. Das wird also im Grunde genommen an die zweite Instanz von EC
gehen. Wenn Sie Zero instance,
if instance sehen , werden Sie sehen, dass diese Instanz gerade
läuft. Ich habe bereits welche hier
getestet. Dieser ist also derjenige, den ich für dieses
spezielle Beispiel
erstellt habe . Wenn Sie also einfach diese
Instanz-ID
kopieren und sie hier suchen, können
Sie sehen, dass sie übereinstimmen. Das ist also die
Instanz-ID, die sie erstellt hat. Jetzt
ist die Bereitstellung abgeschlossen, oder? Deshalb kommt
es jetzt auf uns zu. Diese besondere
Wolkenbildung
ist also ebenfalls abgeschlossen, die Schöpfung
ist abgeschlossen. Das ist also auch getan. Die Wolkenbildung ist also abgeschlossen. Instanz, Ihre
Container-Instance ist erstellt und Sie sind
bereit , eine
Aufgabendefinition zu erstellen. Also klicken Sie auf die Aufgabendefinition. Erstellen Sie eine neue Aufgabendefinition. Also hier erstelle ich
eine Aufgabendefinition für meinen HTTP-Dienst am. Aufgabe. TDP-Aufgabe. Und hier müssen
Sie dieselbe auswählen, bei der es sich um eine
EC-Two-Instance und
nicht um einen
Fargate-Compute-Container handelt nicht um einen
Fargate-Compute-Container Denken Sie jetzt daran, dass Sie, wissen Sie, wenn Sie Fargate auswählen, auch
den Clustertyp als Fargate
hätten wählen sollen , sonst wird es Es ist also besser, dasselbe
auszuwählen. Also, es ist auf EC Two
Instance hier drüben. Dies ist nun die
Infrastrukturanforderung für Ihre Aufgabe, bei der Ihr
Container erstellt wird. Jetzt sprechen wir also nicht über Ihren Family-Instance-Typ und Instance-Familie oder Ihren
Instance-Typ, tut mir leid, Größe. Hier geht es also darum, was
der Container sein muss. Das ist die Zuteilung
des Containers. Das ist also die
Infrastrukturanforderung eines Containers. Hier ist der Netzwerkmodus also AWSVPC, die
Betriebssystemarchitektur ist CPU ist eine CPU und ich
nehme ein GB RAM. Meine virtuelle Mission,
mittlere virtuelle Mission,
besteht also aus drei GB RAM. Also werde ich mich für eine
virtuelle CPU und einen Speicher entscheiden. Hier muss ich nichts über
die Aufgabenrolle oder die
Aufgabenausführung
auswählen , Sie ignorieren es. Und hier wirst du
diesen Spruch hören , dass du hier
eine neue Rolle erstellst. So wird es
sein, lass es so wie es ist. Im nächsten geht es um
den unverzichtbaren Behälter. Dies ist der Behälter
, der als Teil Ihrer Aufgabe kommen wird . Sie haben
die Aufgabenanforderungen
für diese Aufgabendefinition angegeben . Wenn Sie also diese
spezielle Aufgabe auf einem Cluster ausführen möchten
, sollte dieser Cluster
über eine virtuelle CPU, einen Arbeitsspeicher und Linux X 86 verfügen. Das ist die
Anforderung. Sobald Sie die Anforderung erfüllt
haben, sollte
sie den
Anforderungen Ihres Clusters entsprechen. Ihr Cluster hat
drei GB Arbeitsspeicher, aber ich habe einen
GB als Anforderung angegeben. Ihre Anforderung ist erfüllt. Ich validiere die
Anforderung anhand Ihrer aktuellen
Clusterkonfiguration und es wird angezeigt, dass
sie erfolgreich ist. Der zweite ist im Grunde
dein Container. Container ist im Grunde das, was Sie auf Ihrem Container haben oder
ausführen werden. Also zunächst werden wir sagen, dass ich Nginx oder
HTTP Service oder Nginx ausführen werde Und dann müssen Sie eine vollständige Repository-URL angeben
. Nun
sollte diese Repository-URL aus einem
sogenannten Elastic Container,
ähm, Repository stammen . Das ist also der ECR, das können
Sie sehen. Wenn du einfach darauf klickst, öffnet
sich ein neuer Tab. Elastic Registry,
leider kein Repository. Die Registrierung enthält alle Repositorys, sowohl öffentliche als auch
private Repositorys Was bedeutet das? Das heißt, wenn Sie hier ein
Nginx-Image angeben
möchten, können
Sie entweder ein privates Repository oder ein
öffentliches Repository erstellen Okay? Nun, da Ihnen diese beiden Optionen
hier zur Verfügung stehen, müssen Sie nur noch
diese URL hier eingeben. Aber du bist gerade auf der URL. Sie müssen also die URL von
Nginx von diesem speziellen Um das aus
diesem öffentlichen Repository zu bekommen, klicken Sie
einfach auf diese
drei Schaltflächen Sie werden also tatsächlich die
vollständige Liste oder die Optionen unter ECR Gehen Sie unter ECR zu
Public Repository und
Repository und Sie können ein öffentliches Repository
erstellen Wenn du hier auf
Repositorien
klickst, erstellst du eine
private Registrierung Hier werden Sie
ein öffentliches Register erstellen. Wenn Sie jedoch alle
öffentlichen Register sehen möchten, die auf AWS
bereits in ECR verfügbar sind , können
Sie darauf klicken Suchen Sie dann nach IngenX. Jetzt können Sie sehen, dass Engine X gestartet wurde und es sich um
ein verifiziertes Konto handelt ist von Nginx Es ist von Nginx
selbst und hat 1,3 Sie können also hier auf
Nginx klicken. Dann gibt es diese
Optionen hier wo Sie
die Beschreibung, die
Nutzungsbedingungen und dann die Bild-Tags
und alles haben dann die Bild-Tags
und Derzeit ist
Stable Pearl die
aktuelle Version Sie können die URI bereits
hier sehen. Die URA ist auch hier. Klicken Sie also einfach auf Kopieren. Und fügen Sie diese URA in diesen Bild-URI-Speicherort und machen Sie ihn zu einem
unverzichtbaren Container. Essentieller Container bedeutet, dass dies
ein obligatorischer Container ist
und dass dies
der Standardcontainer sein wird. Sie können auch andere
Container hinzufügen, sodass Sie einen weiteren
Container erstellen können, indem Sie auf „Einen
weiteren Container hinzufügen “ klicken und hier einen
weiteren hinzufügen. Okay? Die beiden Container werden also im Rahmen dieser Aufgabe erstellt. Okay. Jetzt, wo
das abgeschlossen ist, werde ich
das Port-Mapping
hier drüben für Port Nummer 80, TCP, verwenden . Und das HTTP-Protokoll. Also
wird auch diese Portnummer hinzugefügt. Jetzt können Sie das
Root-Dateisystem auch
schreibgeschützt machen , das liegt
also an Ihnen. Virtuelle CPU ist eine. Ein Test und eine virtuelle
CPU und ein festes Limit von einem GB und
ein Soft-Limit von 0,5 GB Das bedeutet
, dass ein hartes Limit bedeutet, dass die maximale Auslastung dieses Prozesses oder dieses
speziellen Containers einem GB liegen
wird, und dieser Wert von 0,5 ist ein
Soft-Limit für dasselbe Sie können die römische
Variable cfVith hinzufügen. Die Protokollierung ist
mit Cloud Watch aktiviert.
Ich deaktiviere sie, weil sie zusätzliches Geld
erfordert. Hier können Sie den Neustart aktivieren,
wenn Sie auf den Exit-Code klicken,
oder Sie können den
Reset-Zeitraum des Exit-Codes sehen Sie können auch
einige Parameter oder
Shell-Dateiskripte verwenden , um sie als Höllencheck
auszuführen. Sie können auch
vom Start abhängig sein, wenn Sie
mehr als ein Container verwenden. Sie können die Einstellungen für das
Container-Timeout auch hier haben . Netzwerkeinstellungen docken eine
Konfiguration an.
Wenn sich beispielsweise jemand anmeldet,
welcher Befehl muss ausgeführt welchen Ordnern Sie
arbeiten oder in welchem Verzeichnis, ebenso der Einstiegspunkt. Dann ist die Ressourcenbegrenzung
für das
UD-Limit die Standardeinstellung, aber Sie können hier ein
U-Limit hinzufügen. Sie können sowohl Labels
als auch einen Teil dieses Containers hinzufügen. Speicher oder Standardüberwachung sind Standardsteuer. Wenn Sie
möchten, können Sie sie hinzufügen. Klicken Sie auf Erstellen. T sollte deinen Container
erstellen. Es tut mir leid, erstelle eine Aufgabe. Sobald diese Aufgabe
erstellt ist, sehen Sie, dass sie das
Container-HTTP-Image aus
diesem Repository verwendet . Dies
ist also das weiche Limit und das harte Limit, das wir hier angegeben
haben. Der Container würde
maximal eine
virtuelle CPU verwenden , und ein GB würde den
gesamten RAM-Verbrauch auf
der Container-Instance bieten . Nun, das ist
so ziemlich das, was wir hier
konfigurieren wollten , und das
sind alle Elemente. Diese Aufgabe wird nicht ausgeführt. Sie benötigen einen Dienst, um diese Aufgabe
jetzt
auszuführen. Die Aufgabe wird erstellt. Für mich heißt es Revision vier. Für Sie wird es Revision eins
heißen , weil ich das nicht zum
ersten Mal mache. Das ist
mein viertes Mal, dass ich es mache. Also habe ich es für
andere Zwecke und so gemacht. Ebenso haben Sie den Namensraum automatisch
erstellt,
und Sie haben den Cluster. Gehen Sie in den Cluster,
wählen Sie den Dienst klicken Sie auf
Erstellen. Dadurch wird ein Dienst für uns erstellt. Bei dieser Serviceerstellung haben
wir nun all diese Optionen
, was für uns bei der
Erstellung des Dienstes hilfreich
sein wird. Gehen wir eins nach dem anderen. Jetzt sind wir hier, um einen Service zu
erstellen. Um den
Dienst zu erstellen, lassen Sie mich einfach den
Themencode für Cluster
wiederholen Wählen Sie den Clusternamen aus
und unten haben
Sie einen ersten
Tab, der den Dienst aufruft und klicken Sie dann auf Dienst
erstellen Sobald Sie im Dienst sind, können
Sie sehen, dass
dieser Dienst blockiert ist , da dies
der Name Ihres Clusters sein wird. Und auch hier ist es blockiert
, um zu sagen, dass es einfach
zu instanzieren ist , weil Ihr Cluster auf
Einfach zu instanzieren konfiguriert
ist. Hier gibt es zwei Optionen für Ihre
Rechenkonfiguration. Eine ist die Strategie
zur Bereitstellung von Kapazität, eine
andere ist die
Auswahl des Starttyps. Wenn Sie den Starttyp auswählen, können
Sie sich tatsächlich
für EC Two entscheiden
, da dies die
Bereitstellungsmethode für Ihren Cluster ist. Wenn Sie die Strategie bereitstellen, wenn Sie die Strategie „Kapazität
zur Verfügung stellen“ auswählen. Hier geht es darum, Ihre
Strategie für Ihre Aufgabe zu starten. Sie können
diese Strategie nun ,
indem Sie mehrere
Kapazitätsanbieter für Sie haben . Standardmäßig haben
Sie nur einen,
nämlich Ihren
Kapazitätsanbieter, wie in diesem Cluster. Das wäre also Ihre Kapazität, die Komponente innerhalb
Ihres Clusters. Sie können dies auch alternativ mit
einem Fargate-Dienst und einer
Fargate-Spot-Instance
kombinieren einem Fargate-Dienst und Fargate-Spot-Instance Und Sie können auch Prioritäten setzen. Also werden wir das jetzt nicht
tun, wir werden in diesem Programm die
Standardeinstellung verwenden Und dann ist die
Bereitstellungskonfiguration so, dass, ob Sie es für
eine Aufgabe oder einen Dienst bereitstellen möchten ,
ähm , wenn Sie es für eine Aufgabe
tun, es hauptsächlich
für Batch-Jobs empfohlen wird, aber nicht für Webveröffentlichungen, so
etwas wie das, was
wir erreichen werden. Weil diese Aufgabe
im Grunde genommen
ausgeführt wird und dann beendet wird
und dann, wissen Sie, zurückkommt, und wenn Sie
die Aufgabe erneut ausführen
möchten, wird sie, basierend auf Ihrem
Zeitplan, erneut ausgeführt. Das ist also wie ein Batch-Zeitplan. Aber ein Dienst ist ein
Prozess, der auf unbestimmte Zeit
weiterläuft ,
bis Sie ihn beenden Also werden wir uns hier für den
Service entscheiden. Jetzt können Sie hier die
HTTP-Aufgabe auswählen. Die Revision ist aktuell, und dies ist die neueste Version hier. Und hier müssen Sie
den Namen des Dienstes angeben. Es ist verpflichtend. Hier gebe ich den
HTTP-HTTP-Hyphen-Service an Das wird der
Name des Dienstes sein. Hier werde ich sagen, Replikate, platzieren und verwalten Sie
eine gewünschte Anzahl von Aufgaben in Ihrem Cluster Ich gebe nur eine, das ist die einzige Aufgabe,
die ich erledigen werde Was die
Bereitstellungsoption anbelangt, so wird das
fortlaufende Update standardmäßig zu 100% als
minimale laufende Aufgabe und als
maximal ausgeführte Aufgabe dargestellt zu 100% als . Ist die minimal ausgeführte
Aufgabe, die maximal ausgeführte Aufgabe. Wenn ich die gewünschten
Aufgabendaten als vier habe und wenn ich beide als 200 oder beide als 100 habe,
so ist das egal Beides als 100 bedeutet, dass insgesamt vier Jobs
gestartet werden. Es wird nicht darauf warten, dass ein Job abgeschlossen und
erfolgreich ist, und dann
zum nächsten Job übergehen,
wie bei einer Aufgabe, die
erledigt werden muss , und dann
wird es nicht zu der Aufgabe übergehen. Es startet, Sie wissen schon,
alle Aufgaben zusammen, was die
Belastung Ihres Systems erhöht, was, wissen
Sie, wenn bei der vorherigen Aufgabe ein
Fehler auftritt, sie nicht stoppt, also so
etwas in der Art. Wenn Sie also eine Abweichung von
100 Prozent angeben , oder, Sie wissen schon, eine Variation wie diese, wird eine Aufgabe nach der anderen
beginnen. Das ist also der Grund, warum wir diese Variante
angeben. Wir haben einen Bereitstellungsfehler
, bei dem auf
die vorherige Version zurückgesetzt wird ,
wenn Sie bereits eine bestehende Version haben und
diese aktualisieren. Dann einige der Optionen
hier in Bezug auf Service Discovery und
Service Connect. Hier werden wir hier
dieselbe
Sicherheitsgruppe verwenden . Optionen für den Lastenausgleich
werden hier erwähnt. Wir verwenden
keine Load-Balancing-Option,
sie wird automatisch skaliert und dann ist die
Lautstärke abgeschlossen und das
Tagging ist abgeschlossen. Das ist so ziemlich alles und
dann klicken Sie auf Erstellen. Dies sollte den Dienst erstellen. Jetzt kann es einige Zeit dauern,
da es wieder zur Cloud-Formation wechselt und
mit dem Schreiben beginnt und einige Programme
ausführt, um den Dienst
für Ihre Anwendung zu erstellen. Das wird einige Zeit in Anspruch nehmen. Es kann wieder etwa fünf bis
zehn Minuten dauern, bis das
alles geklärt ist und Sie
wieder einsatzbereit sind. Derzeit können Sie
sehen, dass hier kein Fortschritt zu verzeichnen
ist Die
Ausführung der Aufgabe wurde noch nicht gestartet. Wenn Sie auf die
Aufgabe klicken, können Sie sehen, dass sie sich immer noch
im Status „Ausstehend“ befindet. Langsam und sicher wird es mit der Ausführung der Aufgabe
beginnen, die im Grunde
die Aufgabendefinition ist , die Sie hier
erstellt haben. Das ist also eine
Aufgabendefinition hier drüben. Das ist also im Grunde das
Erstellen des Containers
, der
aus diesem Repository der GDP-Engine X-Container ist. Dies steht also noch aus, daher kann es einige Zeit dauern
, bis dies abgeschlossen ist. Also läuft keine Aufgabe,
ich glaube, sie ist erledigt. Also klicken Sie einfach darauf und Sie sehen diese
Container-Instance hier drüben. Sie haben also einen
Container-Ersteller. Das siehst du. Es ist gerade im
Betriebszustand. Bei der Bereitstellung kann es
einige Zeit dauern, bis die Änderungen übernommen Klicken Sie nun auf Contena Instance und Sie werden
die gesamte Instanz hier sehen Es ist die öffentliche IP-Adresse
und alles andere über die Ressourcen und das
Netzwerk hier drüben,
Aufgaben, Attribute und so Es kommt also hier rein. Der Status der Container-Instance. Lassen Sie uns einfach den Cluster codieren. Wir müssen ihn nur laufen sehen. Es kann eine Weile dauern,
bis der Status angezeigt wird, aber die Aufgabe ist abgeschlossen. Sehen wir uns die Wolkenbildung an. Immer noch Schöpfung und Fortschritt. Lassen Sie uns etwas
Zeit damit verbringen. Ich sollte mir noch ein paar Minuten Zeit nehmen
und dann
mit einem richtigen Status reinkommen. Ich pausiere das Video
, bis es fertig ist. Ordnung, Leute, ich
möchte dieses Video mit dem Hinweis beenden In Ordnung, Leute, ich
möchte dieses Video mit dem Hinweis beenden, dass wir es
erfolgreich eingesetzt haben. Und wenn Sie versuchen, es
zu durchsuchen, würde
es auf der
Website auf der EngineX nicht funktionieren, wenn Sie versuchen, es
von der EC Two-Konsole aus zu durchsuchen Die Instanz hier würde für dich nicht funktionieren,
weil es nicht so ist, ich meine, es gibt ein
paar Korrekturen, die ich machen
muss, damit das funktioniert Also werde ich es
im nächsten Video machen, aber wenn Sie wirklich
daran interessiert sind,
diese Reise mit ECS fortzusetzen und das zum Laufen
zu bringen, können Sie dem nächsten
Video folgen und das erledigen. Aber denken Sie daran, dass es nicht
Teil Ihrer Prüfung sein wird. Das praktische Mitmachen an sich ist also
nicht Teil Ihrer Prüfung. Das ist nur aus
meiner Neugier. Ich gebe Ihnen einige praktische Hinweise
Ähm,
also wie dem auch sei, ich habe Ihnen die
Themen für die Prüfung behandelt Aber wenn Sie
noch mehr wollen, dieses und das
nächste Video
wirklich helfen Ihnen
dieses und das
nächste Video
wirklich helfen, auf ECS
zu glänzen Denken Sie jetzt daran, dass es nicht funktionieren wird, wenn Sie versuchen,
es zu durchsuchen. Ich versuche es einfach hier, es würde für mich funktionieren,
weil ich es repariert habe. Also würde diese Seite nicht für dich
kommen. Sie werden auch keine Verbindung
zu diesem Server herstellen können. Wenn Sie also mit der rechten Maustaste klicken
und versuchen, eine Verbindung herzustellen, funktioniert
es nicht, aber für mich stellt es eine
Verbindung her. Also, jetzt habe ich es repariert. Ich werde im nächsten Video zeigen, wie ich es
behoben habe. Nochmals vielen
Dank, dass Sie sich das denn es ist schon seit einiger Zeit so. Ich möchte dem
nächsten Video die Möglichkeit
geben Problem zu beheben und Ihnen zu
zeigen, wie das Problem behoben werden kann. Nochmals vielen Dank
für Ihre Zeit und Geduld. Wir
sehen uns beim nächsten.
67. Labs ECS Setup Teil 2 Praxisorientierte Anleitungen: Hallo Leute, zurück zum
vorherigen Video, ich werde dieses
Problem eins nach dem anderen beheben. Erstens, damit wir daran arbeiten können. Zunächst müssen Sie
über ein mobiles Exterm eine Verbindung
zu dieser EC Two-Instance herstellen, über ein mobiles Exterm eine oder Sie müssen mit der rechten
Maustaste klicken und eine Verbindung herstellen Verwenden Sie diese Verbindungsoption. Beides würde im Moment nicht
funktionieren, es liegt am
Sicherheits-Gateway, dem Standard-Gateway. Alles, was Sie tun müssen, ist, ob es
für Sie bereits gut funktioniert, wenn es nicht für Sie funktioniert, folgen Sie
einfach der Lösung, die
ich Ihnen geben werde. Gehen Sie entweder zu dieser
Sicherheitsgruppe, oder Sie können auch von
hier aus zu
dieser Sicherheitsgruppe gehen oder was auch immer
Sie dafür konfiguriert haben. Beide werden identisch sein
, da beide
dasselbe Auto-Skiing verwenden
und beide
dieselbe Sicherheitsgruppe verwenden. Klicken Sie einfach mit der mittleren Maustaste darauf, es öffnet sich ein neuer Tab. Also, was auch immer hier drüben ist, bearbeite
einfach die Regeln für eingehende Nachrichten, wähle was auch immer
hier drüben aus, lösche es Suchen Sie nicht danach, weil
es der Sicherheitsgruppe selbst
zugewiesen ist Klicken Sie auf Regel hinzufügen
und wählen Sie dann All TCP aus und
sagen Sie dann Anywhere IP Version
vier und klicken Sie auf Regel speichern. Dies sollte nun
Ihre Verbindung zur
EC-Two-Instance auslösen , und Sie sollten
auf die EC-Two-Instanz zugreifen können. Sie müssen lediglich eine neue Sitzung
erstellen. Geben Sie in dieser neuen Sitzung select als Suchbegriff ein geben Sie die öffentliche IP-Adresse der ECS-Serverinstanz
der
Serverinstanz hier ein, die öffentliche IP-Adresse,
die Sie hier kommentieren. Geben Sie dann für die erweiterte
Einstellung „privaten Schlüssel verwenden“ ein. Ich habe die Docker
Cub PBK-Datei verwendet, also habe
ich das getan und dann den Benutzernamen als ECT eingegeben, und dann sollten Sie mit diesem bestimmten Server verbunden
sein also habe
ich das getan und
dann den Benutzernamen als ECT eingegeben,
und dann sollten Sie mit diesem bestimmten Server verbunden
sein. Sie können auch mit der
rechten Maustaste auf Verbinden klicken, und dann können Sie auch auf diese Weise
eine Verbindung herstellen Ich denke, es sollte
funktionieren, denke ich. Nein, bei
mir funktioniert es nicht als Suchverbindung. Es funktioniert also aus irgendeinem Grund nicht
für mich , aber es
sollte für Sie funktionieren. Okay, also für mich funktioniert
das. Also das ist genug für mich, damit ich damit arbeiten kann. Nun, wie habe ich diese Website repariert? Darauf komme ich jetzt zurück. Schließen Sie zunächst alle Tabs, was für uns
momentan nicht
relevant ist , da Sie auch keine Instanzen
benötigen. Alles, was Sie jetzt
tun müssen , ist, zum Cluster
zurückzukehren. Jetzt haben wir einige Konfigurationen an unserer Aufgabendefinition vorgenommen, oder? Das
bereitet uns also tatsächlich ein Problem. Also werde ich es neu definieren
und ich werde Ihnen zeigen, wie Sie anstatt alles
zu
löschen, wie Sie
zum vorherigen zurückkehren können, ich meine, wie Sie wissen
schon, eine neue
Konfiguration erstellen Sie müssen also nur Ihre Aufgabendefinition auswählen und Ihre Aufgabendefinition jetzt
ändern Wählen Sie also hier die
Aufgabendefinition aus. Im Moment haben Sie also
nur eine Aufgabendefinition, also habe ich verschiedene,
um mich zu ignorieren. Wenn Ihre Aufgabenanweisungen
also HTDP-Aufgabe Ce und eins lauten, wählen
Sie einfach das aus Okay? Also für mich ist das
Letzte Aufgabe sechs, und dann erstelle ich
diese neue Version. Jetzt
wird diese neue Version auf meiner alten Version basieren, nämlich Version sechs,
HTTP-Aufgabe, okay? Sie müssen also nichts ändern. Ändere das
Netzwerk einfach mehr von AWSVPC auf Standard, okay Das ist also die
Änderung, die
erforderlich ist, damit wir
das erledigen können Sie müssen nichts anderes ändern. Stellen Sie einfach sicher, dass Ihre
Host-Portnummer 80 und Container-Portnummer 80 lautet. Das bedeutet also, dass
Sie die
Host-Port-Nummer 80 und die
Container-Portnummer 80 verwenden werden . Das bedeutet also, dass dieser
spezielle Container , den ich
haben werde,
meine Host-Portnummer
80
und hier dann eine
Container-Portnummer von ATO verwenden meine Host-Portnummer
80 wird. Das ist so ziemlich
die Konfiguration. Sonst muss nichts
geändert werden. Klicken Sie auf Erstellen. Jetzt sollten Sie eine neue
Version Ihrer HTTP-Aufgabe erstellen, die Colon Seven heißt. Jetzt, da Sie die neue
Version der HTTP-Aufgabe haben, müssen Sie zum Cluster
zurückkehren, den Cluster
auswählen, den Dienst auswählen und
innerhalb des Dienstes haben
Sie Bereitstellungen Wenn Sie zu den Bereitstellungen gehen, werden
Sie feststellen, dass
derzeit eine für
Ihre Revision 1
ausgeführt wird eine für
Ihre Revision 1
ausgeführt Für mich läuft es also sechs. Das ist okay. Klicken Sie
auf Service aktualisieren. dann unter Update Service den neuesten aus Wählen Sie dann unter Update Service den neuesten aus,
nämlich sieben, was für Sie zwei sind. Dann ist die gewünschte Aufgabe eine,
dieselbe, jede Konfiguration ist
gleich, weil wir
das Zeug auf Netzwerkebene
und die Portnummer geändert haben. Das sollte als sieben kommen
und dann auf Update klicken. Jetzt wird es erneut bereitgestellt, sodass Sie sehen können, dass dies
derzeit aktiv ist Und einer läuft
und einer ist erwünscht. Wenn Sie also diese Daten aktualisieren, sollten
Sie sehen, dass dies
gewünscht wird, wenn Sie einen ausführen, und dann
wird es zu 100 Prozent und dieser
Wert wird zu Null Prozent, und dann
wird das aktiv. Das ist es also,
wonach wir suchen. Sie können also sehen, dass der Server
mit dem Branding beginnt, was bedeutet, dass
er den Server bereitstellt. Also wird der
Server jetzt sofort laufen. Ich werde den Server starten. Und sobald es
im laufenden Zustand ist, wird
es auf 100 Prozent kommen, und dann wird es
auf Null Prozent gehen. Es kann einige Minuten dauern , bis dieser gesamte
Vorgang abgeschlossen ist. Sobald dieser Vorgang abgeschlossen ist, können
Sie sehen, dass die
Bereitstellung im Gange ist, was bedeutet, dass Ihre
Anwendung bereitgestellt wird. Was wir tun werden, ist, wenn wir den Lastenausgleich
konfigurieren, werden
wir wieder darauf zurückkommen. Wir werden erneut eine weitere
EC Two-Instance konfigurieren. Dieses Mal werden wir
mehrere Instanzen
Ihrer Anwendung ausführen . Wir werden also mehrere
Container laufen lassen und
auch mehrere Aktionselemente
laufen lassen,
also warten wir nur darauf, dass die
Bereitstellungen abgeschlossen sind Ich werde das
Video anhalten und es anhalten, sobald
es fertig ist. In Ordnung. Jetzt ist das abgeschlossen,
und Sie können sehen, dass es die ersten
100 Prozent sind, und das ist auf Null gegangen. Das bedeutet, dass
es für
mich auf
die neueste Version migriert wurde , für Sie sind es sieben Es könnte auch einer sein. Sobald dies abgeschlossen ist, ist Ihre
Bereitstellung so gut wie abgeschlossen. Sie können sehen, dass die
Erfolgsmeldung hier angezeigt wird und
Sie müssen
nur zu Ihrer Aufgabe zurückkehren . Sie
sollten sehen, dass
hier vor 41 Sekunden neue Instanzen gestartet wurden. Dies wird langsam heruntergefahren. Das ist die, ähm,
Container-Instance. Das wird also langsam heruntergefahren. Diese beiden Container
werden tatsächlich in diesem Container laufen. Wenn ich nur rede oder PSI und A mache, können
Sie sehen, dass das alles ausgefallene Maschinen
sind, und das ist
die, die gerade
12 Minuten lang für bis zu
12 Minuten läuft gerade
12 Minuten lang für bis zu
12 Minuten Ich warte nur darauf, dass du Bindestrich
Null gibst. Bindestrich TRUNC. Kein Kofferraum. Nun, das gibt mir die
IP-Adresse und die Portnummer, falls IPRs und Ich muss sehen, ob eine
neue virtuelle Maschine erstellt wurde. Lass uns das überprüfen. Lass uns zu EC zwei gehen. Lassen Sie uns sehen, ob eine
virtuelle Maschine erstellt wurde. Jetzt können Sie sehen, dass eine weitere virtuelle Maschine erstellt wurde. Die Otis Killing Group hat eine weitere virtuelle Mission
erstellt Diese Instanz
würde in
dieser virtuellen Mission laufen .
Das könnte der Grund sein Ich muss das nur duplizieren
und dann die Sitzung bearbeiten, die IP-Adresse
ändern. Setzen Sie auch ein Lesezeichen, ich muss die
IP-Adresse ändern. Ordnung. Schauen wir uns jetzt diesen Fall
an. Docker PSF und A, F und F und O. Betrunken. Ich bin also in einer
anderen Instanz, oder? Nein, ich bin in derselben Instanz. Das ist komisch. Ich
versuche es nochmal. Es ist 181, zwei, und das ist 18. Okay, es ist derselbe.
Lass mich das nochmal kopieren. Nein, es heißt, dass hier etwas
Falsches passiert. Okay, es lässt mich nicht,
weil ich mein Limit erreicht habe. Das muss daran liegen. Okay, lass uns versuchen, das zuzulassen. Ich bin mir nicht sicher, was los ist. Lass es mich nochmal versuchen. Noch einmal. Es scheint, als ob ich dieses
Mal das Richtige getan habe. Das liegt an den Sessions, an denen
ich teilnehmen kann. Das muss der Grund sein,
warum das passiert ist. Schauen wir uns BS Ip und A an. Okay, jetzt habe ich
das neue Bild. Mal sehen, das iPhone wird nicht gekürzt. Lass uns sehen. Jetzt können Sie sehen, dass es die Portnummer 80 abhört
. Wenn ich beim Start die Option „Zuhören“
habe, sollte hier die
Portnummer 80 laufen.
Sie können sehen, dass die
Portnummer A zuhört. Dieses System, Ihre
Container-Instance hat keine Anwendung, die auf der AIPort-Nummer
läuft Es ist nur so,
dass der
Container
die 80-Port-Nummer ausführt und diese 80-Port-Nummer über
Ihren EC-Two-Computer projiziert . Das heißt, ich sollte
sehen, dass ich in der
Lage sein sollte , diese Anwendung
mit dieser IP-Adresse hier zu durchsuchen mit dieser IP-Adresse hier Genau da. müssen
Sie
Ihre Bewerbung durchsuchen. Sie müssen wissen, wo diese
Docker-Instanz läuft, und dann müssen Sie sie dort
ausführen Das ist so ziemlich das,
was ich
dir zeigen möchte und so kannst
du das erledigen Ich habe Ihnen sowohl die
Bereitstellung als auch einen
Teil dieses speziellen Videos gezeigt , wie Sie eine neuere Version
Ihrer Anwendung,
Ihrer Aufgabe oder Ihres Containers
für Ihre Anwendung bereitstellen können. Das ist so ziemlich
auch, ich habe
dir gezeigt , dass ich nur eine
Weile gewartet habe und dann
wurde es bei der ersten Instanz ausgeschaltet. Also, weißt du, es hat das Auto Scaling geschlossen und
die erste Instanz geschlossen. Die zweite, bei der, Sie wissen schon, das Bild als
Talker-Image läuft, also lief es einfach weiter Also ähm, diese URL funktioniert immer noch
einwandfrei und ohne Probleme. Die andere Instanz, die es
hatte, wurde erneut beendet. also daran, dass Auto
Scaling
die Instanzgröße wieder auf 2:1 reduziert . Das ist also der Grund,
warum es nicht auf dem
anderen Knoten
bereitgestellt wurde , weil es weiß, dass es ihn
herunterfahren wird. Das könnte der Grund sein, warum White einen neuen Knoten
erstellt und ihn auf diesem
bereitgestellt hat. Wie dem auch sei, Base, das ist die
Autoskilling-Entscheidung, die getroffen werden muss. So müssen wir also dafür sorgen, dass
Ihr ECS, all Ihre Anwendungen und auch die Tests
funktionieren Nochmals vielen Dank, dass Sie
sich dieses Video haben.
Wir sehen uns im nächsten Video.
68. Labs EKS Pods und praktische Anleitungen zur Bereitstellung: Hey Leute, willkommen zurück
zum nächsten Video. In diesem Video werden wir
mit AWS und, ähm, dem
AWS Communities Service arbeiten AWS Communities Service und Engine Export
erstellen. Bevor wir jedoch
Engine Export erstellen, müssen
wir zunächst eine Verbindung
zum vorhandenen AWS-Service herstellen. Von der Befehlszeile aus.
Es gibt zwei Methoden. Sie öffnen die AWS-CLI
und verwenden dann AWS. Es gibt eine Option
, bei der wir
AWS mithilfe der
Sicherheitsanmeldedaten konfigurieren . Ich habe es Ihnen bereits
als Teil des vorherigen gezeigt. Ist eine Methode, es zu tun. Eine schnellere Methode
besteht
im Grunde darin , in Ihre Konsole zu gehen und die CloudShell zu öffnen Jetzt ist Cloud Shell eine
der einfachsten Methoden, um mit
AWS CLI und all diesen Uberntis zu arbeiten AWS CLI und all diesen Uberntis da Cloud Shell
automatisch
die Kubernetes- und
Cube-CTL-Befehle
bereits im Build hat die Kubernetes- und
Cube-CTL-Befehle , also ähm, darüber
nachdenken,
können Sie damit Alles, was ich jetzt tun muss,
ist das in einem neuen Tab zu öffnen. Standardmäßig wird Cloud Shell
mit einer kleineren Schriftgröße geliefert. Wenn Sie also zu der
Einstellung hier gehen, können
Sie sie
auf große Schriftgröße
und Hell- oder Dunkelmodus ändern ,
Sie können sie ändern. Derzeit habe ich
die größte Größe. Bitte haben Sie Geduld mit mir, wenn Sie es
nicht klar sehen können. Ich gebe den Befehl ein. Das ist
der erste Befehl, den
Sie eingeben müssen. Sie müssen keine
der Anmeldeinformationen
konfigurieren , da Sie bereits in Ihrem Konto sind
und von Ihrem Konto aus die CloudShell öffnen Jetzt muss
ich nur noch AWS,
EKS, IP und iPhonRgion ausführen und dann
sagen, in welcher Region Ich bin in USE Spawn. Und dann muss ich Update
Hyphen Cub Config Bindestrich als
Bindestrich angeben ,
und dann gebe ich den Namen des Hier gehe ich rüber
, um den Namen des
Clusters zu bekommen und
füge ihn hier Clusters zu bekommen und
füge ihn Das ist der Name meines Clusters. Wenn Sie das jetzt tun,
wird ein neuer Kontext hinzugefügt. Jetzt
ist der Kontext erstellt und er weiß, dass der EKS-Cluster mit diesem Namen
läuft. COV auf Ihrer Kontonummer. Dies ist Ihre Kontonummer, Ihr
Cluster, Ihr Clustername, und das ist SEs weil es sich um eine Region handelt,
die Sie verwenden, und es handelt sich um ARN AWS EKS Das heißt also, es
hat im Grunde eine URO oder URI gebildet und diese URI in
diese Konfigurationsdatei in
Ihrem Home-Verzeichnis eingebunden . Nun, Cup Control,
hol Pots Phen A. Jetzt, wenn du diesen Befehl ausführst, kommen all diese
Pots-Berichte von deinem
Community-Cluster, der sich hier drüben befindet. Wenn du diesen siehst,
wird es dasselbe sein. Das sind die Töpfe,
die hier zu sehen sind. Lassen Sie uns nun die
Nginx-Konfiguration erstellen. Lassen Sie uns also weitermachen, ein
Deploy-Nginx
erstellen und auf TO bereitstellen Darin werden wir Sachen
kopieren und einfügen, einfach aus dem Notizblock nehmen Ähm, es gibt ein Problem in VI, statt VI benutze ich cat
greater than symbol
und füge es dann Und dann drücken Sie Enter
und drücken Sie Strg D. Damit wird die Datei gespeichert und beendet. Es gibt ein Problem mit
den VIs, im Grunde genommen wird
die Formatierung in Cloud Shell nicht
korrekt wiedergegeben. Wie dem auch sei, SCAT ist
da, um uns zu helfen. Also erstellen Sie jetzt einen Service
ph und setzen Sie Dot GMO ein. In diesem Dienst kopieren
wir ihn
aus der Servicedatei
und fügen ihn dann aus Control D ein. Jetzt haben Sie
zwei Dateien erstellt Verwenden Sie Coop Control und wenden Sie FNF
an, um diese beiden Dateien bereitzustellen. Oki. Engine bereitstellen,
Bereitstellung ist abgeschlossen, und dann Service bereitstellen, Bereitstellung ist abgeschlossen.
Jetzt, Cop Control. Holen Sie sich Pots, stellen Sie den Service bereit. Jetzt habe ich aufgrund der
Bereitstellung
standardmäßig zwei Pots erstellt .
Deployment hat zwei von zwei, weil wir hier gesagt haben Replicas zwei haben und es das
EnginexImage hat Der Dienst wird ebenfalls bereitgestellt. Einer ist der Community Service, das ist ein Standard,
ein anderer ist der Engine-Service. Wenn Sie das sehen, haben wir diesen Dienst
als Load Balancer
bereitgestellt Das bedeutet, dass er die externe
IP-Adresse automatisch und die URL
des Load Balancers angegeben hat Nun, nur um sicherzugehen,
dass das gut funktioniert, kopieren Sie
einfach die URL, legen Sie sie auf den Webserver und geben Sie dann einfach
AntaTry
und es kann
ein paar Minuten dauern, geben Sie dann einfach
AntaTry
und es kann
ein paar Minuten dauern bis sie
repliziert ist, um den Cluster zu erstellen,
Bereitstellung dieser Cubonuts, Bereitstellung dieser Cubonuts Wenn Sie also zum gesamten Namensraum wechseln oder zur Standardeinstellung wechseln, werden
Sie die
beiden neuen Bereitstellungen,
die
gerade durchgeführt wurden, im POT-Bereich sehen . Und wenn Sie zu
Service und Networking gehen, wenn Sie zu Service gehen,
werden Sie den
Enginx-Dienst hier sehen Wenn Sie auf den
Engine X-Dienst klicken, können
Sie die URL des
Load Balancers sehen Er ist immer noch nicht verfügbar, also gib ihm etwas Zeit
und lass uns dann versuchen, ihn zu durchsuchen Es sollte gut funktionieren. Sie können die Endpunkte hier
sehen. Endpoints sehen
gut aus, daher kann es
einige Zeit dauern , bis sie bereitgestellt sind.
Das könnte der Grund sein Oder es sucht nach HTTPS. Versuchen wir es mit HTTP. Das ist auch einer der
Gründe, warum es nicht funktioniert. Geben wir uns noch ein
paar Minuten Zeit und dann werden wir es erneut versuchen. Ich pausiere das Video und pausiere
es, sobald es funktioniert. Nach ein paar Minuten können
Sie sehen, dass
Sie diese Seite erhalten. Willkommen bei EnginX. Ich
wusste nichts Ich habe mir nur ein bisschen Zeit genommen , weil es auch einen
DNS-Dienst einrichten muss. Und dieser CB-DNS-Dienst ist
entstanden. Danach fing es an zu funktionieren. Das ist also auch nicht von mir selbst
erstellt. Dies ist ein autonomer Dienst, der ausgelöst
wird, wenn
Sie Ports erstellen. Jetzt funktioniert auch diese bestimmte
URL, der EngineX-Dienst hier drüben. Also der EngineX-Dienst,
wo Sie darauf klicken, stellen Sie sicher, dass es
nicht HTTP ist, da es
HTTP ist , weil EnginX auf HTDPpot Nummer 80
läuft
und dieser standardmäßig auf HTTPS geht und dieser Wenn Sie also einfach den Link kopieren fügen Sie ihn ein und ändern Sie ihn dann Ich sollte gut funktionieren.
Das ist alles Leute. Hoffentlich verstehen Sie,
wie Sie Instanzen auf
Ihrem ECS erstellen und wie Sie sie mit Kubernetes
ausführen lassen Nochmals vielen Dank für
Ihre Geduld und Zeit. Ich werde dich auf einem anderen Video sehen.
69. Praxisorientierte Übungen zum EKS-Setup von Labs: Hallo Grasp, komm zurück
zum nächsten Teil dieses Videos, wir werden über den
Elastic Kubern Service sprechen Dies ist eines der Themen, über
die wir uns hier mit EKS befassen. Das ist also eine
praktische Sitzung dafür. Nochmals, diese praktische Sitzung
hat nichts mit
Ihren eigentlichen AW-Zertifizierungen zu tun , sondern sie dient lediglich
einer praxisorientierten Einführung in das Thema. Hier werden wir den EngineX-Dienst jetzt auf
Kubernts
hosten , um das zu tun,
um Ihren Entschuldigung,
Nginx-Dienst zu hosten und ihn erfolgreich
auszuführen, müssen
wir zuerst nach müssen
wir zuerst Und Sie haben hier einen separaten
Dienst für EKS, und dann klicke ich auf Denken Sie daran,
das ist wieder so, es gibt ein paar
Teile dieses speziellen ähm Videos. Der erste Teil ist, dass
wir einen Cubons-Cluster
erstellen Sobald wir
den Cluster erstellt haben, werden
wir ihm Knoten hinzufügen So wie wir Knoten
zu Ihrem bestehenden Cluster hinzufügen, bei Ihren Coberats genauso gehen wir
bei Ihren Coberats genauso vor, indem
wir
Knoten als Teil des Clusters hinzufügen Jetzt gibt es zwei
Möglichkeiten, Knoten hinzuzufügen. Sie können ein Fargate verwenden. Auch hier wird Fargate für
serverlose Knoten verwendet , oder Sie
können EC Two Instance verwenden Zuerst werden wir uns mit
der EC-2-Instanz befassen und dann werden wir uns den
Fargate-Datenzeitpunkt ansehen Um einen Cluster zu erstellen, haben
Sie, sobald Sie auf den EKS-Dienst zugegriffen haben, die Möglichkeit
, hier einen Cluster zu erstellen Sie haben eine weitere
Option, bei der Sie EKS Anywhere und
ECS Anywhere ebenfalls
haben. Das ist also im Grunde ein
abonnementbasiertes Produkt, bei
dem der
Vorteil darin besteht, dass Sie
für ein Abonnement bezahlen müssen,
und Sie erhalten rund
um die , bei
dem der
Vorteil darin besteht dass Sie
für ein Abonnement bezahlen müssen,
und Sie erhalten rund
um Uhr Support von AWS, tut mir leid, der
Fachexperte SME für EKS. Das ist im Grunde
Teil Ihres Pakets. Das ist also, ähm, ein Paket auf Abonnementbasis. Es ist dasselbe, was auch in ECS
verfügbar ist. Auch für den
Elastic-Antennenservice. Wir sind nicht daran interessiert
, danach zu suchen , denn wenn Sie wissen, wie
man einen Cluster konfiguriert, ist
das so ziemlich dasselbe. Lassen Sie uns weitermachen und einen Cluster
erstellen. Lassen Sie uns hier einen
Cluster erstellen und wir werden
diesen HTTP-EKS-Cluster nennen . Jetzt müssen wir hier
eine IAM-Rolle erstellen. Jetzt haben wir bereits
diese EKS-Admin-Rolle. Wenn Sie keine
EKS-Administratorrolle haben, klicken Sie
einfach auf diese
Konsole für IAM, und dann können Sie hier auswählen,
hier können Sie den AWS-Service auswählen, von hier aus EKS
auswählen und Sie
können den EKS-Cluster auswählen Dies wird automatisch
ausgewählt, da dieser Link, äh, zu diesen
spezifischen Anforderungen umgeleitet
wird Sie können sehen,
dass dies genau
die tatsächliche Anforderung
ist, auf die es gerichtet ist Wenn Sie also auf Weiter klicken, können
Sie sehen, dass eine
bestimmte Richtlinie
ebenfalls als Teil
davon geladen wird , weil
diese spezielle
Auswahl mit
dieser Richtlinie geliefert wird . Klicken Sie dann
auf Weiter und geben hier
einen Rollennamen ein und klicken Sie
dann auf Rolle erstellen Denken Sie jedoch daran, dass diese
Rolle bereits vorhanden sein muss , was bedeutet, dass Sie sich das CKS Mendroll besorgen
sollten Wenn nicht, erstellen Sie
sie einfach mit demselben Namen, und Sie werden das
hier sehen können. Sie müssen es nur
hier aktualisieren und Sie werden diese Rolle sehen. Rollen sind also wichtig für Services, denn wie bereits
erwähnt, Rollen für Services
vorgesehen, also für den Zugriff auf andere Services oder den Zugriff auf andere
Services innerhalb von AWS. Hier ist die Version von Huberts. Die aktuelle Version ist eine. 31. Und zwei Arten von Support für diese
spezielle Version stehen
zwei Arten von Support
zur Verfügung. Der eine ist der Standardsupport
, der 2025 ausläuft, was bedeutet, dass Sie nach
diesem bestimmten Zeitplan auf
die nächste Version aktualisieren
müssen , und der Support, der
als erweiterter Support bezeichnet wird. Das ist also bis 2026 verfügbar. Die schrittweise Regelung beträgt also 14 Monate und 26 Monate
für erweiterten Support 14 Monate, Sie
müssen nichts extra bezahlen. Es fallen keine zusätzlichen Kosten an. Wenn Sie jedoch für 26 Monate arbeiten, müssen
Sie hier extra zahlen,
wobei Sie den Support tatsächlich am Enddatum
verlängern dem der Cluster automatisch auf die nächste Version
aktualisiert wird. Ebenso müssen Sie dafür zusätzliche Stundenkosten
zahlen. Ich entscheide mich für Standard One. Cluster-Achse hier drüben dient im Grunde dem Zugriff auf
Ihren Cluster. Aktion
zur Clusterverwaltung zulassen, die Standardoption,
also machen Sie damit weiter. Hier für den
Cluster-Authentifizierungsmodus dient dies zur Konfiguration
der Quelle, des Clusters, den Sie
für die Authentifizierung über IAM verwenden werden für die Authentifizierung über IAM Wir verwenden die EKS-API, die hier die
Standardoption ist. Wir werden hier
keine Verschlüsselung einschalten, also lassen wir sie einfach deaktiviert. Dann haben wir die
ARC-Zonenverschiebung. Nun,
ARC-Zonenverschiebung ist im Grunde genommen, ähm, wissen Sie, es ist
im Grunde das , was wir
Application Recovery Controller nennen Die Zonenverschiebung erfolgt also,
um sicherzustellen, dass Sie auch dann noch
verfügbar sind , wenn es Ihrer
speziellen
Zone zu einem Notfall Sie können dies aktivieren, aber ich würde es lieber
deaktivieren, da dies wiederum zusätzliche Kosten verursacht.
Deshalb möchte ich es im
Moment nicht aktivieren, da es zu Testzwecken dient Warum machen wir das? Zone and
Shift wird verwendet, um die Cluster-Umgebung so einzurichten, dass die Ausfallsicherheit
bei einem
Ausfall
der Availability Zone im Voraus gewährleistet ist. Im Falle einer Availlabilty Zone wird
sie automatisch verschoben, aber das passiert sehr selten, also werde ich das Klicken Sie auf die nächste Option. Die
Netzwerkoption ist hier drüben. Dies sind die Subnetze
, für die wir unsere Cluster erstellen werden, und das
sind die IV-Version, die
wir auswählen werden Sicherheitsgruppe, wir wählen die Standardgruppe aus, die wir bereits geändert
haben Wenn
Sie im vorherigen Video am ECS-Setup gearbeitet und im zweiten Video
zur Behebung dieser Probleme, hätten wir
jetzt
diese Standardsicherheitsgruppe erstellt. Sie können das also verwenden. Oder wenn Sie möchten, können Sie eine neue Sicherheitsgruppe
erstellen , den
gesamten Datenverkehr öffnen, und dann können Sie einfach auch diese
Sicherheitsgruppe auswählen. Hier ist der Punktzugriff
öffentlich und privat. Klicken Sie auf Weiter. Die nächste
ist die Beobachtbarkeit Observability stellt sicher, dass Sie hier Optionen
haben, mit
denen Sie
Ihre Daten Ihrer
Clusterinformationen an Prometheus senden können Ihre Daten Ihrer
Clusterinformationen an Prometheus Aber auch hier gilt: Alles, was Sie hier
auswählen,
ist extra kostenpflichtig.
Seien Sie vorsichtig, was Sie wählen, denn auch das ist etwas,
das extra
zu zahlen ist, wenn es um
die Arbeit
mit diesen Aktionspunkten Ich werde nichts davon
aktivieren. Ich werde hier die
Standardeinstellungen aktivieren. CDN, CNI, Cupxy und dann
EKS Prod Identity Agent. Das ist also etwas
, das standardmäßig ist. Wenn Sie dies also erneut
auswählen möchten, ist
dies dafür verantwortlich, dass eines anfällt. Dies ist eine Schutzaufgabe für die
EKS-Laufzeitüberwachung. Aktivieren Sie also nichts , was extra ist,
sondern klicken Sie einfach auf Weiter. Und dann ist das im Grunde die Version, die
Sie installieren müssen. Es wurde also bereits
die stabile Version ausgewählt, sodass Sie die Auswahl
von Versionen für diese
zusätzlichen Komponenten ignorieren können , sodass Sie auf Weiter klicken können. Nun, hier sind wir auf der Übersichtsseite und
hier werden wir sie überprüfen und erstellen. Das ist so
ziemlich das , was wir bisher ausgewählt
haben Klicken Sie auf die Schaltfläche Erstellen
. Ich gehe davon aus, dass gerade eine Ausnahme
auftaucht. Hier drüben heißt es, dass der
HTTP-EKS-Cluster nicht erstellt werden kann, da EKS das Erstellen einer
Kontrollebeneninstanz nicht unterstützt. Ähm, US East One E. Darin
steht, dass
Sie in dieser Region keine Kontrollebene erstellen können. Also das sind sehr
einfache Wege. Das heißt, Sie können
es auf jedem davon erstellen , außer auf, ähm, einem E. Also das ist es,
was es aussagt. Zum Beispiel müssen wir
zu den Netzwerkeinstellungen gehen und auf Bearbeiten klicken. Dann
müssen Sie herausfinden, dass E diese bestimmte Availability Zone ist, diese Availability Zone entfernen und dann weiter, weiter, weiter Klicken Sie dann auf Jetzt erstellen. Sobald Sie diese
bestimmte Verfügbarkeitszone entfernt haben, können
Sie sie erstellen. Dies ist ein Standardverfahren. Wenn Sie mit
einer der Regionen arbeiten, die in der T-Zone verfügbar ist, können
Sie
Ihre Kontrollebene nicht wirklich erstellen. Denken Sie also daran, dass dies ein
Standard für AWS ist. Jetzt wird der Cluster gerade
erstellt, sodass Sie sehen können, dass der Cluster gerade erstellt wird. Dieser Vorgang kann
etwa zwei bis 5 Minuten dauern da er für
mich
ungefähr 2 Minuten gedauert hat und ich
hier einige Details erhalte , sobald ich den
Cluster vollständig erstellt habe. Sobald der Cluster erstellt ist, werde
ich dieses
Video pausieren, sobald es fertig ist Dann machen wir den
zweiten Teil dieses Videos. In der zweiten Phase geht es
im Wesentlichen um
die Konfiguration des Knotens, und wir
werden auch einige der
Konzepte
untersuchen, die Teil Ihres EKS-Clusters in
dieser Konsole sind. Ich gebe das Video weiter und
pausiere es, sobald es fertig ist. Also der Clustercode
wurde in 10 Minuten erstellt, also lasst uns in den Cluster gehen. Dieser Cluster enthält
Informationen, zum Beispiel sein Datum und die Version des Uberuts und
des Anbieters EKS Es verfügt auch über den
API-Serverendpunkt, über
den
eine Verbindung zum API-Serverendpunkt hergestellt und mit diesem gearbeitet werden kann, sowie über einen offenen
Verbindungsanbieter Dies sind
Kommunikations- und Authentifizierungsmethoden. Diese sind also hier aufgelistet. Und es gibt kein Gesundheitsproblem, hier drüben
gibt es ein gewisses Setting. Die Versionseinstellung ist Standard. Das haben wir ausgewählt, und die Verschlüsselung ist ausgeschaltet und es gibt auch keine
Zonenverschiebung Was die Ressourcen angeht, ist
das sehr wichtig. Was wir auf den
Cummints und der Befehlszeile sehen, können
Sie
hier sehen. Sie können Workloads sehen,
Sie können, ähm, Pots, ähm
, Replikatsatz,
Deployments, Status
Full Set usw. sehen , Replikatsatz,
Deployments, Status
Full Set Deployments, Status Sie werden die
Notizen sofort sehen,
äh, in diesem Aber du siehst nichts , weil wir keine Notizen
konfiguriert haben. Das ist der zweite Teil, zu dem
wir gehen werden. Namensräume und dann
API-Dienste, Leasingverträge. Ebenso sehen Sie
einige Standardfunktionen. Es gibt also schon
das Cluster-Setup. Es gibt also bestimmte
Elemente, bei denen es sich um Pots handelt, die im
Cub-System-Namespace
konfiguriert Das sind die Co-DNS-Dienste. Jetzt wartet alles darauf, dass
wir die Knoten erstellen
, damit die restlichen Elemente hier angezeigt
werden. Um also die Knoten zu erstellen oder eine sogenannte Knotengruppe hinzuzufügen, erstellt, werden
beim Hinzufügen einer Knotengruppe automatisch
Knoten da es keine
Möglichkeit gibt, Knoten zu erstellen Das sind die Knoten. Es gibt
keine Möglichkeit, Knoten zu erstellen, aber Sie können
die Knotengruppen erstellen. Jetzt erstellen Sie entweder
Knotengruppen und dann oder Sie erstellen das
Fargate-Profil hier drüben. Wir werden später darüber sprechen. Zuerst werden wir
die Knotengruppen erstellen, und dann werden Sie sehen, wie die
Knoten hier gefüllt werden. Wenn Sie also hier auf
Knotengruppe hinzufügen klicken, müssen
Sie die Summe, den
Typ oder den Namen
der Knotengruppe auswählen . Jetzt gebe ich HTDP
IP und NG als Knotengruppe an. Dann haben Sie hier Moment
keine EKS-Richtlinien
dabei Ich habe es, weil
ich es erstellt habe Ich habe einen Testlauf durchgeführt, um sicherzustellen
, dass alles einwandfrei funktioniert. Sie werden hier also
nichts finden, klicken Sie
einfach auf
IM-Regel erstellen, wenn Sie darauf klicken, erhalten
Sie den AWS-Service und dann geht es zu EC zwei, ändern Sie es in EKS, also lasse
ich mich zuerst den
löschen, den ich habe, viel besser. Ich lösche gerade die
Node-Policy-Rolle. Ich werde das einfach tun. Ich habe es entfernt. Nun, wenn
du das einfach aktualisierst, solltest du es nicht finden, es
wird so sein. Dann
erstellen Sie eine neue Rolle und dann EKS, dann gibt es hier eine
Option für die Knotengruppe, wählen Sie diese aus, wählen Sie Weiter
und dann erhalten Sie hier
einen Standardnamen und klicken
dann auf Rolle erstellen. Jetzt heißt es, dass es
bereits vergeben wurde, der Name existiert bereits. Aber selbst wenn du
es auf deiner Seite
erstellst, wirst du das hier nicht sehen können
. Dies ist hier ein bestimmtes
Kriterium. Sie können tatsächlich dazu
gehen,
mehr zu erfahren und dann
die Kriterien
sehr detailliert zu verstehen . Aber ich kenne die Kriterien, also werde ich
selbst eine Rolle erstellen . Erstellen Sie jetzt eine Rolle. Klicken Sie auf Rolle erstellen und wählen Sie
dann hier
nichts aus. Wenn Sie dies tun, werden es
vorgewählte Richtlinien sein. Die Berechtigungen werden angewendet. Klicken Sie auf eine dieser Optionen und
dann auf EC zwei. Lass uns das nicht tun. Lass uns
einfach rüber gehen. Wir machen es von Anfang an. Lassen Sie uns auf Rolle
erstellen klicken und dann einfach den AWS-Service auswählen
und auf Weiter klicken. Es erlaubt uns nicht, oder? Halte durch. In Ordnung.
Lass uns das so machen. Klicken Sie einfach auf Rolle erstellen und wählen Sie Benutzerdefinierte Vertrauensrichtlinie aus. Und dann entscheiden wir uns einfach
für den nächsten. Und dann fügen Sie hier
vier Dienste hinzu. EKS-Dienste
suchen nach EKS-Richtlinien. Es tut mir leid, keine
Servicerichtlinien. Also EKS-Richtlinie, Sie
müssen
EKS auswählen EKS Ich werde
den EKS-Worker-Knoten auswählen. Also Worker-Node-Richtlinie,
diese hier drüben. Sie können auch die
Mindestrichtlinie auswählen. Also, dem einen geht es gut. Also, wenn Sie
die Node-Policy wählen, wird nicht
minimal benötigt. Also A, die eine ist in Ordnung, also würde ich mich für
die Node-Policy entscheiden. Und dann können Sie den anderen
auswählen, nämlich EKS, CNI Es tut mir leid. Das tut mir leid. Also die CNI-Richtlinie hier drüben,
Sie können diese auswählen. Und dann können Sie hier so
ziemlich eine
andere auswählen, nämlich die EC Two
Container Registry Hier können Sie also
Container-Registrierung,
schreibgeschützten Zugriff auswählen und dann auf Weiter und dann
auf Rolle erstellen klicken. Geben Sie hier nun einen Namen ein. Es ist eine Knotenrichtlinie. Und dann klicke ich einfach
auf Rolle erstellen. Ich sage, mein
Hauptname fehlt. Lassen Sie mich sehen, ob
das der richtige Weg ist. Gib mir nur 1 Sekunde. Lass mich das kopieren und einfügen. Lass uns sehen, ob ich das ändern
kann. Ja, also werde ich
es einfügen , auf einen Notizblock legen und
es auf das setzen , was ich gerade
kopiert habe Was ich also kopiere und eingefügt habe,
ist die Vertrauensrichtlinie. ECS-Note-Richtlinie hat also
diese Vertrauensbeziehung, und sie muss einen
Prinzipalnamen wie diesen haben, der
besagt, dass es sich um einen Service
E bis aw amazon aws.com handelt Und dann muss es
sagen, dass STS die Regel annimmt. Dies ist die Vertrauensbeziehung , die
mit diesem Dienst aufgebaut werden muss. Das sollte Teil Ihrer
Node-Richtlinie sein , da der Node für die Kommunikation eine Verbindung mit der EC
Two-Instance herstellen muss. Denken Sie daran, dass dies
verpflichtend ist und dass Sie es haben
sollten. Wenn Sie nicht alle
diese drei Richtlinien
sowie diese
Beziehung zum Trust haben , wird
es hier nicht angezeigt. Jetzt können Sie sehen, dass die
EKS-Knotenrichtlinie bald verfügbar ist. Schauen Sie sich also einfach die Notiz an. Ich werde die Notiz auf
dasselbe Video unter dem Video platzieren. Und dann können Sie
darauf zugreifen und,
Sie wissen schon, dieselbe
Vertrauensrichtlinie kopieren und auch in diese Regeln einfügen. Jetzt, wo Sie das abgeschlossen haben, können Sie
das Standardmaterial verwenden. Sie müssen nichts
ändern. Wenn Sie jedoch Etiketten,
Flecken und Etiketten haben , können Sie sie hier
anbringen und
dann auf Weiter klicken. Jetzt entscheiden wir,
welche Art von, ähm,
Arbeitslast, ähm, Sie wissen schon, Verteilung der
Arbeitslast
Sie in Bezug auf Rechenleistung
und Ski-Optionen vornehmen werden. Hier entscheiden wir uns für
Amazon Linux Two, und wir entscheiden uns für
On-Demand-Instance statt Spot-Instance, und wir wählen
T Three Medium. Wie unsere Produktfamilie und
der Typ der Größe der Instance. Den Instanztyp, den
wir hier
wählen, geben eine Festplattengröße
von 20 GB an und wir
erstellen hier zwei Knoten
als gewünschte Größe,
ein Minimum sind erstellen hier zwei Knoten
als gewünschte Größe, zwei und das
Maximum sind zwei Knoten. Maximal nicht verfügbar, es heißt in
jedem Fall oder in jedem Szenario, Sie wissen schon, ob es
zu Ausfallzeiten kommen wird oder ob es ein
Upgrade auf Ihre Version der aktuellen Version von
Uberts geben wird, wie viele Knoten nicht verfügbar sein
oder ausfallen können Sie haben hier also eine Zahl
eingegeben und eine gegeben. Sie können auch einen Prozentsatz
wie 50 Prozent angeben. Es bedeutet auch eins, wenn du
nach Prozent gehst. Nun hier einer, was bedeutet, dass ein Knoten ausfällt
und dann zum Upgrade-Prozess übergeht und der andere Knoten
zu einem späteren Zeitpunkt
aktualisiert wird. Klicken Sie auf Weiter und das
sind die Subnetze, in denen Ihre
Notizen
gehostet werden, und ähm, fahren Sie
einfach fort mit Ähm, geben Sie Ihnen nur 1 Sekunde Ich habe hier auch den E-Node hinzugefügt , sodass
meine Nodes auch
auf dem e1e-Node erstellt werden können auf dem e1e-Node erstellt Also eine E-Verfügbarkeitszone. Gehen Sie also einfach hierher und klicken Sie
auf Erstellen. Da hast du's. Das eine E ist also egal ob du Knoten darauf
erstellst, aber es ist wichtig, ob
du ihm Glanz verleihen willst Okay? Das ist also der
Unterschied zwischen einem Cluster und einer Knotengruppe. Nun, da der
Cluster nicht auf einer E, einer
variablen T-Zone,
erstellt werden kann, sondern es können auch Knoten
normal auf einer E erstellt werden. Deshalb habe ich das
ausgewählt. Jetzt bin ich also in der Knotengruppe. Gehen wir also zurück zum Cluster. Und lassen Sie uns hier wieder zur
Datenverarbeitung zurückkehren. Das kann
etwas Zeit in Anspruch nehmen, und wie Sie sehen können, handelt es sich
dabei um eine Verarbeitung. Und wenn Sie die EC
Two-Instance öffnen, werden
Sie nach einiger Zeit
Instances sehen, die für
Ihre Knotengruppe unter diesem
Cluster, dem ECS-Cluster, erstellt wurden . Also
wird die EC Two-Instance erstellt. Wenn Sie sich für Fargate entscheiden, erstellt
Fargate eine
serverlose Registrierung Aber da das auf EC Two
sein wird, wird
es auf EC Two Instance sein Sie werden sehen, dass
eine Instanz auftaucht. Es kann weitere
fünf bis zehn Minuten dauern, bis die Instances gestartet, all
diese Deployments durchgeführt, all
diese Deployments durchgeführt, Pots erstellt werden und so weiter Ich pausiere das Video und pausiere es, sobald das alles abgeschlossen
ist Dies ist abgeschlossen und wie
Sie hier sehen können, habe ich hier zwei Notizen als Teil
dieser Knotengruppe
konfiguriert. Jetzt werden diese beiden Knoten mit mir an
allen Anwendungen arbeiten , die ich für Covenants bereitstellen
werde Und auf denen
werden sie bereitgestellt. Was die Ressourcen angeht Wenn Sie
jetzt zu
Workload gehen und sich Pots ansehen, werden
Sie feststellen, dass viele
Pots erstellt werden. Nun, all diese Teile sind Teil des Cup-System-Namespace,
der
nichts anderes ist als Ihre Kernsysteme, Namespace-Pots hier drüben Sie haben standardmäßig auch nichts
, weil es nur etwas ist, das wir im dritten
Teil erstellen müssen Den dritten Teil werde ich auf das nächste Video
setzen. Äh, wo ich
Pots für unseren Nginx erstellen werde, und dann werden wir
den EngineX-Dienst über
dieses Port-Cloth-EKS-System durchsuchen dieses Port-Cloth-EKS-System Als Nächstes geht es um die
Bereitstellung von Replikatgruppen und all diese Dinge. Standardmäßig ist nichts vorhanden, aber wenn Sie zum Coop-System gehen, werden
Sie Sie haben die
Cluster-Konfiguration den Knoten, die Teil des Clusters Und dann die verfügbaren
Namespaces und all diese Elemente hier in Bezug auf
Servicenetzwerke, Konfigurationszuordnungen und
Geheimnisse, Speicher, Authentifizierung, Autorisierung,
Richtlinien und Erweiterungen. Sie werden
all diese Dinge bekommen, die die Cubants in AWS
anbieten, aber es ist viel einfacher zu verwalten weil Sie
das alles auf einer Konsole sehen werden Aber wenn Sie mich fragen, was
der beste Weg ist, Pods zu erstellen? Da
Sie hier keine Möglichkeit haben, einen Pod zu erstellen, gibt es keine Möglichkeit, einen Pod
zu erstellen. Das bedeutet, dass Sie
die Befehlszeile verwenden müssen. Im nächsten Video zeige ich Ihnen,
wie Sie mit der Befehlszeile arbeiten und Pods
mit diesem speziellen
Befehlszeilentool erstellen . Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Wir
sehen uns beim nächsten.
70. Labs Fargate – praktische Anleitung: Hey Leute, das nächste Video. In diesem Video werden wir
über AWS Fargate sprechen. Wir werden
ECS mit AWS Fargate konfigurieren. Das ist so ziemlich
das, was wir in diesem
Video nicht tun können Lassen Sie uns also weitermachen. Ich bin bereits im ECS-Service und habe bereits auf den Cluster
geklickt, und Sie können
auf Create Cluster klicken Jetzt werden Sie mir tatsächlich dabei zusehen
, wie ich Fargate erstelle. Ich meine, die Instanzen über Fargate und Sie werden sehen wie einfach das ist, wenn man es mit
der EC Two-Instance vergleicht Also werde ich jetzt HDDPiphenECS
erstellen. Fargate-Bindestrich ECS. Es tut mir leid, lassen Sie es uns einfach dort beenden Das ist also HTPiphens
Bindestrich Fargate. Das ist also im Grunde der Clustername. Und hier werde ich
Fargate
für weniger Server verwenden Fargate
für weniger Server Ich muss also keine Details über
den EC-Two-Instance-Typ
oder ähnliches angeben den EC-Two-Instance-Typ
oder ähnliches Also kann ich all diese
Dinge überspringen, weil Fargate im Grunde alle Instanzen
laufen lässt, die Sie haben, und es ist sehr nützlich für Workloads und winzige Batches und Workloads wie Webserver
und Aber es wird dringend empfohlen
, sich für EC-2-Instances zu entscheiden, wenn Sie eine konsistente
und große Arbeitslast haben, aber das ist nur eine Demo, also werde ich Fargate hier einfach
verwenden Denken Sie daran, dass Fargate nicht kostenlos ist, daher können Gebühren
anfallen , wenn Sie
sich dafür entscheiden Klicken Sie also einfach auf Erstellen. Jetzt wird
hier
drüben ein Cluster erstellt . In einiger Zeit werden
Sie sehen, wie der
Cluster auftaucht. Aber lass uns nicht darauf warten.
Gehen wir zur Aufgabendefinition. Erneuern Sie die Aufgabendefinition. Dies ist die Aufgabendefinition
für HTTP, Iphon Gate. Iphone-Aufgabe. Also hier wähle ich Fargate
als Starttyp Und hier ist der Netzwerkmodus deaktiviert und er ist
genauso geeignet wie VPC, sodass Sie ihn nicht ändern müssen Also,
ich habe die Anforderungen an die
Instanzinfrastruktur als Standard angegeben Und hier bei den
Container-Details habe
ich die Container-Details
wie den Ginex-Container-Namen
und dann die URL RO angegeben wie den Ginex-Container-Namen und dann die URL RO Sie müssen sie von hier
aus der Container-Registry abrufen GeneX kopiere es, füge es hier ein, nichts anderes muss geändert werden Portnummer,
Container-Protokoll, Portnummer. Ich glaube, es sind auch 80. Das ist im Grunde die
Portnummer, sorry, Portname, sorry, DPI und 80.
Das ist optional. Du musst es nicht wirklich
geben, also ist es automatisch. Ich werde
die Cloud-Uhr deaktivieren. Und dann werde ich kreieren. Nun, das hat
die Aufgabe für Fargate erstellt. Clustererstellung ist abgeschlossen, sodass Sie sehen können, dass der
Cluster erstellt wurde Gehen wir in den Cluster hinein. Lassen Sie uns einen Service erstellen. Hier stehen nun
automatisch
AWS fargt und der Name
des vorhandenen Clusters In Bezug auf die Strategie
zur Bereitstellung von Kapazität können
Sie sehen, dass Fargate bereits ausgewählt
ist und es keine Möglichkeit gibt, die Standardstrategie zu
verwenden können der
Spot-Instance auch eine weitere Kapazität hinzufügen und
ihr mehr Gewicht verleihen Also gebe ich fünf zu eins. Ich meine, ich möchte, dass mehr Instances auf der
Fargate-Spot-Instance erstellt werden, aber ich benötige auch
mindestens eine Instanz auf Fargate, um sicherzustellen , dass einige Server
dauerhaft verfügbar sind und einige Server verfügbar
sind, wann immer
es nötig ist Also werde ich 51 ist
zwei erstellen, wobei der Spot-Instance mehr Priorität
eingeräumt wird Also wird
hier die neueste Version von Fargate verwendet. Das ist also die neueste Version, und ich werde den
Service hier nutzen. Siehe FargateTask. Und dann hier der Dienstname, ähm
, HTTP sein wird Fargate-Telefondienst. Ich werde
eine gewünschte Aufgabe erstellen und dann auf Erstellen klicken Damit wäre
der Bereitstellungsprozess erstellt worden, und es wird
einige Zeit dauern , bis die Anwendung bereitgestellt ist. Sobald die Anwendung auf Fargate
bereitgestellt ist, komme
ich zurück und zeige
Ihnen, wie Sie sie durchsuchen Ich schätze, fast alle
Aufgaben sind erledigt. Lass uns das überprüfen. Gehen Sie zu Ihrem
Cluster, dem Clusternamen
und dort zum Service. Sie können die IP-Adresse von
Fargate nur
erhalten , wenn Sie
derselben Anweisung folgen Sobald Sie im Dienst sind, gehen Sie in der Aufgabe zur Aufgabe, Sie werden tatsächlich den Aufgabennamen
sehen.
Wenn Sie darauf klicken, werden die
Fargate-Details hier
angezeigt. Dies sind im Grunde
die Fargate-Details, die Teil Ihrer Aufgabe Diese Aufgabe wird ausgeführt,
und dadurch wurde eine
Fargate-Spot-Instance erstellt Da wir der Spot-Instance mehr
Priorität eingeräumt haben, eine
Spot-Instance erstellt, aber machen Sie sich keine Sorgen Wenn es ein
Problem gibt, wenn es
ein Problem gibt , bei dem die Ressource nicht verfügbar
ist, wird
die Instanz tatsächlich auf Fargate erstellt Weil wir im
Rahmen des Balancings beide Optionen
angegeben haben Rahmen des Balancings Fargate Spot bietet Ihnen
mehr Rabatt, da es die verfügbaren Ressourcen nutzt
, die nicht genutzt werden ist so ziemlich der Grund, warum es Fargate Spot
heißt und aus diesem Grund haben wir Fargate Spot
mehr Priorität oder mehr H eingeräumt , damit es eine
Fargate-Spot-Instance erstellt Hier ist die
öffentliche IP-Adresse.
Kopieren Sie die öffentliche IP-Adresse, die Sie hier eingefügt haben. Und Sie sehen die Ex-Seite „
Willkommen auf Engine“. So ziemlich können Sie konfigurieren und durchsuchen Ihre ECS-Instanz auf Fargate Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Ich sehe dich beim
nächsten Mal und davor, wenn du die EC Two siehst, läuft
hier nichts drüber. Es werden keine EC-2-Instances laufen, weil
das bei Fargate läuft Fargate ist ein serverloser
Computerdienst, was bedeutet, dass er ohne
Schnittstelle läuft was bedeutet, dass er ohne
Schnittstelle läuft. Nochmals vielen
Dank, Leute Wir sehen uns im nächsten Video.
71. Labs Lambda praktisch: Willkommen zurück zum
nächsten Video in diesem Video Wir werden eine praktische Sitzung
über Lambda machen Erinnern Sie sich noch daran
, dass dies
eine sehr kurze, einfache Sitzung
zu Lambda mit PHP ist? eine sehr kurze, einfache Sitzung
zu Lambda mit Wir werden
Hello World mit Lambda drucken. Ordnung, um das zu tun, müssen
Sie sich in
Ihrer AWS-Konsole befinden Sobald Sie sich in der AWS-Konsole befinden, können
Sie zum
Service Lambda wechseln Dies ist also ein separater
Service, der für Sie verfügbar Klicken Sie mit der
mittleren Maustaste
darauf, damit er in einer neuen Registerkarte geöffnet wird Sobald Sie sich auf dieser Registerkarte befinden, können
Sie
die verfügbaren Optionen tatsächlich sehen. Jetzt
werden Sie in erster Linie sehen, was es ist. Es ist ein Computer. Es ist also eine
Art Rechenleistung. Es ist also eine serverlose Rechenleistung. Dies ist entscheidend für Ihre geringe Menge an Codierung, die im Hintergrund
ausgeführt werden muss Jetzt können Sie damit beginnen, hier
eine Funktion zu erstellen. Sie können hier auch
eine Testfunktion
mit verschiedenen Programmen ausführen . Im Grunde funktioniert es so, dass Sie Ihr Programm eingeben
und es dann ausführen. Jetzt bekommst du die
Nachricht hier drüben. Der Code, den
Sie
eingeben werden, ist also im Grunde Python-Code. Wählen Sie also den Python-Code aus und kopieren Sie
die Werte, die wir hier haben. Also ich denke, du kannst es kopieren und
einfügen, denke ich. Ja, du kannst es nicht bearbeiten. Also das ist nur ein Demo-Zeug, also kannst du es einfach laufen lassen. Also, was wir tun werden, ist, eine Funktion zu
erstellen. Wir werden die Lamb
Do-Funktion aufrufen. einige kostenlose Lamb Do-Anrufe Hier finden Sie einige kostenlose Lamb Do-Anrufe,
damit Sie sie ausprobieren Sie können sehen, dass die ersten 1 Million Trans-Anfragen pro Monat kostenlos und die ersten 400 GB pro
Sekunde pro Monat kostenlos sind. Danach werden pro
Anfrage 0,20$ pro 1 Million und pro GB 16 $ kosten Weitere Informationen zu
den Lambda-Preisen finden Sie hier. Sie können auch den Preisrechner verwenden, um zu
verstehen, wie das auf Ihrer globalen Infrastruktur
funktionieren wird auf Ihrer globalen Infrastruktur
funktionieren Klicken Sie nun auf Funktion erstellen. Damit sollten Sie
nun eine neue Funktion erstellen können. Jetzt können Sie von Grund auf neu schreiben, was bedeutet, dass Sie Ihre Lambda-Funktion
von Grund auf neu
erstellen können , ohne dass Sie bereits über einen vorhandenen Blueprint
oder einen Container verfügen , den Sie über Lambda bereitstellen
müssen Also hier ist Ihr Blueprint. Hier können Sie tatsächlich
einen vorhandenen Blueprint verwenden und dann diesen Blueprint
als Teil davon ausführen Ebenso gibt es
die Standardversionen,
bei denen das Erstellen von Microservices, Hello-World-Funktion und dann einige API-Interaktionen
hier ebenfalls gegeben werden, und dann werden hier auch Streams und
ID-Automatisierung bereitgestellt Daher sind dies einige der Blueprints, bei denen es sich um eine Variable handelt, Sie
den vorhandenen Entwurf modifizieren und nach Ihren
Wünschen improvisieren können den vorhandenen Entwurf modifizieren und nach Ihren Wünschen improvisieren Sie haben also das
Container-Image hier drüben, Sie können die
Container-URL angeben und
führt im Grunde die Lambda-Funktion aus,
würde einen Container ausführen, und die Logik in diesem
Container würde als Teil dieser AmbdaFunction ausgeführt werden Sie können die
Container-URL angeben und
führt im Grunde die Lambda-Funktion aus,
würde einen Container ausführen,
und die Logik in diesem
Container würde als Teil dieser AmbdaFunction ausgeführt werden. Oder Sie können tatsächlich einen anderen Benutzer
verwenden,
den Autor von Grund auf neu verwenden , wo Sie Ihr komplettes Lambda-Erlebnis von
Grund auf neu
erstellen können Ihr komplettes Lambda-Erlebnis von
Grund auf neu
erstellen Lass uns Torio am nächsten kommen. Lass uns hier einen
Funktionsnamen öffnen. Ihr Funktionsname als
Hello World-Funktion. Also jetzt wird
diese Funktion nur für Hello World sein. Jetzt müssen Sie hier die Laufzeit
auswählen. Runtime ist im Grunde der Ort, an dem
diese Funktion ausgeführt werden würde. Wenn Sie sich also entschieden haben
und einen Code auf PHP haben und versuchen,
ihn auf Nodejs auszuführen , wird er
nicht funktionieren Also ähm, nicht PHB, tut mir leid, Python. Sie haben Python-Code und müssen die
richtige,
Sie wissen schon,
Laufzeitumgebung für Ihren Code auswählen . Sie haben also Java 11, Java 17, äh, Dot Net
und andere Frameworks. Was Sie hier tatsächlich verwenden können. Denken Sie daran, dass Sie, wenn Sie Java-Codierung
haben, diese hier ausführen
können. Sie können es in der Anwendung
zur Ausführung des Java-Programms verwenden . Aber die Sache ist, dass
es ein bisschen teuer weil es auf der Grundlage der Anzahl
der eingehenden Anfragen
berechnet wird, also wird es ein bisschen
teuer sein , weil
es serverlos ist Wählen Sie hier Python aus, 321 Entschuldigung eine, zwei Versionen, und wählen Sie dann die
Architektur aus, auf der dieser Code ausgeführt werden soll . Basierend auf
dieser Architektur wird also Ihre gesamte
Lambda-Funktion erstellt Hier gibt es zwei
Optionen, ARM oder Intel in dieser Situation Ich entscheide mich für Intel und hier
sind einige DFO-Berechtigungen zum Hochladen auf Ihre Cloud-Überwachung und für
Ihre Protokollierungszwecke, und dann haben Sie
die Ausführungsrolle,
sie wird eine neue Rolle für grundlegende Lambda-Berechtigungen erstellen für grundlegende Wenn Sie dann die
Codesignaturfunktion aktivieren möchten, gehören
Sie ebenfalls zu
den Drittanbieterdiensten,
die mit
dieser Lambda-Funktion verknüpft Sie können sie aktivieren. Das
wollen wir jetzt nicht tun. Lassen Sie uns weitermachen und die Funktion
erstellen. Was wir
bisher gemacht haben, ist, dass wir diese
Funktion benannt
haben. Wir haben gesagt, wie
wird die Laufzeit aussehen? Diese Funktion wird es sein. Und bei dieser Funktionserstellung, also stellen wir
den Code hier tatsächlich bereit. Nun, dieser Standardcode
ist bereits in Hello World enthalten. Das ist so ziemlich
das, was wir verwenden wollen. Das ist also im Grunde genommen das
Drucken von Hello von Lambda, sodass Sie es in
Hello World ändern können. Ebenso. Also so ziemlich die gleiche Funktion wir für
diese Python-Datei verwenden möchten. Sobald dies erledigt ist und
Sie einen benutzerdefinierten Code
haben, der hochgeladen werden muss, können
Sie ihn auch
als Zip-Follow von S
Three hochladen . Alles, was Sie tun müssen, ist sobald dies
erfolgreich erstellt wurde, Sie müssen sich nur noch, ähm, Sie wissen schon, Ihre
Konfigurationsdatei ansehen. Derzeit haben Sie
nur eine Python-Datei ,
die hier
ausgeführt wird. Als Nächstes haben Sie, Sie wissen schon, Änderungen rückgängig gemacht, also können
Sie einfach darauf klicken Zunächst können Sie das testen. Wissen Sie, wenn Sie
das mit einem
Testereignis testen möchten , können Sie es erstellen. Testen wir es nicht
mit einem Testereignis. Also lasst es uns einfach direkt
einsetzen. Sie können also sehen, dass die Bereitstellung von Code und die anschließende Bereitstellung erfolgreich
waren. Jetzt
sind wir damit so ziemlich fertig, wir haben diese Funktion bereitgestellt. Jetzt müssen wir die
Tests für dasselbe durchführen. dies zu testen, um es ganz
einfach von oben zu testen, haben
Sie diese Option auf
der Konfigurationsseite. Dort können Sie es testen. Jetzt müssen wir einen Test
erstellen. Aus diesem Grund habe ich dir gesagt, lass uns den ersten Test behalten , weil wir ihn sowieso
erstellen müssen. Testen Sie Hello World. Es wird der Name sein. Nun, hier
ist das Even Share im Grunde dazu da,
dieses Event nur für die
Lambda-Konsole auf dem Creator zu teilen dieses Event nur für die
Lambda-Konsole auf dem Creator Wir bleiben
bei den grundlegenden Vorlagen und
hier ist die Vorlage, die wir für
die Tests verwenden
werden . Dann
klicken wir hier auf die
Testschaltfläche und dann war der
Even-Flow erfolgreich Wenn Sie auf das Detail klicken, können
Sie den
geraden Ablauf sehen und sehen, wie lange es gedauert hat,
diese Funktion zu testen. Also so ziemlich das, was wir sehen
wollten, ist
diese Gegend hier drüben. Dies besagt, dass es sich ein Vier-KV-Ausführungsprotokoll
handelt und dass es erfolgreich ausgeführt wurde. Dieser Test war erfolgreich. Es gibt auch eine andere
Möglichkeit, dies zu testen. Dies ist nur mit Ihrer,
Sie konnten
dies mit dieser GI-Konsole testen . Sie können es auch über
die Befehlszeile, die CLI-Methode, testen . Also, wenn Sie die
AWS-Konfiguration installiert haben. Das ist also Ihre
Überwachungssitzung. Also die einen Daten würden
in einiger Zeit reinkommen , weil die
AMTA-Funktion ziemlich neu ist Die Überwachung würde also
einige Zeit in Anspruch nehmen und sie
kämen dann hier Und das ist Ihre
Konfiguration, Sie wissen schon, Ihrer Lambda-Funktion Also Layouts und Version
deiner Funktion. Das ist quasi eine Einführung in die Lambda-Funktion Wir werden
hier nicht näher auf die Funktionen
eingehen hier nicht näher auf die Funktionen Denken Sie also daran.
Eine andere Möglichkeit dies
auszuführen, ist
Ihre CLI-Methode. In dieser Situation
werde ich die CloudShell verwenden, um diese
spezielle Funktion zu testen Lassen Sie mich den Funktionsnamen kopieren, damit er für mich
nützlich Sie können
hier einen Befehl geben, AWS Lambda invoke. Dadurch wird eine Funktion aufgerufen, indem der Funktion
ein Telefonname
und dann der Name
der
Funktion und dann der Name
der Und dann werde ich
das in eine Textdatei
namens Ausgabetextdatei einfügen das in eine Textdatei
namens Ausgabetextdatei Holen Sie sich jetzt einfach diesen Ausgabetext. Sie können die
Welt, die wir geschaffen haben, tatsächlich sehen. Dies ist so
ziemlich ein erfolgreicher Test
, den Sie auch über die CLI-Methode ausführen
können. Nochmals vielen Dank, dass Sie
sich dieses Video angesehen haben. Ich hoffe, es war hilfreich für Sie
, mit Lambda zu beginnen. Nochmals vielen Dank. Ich schaue zu
, ich werde dich auf einem anderen Video sehen.
72. Labs Andere Skalierungsrichtlinien in ASG – Praxisorientierte Anleitungen: Willkommen zurück
zum nächsten Video. In diesem Video
werden wir uns
ansehen, was gestern passiert ist,
bevor wir weitermachen. Ungefähr 20 Minuten später,
25, 24, 23 Minuten, ich schätze, 24 Minuten später, können
Sie sehen, dass die Kapazität um 1-3
erhöht wurde. Und danach, als
es feststellte, dass die Last
nach 23 Minuten gesunken ist, richtig? Deshalb wurde beschlossen,
die Kapazität auf 3 bis 2 zu reduzieren und dann irgendwann
zwei zu eins Uh, in einem Intervall von einer
Minute wurde
sie auf 3—21 reduziert, zwei Ich schätze, diese 20 Minuten, 23 Minuten beinhalten die
Zeit, in der wir die Belastung des Systems
unterbunden haben,
bis dahin Ich denke also
, dass
ungefähr zehn bis 15 Minuten die Reduzierung
der Skalierung
ausgelöst hätten was das
Fachwort Skalierung bedeutet, also die Reduzierung
der Kapazität auf
den
gewünschten Wert von eins ,
weil das die
Mindestkapazität ist,
die hier benötigt wird Das ist die gewünschte
Mindestkapazität, also geht es zurück
zu dem einen Zustand Schauen wir uns nun die beiden
anderen Typen an. Sie werden sie nicht
konfigurieren. Ich meine, es ist einfach so, als ob es der dynamischen Skalierungsrichtlinie
fast ähnlich ist. Wenn Sie also wissen,
wie das geht, ist
es sehr einfach, auch
vorausschauende und geplante
Maßnahmen zu ergreifen Schauen wir uns die Richtlinie zur
vorausschauenden Skalierung an. Dies ist einer
dynamischen Skalierungsrichtlinie ähnlich, hat
aber eine nette Funktion Dies wird als
Skalierung bezeichnet, die auf Prognosen basiert. Nun,
es wird sich die Prognose
Ihrer Anwendung
ansehen , den bisherigen Anstieg in Bezug auf Ihren automatischen Skalierungsmechanismus. Und dann
skaliert es im Grunde
vorhersehbar und prognostiziert die Kapazität Und die Skalierung wird
auf der Grundlage dessen ausgelöst , was sie
zuvor erlebt hat Also nutzt sie das, ähm,
um das zu verstehen. Es wird also keine
Skalierungsaktion sein , die auf Vorhersagen basiert,
wenn sie ausgeschaltet ist, aber wenn Sie sie einschalten, wird
die Skalierung, Sie wissen schon, ähm, zu einem bestimmten Zeitpunkt
aktiviert. Es werden also
prädiktive Informationen verwendet, die in Ihrer Vergangenheit vorhergesagt und diese werden verwendet, um das zu tun Sie können dies deaktivieren und trotzdem für die
CPU-Zielauslastung entscheiden Es ist also dasselbe wie
das vorherige. Sie werden also die CPU, das Netzwerk im Netzwerk und den Load Balancer Das sind also vier Punkte, die
sich bereits auf Dynamics befinden, also ist es einfach dasselbe Aber hier gibt es eine zusätzliche Metrik
, eine benutzerdefinierte Metrik. Jetzt
kann eine benutzerdefinierte Metrik
eine bestimmte Cloud-Watch-Metrik auslösen , oder
Sie können die Standardmetrik verwenden, die es gibt Und das nennt man dann
Lademetriken und Skalierungsmetriken. Also, wie möchten Sie
den Burst-Prädiktor dafür nutzen? Also durchschnittliche CPU oder ist
wie eine Gesamt-CPU. Ebenso verwenden Sie die
benutzerdefinierten Metriken dafür. Wenn Sie also die
CP-Auslastung auswählen, entspricht
dies dem, was wir bei der dynamischen Skalierung
getan haben. Und hier ist einer
der Vorteile oder eine
Sache, die sich von der Dynamik
unterscheidet, im Grunde so, als ob eine Instanz vor dem
Start gestartet
wird. Nun, das können Sie
einer
Instance vor dem Start ermöglichen , wo es sich vorher um eine Vorhersage
handelt, richtig, oder es ist eine
Prognose, richtig? Es schaut sich also im Grunde
die Prognose an und
hält diese Maschinen dann 5 Minuten
vor dem Auslösen einer
Prognose bereit . Das verschafft Ihnen einen Vorteil gegenüber der Dynamik, da Dynamic Ihren Service
bereit machen
muss , wenn es um eine Auslastung oder einen bestimmten
Verstoß in Ihren Kennzahlen geht. Aber hier nutzt es die
Prognose, um das fertig zu machen, die Instanz ist 5
Minuten vorher fertig, oder, Sie wissen schon, welches
Timing Sie angeben würden. Aber das Maximum von 60 ist das
, was hier angegeben ist. Sie können also eine Instanz vor 60 Minuten
fertig haben. Und das zwischenspeichern lassen. Sie können also auch die maximale
Pufferkapazität aktivieren. Es wird also tatsächlich maximale Kapazität von dem haben, was Sie bei
Ihrem automatischen Scannen angegeben haben, also wird es bis dahin zwischenspeichern. Das ist also eine Option hier drüben. Eine andere ist geplante Aktion. Planen Sie also
im Grunde, dass Sie sagen, dass ich
diese Kapazität benötige , und zwar alle 30 Minuten, jeden Tag oder jeden Tag in einer Woche oder jede Woche in einem Monat. Also spezifizieren Sie, was Sie wollen. Wiederholungsbedingungen
: Sie sagen, dass ich jeden Freitag einen riesigen Verkauf
bekomme, und ich werde sagen, okay, ich möchte jeden Tag, an
dem Sie
den Starttag angeben können ,
hier oder Freitag und dann können Sie hier
die Uhrzeit festlegen Jeden Tag wird es an einem bestimmten Tag eines
Monats
, einer Woche oder eines Monats wiederhergestellt bestimmten Tag eines
Monats
, einer Woche oder eines Monats Das heißt,
jeden Freitag hier. Wenn du jeden
Freitag in der Woche hier bist, werde
ich das
von 00 bis 00 Uhr von Mitternacht an meinem Freitag
bis zum Samstagmorgen beginnen lassen . Es ist also wie Null,
Null , Null oder 23 59. Also das heißt, von Freitagabend um Mitternacht bis,
du weißt schon, Samstag um Mitternacht. Das wird also im Grunde
ein Zeitplan sein ,
der auf einer bestimmten Kapazität läuft. Zum Beispiel
sind es derzeit eins, fünf und eins, oder? Du kannst also sagen, für diesen
Zeitpunkt möchte ich fünf. Alle fünf sollten verfügbar sein. Und bis zu diesem Zeitpunkt wird es abnehmen und wieder auf das
Minimum von eins zurückgehen, nämlich eins. Das ist es also, was wir sagen. Also hier testest du einfach
und dann erstellst du das. Das wird also eigentlich ein
Zeitplan sein, in dem
Sie sowohl die
dynamische Qualifizierungsrichtlinie
als auch den ersten Zeitplan haben als auch den ersten Zeitplan Was also passieren wird, ist, wenn die dynamische Qualifizierungsrichtlinie maximal fünf beträgt und
Sie dies geplant haben In diesem Zeitraum werden
es fünf werden. Also das wird inaktiv, also wird es wie, du weißt schon,
etwas, mit dem man nicht
zufrieden sein kann, weil man zu diesem
Zeitpunkt schon das Maximum erreicht hat. Aber wenn Sie
maximal zehn Instanzen konfiguriert haben maximal zehn Instanzen und diese sagt hier
fünf, und diese sagt zehn, es
standardmäßig zehn, weil das das
Maximum ist, das es ist. Aber hier sagst du nur fünf. Ich werde mir die Auslastung
dieser fünf Systeme ansehen und sie dann
im Grunde auf zehn erhöhen.
Es ist sinnvoll, sowohl
eine dynamische Politik als
auch eine geplante
Aktion zu
haben eine dynamische Politik als , die besagt, dass ich in den Tagen maximal fünf haben möchte. Und dann
wird
diese dynamische Richtlinie im Grunde Ihre CPU-Auslastung weiter verfolgen Wenn es über diesen Punkt hinausgeht, werden
neue oder immer noch zehn Instanzen gestartet Das macht also Sinn, wenn Sie zehn Instanzen haben und hier fünf konfigurieren werden. Das macht also auch Sinn. Es geht also um das Verhältnis oder darum,
wie die Auslastung sein wird, Sie Ihre Situation sehen und wie viel Geld Sie
bereit sind auszugeben, Ihre Kunden bereit sind, auszugeben. All diese Dinge hängen von
Ihrer Auto-Skilling-Gruppe ab. Alles klar. Nochmals vielen Dank, dass Sie sich dieses Video angesehen haben. Ich hoffe, dass Ihnen das hilft, Auto Scaling
zu verstehen. Bitte hinterlassen Sie Ihre Bewertung. Ihre Bewertung bedeutet mir
alles. Ich versuche nur, Tag und
Nacht hart daran zu
arbeiten , Ihnen einen
praxisorientierten Ansatz zu vermitteln und
Ihnen das Echtzeit-Szenario zu erklären Ihnen das Echtzeit-Szenario wir tatsächlich
auch in unserem Unternehmen anwenden.
Nochmals vielen Dank. Ich werde dich auf einem anderen Video sehen.
73. Praxisorientierte Arten von EC2-Instanzen: Hallo Leute, willkommen zurück
zum nächsten Video in diesem Video Wir werden hier über einen
der Hands-Ons sprechen Hier geht es um die verschiedenen
EC-Instanztypen. Wir werden einige der
Easy Two-Instanztypen verstehen und vergleichen. Öffnen Sie unsere AWS-Konsole und
öffnen Sie die EC Two-Instance. Jetzt sollten Sie die
EC Two-Instance hier finden. Klicken Sie hier einfach auf den Instanztyp und Sie
sollten zu dieser Seite gelangen. Wenn Sie nun
eine dieser Instanzen auswählen, erhalten
Sie einige
Details zu dieser Instanz. Zum Beispiel werden
Ihnen der
Familienname und die Größe mitgeteilt. Es wird Ihnen nicht sagen, ob
es sich um einen allgemeinen Typ oder
einen rechneroptimierten Typ oder
etwas Ähnliches handelt. Sie müssen es nur
selbst anhand des Familiennamens herausfinden . Was Sie in den
Details hier finden können, ist, dass Sie den Typ der
Instanzfamilie
und dann sehen können, welcher Hypervisor für die Erstellung
dieser Instanz verwendet
wird Sie können sich auch ein von SM unterstütztes
Root-Gerät wie EBS ansehen Elastic Block Storage wird das Root-Dateisystem
sein Das Kernbetriebssystem
wird auf EBS installiert. Unabhängig davon, ob es sich um einen dedizierten Host oder um Unterstützung für den
On-Demand-Ruhezustand , finden Sie hier
einige Details Dann sehen Sie hier einige Details
zu Ihrem Computer. Sie können die Architektur sehen. Sie können hier auch die
Speichergröße sehen, wie viele virtuelle CPs
dieser bestimmten virtuellen Maschine zugewiesen
würden dieser bestimmten virtuellen Maschine Sie können das
Netzwerk auch hier sehen. Dies könnte
Teil jeder verfügbaren T-Zone sein, und Sie können sehen, dass die
Netzwerkleistung sehr gering ist. Bei diesem speziellen Computer
handelt es sich um einen
D-One-Mikrocomputer . Aus diesem Grund
ist alles nur schwach konfiguriert. Hier in den
Speicherinformationen können
Sie sehen, dass
Elastic Block Storage hier angegeben
ist
und dass es unterstützt wird, und dass die Verschlüsselung auf Elastic
Block Storage unterstützt wird. Und was die GPU angeht, ist derzeit keine GPU aktiviert
. Und Sie können auch die
Preise sehen. Hier liegt der
Preis für Linux auf Anfrage bei 0,02 USD pro Stück. Nehmen wir an, die Preise sind gleich, RSSal-Preise sind etwas hoch
und Sie können sehen, dass der
Windows-Preis auch
fast dem
Linux-Preis entspricht Gehen wir also einfach
zur letzten Seite. Ich meine, lass uns
zur letzten gehen und dann die
letzte hier vergleichen. Also, jetzt bin ich gerade auf der
letzten Seite. Also diese spezielle Maschine kostet
13$ pro Stunde. Also lass uns sehen Oh, es gibt auch 26$ pro
Stunde. Okay, lass uns sehen, warum es hier 26$ pro Stunde
kostet Lassen Sie uns also zuerst zu
den Details hier gehen. Das ist X Two IEDN Metal. Das ist der
Familienname hier drüben. Lass uns über die Rechenleistung sprechen. Es hat also 64 Kerne, was 182 virtuelle
CPUs bedeutet und das sind 182 CPUs, also zwei Threads pro Kern Sie können sehen, dass es
ungefähr 4.009 hat, ich meine 4.096. GB Speicher. Es sind ungefähr 4 Terabyte
Speicher, die Sie hier haben Lassen Sie uns über Netzwerke sprechen Es sind 100 Gigabyte Netzwerk, was wirklich
schnell bedeutet, und Sie haben eine IP-Adresse pro Schnittstelle,
50 IP-Adressen pro Schnittstelle, und die IP-Adressversion
sechs ist Lassen Sie uns hier über
Speicher sprechen. EBS wird unterstützt. Es verfügt
bereits über 3.800
Gigabyte Speicher und enthält SSD
als Teil des Speichers bereits über 3.800
Gigabyte Speicher und enthält SSD
als Teil Sie können sehen,
dass für diesen 3.800 Speicher zwei Festplatten
aufgeteilt sind für diesen 3.800 Speicher zwei Festplatten
aufgeteilt Es gibt keinen Beschleuniger. Hier gibt es keine GPU und der Preis beträgt 26$ für zwei, und dann haben Sie Option vier, also verkaufen Sie NX und die
normalen Linux-Varianten ist es also teuer,
32$ pro Stunde für Windows und RHEL Ebenso ist dies eine
der wirklich hochwertigen,
Sie wissen schon, Versionsmaschinen Aber ich schätze, es gibt auch eine Maschine
mit noch höherem Wert
, auf der diese GPU steckt. Also suche ich nur nach
etwas mit einer GPU. Lassen Sie uns über einige
GPU-orientierte Missionen sprechen. GPU entspricht 16. Okay, also dieser G6E, 24 groß. Also, das
hat definitiv eine GPU hier drüben. Ich habe darauf geklickt, also habe ich in
diesen
speziellen Computer kommuniziert Wenn Sie jetzt einfach zum Beschleuniger
gehen, können
Sie sehen, dass er über NVDSGPU verfügt was etwa 176 GB Arbeitsspeicher GPU-Speicher) für Und Sie können sehen, dass es fast dasselbe
ist
wie das vorherige Es hat ungefähr 768
Speicher auf dem System. Und Sie können sehen, dass
das 15$ pro Stunde kostet. Aber ich denke, Sie haben auch Optionen
für eine GPU, die 16 entspricht. GPUs entsprechen 16. Ja. Also, ich glaube, das wird
sehr teuer, und das sind ungefähr 15. Ja, der
Fensterpreis beträgt hier etwa 17$. Aber die Sache ist, dass es hier 16 GPs
hat, ungefähr 12 GB RAM
Ihres GPU-Speichers Ebenso. Sie haben verschiedene
Konfigurationen für
den hier also
verschiedene
Konfigurationen für
den Instanztyp. Wenn Sie also
mehr über den Instanztyp erfahren möchten, ist es
am besten,
hierher zu kommen und sich darüber zu informieren. Sie können es auch nach
Ihren Anforderungen sortieren. Wenn also mein Speicherplatz erforderlich ist
, kann
ich hier Speicher eingeben. Dann
kann ich , ob und nach welcher Größe ich in
Bezug auf den Speicherplatz suche. Ich möchte 60 GB Speicherplatz. Jetzt haben Sie auch Mon Small, das 160 GB
Speicherplatz
in HHD hat und das
etwa 0,075 pro R kostet . Oder
Sie haben MT Two X Large, das SSD statt
HDD hat und das
ungefähr 1$ pro Stunde kostet Andererseits werden die Preise
für den Sparplan und die Reserved Instance
deutlich niedriger sein, da Sie tatsächlich für die
jährliche Preisspanne zahlen
werden tatsächlich für die
jährliche Preisspanne zahlen
werden Das bedeutet, dass Sie
einen gewissen Rabatt erhalten, oder noch einmal vielen Dank, dass Sie
sich SweDee angesehen haben. Ich sehe dich
74. Praxisorientierte Techniken von LB in AWS: Hey Leute, willkommen zurück
zum nächsten Video. In diesem Video werden wir
über Low Balancer sprechen. Nun, um
Low-Balancer und Hands-On zu verstehen, können
Sie EC 2 öffnen, und wenn Sie EC 2 öffnen, werden
Sie die
Low-Balancer
hier auf EC Two haben , so wie hier Dann können Sie auf
Create Low Balancer klicken. Jetzt haben Sie hier drei
Optionen. Tatsächlich gibt es hier
vier Möglichkeiten, einen
Low-Balancer zu erstellen Jetzt
ist ein klassischer Low-Balancer , der in der
vorherigen Generation vorhanden war , der in der
vorherigen Generation vorhanden war, gewissermaßen abgeschrieben und
er wird Und der klassische Roadbalancer
wird hier durch drei andere
Loadbalancer-Typen ersetzt Loadbalancer-Typen Der erste
ist also ein Application Load Balancer,
und dann haben Sie Network Load Balancer und Gateway
Load Balancer Load Balancer Was ist ein Application
Load Balancer? Lassen Sie uns einfach
detaillierter auf jeden von ihnen eingehen und
sie dann einfach miteinander vergleichen Erstens wird der Application
Load Balancer
hauptsächlich für Ihre
Webanwendungen verwendet Das ist der Name des Application Load Balancers, der ins Bild kam Es wird also für
Webanwendungen,
Microservices oder alles verwendet , Anwendungsframework verwendet In Bezug auf den Network
Group Balancer wird
er für Anwendungen mit niedriger Latenz und
hohem Durchsatz verwendet,
bei denen Sie eine
sehr gute Reaktion
Ihrer Anwendungen benötigen Ihrer Da würden wir das also verwenden. Der Gateway Load Balancer
hingegen wird für Sicherheitsgeräte,
Verkehrsinspektoren und jede
Art von Anwendung verwendet , die
eine
Drittanbieteranwendung verwendet und die
Last zwischen
ihnen ausgleichen möchte die
Last zwischen
ihnen ausgleichen möchte Also im Fall von IO oder
ähnlichem. Das ist im Grunde ein
Gateway Load Balancer. Wir werden also ein Beispiel
oder eine Demo eines der Load
Balancer machen und Ihnen nur zeigen wie
Sie
diese Load Balancer-Konfiguration erstellen diese Load Balancer-Konfiguration und wie Sie sie Vorzugsweise führen wir im nächsten Video
einen Lastenausgleich für Anwendungen durch und richten eine Anwendung
darauf Aber hier in diesem Video werden
wir versuchen, die Unterschiede zwischen ihnen zu verstehen. Erstens ist
der Application Load Balancer ein Layer-7-Load-Balancer
für Anwendungen, und der Network
Load Balancer ist Schicht vier und der
Gateway-Load Balancer Jede Ebene trägt also zu kleinen Unterschieden zwischen ihnen bei. Ein Layer-7-Load-Balancer wird hauptsächlich für pfadbasiertes
und hostbasiertes Routing verwendet So
sieht beispielsweise ein
herkömmlicher Load Balancer aus wie ein Network
Load Balancer , bei
dem es sich um einen Layer-Roadbalancer handelt Eine Ebene für den Load
Balancer würde also funktionieren, wenn eine Anfrage
an den Road Balancer kommt,
sodass der Load Balancer die Anfrage direkt an etwas weiterleitet,
das sich
dahinter
befindet weiterleitet ,
das sich Sie werden also normalerweise
sagen, dass es sich dabei um Dienste handelt, die über den Load Balancer
hinausgehen Und alles, was der
Roadbalancer tun wird ist ein Flaschenhals Ich werde einen Engpass
für die eingehende
Anfrage erstellen und die Anfrage dann an verschiedene
Anwendungen weiterleiten Okay. Also im Grunde ist das , was Sie in dieser Architektur sehen,
das, was passieren wird. Die Anfrage kommt also
rein und
durchläuft dann den Network Load
Balancer, und dann können Sie
direkt die darunter liegenden Elemente konfigurieren Es gibt eine Möglichkeit
, die beiden
EC-Computer
direkt darunter zu konfigurieren , oder Sie können einen anderen ALB
oder Application Load Balancer oder Application Load Und von dort aus kann es
eine Verbindung zu mehreren Elementen herstellen. Also so oder so, du kannst es tun. Denken Sie jedoch daran
, dass der Load Balancer ein sehr einfacher Load
Balancer
ist , bei dem er
im Grunde erkennt, wenn eine
Anfrage
eingeht, die Last
ausgleicht und an jeden sendet , dem er Bericht
erstattet Es klassifiziert
die Anfrage nicht. Klassifizierung der Anfrage
erfolgt jetzt über den
Lastenausgleich der Anwendung Anwendungslastenausgleich gleicht
nicht nur die Last aus, sondern klassifiziert sie auch Wie ich Ihnen bereits sagte, was das Routing
angeht,
führt
der Network Load Balancer hier ein IP-basiertes Routing durch, sehr einfach und unkompliziert ist Okay? Beim Anwendungslastenausgleich wird ein pfad
- und hostbasiertes Routing durchgeführt. Was ist nun ein Pfad, der auf der
Hostbasis basiert? Die URL, die der Kunde an diesen Load
Balancer sendet Er analysiert die URL und es gibt
zwei Optionen dafür Pfadbasiert oder hostbasiert. Pfadbasis bedeutet,
dass der URL-Pfad geprüft wird Basierend auf dem Pfad können
Sie
den Application
Load Balancer tatsächlich so konfigurieren, können
Sie
den Application
Load Balancer tatsächlich so konfigurieren dass er auf
ein benutzerdefiniertes Verzeichnis verweist Auf diese Weise wäre dieses
benutzerdefinierte Verzeichnis also das Verzeichnis oder
die
benutzerdefinierte Anwendung aufgerufen wird, wenn
man sich die URL ansieht Ein Großteil der Sortierung erfolgt also auf der Ebene des
Anwendungslastenausgleichs und
nicht auf der Ebene des
Netzwerklastenausgleichs Network Load Balancer
sendet
die Anfrage direkt , ohne sich die URL
ansehen zu Application
Load Balancer schaut sich jedoch die URL an,
sieht, welchen Pfad er anfordert,
und nimmt dann einen Anruf entgegen Balancer findet also eine
Urteilsfindung Hier beim
Application Load Balancer findet also eine
Urteilsfindung
statt,
die auf
dem Network Load Balancer nicht stattfindet Das ist also der
größte Unterschied zwischen dem
Application Load Balancer
und dem Network Load Balancer und dem Network Application Balancer leitet also nicht
nur die Anfrage weiter, sondern analysiert auch die URL und entscheidet dann grundsätzlich Grundlage des Pfads auf der Grundlage des
hostbasierten Routings,
wobei in Bezug auf das
Netzwerk lo Banste grundsätzlich ein
IP-Routing durchführt, IP-basiertes Routing In Bezug auf das Gateway
in dieser Hinsicht,
der Gateway Balancer, ähm,
Sie wissen schon, transparentes
Routing durch Appliances, er führt ein transparentes Routing
durch die Appliance durch und er versteht
im Grunde
die Firewalls und die
Drittanbieteranwendungen darüber hinaus. Und im Grunde übernimmt er
das
Host-Routing Ihres, äh,
Sie wissen schon, URS-eingehenden Anwendungsdatenverkehrs Andererseits
verarbeitet
der ALB oder Application
Balancer HTTP- und HTTPS-Web-Sockets Network Load Balancer
verarbeitet TCP-, UDP TLS-Routings und der
Gateway Load Balancer verarbeitet Dies ist der Hauptunterschied
zwischen all diesen. Wie ich Ihnen bereits sagte, wenn Sie Mikrodienste,
Container,
Anwendungen und Webdienste
verwenden , werden
alle möglichen Dinge von ALB unterstützt Wenn Sie jedoch nach
etwas suchen, das extrem niedrige Latenz bietet und eine
große Netzwerklast bewältigen kann, dann können Sie sich für den
Netzwerklastenausgleich entscheiden, auch für Ihre Microservices
und Container Denken Sie jedoch daran, dass dieser
Network Load Balancer ein sehr
einfaches Routing verwenden
wird Das ist der Grund, warum er eine extrem niedrige Latenz hat,
weil er keinen entscheidenden Faktor oder die
Loadbalancer-Stufe
hat, ob
das Problem gelöst wird oder nicht entscheidenden Faktor oder die
Loadbalancer-Stufe
hat, ob
das Problem gelöst wird oder Sie haben auch die Möglichkeit , den Network
Load Balancer darunter konfigurieren.
Sie können
auch einen ALB konfigurieren, um detailliertere Informationen zu
erhalten werden wir zu einem
späteren Zeitpunkt sprechen, aber dies sind die
Optionen, die bei Erstellung
eines Load Balancers
verfügbar Im nächsten Video werden
wir uns ausführlich mit dem Load Balancer befassen Nochmals vielen Dank. Wir
sehen uns im nächsten Video.