Transkripte
1. Willkommen: Willkommen zu meinem Kurs letzte Woche. Solch eins zu eins, ein
Leitfaden für Anfänger zu Elastic Stack. Dies ist ein praktischer
Kurs mit Schwerpunkt auf Bereitstellung und Verwaltung
von Elastic Stack. Mein Name ist Ricardo und ich bin
Senior Solutions Architect, über 15 Jahre
Erfahrung in der IT. Und ich arbeite derzeit in einem multinationalen
Unternehmen, das ich Elastic Stack
in einer Produktionsumgebung
entworfen und eingesetzt habe. Ich habe mehr als
3400 Kinder auf Udemy unterrichtet und habe in allen meinen Kursen eine durchschnittliche Bewertung von
4,4. Dies ist ein praktischer Kurs, der sich auf
praktisches Lernen konzentriert. In diesem Kurs stellen Sie Elastic Stack bereit und fügen dann
einige Daten zu Ihrem Cluster hinzu. Zwei verschiedene Methoden wie Log Stretch- und
Kibana-Integrationen. Und Sie werden
diese Daten auch transformieren , um
etwas Bedeutung daraus zu extrahieren. Schließlich
stellen Sie den Elastic Agent bereit, der einfach
Matrix- und
Protokollierungsdaten von Ihren
Anwendungsservern extrahiert und diese
Daten in Elasticsearch
speichert und analysiert. Also bitte begleite mich auf dieser
Reise, um Elastic Stack zu lernen.
2. Einführung in die elasticsearch 101: Hey Leute, willkommen zu meinen
Anfängerpunkten auf Elastic Stack. Ich freue mich, dass Sie mir die Möglichkeit
gegeben haben, Sie auf dem
Weg zu einem elastischen
Suchprofi zu
führen . Dieser Kurs verfolgt
einen praktischen Lernansatz
und konzentriert
sich auf
DevOps-Experten Lernansatz
und konzentriert
sich auf , die für die Bereitstellung und Verwaltung von
Elasticsearch-Clustern verantwortlich sind. Es unterstützt Mitarbeiter, die für die Unterstützung von
Elastic Stack-Bereitstellungen
verantwortlich sind. Und es könnte
Softwareentwicklern zugute kommen, wenn sie verstehen müssen , wie Elasticsearch-Cluster diploid sind.
Bitte beachten Sie, dass dies ein Anfänger
ist, also vermeide ich Deep Diving in eines der Themen
in diesem Kurs. Wir beginnen mit einigen Grundlagen, z. B. mit den
verschiedenen Datentypen, denen Sie in einer
Unternehmensumgebung begegnen werden. Und dann werden wir uns den Unterschied zwischen
den relationalen und
nicht-relationalen Datenbanken ansehen ,
bevor wir ein
Verständnis von JSON- und Rest-APIs haben, nachdem Sie über
das erforderliche Wissen was wichtig ist, wenn Sie an Elastic Search arbeiten möchten
, schauen
wir uns
Elastic Search und Elastic Stack aus
der Vogelperspektive an, und dann ist es Zeit, sich die Hände
schmutzig zu machen. Zuerst richten wir unsere
Laborumgebung ein und schauen uns
dann an, wie Sie eine
elastische Suche auf
verschiedene Arten bereitstellen können . Und wir werden dies
verfolgen, indem wir einige Daten über
Kibana-Integrationen
in unseren Cluster hinzufügen. Dann helfe ich Ihnen bei der Erstellung Ihrer ersten Kibana-Visualisierung. Und dann werden wir ein paar Dashboards
einrichten. Danach helfe ich
Ihnen,
Ihre Dashboards
mithilfe von Kibana-Spaces in
verschiedene Kategorien
wie Marketing,
Betrieb usw. zu organisieren Ihre Dashboards
mithilfe von Kibana-Spaces in verschiedene Kategorien
wie Marketing, . Als Nächstes gebe ich
Ihnen einen Überblick über die Benutzerverwaltung
in Elastic Search. Und wir werden uns Elastic Search,
integrierte Benutzer, integrierte Rollen
ansehen integrierte Benutzer, integrierte Rollen und wie Sie Benutzer
und Rollen verwenden können, die
rollenbasierte Zugriffssteuerungen
für Ihren Elasticsearch Cluster erstellen rollenbasierte Zugriffssteuerungen . Als Nächstes schauen wir uns Log Stash an, das ein wesentlicher
Bestandteil von Elastic Stack ist, wenn Sie Ihre Daten transformieren
möchten. Und dann werden wir einige CSV-Daten mit Hilfe von
Log Slash-Pipelines aufnehmen. Im nächsten Abschnitt helfe
ich Ihnen, Beats-Agenten und
verschiedene Anwendungsfälle zu
verstehen , die Sie mit verschiedenen Beats
lösen können . Es besagt, dass Sie Metrik-Btu
verwenden müssen,
um Metrikdaten in
Ihren Elasticsearch-Cluster einzugeben. Und Sie müssen
5-Bit verwenden, um
dateibasierte Protokolldaten in
Ihren Elasticsearch-Cluster einzutragen. Danach werden wir
einen
Multimode-Elasticsearch-Cluster bereitstellen . Und ich gebe
Ihnen einen Überblick über
verschiedene Knoten in der Elastic Search-Umgebung. Im letzten Abschnitt werden
wir uns ansehen, was sich
in Elasticsearch Version acht geändert hat in Elasticsearch Version acht und stellen dann einen
Cluster der Version acht auf einem einzigen Knoten bereit. Schließlich wird der Elastic Agent
installiert, der ein einziger Agent ist
, der
benötigt wird, um eine neue Art
von Protokollen von Ihren
Anwendungsservern an die elastische Suche zu senden . Also lasst uns anfangen.
3. Übersicht der Daten: Hey Leute, wenn du an Elastic Search
arbeitest
, ergib überwiegend
wir an Daten. Daher ist es wichtig,
ein Verständnis für verschiedene
Arten von Daten zu haben . Sprechen wir zunächst
über strukturierte Daten. Strukturierte Daten sind
hochorganisiert und
richtig formatiert. Dies ist die Art von Daten , die
in einer Tabellenkalkulation gespeichert werden können. Relationale Datenbank wie SQL. Ein Beispiel für strukturierte Daten
sind Verkaufszahlen pro Quartal für Unternehmens- oder Mitarbeiterinformationen
wie Mitarbeiter-ID, Mitarbeitername und Gehalt. Diese Art von Daten ist einfacher
zu speichern und zu suchen, da
sie, wie der Name schon sagt, eine Struktur aufweisen. Lassen Sie uns als Nächstes einen Blick
auf unstrukturierte Daten werfen. Unstrukturierte Daten sind
schwieriger zu suchen. Es sind Daten, die nicht
organisiert oder formatiert sind. Ein Beispiel für diese Art
von Daten sind Textdateien, Video- oder Audiodateien, Social-Media-Likes und Kommentare. Diese Daten machen fast 80% des
Datenordners in der realen Welt aus. Und wie der Name schon sagt, ist
es unstrukturiert. Es ist also komplexer, diese Art von
Daten zu speichern und zu suchen. Lassen Sie uns nun als nächstes einen Blick
auf halbstrukturierte Daten werfen. Semi-strukturierte Daten sind eine
Mischung aus strukturierten und
unstrukturierten Daten. Es sind Daten, die nicht in einer
relationalen Datenbank
organisiert werden können , aber immer noch eine lockere
Struktur aufweisen. Zum Beispiel Daten, die um ein Thema herum organisiert
werden können. Und ein gutes Beispiel für diese
Art von Daten sind E-Mail-Daten. Da E-Mails durch Felder
wie Betreff,
Nachricht, Text usw.
organisiert werden können . Als Nächstes handelt es sich bei numerischen Daten im Wesentlichen um Daten, die in
Zahlen und nicht in Texten ausgedrückt ,
z. B. Alter usw. Eine andere Art von Daten
, auf die Sie
stoßen könnten , sind Geodaten. Geodaten sind die Daten
, die sich auf ein
Objekt auf der Erde beziehen. Es enthält Dinge
wie Position, die Längen- und Breitengrad,
Größe und Form eines Objekts ist . Damit sind wir am Ende dieser Vorlesung gekommen, einen Überblick über
verschiedene Arten von Daten, die Sie vor Ort
sehen werden wenn Sie an einem
Datenverarbeitungstransformation
oder Analysetool arbeiten . Ich hoffe es hat dir gefallen und
wir sehen uns im nächsten.
4. Die: Hey Leute, es gibt verschiedene Arten von Datenbanken
, auf die Sie
stoßen werden , die jeweils
ihre eigenen einzigartigen Vorteile bieten. Diese können hauptsächlich in Sequel-,
relationale Datenbanken und
NoSQL- oder nicht-relationale
Datenbanken
kategorisiert relationale Datenbanken und
NoSQL- werden. Lassen Sie uns zunächst einen Blick
auf eine relationale Datenbank werfen. relationale Datenbank ist eine Art von Datenbank, die
Daten in Tabellen speichert. In einer relationalen Datenbank ist
jede Zeile in der Tabelle ein Datensatz mit einer eindeutigen
ID, die als Schlüssel bezeichnet wird. Die Spalten der Tabelle
enthalten Attribute der Daten und jeder Datensatz hat normalerweise
einen Wert für jedes Attribut, wodurch es einfach ist ,
Beziehungen
zwischen Datenpunkten und damit den Namen relational Datenbankverwaltungssystem oder RDBMS. Diese Art von Datenbank
kann nur mit
strukturierten Daten arbeiten und strukturierte
Programmiersprachen wie SQL können effektiv zum Einfügen,
Suchen, Aktualisieren oder
Löschen von Datenbankdatensätzen
verwendet werden. Einige häufige
Beispiele für RDBMS sind Oracle, MySQL, Microsoft SQL
Server und Postgres SQL. Hier ist ein Beispiel dafür
, wie eine relationale
Datenbank aussieht. Angenommen, Sie haben eine Tabelle
, in der die Quelle Details verwendet. Und sagen wir, diese
Tabelle heißt „Benutzer“. Jetzt enthält die
Tabelle dieses Benutzers Details wie Benutzer-ID, Vorname des Benutzers, Nachname des
Benutzers und sein Alter. Lassen Sie uns nun auch sehen, dass es
eine andere Tabelle gibt , in der
Benutzer Bildungsabschluss gespeichert werden. Und es kann mit
der Benutzertabelle in Verbindung gebracht werden, indem
die Spalte Benutzer-ID verwendet wird. Wie Sie sehen können,
ist
diese Art von Daten strukturiert und in Tabellen
gespeichert
und kann mithilfe von Spalten, der Benutzer-ID-Spalte
in diesem Beispiel,
miteinander verknüpft sein . Sprechen wir nun über
nicht-relationale Datenbanken. nicht-relationale Datenbank
ist eine Datenbank, die halbstrukturierten
oder unstrukturierten Daten
arbeitet. Es wird auch
NoSQL-Datenbank genannt und verfügt über ein dynamisches Schema für die
unstrukturierte Datenspeicherung. Diese Daten können auf viele Arten
gespeichert werden, was bedeutet, dass sie
dokumentorientiert,
spaltenorientiert, graphbasiert
oder ein Schlüssel-Wert-Speicher sein können . Diese Flexibilität bedeutet
, dass die Datenbank
erstellt werden kann , ohne vorher eine
definierte Struktur zu haben. Wenn Sie dies nun
mit relationalen Datenbanken vergleichen, müssen
Sie die Struktur immer
vordefinieren und diese Struktur
während der gesamten Lebensdauer
der Datenbank
einhalten . Nosql-Datenbanken speichern Daten in Dokumenten, die
aus Schlüssel-Wert-Paaren bestehen. Die Syntax variiert von
Datenbank zu Datenbank und Sie können gleichzeitig
Felder hinzufügen. Die meisten gleichen Datenbanken bieten flexibles Datenmodell mit
der Möglichkeit,
Daten jeder Struktur einfach zu speichern und zu kombinieren ohne das Schema
ändern zu müssen. Und daher eignet es sich für Big Data und Echtzeit-Web-Apps. Elastic Search ist eine Art
NoSQL-Datenbank, die
Daten als JSON-Dokument speichert Daten als JSON-Dokument einen Link aus dem
elastischen Suchblog
angehängt hat. Wenn Sie dies
weiter lesen möchten, schauen wir uns
nun ein
Beispiel für eine NoSQL-Datenbank an. Hier auf dem Bildschirm habe ich eine NoSQL-Datenbank, die
aus zwei Dokumenten besteht. Wie Sie sehen können, unterscheidet sich die Struktur
beider Dokumente. Zum Beispiel
hat Dokument Nummer zwei ein
Schlüssel-Wert-Paar für Bildung, das in
Dokument Nummer eins nicht vorhanden ist. Auch wenn man sich Hobbys anschaut, Es gibt ein zusätzliches Hobby des
Schwimmens für unseren Benutzer. Diese Flexibilität ermöglicht es nun NoSQL-Datenbanken
für Big-Data-Anwendungen zu verwenden. Jetzt gibt es einen weiteren Unterschied zwischen NoSQL- und SQL-Datenbanken
, wie sie skaliert werden. Relationale Datenbanken
skalieren vertikal und NoSQL oder nicht relationale
Datenbanken skalieren horizontal. Das heißt, wenn Sie die Kapazität Ihrer Datenbank erhöhen
müssen ,
besteht
die einzige Möglichkeit, dies in
einem relationalen Datenbankmodell zu tun ,
darin, einen größeren Computer zu haben. Dies bedeutet nun
Ausfallzeiten, um
die Kapazitäts- und
Wartungsaufgabe zu erhöhen ,
um spätere
Ausfallzeiten zu vermeiden , ist die
Vorbereitstellung von Kapazitäten. Die
Kehrseite davon ist jedoch, dass all diese Kapazität
im Wesentlichen verschwendet würde ,
bis sie benötigt wird. Nicht-relationale oder
NoSQL-Datenbanken lösen dieses Problem durch
horizontale Skalierung. Dies bedeutet, dass Sie,
wann immer Sie Kapazität benötigen, mehr Kapazität hinzufügen können,
indem
Sie Ihrem Cluster einfach weitere
Computer hinzufügen. Auf diese Weise
müssen Sie
keine Kapazität vorab bereitstellen und benötigen auch
keine Ausfallzeiten. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen, und wir sehen uns im nächsten. Tschüss.
5. Übersicht von JSON: Hey Leute, Elasticsearch speichert
Daten als JSON-Dokumente. Es wäre also eine gute Idee,
sich einen Überblick über JSON zu verschaffen. Json oder JavaScript
Object Notation ist ein textbasiertes
Datenaustauschformat. Und das Schlüsselwort hier
ist Datenaustausch. Da JSON hauptsächlich zum Teilen von Daten
verwendet wird, baut
JSON auf zwei Strukturen auf. Erstens ein Objekt, bei dem es sich eine ungeordnete Auflistung von Namenwert oder einem Schlüssel-Wert-Paar handelt. Zweitens eine geordnete
Werteliste, auch Array genannt. Werfen wir nun einen Blick auf
ein Beispiel für JSON-Daten. Hier haben wir ein JSON-Objekt. Ein Objekt
ist, wie ich bereits sagte, ein ungeordneter Satz von
Namenswert- oder Schlüssel-Wert-Paaren. Es beginnt mit einer geschweiften Klammer
links und endet mit der
rechten geschweiften Klammer, jedem Namen oder Schlüssel, und ihr Wert ist durch
ein Doppelpunkt- und Name-Wert-Paare getrennt . Zum Beispiel ist der Name John und das
Alter 29 durch ein Komma getrennt. Unser Beispiel enthält auch
ein Array, bei dem Kontakt-Arrays mit
einer linken eckigen Klammer beginnen und mit einer rechten eckigen Klammer
enden. Jetzt können JSON-Objekte sieben verschiedene
Wertetypen
haben. Eine Zeichenfolge ist eine Folge von 0 oder mehr Zeichen, die in doppelte Anführungszeichen
eingeschlossen sind. Zum Beispiel Mein Name ist John, hier ist eine Zeichenfolge, eine Zahl, zum Beispiel 1234 oder JSON-Schlüssel kann auch ein anderes
JSON-Objekt als Wert
haben. Es kann auch ein Array sein, und es kann auch boolean sein, was wahr oder falsch ist. Und schließlich kann der angrenzende
Wert auch null sein. Wenn Sie mehr über JSON
erfahren möchten, habe
ich einige Links
in die Beschreibung
dieser Vorlesung aufgenommen , damit Sie ein tieferes Verständnis
erlangen können. Da es bei Elastic Search in erster Linie
mit JSON-Dokumenten arbeiten
wird mit JSON-Dokumenten , um das
Ende
dieser Vorlesung zu begleiten. Danke fürs
Zuschauen. Wir sehen uns im nächsten. Tschüss.
6. Übersicht der Rest-API: Hey Leute, in diesem Vortrag, Werfen wir einen
Blick auf RESTful APIs
, eine beliebte Methode zur Kommunikation zwischen
Computeranwendungen. Api ist ein Akronym für Application Programming
Interface Editor ist nichts anderes als eine Reihe von Definitionen
und Protokollen zum Erstellen und Integrieren von
Anwendungssoftware. Beispielsweise
möchten Sie möglicherweise eine API verwenden,
in der ein Benutzer
einen Studentenausweis angeben kann, und Ihre API antwortet mit Prüfungsbegründen
dieses Schülers,
der von der Verwendung von APIs profitiert , dass
Ihre Anwendung besteht Software
muss nicht wissen, wie die
Clientanwendungssoftware implementiert ist. Rest ist ein Akronym für
repräsentative Staatstransfer. Das bedeutet,
dass es
eine Darstellung des
Zustands der Ressource überträgt . Und diese Darstellung
ist nichts ein
Datenelement, das von Ihrer
Bewerbung angefordert wird. Rest funktioniert mit
Client-Server-Modell. Das bedeutet, dass die Solarressource
diese Daten enthält. Ein Client fordert diese
Datenmenge an, indem er einen CRUD-, Erstellen-, Lesen
-, Aktualisieren- oder Löschvorgang verwendet. Und um diese Anfrage zu stellen, werden einmalige HTTP-Methoden
verwendet. Sobald diese Anforderung vom Client gestellt
wurde, antwortet
der Server mit dem
Datenelement, das er auf einer Darstellung des
Datenbestandes hält , den der Server besitzt. Werfen wir einen Blick auf
einige der STDP-Methoden. Post ermöglicht es Ihnen,
eine neue Ressource am
Serverport zu erstellen ,
ermöglicht es Ihnen, eine vorhandene
Ressource auf dem Server zu aktualisieren, ermöglicht es Ihnen,
eine vorhandene Ressource abzurufen und zu löschen, ermöglicht es Ihnen löscht
eine vorhandene Ressource. Dies sind einige der
Beispiele für die Methoden
, die Sie
mit Rest-APIs implementieren können. Eine andere Sache zu beachten ist, dass Rest-API-Anfragen zustandslos sind. Das bedeutet, dass alle
Clientanfragen
als neue Anfragen behandelt werden und kein Sitzungsverlauf auf dem Server
gespeichert wird. Bevor wir weitermachen, schauen wir uns ein
Beispiel hier auf dem Bildschirm an. Ich habe ein Beispiel für
einen API-Aufruf, der
verwendet wird, um den Zustand
eines Elasticsearch-Clusters zu überprüfen. Zuerst haben wir die Methode
, die eine von GET,
PUT, Post oder Delete sein könnte . In unserem Fall
verwenden wir GET und testen den Server, auf dem wir einige Informationen
abrufen möchten. Danach haben wir den Endpunkt auf
dem Server
angegeben , den wir eine Anfrage zum Hinzufügen
senden möchten. Es ist http localhost
auf Port 9000. Dies ist wichtig, da wir möglicherweise
mehrere Server und unsere Umgebung haben und jeder Server möglicherweise
mehrere Dienste ausführt. Beispielsweise kann derselbe Server auch einen
Webserver auf Port 80 ausführen, aber wir möchten eine Verbindung zu
einem Dienst herstellen, der auf Port 9200 auf dem lokalen Host
ausgeführt wird . Nachdem wir den Endpunkt angegeben haben, müssen
wir
die Ressource auf diesem
Endpunkt angeben , mit der wir
eine Verbindung herstellen möchten, in unserem Beispiel für den
Ressourcenclusterzustand. Jetzt
können in unserem Fall auf jedem Endpunkt
mehrere Ressourcen ausgeführt werden in unserem Fall auf jedem Endpunkt
mehrere Ressourcen , da wir
den Zustand des Clusters ermitteln wollten. Wir verwenden
Cluster-Integritätsendpunkte , um eine Verbindung herzustellen und den Status zu
erhalten. Und schließlich können wir einen Parameter
angeben. In diesem Beispiel möchten
wir beispielsweise, dass der Server
mit den Informationen in
einem für Menschen lesbaren
Format antwortet oder
es für uns überarbeitet, nachdem wir diese Anfrage
eingereicht haben Der Server antwortet dann
mit einem antwort. In diesem Beispiel hat der
Sommer
mit dem Zustand des
Clusters im JSON-Format reagiert . Sie können diese Antwort auch
in mehreren anderen Formaten erhalten, z. B. in HTML, XML oder einfachen Texten usw. Jetzt stehen Ihnen mehrere
Tools zur Verfügung, Sie sich bei API-Aufrufen die Hände
schmutzig machen können. Sie können spezielle Tools wie Postboten, Swagger usw. verwenden
oder Sie können den Befehl Flugzeug oder Curl von Ihrem
Linux- oder Mac-Terminal verwenden. Und schließlich können Sie
auch eine API erstellen, die
programmgesteuert aus
Ihrem Code aufgerufen wird programmgesteuert aus
Ihrem , basierend auf einer gewissen Logik. Bevor wir weitermachen, machen
wir etwas Praktisches. Ich habe das
Terminalfenster meines macOS. Und von hier aus werden wir versuchen, eine öffentliche API für Witze
aufzurufen. Zuerst muss ich lockig tippen. Danach musste
ich die Endpunkte haben. Also HTTPS, wir machen Punkt-Witz-API, Punkttiefe und dann muss ich die Ressource
auf dem Endpunkt
bereitstellen. Also tippe ich einen Schrägstrich ein, scherzt irgendeinen Schrägstrich und drücke Enter. Wie Sie sehen können, hat der
Scherzserver mit einem Witz geantwortet. Jetzt können Sie
diese API verwenden, um
einen Scherzbereich auf Ihrer
Website zu erstellen , wenn Sie möchten. Oder Sie können einfach
diese Witze lesen oder Ihre
Firma liegt bei Ihnen. Bevor wir weitermachen, wollte
ich Ihnen zeigen, wie Sie genau
dasselbe mit
einem Tool namens Postman machen. Jetzt habe ich das Interview diesem Tool, um
eine API-Anfrage zu erstellen, ich klicke auf Plus. Dies öffnet hier
das API-Formular, ich kann wählen, welche
Methode ich brauche. In diesem Fall muss ich bekommen, dann muss ich
die Endpunkte angeben. Also HTTPS, wir machen Dot
Witz API Dot Dev. Und dann muss ich
die Ressource eintippen , die Witz Slash
ist. Und um das auszuführen, muss ich
nur auf Senden klicken. Und du siehst, dass
ich wieder eine Antwort
vom Server bekommen habe. Dies ist ein sehr
einfaches Beispiel, aber da es sich nicht um
einen STI-API-Kurs handelt, überlasse
ich es
Ihnen, sich
mit diesem Thema besser zu informieren,
wenn Sie es nicht bereits wissen. Ich habe einige Ressourcen
in die Beschreibung
dieser Vorlesung hinzugefügt , damit Sie dies als
Ausgangspunkt für
Ihre weiteren Studien nutzen können . Nun, bevor wir weitermachen, wie
man eine letzte Sache abdeckt, nämlich diese Statuscodes. Wenn Sie jetzt hier sehen, sehen
Sie Status 200, okay, und wenn Sie den Mauszeiger darüber bewegen, erhalten
Sie eine kleine
Erklärung der Statuswerte. Jedes Mal, wenn Sie
eine Anfrage an den Server stellen, wird ein Code an den Client
zurückgegeben
, der Ihnen den
Status der Anforderung angibt. Jetzt hier auf dem Bildschirm habe ich verschiedene Antworttypen, die Sie vom Server erwarten können. Eine Antwort, die
danach
mit 22 Ziffern beginnt , bedeutet im Allgemeinen , dass die Anfrage erfolgreich
war. Wie wir zum Beispiel bei Postboten
gesehen haben, haben wir eine 200 OK bekommen,
was bedeutet, dass alles in Ordnung ist. Und es antwortet
mit drei oder vier,
bedeutet, dass
der Client die zwischengespeicherte Version
der angeforderten Ressource verwenden kann . Irgendwas. Für XXX bedeutet vier und dann zwei Ziffern
danach oder fünf,
XX, was fünf und
dann zwei Ziffern danach bedeutet
, dass ein Fehler für XX einen clientseitigen anderen
bedeutet, was bedeutet, dass auf dem Client etwas
nicht stimmt. Phi von x.
X bedeutet, dass es sich um einen
serverseitigen Fehler handelt,
was bedeutet, dass es einige
Probleme mit dem Server gibt. Dies war also eine schnelle
Einführung in restliche API-Aufrufe. Es gibt ein bisschen mehr und ich möchte, dass Sie 100% zuversichtlich
sind, weil Sie es für
Ihre Verwaltung und
Administration von Elastic Search verwenden werden . Bitte gehen Sie
die Links durch, die ich mit der
Beschreibung dieses Videos
angehängt habe . Damit sind wir am Ende dieser Vorlesung gekommen. Wir sehen uns
im nächsten. Tschüss.
7. Einführung in die elasticsearch: Hey Leute, Elastic Search ist eine verteilte Such
- und Analysemaschine, die das Herzstück
von Elastic Stack oder einer verteilten Suchmaschine
ist, bei der
die Indexierung und Abfrageverarbeitung besteht
wird auf mehrere Computer verteilt, anstatt ein einziger Supercomputer, der alles
verarbeitet. Es ist auf Apache Lucene aufgebaut
und wird in Java entwickelt. Es ermöglicht Ihnen, riesige Datenmengen
schnell
und in nahezu
Echtzeit zu speichern, zu suchen und zu analysieren und Antworten in
Millisekundenabfragen
zurückzugeben Antworten in
Millisekundenabfragen
zurückzugeben , die normalerweise zehn Sekunden oder
länger
dauern würden als zehn Millisekunden
in der
elastischen Suche mit derselben Hardware zurück, Elastic Search kann
alle Arten von Daten verarbeiten ,
z. B. strukturierten
Halbkreis usw. Sequenz
gibt Ergebnisse in weniger als
zehn Millisekunden
in der
elastischen Suche
mit derselben Hardware zurück, Elastic Search kann
alle Arten von Daten verarbeiten,
z. B. strukturierten
Halbkreis usw.
von
Anwendungsfällen für Elastic Search. Beispielsweise können Sie einer Anwendung oder Website
ein Suchfeld
hinzufügen, um Anwendung oder Website
ein Ihren Katalog schnell
zu durchsuchen. Sie können auch Protokolle,
Metriken
und Sicherheitsereignisdaten speichern und analysieren . Oder Sie können
Machine Learning verwenden, um das Verhalten
Ihrer Daten in Echtzeit
automatisch zu modellieren . Elastic Search
bietet eine Rest-API zum Verwalten Ihres Clusters, Indizierung und Suche Ihrer Daten zur
Indizierung und Suche Ihrer Daten nach seinen Suchfunktionen Elasticsearch unterstützt
drei Arten von Abfragen. Strukturierte Abfragen
ermöglichen es Ihnen, nach
strukturierten Daten zu suchen und sind
genau wie SQL-Abfragen für Textabfragen, die es
Ihnen ermöglichen, nach Analyse-Textfeldern
wie dem Text einer E-Mail zu suchen
Dinge wie das Auffinden eines bestimmten Wortes in einem
Absatz komplexen Abfragen, Kombination von strukturierten
und Volltextabfragen. Gehen wir nun zu Dokumenten und Indizes in der elastischen Suche über, die kleinste
Dateneinheit wird als Feld bezeichnet. Jedes Feld hat einen
definierten Datentyp und enthält ein bestimmtes
Datenelement. Zum Beispiel, Name John, nein, Dokumente sind die Basisspeichereinheit
in Elastic Search. Oder das Dokument besteht aus
mehreren Feldern in der Welt der relationalen Datenbank oder des Dokuments entspricht einer Zeile in einer Tabelle. Daten in einem Dokument werden als
Feld gespeichert , bei dem es sich um
Name-Wert-Paare handelt, und es gibt einige reservierte
Lebensmittel in unserem Dokument. Jetzt habe
ich hier auf dem Bildschirm ein Beispiel für Daten, die in einem Dokument
gespeichert sind. In diesem Beispiel ist ID der eindeutige Bezeichner
für das Dokument. Typ ist der Typ des Indexes. Dieses Dokument ist
Teil eines Indexes, ist der Name dieses Indexes. Dokument-Scan stellt beispielsweise
einen Enzyklopädie-Artikel oder
Protokolleinträge von einem Webserver dar . In diesem Beispiel verweisen
wir auf etwas, das
als Index bezeichnet wird. Werfen wir einen
Blick darauf, was es ist. Ein Index ist eine Sammlung logisch verwandter Dokumente
mit ähnlichen
Merkmalen. Zum Beispiel können Sie einen Index für Benutzer
haben, Sie können einen Index
für Produkte und einen
für Bestellungen und so
weiter und so weiter haben . Es ist die Entität auf höchster Ebene , die Sie abfragen können. Eine elastische Suche
ähnelt der Datenbank in einer
relationalen Datenbank. In Elastic Search ist eigentlich ein sogenannter invertierter Index. Und der invertierte Index ist ein Mechanismus, mit dem alle
Suchmaschinen arbeiten. Grundsätzlich
besteht dieser Index aus einer
Liste ungerade eindeutiger Wörter, die in jedem Dokument
erscheinen. Und für jedes Wort besteht
es aus einer Liste
aller Dokumente, in
denen dieses Wort erscheint. wir einen Blick auf
die folgenden Sätze, dass jeder Container-Code aus der
TV-Serie Game of Thrones, Winter zu
unserer Systemwut kommt, und die Wahl liegt bei Ihnen. Lassen Sie uns nun unseren
In-Order-Index erstellen. Zuerst schreiben wir die Begriffe in alle drei Dokumente
in einer Spalte, und dann
schreiben wir die Häufigkeit wie sie in
allen drei Zentren erscheint, in der zweiten Spalte. Und dann
wird in der dritten Spalte das Dokument geschrieben in dem dieser Begriff
kurz vor einem Beispiel erscheint, der
Winter erscheint nur einmal in
allen drei Sätzen und
ist keine Dokumentschrift,
während es sich um Winter erscheint nur einmal in allen drei Sätzen und
ist keine Dokumentschrift, die zweite handelt
Begriff in Dokument eins kommt
tatsächlich dreimal und
erscheint in allen drei Dokumenten. Also haben wir 123 hier. Ebenso invertierten Index konstruieren, können
wir
unseren
invertierten Index konstruieren, eine Kombination aus Begriffen und
einer Frequenz wird
als Wörterbuch bezeichnet. Wenn wir stumm zurückgehen und die Häufigkeit als
Wörterbuch bezeichnet wird und die Anzahl der
Dokumente oder ein bestimmter Begriff in
erscheint, wird als Postings bezeichnet. Das wird also
Wörterbuch sein und dies werden Buchungen sein Auf diese Weise. Wenn Sie schnell
nach einem Begriff suchen möchten, werden
wir sagen, Wut Elasticsearch wird sich den
invertierten Index ansehen und diese Wut eine PS1
finden und daher auf dem
Dokument zu
einem Index erscheinen . Begriff ist die kleinste
Sucheinheit in Elastic Search, dies ist der Trick
, den Elasticsearch verwendet, um schnelle Suchen durchzuführen. Ich habe auch einen Link
zu einem elastischen
Suchblog hinzugefügt , der
Ihnen helfen kann, besser zu verstehen wie die Suche
in Elastic Search funktioniert. Damit sind wir am Ende dieser Vorlesung gekommen. Wir sehen uns im nächsten. Tschüss.
8. Elastischer Stapel – Eine eye: Bevor wir mit der Bereitstellung beginnen, möchte
ich Ihnen einen
kurzen Überblick über jedes
dieser elastischen Suchprodukte geben dieser elastischen Suchprodukte , die wir in diesem Labor bereitstellen werden Elasticsearch ist eine
Open-Source-Liste für eine eine solche
Analyse-Engine verteilt, abhängig Apache Lucene Log Stash ist eine
serverseitige
Open-Source-Datenverarbeitungspipeline ,
die Daten aus einer Reihe von Quellen aufnimmt, transformiert und dann
sendet an Elasticsearch. Kibana ist
ein Open-Source-Datenvisualisierungs-Dashboard für Elasticsearch. In einfachen Worten:
Nehmen wir an, Sie haben Anwendungsprotokolldaten von
Anwendungsservern. Falls Sie diese Daten nicht verarbeiten müssen , können
Sie sie direkt an Elastic Search senden ,
um den Index wiederherzustellen. Wenn Sie jedoch
beispielsweise eine benutzerdefinierte Verarbeitung durchführen
müssen , müssen
Sie möglicherweise
eine Kunden-ID hinzufügen, bei der es sich um ein
protokolliertes Ereignis handelt , damit Sie ein bestimmtes Protokollereignis an einen
bestimmten Kunden binden
können . Sie müssen
diese Daten zuerst an Log Stash,
Buddha-Verarbeitung
oder Transformation senden und sie dann an Elastic
Search senden, um sie gespeichert zu werden. Sobald die Daten in Elasticsearch gespeichert und
indiziert sind, können
Sie Kibana verwenden, die
einige Visualisierungen
über ihre Daten erstellt . Sprechen wir nun über
Beat Bead Side, im Wesentlichen wie sehr
speziell entwickelte Agenten die Daten erfasst und sie dann an
Elastic Search-Beats füttern oder ein
beleuchtetes Bit-Framework verprügeln. Und es macht es einfach,
benutzerdefinierte Bits für
jede Art von Daten zu erstellen ,
benutzerdefinierte Bits für
jede Art von Daten Wenn Sie
an Elasticsearch senden möchten, hatte
Beats Standardriffe,
die verfügbar sind, die ich auf dem Bildschirm aufgeführt habe. Wenn einer dieser Beats den Job
nicht erledigt, können
Sie das Lipid-Framework verwenden um Ihre benutzerdefinierte Geschwindigkeit zu erstellen. Sprechen wir also über einige
der Standard-Beats. Erstens gibt es
etwas, das kämpfen würde, wir würden feststellen, dass Beat ein Leichtgewicht ist, billiger für die Weiterleitung und
Zentralisierung von Protokolldaten. Anfangs als Agent auf
dem Zielsommer
kämpfen große Monitore. Die Protokolldateien sind
Orte, die Sie
angegeben haben , sammeln, Ereignisse protokollieren und
entweder an Elasticsearch weiterleiten sind Protokollsuche für
Indizierung oder Deadbeat. Ist diese Wahrscheinlichkeit
günstiger, die Sie auf Ihren Servern installieren
können, um die Aktivitäten von
Benutzern und Prozessen
auf Ihrem System zu überprüfen . Zum Beispiel
können Sie Audit V8,
die linke und zentrale
oder Ereignisse von Linux verwenden , aber ein anderes Metrikgebot ist etwas billiger, als
Sie es auf
Ihren Servern installieren können , um regelmäßig Metriken zu
sammeln Betriebssystem und von Diensten, die
auf der Silbermetrik laufen,
Big X, den Metriken und
Statistiken, die es sammelt und verschiebt die Ausgabe auf eine
elastische Suche nach Log Stash. Heartbeat ist ein leichtgewichtiger Dämon , den Sie auf
einem Remote-Server installieren. Überprüfen Sie regelmäßig den Status Ihrer Dienste und stellen Sie fest
, ob sie verfügbar sind. Der Unterschied zwischen
Liquids und Heartbeat besteht , dass die Metrik
Ihnen nur sagt , ob Ihre Server auf oder ab
sind. Während Heartbeat, wie Sie, ob Ihre
Dienste verfügbar sind. Zum Beispiel heißt es, dass Apache auf
einer Southern Make-Liquid installiert ist, um Ihnen mitzuteilen, ob der
Server auf oder ab ist. Heartbeat wird
Ihnen tatsächlich sagen, ob Ihre Website fertig ist. Packet Beat ist ein
Echtzeit-Paketanalysator , den Sie
mit Elastic Search verwenden können. Stellen Sie ein
Anwendungsüberwachungs- und Performance-Analysesystem
bereit, das übertreffen könnte und eine Sichtbarkeit
der Kommunikation zwischen den
Servern in Ihrem Netzwerk bietet . Im Allgemeinen ist Beat ein leichtgewichtiger
Versender für die Weiterleitung und Zentralisierung von Protokolldaten von dem System lesen
die Journalisten. Es wird auch ein
Agent auf Ihren Servern installiert und überwacht allgemeine
Standorte, die Sie angeben, sammeln Protokollereignisse
und leitet
diese Ereignisse dann entweder an die
elastische Suche auf Log Stash weiter, sie sind keine Zuckerrüben Chips. Windows-Ereignisprotokolle entweder bei
Elastic Search oder Log Stash. Es wird als
Windows-Dienstfunktion installiert , die Beat ein Elastic
ist, das Sie als
Funktion in Ihrer serverlosen
Umgebung bereitstellen , um Daten
von Cloud-Diensten zu sammeln und elastisches Set zu
liefern. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen.
Wir sehen uns im nächsten. Tschüss.
9. 11: Hey Leute, In diesem Video werden
wir Elasticsearch und
Kibana auf einem
DBN-basierten Linux-System mit einem einzigen Knoten installieren und
konfigurieren . Die Schritte für diese
Vorlesung sind zuerst, wir werden den öffentlichen Signaturschlüssel Elastic
Search installieren. Dann installieren wir das
APT-Transport-HTTPS-Paket. Danach speichern wir Elastic Search
Repository-Definitionen auf unserem Linux-System. Dann machen wir ein
Systemupdate und
installieren dann Elasticsearch
und Kibana. Sobald die drei Anwendungen installiert
sind, werden
wir
Elasticsearch und Kibana konfigurieren. Ich werde einen separaten
Vortrag für Log Stash widmen. Und schließlich werden wir die
Konnektivität zu unseren Diensten testen. Also lasst uns anfangen. Hier auf dem Bildschirm befinde ich mich in meinem GCP-Konto
und auf der Seite VM Instances werden
wir diese Seite verwenden, um unser Linux-System mit einem
Knoten zu erstellen. Wir klicken auf Instanz erstellen. Dann klicke ich auf die neue
VM-Instanz aus Template, wähle dann die
ELK-Vorlage aus und klicke auf Weiter. Jetzt kann
ich von diesem Bildschirm aus den Namen ELK One behalten, aber ich werde die
Region in US West One ändern. Und dann lasse ich alles andere als Standard und
gehe zum Networking. Und unter Networking werde ich
sicherstellen, dass es das
richtige Tag hat, Kibana. Und ich werde auch
sicherstellen, dass es sich unter Elasticsearch VPC und
Monitoring-Subnetz befindet. Sobald ich diese Dinge validiert
habe, klicke ich auf Create, um meine Linux-Instanz zu
erstellen. Sobald dieser Computer eingeschaltet ist, gehe
ich hier zu meinem Visual
Studio-Code. Auf der linken Seite habe
ich die Hinweise, um
ELK Stack auf einem Linux-Computer zu installieren . Und auf der rechten Seite habe
ich mein Terminal hier. Ich gehe zuerst auf meine
VM-Instanzen-Seite und kopiere von
hier aus die externe
IP-Adresse für meine Linux-Instanz. Und dann tippe
ich im
VS Code Terminal SSH ein, erläutere es, und ich füge
die IP-Adresse meiner
Linux-Instanz ein und drücke Enter. Hier gebe ich
ja ein, wie Sie sehen können, konnte
ich mich erfolgreich
mit meiner Linux-Instanz verbinden. Jetzt tippe ich zuerst klar und jetzt können wir mit der
Installation unserer Anwendungen beginnen. Zuerst mache ich ein
Sudo apt-get Update. Also bekomme sudo APT
Update und drücke Enter. Und jetzt, sobald das
System aktualisiert wurde, lösche
ich zuerst den Bildschirm. Dann muss ich W Gate installieren wenn es nicht bereits auf dem System
installiert ist. Also mache ich das jetzt. Nachdem diese Voraussetzungen erfüllt
sind, kann ich den öffentlichen
Signaturschlüssel für Elastic Search installieren, also kopiere ich all dies und
füge es auf das
Terminal ein und drücke die Eingabetaste. Sobald ich die Oky-Nachricht erhalten habe, kann
ich das
APT-Transport-HTTPS-Paket installieren. Also kopiere ich diesen Befehl sudo apt-get install
epithelial transport, STDEV.S und das
Ja und drücke Enter. Sobald dies erledigt ist,
lösche ich meinen Bildschirm erneut. Und jetzt müssen wir
die Verzeichnisdefinitionen speichern. Also kopiere ich
das alles aus meinen Notizen und füge es auf das Terminal ein,
und ich drücke Enter. Nachdem die
Verzeichnisdefinitionen gespeichert wurden, können
wir nun die elastische
Suchprotokollsitzung Kibana installieren. Der Befehl lautet also
sudo apt-get
update, aktualisiere das System zuerst. Dann installieren wir
Elastic Search, Log Stash und Kibana. Also kopiere ich das alles und
füge es hier und drücke Enter. Sobald alle drei
Anwendungen installiert sind, ist
es jetzt an der Zeit,
unsere Anwendungen zu konfigurieren. Also werde ich zuerst das klären. Dann mache ich Sudo
SU und dann werde ich zuerst ATC Elastic Search um meinen
Elasticsearch Service zu konfigurieren. jetzt im Elastic
Search-Konfigurationsverzeichnis Wenn ich jetzt im Elastic
Search-Konfigurationsverzeichnis ein LS mache, gibt es eine Datei namens
Elastic Search dot YAML, die die
Hauptkonfigurationsdatei namens Elastic Search ist . Geben Sie also entscheidend sudo ein, den Elastic Search Punkt YAML,
um diese Datei zu konfigurieren. In dieser Datei
müssen wir
als erstes den Clusterpunktnamen ändern. Also gehe ich zuerst in Einfügen dann den Cluster-Punktnamen auskommentieren. Diese Einstellung wird verwendet, um
einen beschreibenden Namen
für Ihren Cluster festzulegen . Also rufe ich meinen
Cluster Demo Dash ELK an. Jetzt ist die nächste Einstellung, die ich
ändern möchte, der Knotenpunktname. Diese Einstellung besteht darin,
einen beschreibenden Namen für
diesen Knoten im Cluster einzurichten . Also
nenne ich es Knoten eins. Sobald ich das getan habe, kann
ich die Standardwerte
für Pfadpunktdaten
und Pfadpunktprotokolle belassen und
muss ins Netzwerk gehen. Unter Netzwerkeinstellung
möchte ich ändern, ist
Network Dot Host. Standardmäßig ist Elasticsearch nur auf dem lokalen Host zugänglich. Wir müssen das ändern, also ändern wir
diesen Wert, geht 0. Als nächstes werden wir den
HTTP-Punkt-Port auskommentieren, aber wir werden ihn so belassen, wie es
in einer Produktionsumgebung ist. Wenn Sie
den Standardport ändern möchten , auf den
Elastic Searches zugreifen kann, kommen
Sie hierher und
ändern diesen Wert. Jetzt lassen wir die Entdeckung so wie sie ist, weil es sich um einen Cluster mit einem einzelnen
Knoten ,
der direkt nach unten und
nach unten
geht Wir werden eine Einstellung namens
Discovery Dot Type eingeben. Also tippe ich den
Discovery-Punkttyp ein. Und der Wert für
diese Einstellung ist einzelner Knoten, da es
sich um einen Server mit einem einzelnen Knoten handelt. Es wird
das noch mal in meinen Notizen überprüfen. Entdeckter Punkttyp
einen einzelnen Knoten. Jetzt können wir diese Datei speichern. Ich mache WQ und drücke Enter. Und um
Elasticsearch Service zu starten, tippe
ich System-CTL ein, starte Elastic Search
und drücke Enter. Sobald der Dienst gestartet
ist, können
wir zuerst den Status
des Dienstes pro
Typisierungssystem CTL überprüfen. Ein Status Elastic Search und der Status zeigt
aktiv ausgeführt an. Also kontrolliere ich C, dann
weniger Testkonnektivität zu unserem ALK-Cluster, Bodentyp in Mädchen
minus x als BIP und dann localhost und dann den Port , auf dem die elastische Suche auf 90 bis 100
läuft. Und um dann den
Zustand des Clusters zu überprüfen, muss
ich den
Unterstrich eintippen, der dann gehalten wird. Und ich möchte, dass die Ausgabe
in einem für Menschen lesbaren Format vorliegt. Also tippe ich
hübsch ein und drücke Enter. Jetzt kam der Status als
grün zurück und es gibt einen einzigen
Knoten in diesem Cluster, was wir wollten. Daher ist der elastische Dienst
installiert und konfiguriert. Ich werde alles klären und als nächstes ist es Zeit, Kibana zu
konfigurieren. Also gehe ich auf CD, ATC, dann Kibana und drücke Enter. Wenn ich jetzt ein ls mache, werden
Sie sehen, dass es eine ähnliche Kibana-Punkt-YAML-Datei gibt
, die wir konfigurieren müssen. Also tippe ich Sudo VI
Kibana dot YAML ein und drücke Enter. Jetzt
wird in der
Kubernetes YAML-Datei zuerst in Insert gehen, dann zum Sommerpunkt-Port gehen und dann nicht kommentiert werden, aber
lassen Sie die Einstellung unverändert. Dies ist der Hafen, den
Kibana und so weiter. In einer Produktionseinstellung möchten
Sie diese möglicherweise von 5601
ändern. Als nächstes gehen wir zu
mehreren Punkthosten, heben das Kommentieren aus und
ändern ihn vom lokalen Host auf 0 oder
0 in Richtung 0 zu 0. Dies ermöglicht es Kibana, von der Außenwelt
zugänglich zu sein . Das habe ich geändert. Jetzt die nächste Einstellung, dass
wir
eine öffentliche Basis-URL für Sommerpunkte ändern möchten . Also werde ich das nicht kommentieren. Und dann
muss ich hier
http und dann die private
IP-Adresse meiner
Kibana-Instanz eingeben http und dann die private . Gehen wir also auf unsere
VM-Instanzen Seite und von hier aus kopiere ich
die interne IP-Adresse. Jetzt gebe ich hier http ein, dann füge ich die
interne IP-Adresse meiner Kibana-Instanz ein und
gebe dann den Port 5601 an. Als Nächstes muss ich
einen beschreibenden Namen für
meine Kibana-Instanz angeben . Also werde ich den Punktnamen des
Servers abkommentieren, und hier gebe
ich den Demo-Dash Kibana ein. Als nächstes muss ich die URL angeben, auf die
der Elastic
Search-Host zugegriffen wird. Hier unter Elasticsearch
gelehrten Hosts belasse
ich den Wert
als Standard, da er auf demselben Server
läuft , auf
dem Elastic Searches ausgeführt wird. So können wir es so lassen, wie es ist, wir können diese Datei speichern und jetzt ist
es Zeit, Kibana zu starten. Also System CTL, starte
Kibana und ich drücke Enter. Es sieht so aus, als hätte ich
ein Tippfehler CTL gestartet Kibana
und ich trete Enter. Sobald der
Dienst zurückkommt, werde
ich einen
System-CTL-Status Kibana und die laufende
Dienstaktivität ausführen. Gehen wir also zurück zu
unseren VM-Instanzen. Von hier aus kopiere ich die externe IP-Adresse
meiner Instanz. Ich öffne eine neue
Browser-Tab, füge sie hier ein
und gebe dann den Port an, an
dem Kibana läuft. Also 5601 und ich drücken Enter wenn Kibana erfolgreich installiert und
konfiguriert wurde, werden
Sie zuerst das
Laden von Elastic sehen. Sobald Kibana richtig
geladen wurde, werden
Sie bei elastisch willkommen sein. Und wenn Sie alleine auf
Explore klicken, gelangen
Sie zur Benutzeroberfläche von Kibana. Jetzt gibt es noch eine letzte
Sache, die ich Ihnen
zeigen wollte , bevor ich Sie loslasse, nämlich wenn Sie möchten, dass Ihre
Elasticsearch- und
Kibana-Anwendung automatisch wenn Sie Ihr System neu starten, Was Sie
tun müssen, ist, dass Sie System
eintippen müssen CTL aktivieren elastische Suche und System CTL aktivieren Kibana, ein
Altar den Punkt bewegen. Und damit sind wir am Ende dieser Vorlesung gekommen
. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss.
10. 12: Hey Leute, In dieser Vorlesung
werden wir
elasticsearch Log-Sitzung Kibana
auf einem RPM-basierten Linux-System installieren und konfigurieren elasticsearch Log-Sitzung Kibana
auf einem . Um dies zu tun, müssen
wir zuerst den
Elastic Search GPG-Schlüssel installieren, und dann
müssen wir
unsere Kibana-Repositorys für elastische Suchprotokolle
auf dem RPM-System konfigurieren unsere Kibana-Repositorys für elastische Suchprotokolle . Danach werden wir unsere Anwendungen
installieren. Dann werden wir
Elasticsearch und Kibana konfigurieren. Und nachdem wir
mit der Konfiguration fertig sind, können
wir den Elasticsearch- und
Kibana-Dienst starten und die Konnektivität
testen. Also lasst uns anfangen. Jetzt bin
ich hier auf dem Bildschirm in meinem GCP-Konto. Und unter VMI-Instanzen sehen
Sie bereits das
Debian-basierte Linux-System, auf dem wir unser
elastisches Suchsystem mit einem einzelnen Knoten
bereits in den
vorherigen Vorträgen
installiert haben unser
elastisches Suchsystem mit einem einzelnen Knoten
bereits in den
vorherigen Vorträgen
installiert . Hier klicke ich
auf Instanz erstellen und klicke dann auf neue
VM-Instanz aus Template und wähle dann ELK. Dann klicke ich auf „Weiter“. Wir belassen den Namen ELK T2, aber wir werden die
Region in US West One ändern. Dann gehe ich runter
und unter Bootdiskette klicke
ich auf Ändern. Hier. Unter Betriebssystem klicken wir
auf das Dropdown-Menü und hier wählen wir
Red Hat Enterprise Linux. Jetzt können wir
die Version von
Linux ändern , die wir
für diesen Computer wünschen. Ich belasse es als Standard
und klicke auf „Auswählen“. Sobald ich das getan habe, gehe
ich zum Networking. Und unter dem Netzwerk
stelle ich sicher, dass ich das
richtige Netzwerk-Tag,
Kibana, habe und mich in
der elastischen Such-VPC und im Überwachungssubnetz befinde. Und dann klicke ich auf Erstellen. Sobald meine ELK zwei Instanzen
laufen, kopiere
ich die
externe IP-Adresse und gehe
dann zu meinem
Visual Studio-Code. Und auf meinem Visual Studio-Code auf der linken Seite die Hinweise, habe
ich
auf der linken Seite die Hinweise, um
Elastic Search auf einem RPM-System zu installieren . Und auf der rechten Seite habe
ich ein Terminalfenster unter dem
Terminaltyp in SSH
und labor es dann unter. Und dann füge ich
die externe IP-Adresse und drücke Enter. Klicken Sie auf „Ja“. Sobald ich mich mit dieser Instanz
verbunden habe, klicke
ich auf Löschen und jetzt können wir Installation unserer Dienste beginnen. Zuerst müssen wir
Elasticsearch
GPG-Schlüssel in dieses System importieren . Also kopiere ich das alles und füge es auf mein System ein
und drücke Enter. Es. Der Index kann nicht mit
den V5-Berechtigungskennzeichen geöffnet werden. Was ich tun werde, ist, dass ich
denselben Befehl mit sudo,
sudo ausführen und die Eingabetaste drücken
und sobald der Schlüssel erfolgreich importiert wurde, wird Installation von
RPM-Repositorys
beginnen. Also muss
ich zuerst drei Dateien erstellen, Elastic Search Dot Repo, Kibera, Repo und
Slashdot-Repo in meiner kleinen
Tochter repost oder D protokollieren . Also kopiere ich den ersten
Touch-Befehl und drücke Enter. Ich muss zuerst Sudo eintippen. Jetzt ziehe ich in Sudo SU ein. Als nächstes kopiere ich den
zweiten Touch-Befehl und kopiere dann den
dritten Touch-Befehl. Wenn ich jetzt in
meine kleine Tochter gehe, repost oder D, mache Nephron ein ls. Ich habe meine drei
Dateien, Elasticsearch, kurzes Repo, Logs,
Gestenarterie Po und Kibana-Punkt-Bericht. Als nächstes
müssen wir Dateien konfigurieren. Also machen wir zuerst VI auf
Elastic Search short Repo, und ich gehe in Insert
und dann muss ich diese Einstellungen
innerhalb des Marie-Profils
konfigurieren. Also klicke ich auf Einfügen und
mache ein paar Formatierungen. Jetzt ist diese
Repository-Definition nichts anderes als zuerst haben wir den Namen
dieser Konfigurationseinstellung, dann haben wir die URL, von
der das Paket abgerufen werden soll. Gpt prüft den GPG-Schlüssel , ob er aktiviert ist
oder nicht und den Typ. Jetzt speichere ich diese Datei. Als Nächstes. Wir machen ein VI auf
Kibana Dot Repo, und sie werden in die
Einfügung gehen und ich kopiere alle Einstellungen für meine
Tastatur oder drei Profile. Ich füge sie hier ein. Und wieder muss
ich etwas Formatierung machen. Und jetzt kann ich
diese Datei auch speichern. Und schließlich muss ich
mein Log gestrecktes Arterienprofil bearbeiten . Ich füge eine Kopie der Einstellungen für Log
Stretched oder Triple ein, und ich speichere diese Datei. Jetzt müssen Sie sich keine Gedanken über diese
Konfigurationseinstellungen machen. Was ich tun werde, ist, dass ich meine Notizen und
den
Beschreibungslink dieses Videos
anfüge , damit Sie auch
darauf zugreifen können. Sobald wir also
unsere drei Repos konfiguriert haben, können wir
jetzt alles installieren. Also müssen wir zuerst Elastic Search
installieren und der Befehl lautet sudo yum
install enabled repo. Und dann verweist es auf den Elastic Search Report
, den Sie gerade konfiguriert haben. Und dann lautet der
Dienstname Elastic Search. Also kopiere ich, ich füge es
hier ein und drücke Enter. Wenn der Versicherer Sie auffordert, ein elastisches
Suchpaket
herunterzuladen, sagen Sie
einfach ja und fahren Sie fort. Sobald Elastic
Searches und gespeichert ist, können
wir Kibana und Log
Stash In-Typ in sudo yum Kibana
installieren, um
Kibana zu installieren und Enter zu drücken,
ich trete hier ja. Sobald Kibana installiert ist, können
Sie sudo yum install
Log Stash eingeben, um Log
Stash NAL head zu installieren, ja. Sobald die Protokollsuche
ebenfalls installiert ist, ist
es an der Zeit,
unsere Dienste zu konfigurieren. Dies würde dem ähneln
, was wir für unser DBN-basiertes System
getan haben . Wenn Sie das bereits getan haben, können
Sie
diese wahrscheinlich selbst konfigurieren ,
wenn Sie dies nicht getan haben, bitte folgen Sie dieser
Vorlesung. Zuerst konfigurieren wir
Elasticsearch. Also CD, ETC slash elastische Suche. Wenn ich hier ein ls mache, werde
ich sehen, dass es eine Datei
namens Elastic Search gibt , wenn ich es bin, und dies ist die
Konfigurationsdatei für Elastic Search. Also lasst uns das bearbeiten. Also gebe ich VI Elastic
Search dot YAML ein und drücke Enter. Jetzt gehe
ich hier in dieser Datei zuerst in Insert. Und die erste Einstellung
, die ich
ändern muss, ist der gruppierte Punktname. Ich ändere
das in Demo Dash ELK. Als Nächstes wollte ich
die Einstellung des Knotenpunktnamens ändern, also ändern wir dies
in ELK Dash One. Danach kann ich den Pfad zu
Daten- und
Pfadpunkt-Log-Einstellung so
belassen , ich muss unter
Netzwerk und innerhalb
des Netzwerks gehen was ich tun werde, ist, dass ich zum Network Dot Host
gehe, das
kommentieren und ändern Sie diesen Wert auf 0 oder 0 in Richtung 0. Was jetzt passiert, ist standardmäßig, elastische Suche
nur von
localhost aus zugänglich ist , indem
sie auf 0 oder 0 oder 000 geändert wird. Wir setzen dies
jedem auf der Welt aus. Als Nächstes werden wir den
STDP-Punkt-Port auskommentieren, aber wir belassen den
Port als Standard 9200. Wenn Sie einen
Produktionscluster betreiben, möchten
Sie
diesen möglicherweise in einen anderen Port ändern, aber wir belassen dies unverändert. Jetzt gehe ich endlich ganz unten
in dieser Datei. Und hier gebe ich eine
Einstellung für Discovery Doctype ein. Jetzt
wäre dieser Einstellungswert eine einzelne
Ladung, da wir einen Discovery-Punkttyp mit einem einzelnen Knoten
konfigurieren Elasticsearch-Cluster
oder einen Discovery-Punkttyp mit einem einzelnen Knoten
konfigurieren. Und der Wert ist ein
einzelner Dash-Knoten. Und jetzt kann ich meine
Elasticsearch getroffene YAML speichern, also klicke ich jetzt Enter. Ich kann meinen Elasticsearch Service
starten. Also starte System-CTL
Elastic Search. Sobald der Dienst aktiviert
ist, kann er den Status
des Dienstes überprüfen. Es ist aktiv und läuft. Um die Konnektivität
zu unserem Cluster zu überprüfen, geben
wir minus x ein, holen STDP und dann localhost
und dann den Port
, den Elastic Searches auf 90 bis 100
läuft. Und dann verbinden wir uns der Cluster-API und dem
Gesundheitsdienst auf dieser API. Und was wir wollen, ist, dass wir die Ausgabe in menschlich
lesbarem Format haben wollen. Also tippen wir
hübsch ein und drücken Enter. Und wie Sie
sehen können, ist der Status unseres Clusters grün und
die Anzahl der Knoten macht Spaß. Jetzt können wir mit der
Konfiguration unserer Kibana beginnen. Also gehe ich in den Schrägstrich,
ETC, schrägst Kibana, und ich werde alles löschen und
ein ls in diesem
gegebenen Ordner machen , es gibt eine Datei namens
keyboard AutoML, die die
Konfigurationsdatei für
Kibana. Also mache ich VI-Kibana-Punkt YAML. Jetzt gehe ich zuerst in Insert. Die erste Einstellung, die ich ändern
möchte, ist unser Punktdiagramm, aber ich lasse diesen Wert so wie er ist, da dies ein Demosystem ist. Wenn Sie in einem
Produktionssystem waren, möchten
Sie diesen
Wert möglicherweise in etwas anderes ändern. Dann werde ich den Kommentar des
Server-Punkt-Hosts auskommentieren
und dann
von localhost auf $0 Punkt 0 ändern. Dies macht es also auch
für die Außenwelt zugänglich. Jetzt ist mehrere Punkte
Public Base URL die URL, auf die
Kibana zugegriffen werden kann. Um den Wert für
diese Einstellung zu erhalten , müssen
Sie zu unseren VM-Instanzen wechseln. Dann kopiere
ich unter IHL k2 die interne
IP-Adresse und tippe http und füge die
interne IP-Adresse und gebe den
Port mit 5601 an. Als Nächstes ändern wir
den Servernamen, aber ich gehe zu selbst.name, kommentiere ihn und gebe ihm
den Namen demo dash Kibana. Dann gehe ich zu Elastic
Search Short Hosts. Und ich kann den
Standardwert belassen, da diese
Kibana-Instanzen auf demselben Server laufen wie die
Elasticsearch-Dienste, auf denen ausgeführt werden. Und sobald ich das gemacht habe, kann
ich meine
Konfigurationsdatei speichern. Und jetzt kann ich mit Kibana anfangen. Sobald Gibbon gestartet habe, kann
ich den
System-CTL-Status Kibana erstellen und der Dienst ist
aktiv und läuft. Dann gehe ich zu
meinen VM-Instanzen, kopiere die öffentliche IP-Adresse
meiner Kibana-Instanz, basierend auf der Browser-Registerkarte
und tippe 5601 ein,
um eine Verbindung mit dem Kibana-Dienst
auf dem Server herzustellen.
die Kibana-Benutzeroberfläche. Sobald Sie zu diesem Bildschirm gelangen, klicken
Sie selbst auf Erkunden und sie sollten
Sie zur Kibana-Benutzeroberfläche bringen. Bevor ich dich jetzt gehen lasse, möchte
ich dir
eine letzte Sache zeigen. Wenn Sie möchten, dass Ihre
Elasticsearch- und Kibana-Dienste nach dem Neustart des Systems automatisch wieder angezeigt werden, müssen
Sie das System
CTL für elastische Suche aktivieren eingeben, den
Elasticsearch-Dienst
aktivieren und System CTL aktivieren Kibana, aktivieren Sie den Kibana-Dienst. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen.
Wir sehen uns im nächsten. Tschüss.
11. Installieren ELK auf Windows-Server: Hey Leute, In dieser
Vorlesung
installieren wir elastische Suche
auf einem Windows-Server. Zu Beginn
laden wir einige Software herunter. Also werden wir zuerst
Elasticsearch und Kibana herunterladen. Danach
installieren wir es mit dem Namen NSSS sind nicht saugen
Service Manager. Dieses Tool hilft Ihnen,
eine Anwendung als Dienst zu installieren. Der Grund, warum wir dieses Tool
brauchen, ist Kibana
nicht mit
dem kostenlosen Paketdienstprogramm geliefert wird, das uns helfen
kann, Kibana als Service zu installieren. Also werden wir NSSA
für Elastic Search verwenden. Wir haben ein Dienstprogramm
namens Elastic Search In diesem Dunkeln in der
elastischen Suchzip-Datei, die verwendet wird,
um ein Asset
wie einen Dienst
auf Windows Server zu installieren . Nachdem wir NSSS
heruntergeladen haben, werden
wir 7-Zip herunterladen
und installieren. Sobald die Downloads abgeschlossen
sind, konfigurieren
wir Elasticsearch und geben unsere Anwendungen an, dann führen wir
sie als Service aus. Und sobald sie
erfolgreich gestartet sind, testen
wir die Konnektivität zu unserem Elasticsearch Cluster und anderen Kibana-Instanz in
Ihrer hier gestarteten Skizze. Ich habe irgendwo mein Fenster, wo immer ich
Elasticsearch und
Kibana auf diesem Server installiere , zuerst öffne
ich einen Browser-Tab. Und im Browser tippe
ich die klassische Suche ein
Windows-Download und drücke Enter. Und von hier gehe ich zu
der URL, auf der elastisch steht. Es lädt eine elastische Suche herunter. Also klicke ich auf diesen Link. Und sobald ich auf diesem Link bin, werde
ich sicherstellen, dass ich
auf der Registerkarte „GA-Release“ bin. Und von Schritt eins werden wir klassisch
herunterladen,
was wenn Windows ist, klicke
ich auf diesen
Download-Button. Und während dies heruntergeladen
wurde, öffne
ich einen weiteren
Tab und tippe Kibana Windows Download ein. Und auch hier gehe ich zur Download-URL für Kibana. Und auch von dieser URL gehe
ich zu Schritt eins, lade Kibana herunter und entpacke sie. Ich werde sicherstellen, dass der schwarze
Schaum als Windows ausgewählt wird, und ich klicke auf den
Download-Button für Windows. Und das sollte auch den Download
für meinen Kibana-Prozess
starten . Während dies heruntergeladen
wird, öffne
ich einen weiteren
Tab und tippe Download und SSM ein und drücke Enter. Und aus den Ergebnissen wählen
Sie den Link für einen
SSM-Punkt-CC und Downloads aus. Und von dieser Webseite gehe
ich unter Abschnitt
neueste Version. Habe nicht auf das
Dienstprogramm und SSM 2.24 geklickt. Also klicke ich darauf
und jetzt öffne ich einen weiteren Tab und ich gebe Download 7-Zip ein und es geht ein. Und von der 7-Zip DOT
ORG-Downloadseite klicke
ich auf den
Link, um
das Dienstprogramm für 64-Bit-Windows herunterzuladen . Also klicke ich hier auf diesen
Download-Link. Sobald alle Dateien heruntergeladen
wurden, klicke
ich zuerst
auf 7-Zip installiert, 7-Zip auf dem System. Dialogfeld des Installationsprogramms klicke
ich auf Ausführen, und von hier aus wähle ich den
Standardzielordner aus und klicke auf Installieren. Und sobald die IP von jemandem
installiert ist, kann ich auf klicken. Und jetzt öffne ich
meinen Download-Ordner. Sobald Sie sich im
Download-Ordner befinden, können
Sie mit
der rechten Maustaste auf Elasticsearch zip und mit 7-Zip
die Dateien extrahieren. Also klicke ich auf Dateien extrahieren. Und von hier aus können Sie
den Pfad auswählen, in den Sie diese Dateien extrahieren
möchten. Was ich für diese
Vorlesung getan habe, ist, dass ich diese Dateien bereits in
meinem Dokumentenordner
akzeptiert habe. Ich gehe zum
Ordner Meine Dokumente und wie Sie sehen können, habe
ich hier einen elastischen
Suchordner und ich habe auch
einen Kibana-Ordner. Also fangen wir an, diese zu
konfigurieren. Ich öffne den
Elastic Search-Ordner und wähle von hier aus
Elastic Search. Schon wieder. Ich werde in Konflikt geraten. Im Konfliktordner müssen
wir die kurze YAML-Datei
Elasticsearch bearbeiten. Also klicke ich mit der rechten Maustaste auf diese Datei und verwende VS-Code
, um diese Datei zu bearbeiten. Sie können den Editor
Ihrer Wahl verwenden. Öffnen
und bearbeiten Sie diese Datei. Sobald ich die
kurze YAML-Datei Elasticsearch geöffnet habe, mache ich die
erste Einstellung, die ich ändern
muss,
Cluster oder Name ist. Und ich werde das
in Demo Dash ELK ändern. Dann muss ich
den Knotennamen ändern. Also werde ich das
in ELK Dash One ändern. Danach muss ich keinen Pfad
zu
meinem Datenverzeichnis oder
Log-Verzeichnis angeben meinem Datenverzeichnis oder
Log-Verzeichnis da es sich um eine Demo-Instanz
handelt. Also werde ich behalten, es heißt Standard. Jetzt gehe ich zum Abschnitt Netzwerk
und entkommentiere
den Netzwerk-Punkt-Host. Und ich ändere
diesen Wert auf 0. Danach werde ich http dot schweinefleisch
auskommentieren, aber ich behalte den
Port als Standard. Und schließlich gehe ich
zum Ende dieser Datei. Und hier gebe ich den Discovery-Punkttyp ein
und gebe den
Wert Single Dashboard an, und gebe den
Wert Single Dashboard da es sich um eine
einzige Norton-Lösung handelt. Jetzt kann ich diese Datei speichern
und sobald ich das getan habe, kann
ich meinen
Elasticsearch Service starten. das zu tun, gehe ich in mein Suchfeld und
tippe PowerShell ein, und hier wähle ich
die Windows
PowerShell-Desktop-App aus. Jetzt bin ich in meine
PowerShell-Konsole gegangen. Ich tippe CD ein, wenn ich zu Documents gehen
muss, und dann muss ich zum
Elasticsearch-Ordner und
dann wieder zu Elasticsearch gehen und dann in der
Ablage, wenn ich ein ls mache. Jetzt werden Sie sehen, dass
es eine Datei namens Elastic Search Service Dot Ph.D gibt. Jetzt
müssen wir diese Datei ausführen. Ich werde es zuerst aus meinem Bildschirm
raus. Und von hier aus gebe ich Punktschrägstrich Elastic Search,
Strich, Servicepunkt ein. Und hier muss ich Installateure
eintippen. Also Punktschrägstrich Elasticsearch
Service Dot USt-Speicherplatz installieren, und ich klicke auf Enter. Dies sollte nun mit
der Installation eines
Assets wie eines Dienstes beginnen . Sobald dies abgeschlossen
ist, können Sie von Ihrem Suchfeld aus zu Services
dot MSC wechseln . Hier finden Sie den
Elasticsearch-Service und jetzt können Sie den Dienst
starten. Aber zuerst ändern wir
den Starttyp
des Dienstes von
manuell auf automatisch
, damit der Dienst gestartet
wird, nachdem
die Mobilfunkboote automatisch in Eigenschaften
übergegangen sind. Wir gehen zum
Starttyp und ändern Automatisch“
und klicken auf Übernehmen. Sobald Sie das getan haben,
können Sie auf Start klicken, um zu beginnen. Der Dienst
klickt auf OK. Und Sie können sehen, dass
die Dienste laufen. Lassen Sie mich jetzt
meine Veröffentlichung maximieren. Jetzt können Sie hier auch
dasselbe Dienstprogramm verwenden , um
diesen Dienst zu verwalten. Lass mich dir die Verwendung zeigen. Wenn ich den
klassischen Suchdienst „Dot Slash “ eingefügt hätte,
gespeicherte Mehrwertsteuer und drücke Enter. Jetzt können Sie die Verwendung sehen. Sie können einen
Dienstentfernungsdienst installieren , beenden und einen Dienst verwalten. Versuchen wir nun, diesen Dienst
mit diesen Dienstprogrammen zu
beenden , damit ich auf Lager
tippen und auf Enter klicken kann . Jetzt wurde die Meldung erhalten, dass dieser
Elasticsearch-Dienst gestoppt wurde. Und ich kann dies überprüfen,
indem ich in den MSC
meiner Dienste gehe und auf
Diese Aktualisierung ausführen klicke, kannst
du sehen, dass der
Dienst gestoppt wurde. Starten wir nun den
Dienst und drücken Enter, und wir haben die Meldung,
dass die Dienste gestartet wurden. Lassen Sie uns das nochmal bestätigen. Also klicke ich auf Aktualisieren und Sie können sehen, dass
der Dienst
ausgeführt wurde, um die Konnektivität
zu unserer Elasticsearch-Instanz zu testen .
Was wir
tun müssen, ist, dass Sie das Chrome-Fenster
öffnen müssen . Und von Chrome aus
öffnen wir einen weiteren Tab. Und hier geben wir den lokalen Host http
slash slash und kauften dann
90 bis 100 und drücken Nervosa-Dienste
eingeben. Sie werden einige Informationen sehen von Ihrem Cluster
zurückkommen. Was Sie jetzt auch tun können, ist, dass Sie sich
den Clusterzustand ansehen können. Dazu geben Sie Schrägstrich nach der
URL ein und unterstreichen einen weiteren
Schrägstrich und Kopf und dann Fragezeichen und dann ziemlich flüssig den Clusterkopf. Jetzt können Sie sehen, dass der
Status des Clusters
grün ist und die Anzahl
der Knoten eins ist. So können Sie elastische Suche
auf einem Windows-Computer
installieren. Als Nächstes konfigurieren wir
unsere Kibana-Instanz. Um unsere Kibana zu konfigurieren, öffne
ich den Datei-Explorer. Und von hier
gehe ich zu Documents. Und ich öffne
meinen Kibana-Ordner. Und dann
wieder Kibana-Ordner und dann config. Und in Config muss
ich die Kibera TML Finance bearbeiten, also klicke ich mit der rechten Maustaste
darauf und klicke auf Öffnen, um diese
Datei in einem Editor zu öffnen. Jetzt werde
ich in dieser Datei den Kommentar solver.py auskommentieren,
aber belasse es als Standard. Dann entferne ich den Kommentar des
Serverpunkt-Hosts und ändere den Wert vom
lokalen Host auf 0 Punkt 000. Als Nächstes ändere ich die URL der öffentlichen Basis mit
mehreren Punkten, also werde ich das kommentieren. Und um seinen Wert zu erhalten, müssen
Sie zu den nächsten
Netflix-Einstellungen wechseln. Und von hier aus
klicke ich
erneut auf Netzwerk, um die
IP-Adresse dieses Rechners zu erhalten
, der Standard
0 Punkt bis Punkt 15 ist. Die öffentliche Basis-URL ist
also STDP zehn Punkt 0 Punkt 15. Und dann nahm das Buch den 601. Dies ist also die URL
, auf der „Ehrung geben“ zugänglich sein
wird. Ich gehe ein bisschen runter. Als nächstes werde ich
mehrere Punktnamen ändern und
den beschreibenden Namen
meiner Kibana-Instanz von
Ihrem Host-verbesserten
Demo-Dash Kibana ändern den beschreibenden Namen meiner Kibana-Instanz von . Als Nächstes werde ich
Elastic Search Dot Hosts auskommentieren. Aber ich kann dies als Standard belassen da diese Kibana-Instanz lokal auf
demselben Server mit
elastischen Suchen installiert
ist . Als nächstes protokolliert
Kibana standardmäßig, Es
meldet sich bei STD aus. Wir möchten das ändern
und wir möchten
unsere Kibana konfigurieren oder ihre Protokolle irgendwo im
Blutprotokoll protokollieren. Um dies zu tun, müssen wir
nach unten gehen und die Zeile
finden, in der Login-Punkt t ESD
steht. Es ist online 97,
ich werde das nicht kommentieren. Und bevor ich seinen Wert
ändere, öffne ich meinen Datei-Explorer
und gehe eine Ebene nach oben. Und hier erstelle ich einen
neuen Ordner namens Logs. Und das öffne ich. Und dann klicke ich mit der rechten Maustaste
auf Logs in der oberen Leiste. Und ich werde Adresstexte kopieren und jetzt werde ich
Estradiol durch diesen Text ersetzen. Hier mache ich einen weiteren Schrägstrich und rief meine Log-Datei
Kibana dark low an. Damit wird Kibana es in diese Datei
schreiben. Jetzt können wir auch den
Kommentar des
Protokollierungspunkts still und den
Protokollierungspunkt leise auskommentieren, aber wir behalten diese
Werte als falsch. Wenn Sie nun eine ausführliche Protokollierung wünschen, können
Sie
das Kommentieren aufheben und den
Wert von false auf true ändern . Dies gibt Ihnen
detaillierte
Details der Kibana ist gesperrt. Jetzt können wir diese Datei speichern. Bevor wir nun ein SSM verwenden, um Kibana als Service zu
starten, möchte
ich Ihnen zeigen, wie Sie Kibana manuell
starten können. Also gehe ich zu meiner
PowerShell und von
hier aus und tippe CD ein
und von Dokumenten gehe
ich nach Kibana
und dann wieder nach Kibana. Und dann wird sich Kibana
diesmal von innen beugen. Und wenn ich hier ein ls mache, wirst
du sehen, dass es eine
Datei namens Kibana-Punktpunkt gibt. Wir müssen diese Datei ausführen. Zuerst. Ich werde das klären, und dann tippe ich Punktschrägstrich Kibana ein und
drücke Enter. Gehen wir danach zu unserem Browserfenster
über und geben den
HTTP-Schrägstrich ein,
Punkt zu Punkt 15 und erhalten einen Port 5601 und
ich drücke Enter. Und das sollte
mir meine Kibana-Seite nehmen, nicht abhängig davon, wie leistungsstark
Ihr Windows-Server ist. Es kann einige Zeit
dauern, bis Kibana geladen ist, also gib ihm einfach etwas Zeit. Sehen wir uns danach an, wie
man Kibana als Service installiert. Zuerst öffne ich PowerShell und stoppe diese Instanz. Drücken Sie Strg C und es gibt einen und verwalteten
System-Minuten-Hintergrund, den ich eintippen kann, ja, ich werde dies dominieren. Und sobald ich das raus bin, gehe
ich von Kibana aus, öffne meinen
Datei-Explorer, der einen SSM
herunterlädt, extrahiert. Also 7-Zip. Wenn Dateien, und ich wähle Dokumente aus und klicke auf OK und dann wieder OK. Und sobald ein FSM
in meinen Dokumenten ist, kann
ich zurück zu PowerShell und
CD und SSM gehen und hier ein LS machen. Nun, hier gibt es einen anderen
Ordner namens SSM, also werden wir uns darauf einlassen
und von hier aus ein LS machen. Ich muss in 64 gehen
, weil meine Maschine jemals 64 Maschinen
kennt. Wenn Sie sich auf einem Windows
32-Bit-Computer befinden, müssen
Sie in
dieses Verzeichnis gehen. Ich gehe mit 60 Vierteln ein, also CD in 64. Wenn ich hier ein LS mache, gibt es eine EXE-Datei
namens SSM-Punkt EXE. Also werde ich Punktschrägstrich
und SSM-Punkt EXE machen. Und um dir die Verwendung zu zeigen, werde
ich es hier enden. Jetzt ist die Verwendung unnötig, eine der Optionen und
dann einige Argumente. Installieren Sie einen Dienst, wir
müssen eine SSM-Installation verwenden. Hier
geben wir also Punktschrägstrich und SSM EXE-Speicherplatz im Speicher ein. Und jetzt müssen
wir den Dienstnamen angeben. Also Kibana und trete Enter. Sobald Sie die Eingabetaste
gedrückt haben, öffnet sich ein Dialogfeld. Und in diesem Dialogfeld
auf der Registerkarte „Anwendung“ müssen
wir den Pfad
für die Batch-Datei für Kibana angeben . Ich klicke hier auf diesen Button. Dann gehen wir zu Documents, Kibana, Kibana und dann bin. Und von hier aus werde ich
angeben, dass
wir unsere Batch-Datei beibehalten und auf Jetzt
öffnen klicken und
den detaillierten Schritt öffnen. Ich kann ein paar Details eingeben, also tippe ich Kibana ein und die Beschreibung
wird auch Kibana sein. Sie können angeben, dass der
Starttyp automatisch,
automatisch, verzögert,
manuell oder deaktiviert sein kann . Wir belassen das automatisch. Sie können die Anmeldung hier
als Information,
Abhängigkeiten dieses Dienstes, das
Shutdown-Verhalten
der Prozesspriorität angeben Abhängigkeiten dieses Dienstes . Aber wir belassen alles als
Standard und klicken auf Install Service, nachdem mir
die Bestätigung gegeben wurde , dass
Kibana-Dienste installiert sind, ich kann auf Okay klicken. Und das wird das Dialogfeld
entfernen Status
des Kibana-Dienstes
schützen. Ich kann NASM, cmd.exe Space Status Kibana eingeben
und dort Enter drücken, es heißt Service-Stock. Zuerst müssen wir
den Dienst starten nsf dot EXE Space Stark
Leertaste Taste und ich drücke Enter. Jetzt habe ich die Bestätigung, dass dieser Dienstvorgang erfolgreich
abgeschlossen wurde. Also gehe ich zum MSC-Fenster meines
Dienstes, aktualisiere es und
gehe zu meinem Kibana-Dienst. Und ich sehe, dass die
Kibana-Dienste laufen. Also öffne ich
einen weiteren Browser-Tab
und klicke auf Viruslasten aktualisieren und
sichern . Es könnte wieder einige Zeit dauern. Ich werde das Video hier posten. Jetzt hat es ein paar Minuten gedauert bis
mein Kibana-Weihrauch wieder auftauchte, aber jetzt kann ich selbst auf
Explore
klicken und
an meiner Kibana-Benutzeroberfläche arbeiten. Bevor ich Sie nun als Nächstes loslasse, überprüfen Sie, dass sich unsere
Kibana-Instanz bei der von ihnen angegebenen
Protokolldatei anmeldet. Also gehe ich zu
Dokumenten Kibana, Kibana, und dann gehe
ich in Protokolle. Ich kann sehen, dass meine
Kibana-Punkt-Log-Datei da
ist und einige
Rechenzentren hat. Öffne es. Und hier
sehen Sie, dass Kibana X-Logdaten
in diese Protokolldatei
schreibt. Damit sind wir also
zum Ende dieser Vorlesung gekommen. Ich habe dir gezeigt, wie man Elasticsearch und Kibana
auf einem Windows Server installiert. Danke fürs Zuschauen.
Wir sehen uns im nächsten. Tschüss.
12. 14: Hey Leute, In dieser Vorlesung werden
wir
erwartet Sicherheit auf unserem
Elasticsearch Cluster konfigurieren . Zuerst werden wir Kibana
im Elasticsearch-Service stoppen. Dann werden wir den
Erwartungen ermöglichen,
in diese Elastic
Search-Konfigurationsdatei zu Tag zu gehen . Dann starten wir den
Elasticsearch-Dienst. Danach richten wir Standardanmeldeinformationen für integrierte Benutzer von
Elastic Search ein. Dann konfigurieren wir
Kibana so, dass es die
Passwortauthentifizierung verwendet , um eine Verbindung zu unserem Elasticsearch Cluster herzustellen. Und schließlich werden wir
unseren Kibana-Service starten und die Konnektivität
testen. Lasst uns anfangen. Hier auf dem Bildschirm habe ich
meine Notizen, um die erwartete
Sicherheit auf unserem
Elasticsearch-Cluster
und auf der rechten Seite
meine SSH-Verbindung innerhalb
meines ELL-gegebenen Rechners zu konfigurieren Sicherheit auf unserem
Elasticsearch-Cluster und auf der rechten Seite . Dies ist ein ELK-Cluster mit einem einzigen
Knoten , den wir
auf einem DBN-Paket bereitgestellt haben. Also hier muss ich zuerst
Kibana stoppen, eine elastische Suche. Also tippe ich System-CTL ein, stoppe Kibana und Systeme
CTO stoppt die elastische Suche. Sobald ich zuerst starke
Vorstandsdienste habe, muss ich das Erwarten innerhalb von Elastic
Search aktivieren, schlug Yammer. Also gehen wir zu Elasticsearch. Und dann geben wir hier
VI Elastic Search dot YAML ein. Und auf dieser Datei geht es
direkt nach unten
und ich gehe in den Einfügemodus. Und ganz unten füge
ich hinzu, dass die Einstellung erwartet, dass die
Sicherheit als wahr aktiviert ist. Also kopiere ich es und
füge es hier ein. Und jetzt kann ich diese Datei speichern. Als nächstes muss ich
meinen Elasticsearch-Cluster starten. Also tippe ich
System-CTL ein und starte Elastic Search. Sobald die
Elasticsearch-Dienste gestartet sind, schauen wir uns
den Status an, indem wir den
System-CTL-Status Elasticsearch eingeben , er ist aktiv und läuft. In unserem vorherigen Video
haben wir den Befehl curl verwendet, um die Konnektivität zu diesem Cluster
zu
testen. Wenn ich nun ein Control
R mache und Curl eintippe und wenn wir diesen Befehl
erneut ausführen, schauen wir uns an, was passiert. Wir erhalten eine Sicherheitsausnahme, dass
uns die Authentifizierungsanmeldeinformationen fehlen. Was wir jetzt tun müssen,
ist, dass wir
die Authentifizierungsanmeldeinformationen
für unsere integrierten Benutzer generieren müssen. Also lösche ich den Bildschirm. Und um das zu tun, müssen
wir zu usr gehen, Elastic Search
teilen
und dann bin. Und wenn ich hier ein LS mache, wirst
du sehen, dass es viele
Dienstprogramme in diesem Ordner gibt. Das, nach dem wir suchen, ist das Dienstprogramm für das Einrichten von
Kennwörtern von Elastic S Also gebe ich Punktschrägstrich Elasticsearch
Dash-Setup-Passwörter ein. Und hier habe ich zwei Modi. Ich kann entweder in den interaktiven Modus wechseln und
jedes Passwort selbst festlegen. Lassen Sie mich Ihnen zeigen
, dass ich zuerst interaktiv
eintippe
und drücke,
und es heißt, das Einrichten
des Passworts
für reservierte Benutzer zu initiieren . Und es gibt einen Namen der Benutzer
und es besagt, dass Sie im Laufe des Prozesses zur
Eingabe von Passwörtern
aufgefordert werden .
Bitte bestätigen Sie, dass Sie fortfahren
möchten. Ich tippe zuerst hier ein. Was ich gerne möchte, ist, Elastic Search automatisch Passwörter für mich
generiert. Also machen wir das. Ich
tippe auto ein und drücke Enter. Und jetzt heißt es noch einmal, aber dieses Mal heißt es, dass die
Passwörter zufällig
generiert und per Auto auf
die Konsole gedruckt werden , die Passwörter werden
automatisch generiert, während sie
interaktiv sind vom Benutzer manuell eingegeben. Also geben wir ja ein, um meine Passwörter automatisch zu
generieren. Ich habe das Passwort ist da, also kopiere ich all diese und
bezahle in meine Notizen. Sobald ich das getan habe, lass mich das klären. Lass uns CD machen, um aus allem
herauszukommen und klar zu sein. Lassen Sie uns jetzt noch einmal unseren
curl-Befehl ausführen. Aber dieses Mal
möchte ich die Option minus u verwenden , um
den Benutzernamen und
das Passwort
direkt nach Carl anzugeben Benutzernamen und
das Passwort
direkt nach Carl Ich gebe
minus u ein und gebe Elastic als Benutzernamen ein. Elastic ist ein Superuser
im Elasticsearch-Cluster. Und dann gebe ich das Passwort für meinen
elastischen Superuser an. Also kontrolliere ich C. Ich füge es hier ein und dann lege
ich ein Leerzeichen ein. Und wenn ich jetzt die Eingabetaste drücke, werden
Sie sehen, dass ich eine Cluster-Information
abrufen kann. Auch dies bedeutet, dass unser
Cluster korrekt
eingerichtet ist und die Sicherheit und die
Kennwortauthentifizierung erwartet. Als nächstes gibt uns die Ikebana-Instanz, wenn wir versuchen, sie jetzt zu
starten, wenn wir versuchen, sie jetzt zu
starten, einen Fehler aus, da sie keine Verbindung zu Elasticsearch herstellen kann. Daher müssen wir die
Elastic Search-Anmeldeinformationen
für meine Kibana-Instanz angeben , um eine Verbindung mit dem
Elasticsearch-Cluster herzustellen. Um das zu tun,
machen wir CD ADC, Kibana, und dann unter Kibana werden wir die Kibana-Punkt-YAML-Datei
bearbeiten. Und in dieser Datei gehe
ich in Insert und gehe in den Abschnitt, ich in Insert und gehe in in
dem es heißt, dass Elasticsearch den Benutzernamen gelehrt hat
und der integrierte Benutzername für diese Integration
verwendet wird,
Kibana-Unterstrichensystem ist. Das ist also Benutzername. Alles, was wir tun müssen, ist
das Kennwort aufzuheben und
den Standardwert zu entfernen und das Passwort
für den Kibana-Systembenutzer zu
kopieren und es hier einzufügen. Und sobald Sie das getan haben, können
Sie diese Datei speichern. Und lasst uns den Kibana-Dienst starten. Ich bin CTO-Star Kibana. Lassen Sie uns nun einen Status erstellen und der Dienst ist
aktiv und läuft. Wenn wir jetzt die
Kibana-Webseite laden, sollten wir uns
zur Authentifizierung auffordern. Also schließe ich diesen Tab. Ich kopiere die öffentliche
IP-Adresse meines Rechners erneut und füge sie ein und
tippe 5601 ein. Und mal sehen, was
jetzt passiert, fragt
es uns nach dem
Benutzernamen und dem Passwort. Und hier unter Benutzername gebe
ich elastisch ein und
unter Passwort füge ich
das Passwort für elastischen
Superuser ein Login ein. Und jetzt können Sie sehen, dass
ich in Kibana bin und
mein integriertes User
Elastic verwende , um
alle Benutzerprofile
dieser Kibana-Instanz zu betrachten . Sie können in die Verwaltung gehen
und dann in die Stack-Verwaltung
gehen
und die Verwaltung verstehen. Sie können zu Benutzern gehen. Und von hier aus
können Sie
alle integrierten Benutzer sehen , die
bei der Konfiguration erstellt wurden , und erwarten
Sicherheit auf diesem System. Damit
sind wir am Ende
dieses Videos angekommen .
Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss.
13. Daten in unserem elk mit Kibana hinzufügen: Hey Leute, In den
letzten Vorträgen haben
wir unseren
Elasticsearch-Cluster installiert. Jetzt ist es an der Zeit, ein paar
Daten in unseren Cluster zu bringen. Zuerst werden wir Daten
ohne Zeitreihen hochladen und dann
Zeitreihendaten hochladen. Und dann zeige ich dir den
Unterschied zwischen beiden. Also lasst uns die Hände
schmutzig machen hier auf meinem Bildschirm. Ich habe meine
Elasticsearch-Instanz. Also kopiere ich seine
externe IP-Adresse, öffne einen anderen Browser-Tab, füge sie ein, und es gab 5601 und verbinde mich mit
meiner Kibana-Instanz. Sobald ich auf
der Homepage meiner Kibana-Instanz bin, gibt es ein Muster
namens Datei hochladen, also klicke ich darauf und
lade einige Daten hoch. Mit diesem Muster können
Sie nun Dateien mit einer
Größe von
bis zu 100 MB hochladen und diese können im
folgenden Format vorliegen. Es könnte eine durch Trennzeichen getrennte
Textdatei wie CSV oder TSV oder eine getrennte JSON-Datei oder eine Protokolldatei mit einem gemeinsamen
Format für den Zeitstempel sein. Für diese Vorlesung laden wir getrennte Textdateien hoch, die entweder CSV oder TSV sein
könnten. Um nun einen Datensatz
für dieses Tutorial zu erhalten, öffne
ich einen weiteren
Browser-Tab und
gehe zu einer Website
namens kaggle.com. Und auf Kaggle.com
gehe ich zu Datensätzen. Also treffe ich Enter. Jetzt müssen
Sie sich auf dieser Website
registrieren oder sich auf dieser Website
anmelden , um die Datensätze
herunterzuladen. Und
wenn Sie das aus dem
linken Navigationsmenü tun, suchen Sie mit
diesem
Suchstatus die Schaltfläche „Beenden“ nach den Datensätzen. Jetzt können Sie auch nach
den gewünschten Datensätzen filtern. Da ich zum Beispiel
nur bis zu 100 MB Dateien hochladen kann , gebe
ich hier 100 MB ein
und tippe den Typ CSV ein. Und die anfängliche
Dateigröße könnte zwischen 0 und b liegen und militärisch gelten. Nun klicke
ich aus den Ergebnissen auf den Datensatz
namens Netflix-Shows. Und hier sehe ich die Größe dieses Datensatzes,
der etwa 90 KB
beträgt. Wenn ich auf „kompakt“ klicke, sehe
ich einige
Beispieldaten im Datensatz. Und jetzt klicke ich auf Download
, um diese Datei herunterzuladen. Diese Datei wird
als Zip-Datei heruntergeladen. Also zeige ich im Finder
und von einem Finder-Fenster aus, es ist in meinen Downloads. Also doppelklicke ich
darauf, um diese Datei zu extrahieren. Und jetzt können Sie sehen, dass ich die Datei netflix dot csv auf meinem Computer habe,
geht jetzt zurück zu Kibana. Ich kann diese Datei entweder
per Drag & Drop ziehen, aber ich kann diese Datei hochladen. Also gehe ich hier zu meinen Downloads. Ich suche nach dieser Akte. Also netflix dot CSV, und ich klicke auf Öffnen. Was Kibana jetzt
macht, ist, dass es
die ersten tausend
Zeilen dieser Datei analysiert die ersten tausend
Zeilen dieser Datei und einige
Daten über diese Datei gesammelt hat. Zum Beispiel hat es
herausgefunden, dass es sich eine durch Trennzeichen getrennte Datei handelt und das
Trennzeichen ein Komma ist, und es hat auch eine Kopfzeile. Jetzt können wir auf die
Einstellung „Überschreiben“ klicken , um einige
Einstellungen für diese Datei zu überschreiben. Oder ich schaue mir die
Analyseerklärungen an, um herauszufinden, wie Kibana
zu dieser Schlussfolgerung gekommen ist. Also klicke ich
darauf und Sie können eine Erklärung dieser
Analyse sehen , die ich jetzt am nächsten werde, Sie können auch
einige Dateistarts sehen. Zum Beispiel gibt es 13 verschiedene
Bewertungswerte in 999 Dokumenten. Sobald ich das alles durchgemacht habe, klicke
ich auf Importieren,
um diese Daten auf
der nächsten Seite zu importieren und bittet mich
, einen Index zu erstellen. Ich kann es entweder mit einer
einfachen Methode oder einer erweiterten
Methode für diese Demo tun , wir verwenden nur die einfache
Methode und den Indexnamen. Ich muss den Namen
des neuen Indexes angeben , der erstellt
wird. Also nenne ich es Netflix-Index. Jetzt ist Index die Art und Weise, wie Sie Daten
in Elasticsearch speichern. Die nächste Option besteht darin, ein Indexspektrum zu
erstellen. Im Vergleich zu einem Index ist
ein Indexmuster, wie Sie
diese Daten in Kibana
suchen und analysieren können , Index dient zur Speicherung von
Daten in Elasticsearch, ein Indexmuster besteht darin, diese Daten
zu analysieren. Und Kibana, ich möchte, dass ein
Indexmuster erstellt wird weil ich
diese Daten und Kibana visualisieren möchte. Also klicke ich auf Import. Dann können Sie sagen, dass es zuerst die Datei
verarbeitet, dann den Index
erstellt, eine Aufnahme-Pipeline erstellt
und die Daten hochlädt und dann ein
Indexmuster für diese Daten erstellt. Sobald dies erledigt ist, erhalten
Sie eine
vollständige Importnachricht. Sie können diese Daten entweder
in einer
Indexverwaltung entdeckt machen . Sie
können beispielsweise angeben, wann diese Daten wieder
aus dem Index usw.,
etc. Manager, Indexschaltfläche gelöscht werden . Und wir werden etwas später über
File sprechen. Aber im Moment möchten wir diesen Index
in unserer historischen Registerkarte entdecken,
um zur Discover-Seite zu
gelangen.
Eine andere Möglichkeit besteht darin, diese drei Zeilen
von oben links und dann
unter Analytics anzuklicken diese drei Zeilen
von oben links und dann und dann zu diskutieren Unter der entdeckten Seite
auf der linken Seite ist
die erste Information der Indexurin. Wenn Sie mehrere Indizes hatten, können
Sie auf
dieses Dropdown-Menü klicken und den Index
auswählen, in dem
Sie sich befinden möchten, dann haben Sie die
verfügbaren Felder. Und wenn Sie beispielsweise mehr als
ein paar Felder haben, einige Indizes
100 Meter oder mehr haben, können auch nach
Feldnamen in diesem Feld suchen. Wenn ich sagen wollte,
suche nach Bewertung und ich bekomme alle Felder, die
das Wort „Rating Oil“ haben. Entferne das. Auf der rechten Seite ist
die erste
Information die Anzahl der Treffer oder die Anzahl der
Dokumente in diesem Index. Wir haben also 1000 Dokumente und dann jedes einzelne Dokument, wenn ich das erweitere, können
Sie alle Felder und
ihre Werte sehen , die sich
in diesem Dokument befinden. Jetzt sehen
Sie gegen jedes Feld vier Knöpfe. Die erste Schaltfläche wird
nach Wert gefiltert. Wenn ich das wollte, kann
ich in
meinem Indexfilter für alle Dokumente mit
einer Bewertungsbeschreibung von 80 auf diesen
Button klicken und es wird mein Filter oben links hier
angezeigt. Und es filtert die Ergebnisse
auf meinem entdeckten Tab, alle Ergebnisse, die zu meinem Filter
passen. So können Sie von 1000 sehen, ich 15 Treffer habe, bei denen die Bewertungsbeschreibung 82 Entfernungsfilter
war. Ich klicke einfach darauf. Xnor Schulden waren, wenn Sie
nach einem
bestimmten Wert filtern möchten , können
Sie auch einen Wert herausfiltern. Zum Beispiel möchte
ich dabei alle Filme, die 2004 nicht veröffentlicht
wurden. Filtern Sie für das
Release-Jahr 2004 heraus. Also klicke ich auf dieses Minus, und das wird
mir alle Filme geben, in denen das Veröffentlichungsjahr nicht 2004 ist. Und wieder entferne ich das und experimentiere
die Dokumente. Als nächstes werden
Spalten in einer Tabelle umgeschaltet. In dieser Tabelle
gibt es ab sofort keine Spalten, wenn Sie
Spalten einführen möchten, damit Ihre Tabelle besser aussieht, nach denen Sie
suchen können. Wenn ich zum Beispiel möchte, dass die
erste Spalte Titel ist, käme
ich gegen den Titel. Ich klicke auf
Spalte in Tabelle umschalten. Und jetzt können Sie sehen, dass alle meine
Dokumente nach Titel sortiert sind. Als Nächstes möchte ich, dass meine
Kolumne Elisa ist. Ich klicke neben dem Veröffentlichungsjahr auf die Spalte Toggle in der Tabelle. Und als nächstes möchte ich, dass meine nächste Spalte
die Benutzerbewertung ist. Und ich klicke auf
Toggle Spalte in Tabelle , um auch die Bewertung der
Benutzerbewertung einzubeziehen. Um keine
der umgeschalteten Spalten zu entfernen, gehe
ich einfach zu diesem Feld
und entferne diese Spalte. Jetzt kann ich auch nach
dieser Kolumne sortieren. Wenn ich zum Beispiel auf diesen Pfeil
klicke, wird die Punktzahl der
Benutzerbewertung aufsteigend sortiert. Lassen Sie mich das also minimieren. Und wenn ich darauf klicke, wird die
Benutzerbewertung
aufsteigend sortiert . Und wenn ich
es auf absteigend verschieben möchte, klicke
ich erneut darauf und
es wird das jetzt
durch Absteigend sortieren. Als Nächstes können Sie
diese Suchleiste verwenden oder Ihren Datensatz mit der
Kibana-Abfragesprache
durchsuchen. Lassen Sie uns also zuerst
alle Filme sehen, die im Jahr
zweitausend aus meinen Feldern
veröffentlicht wurden . Ich schaue
mir an, welches Feld mich hier freigelassen habe. Das Feld
heißt also tatsächlich Release-Jahr. Also tippe ich diese Elisa ein und jetzt kann ich ein paar Operatoren anwenden. Zum Beispiel
bedeutet Doppelpunkt, dass diese Version hier gleich einem
Wert kleiner ist als, gleich ist das
Louisiana kleiner oder gleich Wert größer oder gleich was es
vorschlägt, weniger
als, größer als Doppelpunkt und ein Stern, um anzugeben, ob mein Datensatz ein Release-Jahr in
irgendeiner Form
enthält , die
alle Dokumente herausfiltert , die für
dieses bestimmte Feld
null oder leere Werte haben . Sagen wir 2004. Und jetzt klicke ich auf Update. Und das zeigt mir alle Titel, die 2004 veröffentlicht
wurden. Um dies noch einmal zu überprüfen,
füge ich hier freigegeben hinzu,
indem ich auch auf dieses
Pluszeichen auf meinem Tisch klicke. Also plus, und jetzt kannst du es etwas einfacher
sehen. Nehmen wir an, ich möchte meiner Suche noch
ein Kriterium hinzufügen . Was ich tun kann ist, dass ich
nach
meiner ersten Suche ein Leerzeichen setzen kann und entweder ein UND oder
ODER ADD machen kann, ist im Grunde beide
Argumente müssen wahr sein. Also tippe ich N ein und in
meinem Ergebnisset möchte
ich diesmal nur die Filme einer
Benutzerbewertung von 80 und höher
haben. Also gebe ich den Benutzer und wähle den Wert für die
Benutzerbewertung ausfüllen. Und ich möchte, dass der Wert
80 und höher ist, also größer als
ein Gleichheitszeichen. Und dieses Mal tippe ich
80 ein und klicke auf Update. Von diesen
ersten Versuchen haben
wir nur diese vier Treffer. So können Sie also die
Kibana-Abfragesprache verwenden , um
nach Ihrem Datensatz zu suchen. Wenn Sie
diese Abfrage speichern möchten, z. B. wenn diese Abfrage mehrmals
wiederholt wird, können
Sie diese speichern, indem Sie
auf dieses Diskettensymbol klicken. Ich klicke darauf und klicke auf Aktuelle Abfrage speichern. Und ich werde meine Demo-Anfrage
als Namen dieser Abfrage sagen. Da unser Datensatz kein
Zeitstempelfeld hat, werde
ich keinen Zeitfilter
einschließen angeben, aber wenn es
Filter in meinem Datensatz gibt, wenn ich sie einschließen wollte, kann
ich das wie ja auswählen, es habe ich keinen Filter eingefügt, also entferne ich den
und klicke auf Speichern und meine Abfrage wurde gespeichert. Wenn ich das nächste Mal meine gespeicherte Abfrage wiederverwenden möchte. Wenn ich all dies
entferne,
klicken Sie auf Aktualisieren, um zu meinem ursprünglichen Set
zu gelangen, klicken Sie auf dieses
Dropdown-Menü neben dem Diskettensymbol und
klicken Sie auf meine Anfrage. Sie können sehen, dass ich dieselbe Abfrage
schnell für meinen Datensatz erneut ausführen
kann . Als nächstes laden Sie als Nächstes
einige Zeitreihendaten
herunter , die zu Kaggle zurückkehren Ich gehe zu Datensätzen, die unter Datensätzen
liegen. Ich klicke erneut auf Filter. Die Dateigröße würde 0 bis 100 MB betragen. Und auf Tags
tippe ich Zeitreihen ein, und dann klicke ich auf, Es ist jetzt außerhalb der Reserven. Ich klicke auf das erste Ergebnis, Omicron Daily Cases nach Ländern. Und wenn ich runtergehe,
kann ich den Status sehen, ungefähr vier MB beträgt, und es gibt einen einzigen
COVID-Varianzpunkt CSV. Und ich kann auf kompakt klicken,
schauen Sie sich einige Beispieldaten an. Lasst uns diese Daten herunterladen. Sobald diese
Datendatei heruntergeladen wurde, öffne
ich den Finder erneut und
extrahiere diese Datei. Jetzt habe ich die
COVID-Varianzdatei. Also gehe ich zurück zu
meiner Discover-Seite, gehe zur Homepage von Kibana. Ich kann auf eine Datei hochladen klicken. Hier. Ich zeige dir eine andere Methode
, um das Gleiche zu tun. Also gehe ich hier und
dann unter Leitung gehe
ich zu Integrationen. Hier sehe ich,
dass viele Standardintegrationen in Kibana
integriert sind. Also gebe
ich zuerst eine Integration
ein wenn ich auf
eine Datei hochladen klicke , um
eine Dateiintegration hochzuladen. Wir werden
in einer bevorstehenden Vorlesung über Integrationen sprechen. Auch hier wähle ich die
Datei aus, also klicke ich auf Öffnen, damit meine Daten analysiert werden. Nun, nach
der Analyse der ersten 11000 Zeilen, Es
wird herausgefunden, dass die Daten durch ein Komma begrenzt sind. Es hat eine Kopfzeile und
es hat auch einen Zeitstempel. Und das Format für das
Zeitfeld ist ISO 8601. Jetzt klicke ich auf
Importieren und verwende die einfache Methode
erneut, um
einen Index anzugeben , und ich
gebe
diesem Index des
COVID-Unterstrich-Index einen Namen . Jetzt kann ich auf Importieren klicken. Sobald Sie die Meldung erhalten haben,
dass der Import abgeschlossen ist, sehen
wir uns diese
Indizierungserkennung an. Wenn ich jetzt
auf dieses Dropdown-Menü klicke, können
Sie sehen, dass ich zwischen
Index wechseln
kann, indem ich mein
Index-Dropdown-Menü verwende. Ich gehe zurück zum COVID-Index. Ich sehe alle verfügbaren
Felder auf der linken Seite. Und was dieses Mal neu ist,
ist dieses Zeitfilter. Im Grunde enthalten meine Daten Zeitfeldwerte zwischen dem 11.
Mai 20252022. Ich kann damit
grundsätzlich
an einem bestimmten Datum eingegrenzt werden. Nehmen wir an, ich
möchte nur zwischen dem ersten
20. Dezember, dem
21. Januar 2021 nach
Daten suchen zwischen dem ersten
20. Dezember, dem
21. Januar 2021 nach
Daten . Was ich tun kann, ist, dass ich
auf diesen Button klicke , und hier muss ich ein Startdatum
angeben. Also klicke ich vorerst auf „
absolut und klicke auf Dezember. Und ich möchte, dass dies der
erste Dezember 2020 ist, und es kann bei 0 beginnen. Wenn ich darauf klicke, klicke
ich als Nächstes auf Beendet. Und hier werde ich 2021 angeben. Ich kann das als
Januar verlassen und klicke auf einen, der ein Freitag
war. Jetzt kann ich
ein anderes Mal angeben, aber die Daten nur
bis zu 2330 oder 1130. Klicken Sie mit der rechten Maustaste darauf und
ich klicke auf Aktualisieren. Es zeigt mir nur die Teilmenge der Daten, die zu diesem
Zeitpunkt für Ihre Referenz übereinstimmen Dies ist der Unterschied zwischen Zeitreihendaten und
Nicht-Zeitreihendaten. Wenn Sie sich Ihren
Netflix-Index noch einmal ansehen, gab es keinen Zeitfilter, in dem Sie
nach
ihren Daten filtern konnten, da unsere Daten
keinen Zeitstempel hatten. nun
zum COVID-Index zurückkehren, können
Sie auch
relative Zeitrahmen angeben. Zum Beispiel können
Sie Daten von, sagen
wir, vor einem Monat
angeben, wenn ich eines habe, und Sie können wenn ich eines habe, und Sie können eines der
lateralen Felder angeben, z. B.
1 Sekunde , 1 ist eine Minute usw. etcetera. Also klick darauf. Und was hat geendet? Ich gehe wieder Relativ. Das heißt von vor einem Monat,
vor zehn Tagen, von vor einem Monat
bis vor zehn Tagen, und klicken Sie auf Update. Und das wird mir alle Daten von vor einem Monat
bis vor zehn Tagen geben. Jetzt, statt vor zehn Tagen, kann
ich jetzt auch angeben und das Enddatum
und die Uhrzeit auf jetzt
festlegen, und es wird mir unsere
Daten für den letzten Monat geben. Dies ist also der
Unterschied zwischen Zeitreihen- und
Nicht-Zeitreihendaten. Sie haben keinen
Zeitfilterwert in Daten ohne Zeitreihen. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns
im nächsten. Tschüss.
14. Visualisierungen mit Kibana erstellen: Hey Leute, jetzt, da
wir einige Daten in
unserem Cluster haben und wir
diese Daten über
den Tab „Entdecken“ untersuchen können . Es ist an der Zeit, dass wir diese Daten
visualisieren. Datenvisualisierungen ermöglichen es
Ihren Geschäftsanwendern, große
Datenmengen sehr einfach zu verstehen. Und hier kann man die Macht von Kibana
wirklich sehen. Es gibt zwei Möglichkeiten,
Visualisierungen in Kibana zu erstellen. Zunächst können Sie
Dashboard-spezifische Visualisierungen erstellen
oder
die Visualisierungsbibliothek verwenden, oder
die Visualisierungsbibliothek verwenden in Sie Visualisierungen hinzufügen können , die Sie für mehr
als ein Element
wie Dashboards benötigen oder Arbeitsunterlagen auf Leinwand. Jetzt gibt es
einige Optionen, die Sie auswählen können, wenn Sie
Ihre Visualisierungen erstellen. Erstens haben Sie ein Objektiv, das ein einfacher
Drag-and-Drop-Editor ist. Dann haben wir TSV, das für erweiterte
Analysen von Zeitreihendaten verwendet wird. Danach können Sie auch aggregationsbasierte
verwenden, die für
aggregationsbasierte Diagrammdaten verwendet wird. Sie können auch Karten auswählen, wenn Ihre Daten
Geolokalisierungskoordinaten
haben, Sie können auch
benutzerdefinierte Visualisierungen
mit der Vaguer-Syntax erstellen . Dies ist
für diesen Kurs außer Spielraum. Wir werden nicht
über diese Option sprechen. Jetzt lasst uns anfangen. In dieser Demo
erstellen wir eine Visualisierung, die die durchschnittliche
Filmbewertung nach dem Veröffentlichungsjahr
anzeigt. Zuerst geht es links im
Navigationsmenü und unter Analytics
zur Visualisierung der Bibliothek. Von hier aus
klicken wir auf
Neue Visualisierung erstellen , um
unsere erste Visualisierung zu erstellen. Und dann wählen wir Linse. Jetzt können
Sie im Objektiv-Editor zuerst aus dem linken Menü den Index auswählen, zuerst aus dem linken Menü den Index auswählen, an dem
Sie arbeiten möchten. Wenn ich zum Beispiel am COVID-Index arbeiten wollte
, wähle
ich den
COVID-Index und er zeigt mir alle Felder an, die
im COVID-Index verfügbar sind. Aber für diese Demo
wähle ich den Netflix-Index in der Mitte, wo
Ihr Diagramm angezeigt wird. Von hier aus können Sie
den gewünschten Diagrammtyp auswählen. Wenn Sie beispielsweise
eine Metriktyp-Visualisierung,
eine
Balkenvisualisierungslinie, Donut von usw.
für diese Demo wünschen eine
Balkenvisualisierungslinie, Donut von usw. ,
wählen wir einen vertikalen Balken aus. Auf der rechten
Seite
geben Sie an , welche Felder auf welchen Zugriff
gelangen. Zuerst müssen wir
eine horizontale Achse
für unsere Entwürfe definieren , ich klicke auf Hinzufügen oder
Drag-and-Drop ein Feld. Und von hier aus
wähle ich das Dropdown-Feld für das Auswahlfeld
aus und wähle hier Release. Jetzt kann ich hier die Granularität dieses
Feldes erhöhen oder verringern, aber wir belassen es als Standard. Wir können den Anzeigenamen ändern, daher werde ich das
erste Alphabet jedes Wortes groß schreiben. Sie können auch
das Werteformat angeben. Ich belasse es als Standard
und klicke auf Schließen. Als nächstes können wir
die vertikale Achse wählen. Ich klicke erneut auf Hinzufügen oder
Drag-and-Drop ein Feld. Und dann wähle
ich aus dem Auswahlfeld die Benutzerbewertung aus. Und dann werde
ich von der Selektorfunktion im Durchschnitt wählen, um die durchschnittliche Punktzahl anzuzeigen. Als Nächstes können Sie den Anzeigenamen erneut
ändern damit ich das
erste Alphabet erneut groß schreiben werde, Durchschnitt der Benutzerbewertung. Als Nächstes können Sie
das Werteformat ändern. Wenn Sie beispielsweise
möchten, dass das Format
Prozentsätze anstelle von
Zahlen sein soll , können Sie dies tun. Und dies zeigt Ihnen dann den Prozentsatz der Benutzerbewertung an. Ich belasse es vorerst als
Standard. Jetzt können Sie auch
die Serienfarbe ändern. Wenn ich zum Beispiel auf
Ceres Farbe klicke und Blau wähle, wechselt
das Diagramm zu Blau. Ich kann auch ändern, auf welcher Seite
der Achse meine Daten anzeigen, wenn ich
links klicke, was Standard ist. Wenn ich es wechseln wollte, kann
ich es nach rechts ändern. Und dies zeigt
die Daten auf der rechten Achse an. Wir belassen es als Standardwert und ich klicke auf Schließen. Jetzt, unter deiner Grafik, siehst du einige
Vorschläge von Kibana. Wenn Sie beispielsweise ein Liniendiagramm
ausgewählt hätten, wird Ihr
Diagramm auf
diese Weise angezeigt. Wenn Sie eine Metrik ausgewählt hätten, wird Ihre
Visualisierung auf
diese Weise angezeigt. Wir lassen es als das, was
wir jetzt entworfen haben, Sie können
diese Daten weiter filtern , indem Sie die
Kibana-Abfragesprache verwenden. Nehmen wir zum Beispiel an,
wir möchten nur
Daten für Filme anzeigen , die nach 1984
veröffentlicht wurden. Was ich dann
tun kann, ist, dass ich
hier klicken kann und dann das Release-Jahr eingeben
kann, und dann kann ich wählen, dass es
größer oder gleich ist. Und dann kann ich
1984 tippen und auf Update klicken. Und jetzt zeigt
unser Diagramm nur Daten für Filme, die nach 1984
veröffentlicht wurden. Als nächstes entfernen wir
den Kuchen wird filtern, und dann kann er
diese Visualisierung speichern. Zuerst müssen wir ihm einen Titel
geben, also nenne ich es durchschnittliche
Filmbewertung, indem ich hier veröffentlicht. Jetzt können wir eine Beschreibung
geben. Diese Visualisierung zeigt also durchschnittliche Filmbewertung von
Lavoisier auf Netflix. Als nächstes können wir
es unserem Dashboard hinzufügen ein neues Dashboard
für diese Visualisierung
erstellen. Aber für diese Demo wählen wir
einfach keine aus. Und Sie können sehen, dass das Kontrollkästchen Zur
Bibliothek hinzufügen standardmäßig
aktiviert wurde. Danach können Sie auch
Tags verwenden, um
Visualisierungen miteinander zu gruppieren. Jetzt klicken wir auf Tags
und klicken auf Tag erstellen. Und ich werde ein
Tag namens Netflix erstellen. Sie können die
Farbe des Tags ändern, damit ich es in Blau ändern kann
und auf Angriff klicke. Jetzt können Sie sehen, dass das
Netflix-Tag
hier aufgetaucht ist und wir können dann
auf Speichern und Zur Bibliothek hinzufügen klicken. Sobald Sie dies getan haben zur
Visualisierungsbibliothek zurückkehren, können
Sie sehen, dass Ihre Visualisierung der Bibliothek hinzugefügt
wurde. Bevor ich dich jetzt loslasse, möchte
ich
dir nur zeigen, wo Tags aus dem linken
Navigationsmenü
gespeichert werden , wenn du
unter Verwaltung aufschreibst und dann Stack-Verwaltung
hier unter Kibana Sie müssen Tags auswählen. Und hier können Sie
alle Tags sehen , die Sie in Kibana
erstellt haben. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen.
Wir sehen uns im nächsten. Tschüss.
15. Dashboard: Hey Leute,
das Dashboard besteht aus mehreren Visualisierungen
, die
Ihren Geschäftsbenutzern
eine gemeinsame Geschichte erzählen . Bevor Sie ein
Dashboard erstellen können, benötigen Sie zwei Dinge. Erstens benötigen Sie ein
klares Verständnis Ihrer Daten, und zweitens benötigen
Sie klare Anforderungen an das, benötigen
Sie klare Anforderungen an was Sie
von Ihrem Dashboard aus erreichen möchten. Als ersten Schritt
habe ich
alle Felder
auf dem Bildschirm aufgelistet, die
im COVID-Unterstrich-Index verfügbar sind . Dies ist der Index, den wir für diese Demo verwenden
werden und was
in jedem Feld gespeichert ist. Das
Standortfeld enthält beispielsweise den Namen des Landes, für das
die Varianteninformationen
bereitgestellt werden. Datum gibt das Datum
der Dateneingabe an. Variant ist der Name der Variante , die dieser
bestimmten Dateneingabe
entspricht. Anzahl der
Unterstrichsequenzen enthielten die Anzahl der
Sequenzen Prozess und Prozentsequenzen
enthalten einen Prozentsatz der Sequenzen aus der
Gesamtzahl der Sequenzen. Und schließlich Num Sequenzen. Summe ist die Gesamtzahl der Sequenzen für das Enddatum dieser
Ländervariante. Jetzt werden
wir im Rahmen dieser Demo drei
Visualisierungen in unserem Dashboard erstellen. Zunächst erstellen wir eine Reihe
einzigartiger COVID-Fälle
weltweit Visualisierung. Zweitens werden wir eine
Visualisierung erstellen, die
die Gesamtzahl der Sequenzen
für die zehn wichtigsten Länder darstellt . Und schließlich
erstellen wir eine Visualisierung , die Ihnen die Varianz
nach Top-Ländern anzeigt. Also lasst uns anfangen. Hier auf der
Kibana-Seite, um
ein Dashboard zu erstellen , wird zuerst
das linke Navigationsmenü aufgerufen. Dann gehen wir
unter Analyseeffekte zum Dashboard. Und um ein Dashboard zu erstellen, klicken Sie zuerst auf
Neues Dashboard erstellen. , Wenn Sie nun auf dieser Seite auf
Visualisierung erstellen klicken um
unsere erste Visualisierung zu erstellen, die
Teil dieses Dashboards sein wird. Zuerst ändern wir
den Datensatz von 15 Minuten auf vor 15 Wochen. Hey Leute, In dieser Vorlesung erstellen
wir ein
Kubernetes-Dashboard. Ein Dashboard besteht aus mehreren Visualisierungen
, die
Ihren Geschäftsbenutzern
eine gemeinsame Geschichte erzählen . Bevor wir beginnen, benötigen wir zwei Dinge, um
unser Dashboard zu erstellen. Erstens müssen wir ein klares
Verständnis für unsere Daten haben. Und zweitens müssen wir
ein klares Verständnis
der Anforderungen haben , was wir im Grunde genommen von
diesem Dashboard erreichen
wollen. Als Teil der
ersten Anforderung habe
ich alle Felder
aufgelistet, die im
COVID-Unterstrich-Index verfügbar sind , und welche Daten jedes dieser
Felder enthält. Das
Standortfeld enthält beispielsweise den Namen des Landes, für das die
Varianteninformationen bereitgestellt werden. Das Feld Num
Unterstriche enthält die Anzahl der Sequenzen, die für dieses Land, diese
Variante und das Datum usw.
verarbeitet werden. Was wir in
diesem Dashboard tun werden, ist, dass wir drei Visualisierungen
haben werden. Zunächst haben wir die
Visualisierung, die die Anzahl
der einzigartigen
COVID-Varianz weltweit darstellt . Zweitens werden wir eine
Visualisierung haben, die die
Gesamtzahl der Sequenzen
für die zehn wichtigsten Länder darstellt . Und schließlich werden wir
eine Visualisierung haben, die Varianten nach oben
verteilten Ländern
bietet. Lasst uns also anfangen,
ein Dashboard von meiner
Kibana-Homepage aus zu erstellen . Ich klicke auf das linke
Navigationsmenü und
klicke dann auf das Dashboard von
der Dashboard-Seite Ich klicke auf
Neues Dashboard erstellen von hier aus, ich werde zuerst Ketten, die die Daten statt vor drei Monaten
sein werden, drei Jahren, dass wir nach allen Daten in
diesem Index suchen und ich werde auf Update
klicken. Sobald ich das getan habe,
klicke ich auf Visualisierung erstellen. Jetzt
ist die erste Visualisierung
, die wir erstellen müssen, die Anzahl einzigartiger
COVID-Varianz weltweit. Also wählen wir zuerst die Metrik aus. Dann klicke ich unter Metrik auf
Hinzufügen oder
Drag-and-Drop entfernt. Aus dem Auswahlfeld wähle
ich
eine Variante aus und klicke
dann auf Flows. Aus dieser Visualisierung können
wir den Wert der
Anzahl der eindeutigen Varianz
in unserer Datenbank ermitteln. Jetzt klicke ich
auf Speichern und zurück. Danach klicke ich erneut auf Visualisierung
erstellen. Und für meine zweite Visualisierung muss
ich die Gesamtzahl der
Sequenzen für die zehn besten Länder darstellen . Also gehe ich zurück zu meiner
Kibana-Objektiv-Webseite. Jetzt werde ich hier den
Diagrammtyp zwei Balken vertikal ändern, und dann wähle
ich für die horizontale Achse die
Feldposition und wähle
Top Ten Werte aus. Und dann klicke ich auf Schließen. Jetzt werde
ich für die vertikale Achse erneut anzeigen oder ziehen
und ablegen. Und dann wähle ich
das Feld Num
Unterstrichensequenzen aus. Und dann klicke ich unter
Selektorfunktion auf etwas. Dann klicke ich auf „Schließen“. Dies gibt mir die Gesamtzahl der Sequenzen
für die zehn besten Länder. Dies sind alle Varianten
von COVID für dieses bestimmte Land
in diesem Datumsbereich. Also klicke ich
danach erneut auf
sieben zurück für unsere
dritte Visualisierung, ich klicke auf Visualisierung
erstellen. Und dieses Mal muss ich eine Variante
erstellen, die nach Top-Ländern
verteilt ist. Also werde ich den
Diagrammtyp zwei Balken erneut vertikal ändern. Und für die horizontale Achse wähle
ich den Standort und ändere ihn in die zehn wichtigsten Länder. Als Nächstes
wähle ich die vertikale Achse, die
Feldnummer-Unterstrichsequenzen. Und dieses Mal
wähle ich das
Funktions-Maximum aus und klicke auf Schließen. Danach werde ich
diese Daten nach der
Anzahl der Varianten aufschlüsseln . Also klicke ich auf
ein Feld und eine Aufschlüsselung hinzufügen oder ablegen, und dann wähle ich eine Variante aus. Und von hier aus kann ich
die Anzahl der Werte angeben , die ich zeigen wollte. Standardmäßig sind es drei, daher werden nur
die ersten drei dargestellt. Da wir aber viel
für die Gesamtvarianz haben, kann
ich hier auch 20 Volt eingeben. Und dann wird
es für jedes Land die Daten
nach allen Varianten aufschlüsseln, die
auf Schließen klicken und ich fahre mit dem Mauszeiger über
die Daten für die Vereinigten Staaten, Sie können die Details sehen wie viele Fälle für jede
einzelne Variante von COVID, Es kommt innerhalb eines
bestimmten Datumsbereichs, der die letzten drei Jahre beträgt. Jetzt klicke ich
auf Speichern und zurück. Und in diesem Dashboard können wir
die drei verschiedenen
Visualisierungen sehen . Was ich jetzt tun kann, ist, dass ich dieses Dashboard
speichern kann .
Ich kann ihm einen Namen geben. Also COVID-Dashboard
und unter Tags klicke
ich auf „Tag erstellen“, gebe
ihm dann den Tag-Namen von COVID und klicke auf Tags erstellen. Ich kann auf Speichern klicken. Wenn Sie jetzt
Zeit mit dem Dashboard speichern möchten, können
Sie dies tun, aber
ich belasse sie als Standard und klicke auf Speichern. Sobald das Dashboard gespeichert ist, können
Sie zum Dashboard zurückkehren. Dieses Dashboard erneut,
Sie klicken einfach
darauf und um
verschiedene Daten anzusehen, müssen Sie nur tun
,
wenn ich zum Beispiel von vor drei Jahren
auf drei Wochen wechsele und auf Update klicke, Sie werden sehen, dass sich die Ergebnisse von selbst
ändern. Oder wir hatten die letzten drei Wochen keine Daten
. Deshalb zeigt es
eine Bekanntmachung. Aber wenn ich sagen sollte, sagen wir drei Monaten und
klicke auf Update, werde
ich
die Daten wieder sehen. So können Sie mit dieser Begrüßung
am Ende
dieser Vorlesung
ein Kibana-Dashboard erstellen mit dieser Begrüßung
am Ende
dieser Vorlesung
ein Kibana-Dashboard . Danke fürs Zuschauen. Wir sehen uns
im nächsten Byte.
16. Zeichenfläche: Hey Leute, Gabbana Canvas ist ein Datenvisualisierungs
- und Präsentationstool , mit dem Sie Live-Daten von
Elasticsearch
ablegen und sie dann mit Farben,
Bildern und Lehrbüchern
anreichern können Präsentationen
für Ihre Geschäftsanwender. Jetzt verwendet Canvas Arbeitsblöcke,
um Visualisierungen,
Bilddecks usw. hinzuzufügen , um Ihre Präsentation zu
erstellen. Lassen Sie uns also die Hände schmutzig machen, nicht von der Kibana-Homepage. Um zu Canvas zu gelangen, müssen
Sie auf das
linke Navigationsmenü klicken. Und dann müssen
Sie unter Analytics auf Canvas klicken, um
nicht unsere erste Arbeit zu erstellen, aber ich muss
auf Arbeitsmappe erstellen klicken. Und von diesem Grün aus können
Sie Ihr erstes Element hinzufügen, können
Sie Ihr erstes Element hinzufügen indem Sie auf die Schaltfläche Element
hinzufügen klicken. Das erste Element
wird Texte verwenden. Jetzt können Sie
dieses Element verwenden, um Ihrer Präsentation
mithilfe der Markdown-Sprache Text hinzuzufügen um Ihrer Präsentation
mithilfe der Markdown-Sprache Text . Also werde ich diesen
Text per sagen
Willkommen bei der
Netflix-Index-Präsentation ändern . Ich werde diesen
Text entfernen und ich werde sagen, hier ist die Übersicht der Daten
im Netflix-Unterstrich-Index. Darunter sehen
Sie, dass es sich auf einige Informationen
in den Demodaten bezieht. Zum Beispiel gibt es Ihnen die Zeilenlänge
und
gibt Ihnen dann alle Spaltennamen
mit jedem Spalten-Attribut . Es hat also alle Spaltennamen, aber dies spiegelt die
Demodaten für dieses Element wider. Also klicke ich zuerst auf Bewerben. Und nachdem ich das getan habe, klicke
ich auf Daten und ändere die Datenquelle von
Demodaten in Elastic Search. Und dann stelle ich
sicher, dass ich auf
Netflix-Index
bin und klicke auf Speichern. Und sobald ich auf Speichern klicke, sehen
Sie, dass dieses Textfeld
jetzt die Daten aus
meinem Netflix-Index
widerspiegelt. Nun, zum zweiten Element, Fügen
wir die Visualisierung hinzu, die wir in unsere
Visualisierungsbibliothek aufgenommen haben. Klicke auf Element hinzufügen und dann klicke
ich auf Aus Kibana hinzufügen. Und dann wähle ich
die Visualisierung , die wir in der
Visualisierungsbibliothek gespeichert haben. Und als nächstes bewegen wir
es auf die Seite. Jetzt können Sie
den Zeitfilter
ändern indem Sie auf die Uhrzeit klicken. Wenn ich zum Beispiel von den letzten 15 Minuten
wechseln wollte, um uns sagen
zu lassen, dass wir die letzten 30
Minuten sagen, kann das tun. Und dieses Panel wird
die Änderung in der Zeit widerspiegeln. Als drittes Element erstelle ich ein Diagramm. Also klicke ich auf Element hinzufügen, klicke auf Diagramm und klicke dann auf Metrik, und dann verschiebe ich diese Metrik unter mein
Visualisierungselement. nun für diese Metrik Lassen Sie uns nun für diese Metrik die Datenquelle
erneut in Netflix-Index ändern. Und ich klicke für eine Minute auf
Speichern. Dies wird uns einen Fehler geben, aber lassen Sie uns weiter zur Anzeige gehen. Jetzt brauchen wir für die Maßnahme
einen eindeutigen Titelwert. Jetzt ist das
Metrikformat nummeriert, aber wir müssen das Label ändern. Also ersetze ich Länder
durch einzigartige Filmtitel. Dies ist die Anzahl der eindeutigen Filmtitel
in unserem Netflix-Index. Als nächstes können wir auch
die metrischen Texte ändern. Nehmen wir an, wir wollen, dass die
Matrix rosa ist. Warum lassen Sie uns das nicht machen? Und wir können auch
die Größe, Schriftart und
Farbe unseres Etiketts ändern . Sagen wir, ich möchte, dass meine
Schriftart Helvetica ist. Also klicke ich darauf und
ändere die Größe ein wenig, also ändere ich sie auf 24. Und sagen wir, ich möchte, dass
die Farbe grün ist, also wähle ich das aus. Eigentlich scheint das besser zu sein. Jetzt kann ich die Größe
meiner Visualisierung anpassen. Wissen Sie als Nächstes, fügen wir ein Bild hinzu. Also klicke ich auf Limit bearbeiten. Ich klicke auf Bild und klicke dann erneut
auf das Bild. Jetzt gibt uns das
ein Standardbild. Also minimiere ich das für ein bisschen. Und ich kann ein Bild
mithilfe der Schaltfläche Importieren importieren. Es kann einen Link
zu einer Bild-URL bereitstellen. Vorerst klicke ich auf Import und
klicke dann auf Auswählen
oder Drag & Drop ein Bild. Jetzt wähle ich ein Bild
aus meinem Download-Ordner aus. Und sagen wir, ich möchte
mein Gesicht bei dieser
Präsentation hier zeigen . Um diesen
Arbeitsblock im Vollbildmodus anzuzeigen, müssen
Sie nur auf
diese Vollbild-Schaltfläche klicken und Sie werden alle
Informationen im Vollbildmodus sehen. Ich werde vorerst aus dem
Vollbildmodus verlassen. Jetzt wird dieser Rücklauf
automatisch gespeichert. Wenn ich zu Canvas gehe und mein Buchbett hier sehen
kann, kann
ich auf die
Arbeit klicken, aber wieder bekomme
ich alle
Datenelemente, die diese Arbeit teilen. Aber ich kann auf Teilen klicken
und entweder
einen PDF-Bericht erstellen , damit ich ein
ganzseitiges Layout auswählen und auf PDF generieren
klicken kann . Und jetzt heißt es, dass
Ihre Basislizenz keine PDF-Berichterstattung unterstützt. Wenn Sie also eine
Produktionslizenz hätten, können
Sie den PDF-Bericht
herunterladen. Klicken wir nun erneut auf Teilen. Wenn Sie nun auf einer Website auf
Teilen klicken, erhalten
Sie
Anweisungen, wie Sie diese Leinwand
auf der Website freigeben können. Als Nächstes können wir dies auch als JSON
herunterladen. Also klicke ich auf Als JSON
herunterladen und es wird das
JSON für diese Arbeit herunterladen, schwer den
Namen dieses Buches zu ändern, aber ich kann nach Ed-Einstellungen
wie Ed-Einstellungen
arbeiten und den
Namen in Netflix ändern. Geh zurück. Jetzt kann ich
einige Details wie
die Auflösung ändern , wenn ich
irgendwelche Variablen in dieser Arbeit habe , die globale CSS-Einstellungen
tragen usw. Aber im Moment können Sie so eine Kibana-Leinwand
erstellen, die damit besser
funktioniert. Kommen Sie zum Ende dieser Vorlesung. Danke fürs Zuschauen. Wir sehen uns
im nächsten. Tschüss.
17. Auth: Hey Leute, In dieser Vorlesung gebe
ich Ihnen einen
schnellen Überblick über Authentifizierungsrealms, die uns in Elastic Search
zur Verfügung stehen.
Authentifizierungsrealms
werden verwendet, um Benutzer und Anwendungen
gegen Elastic suchen, gibt es zwei Haupttypen
von Authentifizierungsrealms. Die erste ist interne
Authentifizierungsribs. Diese sind intern bis
elastische Suche und es
gibt keine Integration in
ein externes System. Diese Art von Zimmer wird vollständig von Elastic Search
verwaltet. Es kann nur maximal
ein konfigurierter Realm sein, aber ein interner DLM-Typ. Schauen wir uns nun
ein Beispiel für jeden
internen Lehmtyp an. Der erste ist der native
Authentifizierungsbereich. Und die native
Authentifizierungskuppel ist der Ort, an dem Benutzer in einem dedizierten
Elasticsearch-Index gespeichert
werden. Dieser Bereich unterstützt
und
Authentifizierungstoken in Form
von Benutzernamen und Passwort und ist standardmäßig
verfügbar wenn Low Realms
explizit konfiguriert sind. Denken Sie also daran, dass bei
der
Installation von Elasticsearch ein Skript verwendet wurde, um Passwörter für
unsere elastischen und
Kibana-Unterstrichen-Systembenutzer
zurückzusetzen . Diese Benutzer werden
unter nativer Authentifizierung konfiguriert. Dies allein ist
auf der kostenlosen Lizenz verfügbar. Akte. Der
Authentifizierungsbereich ist auch ein interner Authentifizierungsbereich, der kostenlosen Lizenz
verfügbar ist. Dieser Bereich ist, dass sehr
Benutzer in
Dateien definiert sind , die auf jedem Knoten
im Elasticsearch-Cluster gespeichert sind. Dieser Bereich unterstützt
und
Authentifizierungstoken in Form von
Benutzernamen und Passwort und ist immer verfügbar. Werfen wir danach
einen kurzen Blick auf die
Außenbereiche. Externe Authentifizierung erfordert
keine Interaktion mit Parteien und Komponenten, die außerhalb
der elastischen Suche sind, wie Microsoft
Active Directory oder einer anderen
Anwendung der Unternehmensklasse. Wenn Sie einen
Produktionsraster-Cluster betreiben, ist es sehr
wahrscheinlich, dass Sie einen externen Bereich konfigurieren
müssen. Unter
Elasticsearch-Cluster können Sie
beliebig viele externe, wenn Sie möchten,
jeweils einen eigenen eindeutigen
Namen und eine eigene Konfiguration haben beliebig viele externe, wenn Sie möchten, jeweils einen eigenen eindeutigen
Namen und eine eigene Konfiguration Die Elastic
Stack-Sicherheitsfunktion bietet die folgende
externe Referenz typ. Also LDAP, Active Directory, PKI-Authentifizierungssymbol Kerberos oder IDC. Nein, Authentifizierungsbereich ist, verwendet einen externen Webserver,
um seine Benutzer zu authentifizieren. Die Benutzer werden also auf
einem externen
Authentifizierungsserver gespeichert , und wir integrieren uns mit diesem
Server, um Benutzer zu authentifizieren. Dieser Bereich unterstützt
ein
Authentifizierungstoken in Form
eines Benutzernamens und Kennworts und erfordert eine
explizite Konfiguration um verwendet zu werden. Als Nächstes haben wir den Active
Directory-Authentifizierungsbereich. Diese Runde verwendet einen externen
Active Directory-Server, der
die Benutzer angibt, in denen Ihre
Benutzer gespeichert sind. Beispielsweise
werden Microsoft AD-Benutzer mit Benutzernamen authentifiziert und Passwörter wurden Realm
authentifiziert Benutzer mit Public-Key-Infrastruktur, öffentlichem Schlüssel und privatem Schlüssel. Dieser Bereich arbeitet in
Verbindung mit SSL und TLS und
identifiziert den Benutzer
durch seinen ausgezeichneten
Namen oder die DNA des Clients,
das
509-Zertifikat extrahiert. Wenn wir diese Zeile verwenden, benötigen
Sie Zertifikate, die auf Benutzern
installiert sind. Sam Hill erleichtert die Authentifizierung mit dem
SAML 2 Web SSO-Protokoll. Dieser Bereich wurde entwickelt, um die Authentifizierung über
Kibana zu
unterstützen und ist nicht
für die Verwendung in der restlichen API vorgesehen. Jetzt ist Kerberos, dass Realm den Benutzer mit
Kerberos-Authentifizierung
authentifiziert, Benutzer werden
auf der Grundlage von Kerberos-Tickets authentifiziert oder IDC
ist, das die
Authentifizierung mit
OpenID Connect erleichtert ermöglicht die elastische Suche als
angehörige OpenID Connect Partei
und bietet SSO-Unterstützung. In diesen Vorträgen werden
wir nun die native
Authentifizierung verwenden, werden
wir nun die native
Authentifizierung verwenden um eine Verbindung zu unserem
Elasticsearch-Cluster herzustellen. Für Ihre Produktions-Cluster ist es sehr wahrscheinlich
, dass Sie einen
dieser externen Realms konfigurieren müssen . Was ich tun werde, ist, dass ich
einige Links zu verschiedenen URLs bereitstelle einige Links zu verschiedenen URLs wie Sie jeden
dieser Realms in Ihren
Produktionsclustern konfigurieren können . Damit sind wir
am Ende dieser kurzen Vorlesung gekommen. Danke fürs Zuschauen.
Wir sehen uns im nächsten. Tschüss.
18. Benutzer und Rollen: Hey Leute, bisher haben
wir in dieser Demo
den elastischen Superuser benutzt, bisher haben
wir in dieser Demo
den elastischen Superuser benutzt um uns
gegen unseren Cluster zu authentifizieren. Dies ist in Ordnung für unser Demo-Labor, aber in einer Produktionsumgebung haben
Sie möglicherweise
Hunderte von
Menschen , die sich authentifizieren müssen,
und Sie
möchten das Passwort für
Ihren Superuser nicht jedem teilen benutzer. Geben Sie nun Rollen ein. Rollen sind eine Sammlung von
Berechtigungen, mit denen Sie Aktionen und
Kibana und Elastic Search ausführen können. Diese Rollen geben Ihnen jetzt die
Berechtigung,
einige Aktionen gegen Ihren
Kibana Elasticsearch-Index durchzuführen. Beispielsweise möchten einige Benutzer möglicherweise nur Dashboards erstellen können
. Die anderen, die Sie
möchten,
dass sie Ihre Indizes weiter
verwalten, Ihre Indizes weiter
verwalten, möglicherweise
gibt es eine Gruppe, die als
Administrator
Ihrer Kibana-Instanz fungieren muss .
Was Sie
tun müssen, ist, dass Sie erstellen Sie Rollen für jeden
dieser verschiedenen Benutzertypen. Jede Rolle mit unterschiedlichen
Zugriffsebenen, dann weisen Sie diese Rolle zu, jedem dieser Benutzer, Benutzern werden nicht direkt Berechtigungen
gewährt, sondern stattdessen wird
eine oder mehrere Regel zugewiesen , die beschreibt die
gewünschte Zugriffsebene. Wie gesagt, kann
wunderbar
Benutzern nur Zugriff auf die
Dashboards geben . Wenn Sie
Benutzern jetzt mehrere Rollen zuweisen, erhält
der Benutzer eine Vereinigung
der Rollenberechtigungen. Nehmen wir an, Sie
haben zwei Indizes, Index und Index b.
Und Sie haben eine Rolle, die Zugriff auf Index
eine Registrierung
gewährt , wenn Sie einen
Überschuss an Index B gewährt Jetzt nehmen wir an, Sie
haben einen Benutzer und diesem Benutzer erhält diese Rollen
Board zugewiesen. Da er diese beiden Rollen
hat, wird
die Vereinigung dieser beiden
Rollen es ihm ermöglichen auf Daten sowohl
aus Index als auch aus Index b zuzugreifen ,
auf Daten sowohl
aus Index als auch aus Index b zuzugreifen. Zum Beispiel
könnte das alle
Beats-Unterstrichensystem den Zugang tanzen, der
für die Strandsysteme,
Metrik, Köder, Herzschlag,
dateibasiert usw. erforderlich ist, um
Daten auf Systemebene an Elastic Search zu senden. Kibana unterstreicht eine Systemregel , die für den
Kibana-Systembenutzer keinen Überschuss erforderlich ist,
von
den Kibana-Indizes zu lesen und in sie zu schreiben. Und wenn Sie sich daran erinnern, dass wir
bei Konfiguration des Elasticsearch
- und Kibana-Systems das Passwort für
diesen Benutzer in unserer
Kibana-Dot-YAML-Datei konfiguriert
haben . Jetzt
verfügt Elastic Search auch mit einem
Superuser-Elastic , das Zugriff auf
alle Bereiche in Ihrem Cluster gewährt. Es ist also voller Systemzugriff. Als Sicherheitsmaßnahme möchten
Sie sich jetzt nicht mit
diesem Benutzer anmelden , nachdem Sie das System
bereitgestellt haben. Und im Rahmen
Ihrer Bereitstellung stellen
Sie entweder
Administrator- und Superbenutzer , die mit
einer Person verknüpft werden können , die diese Rolle übernehmen wird
. Und sobald Sie das getan haben, möchten
Sie
diese Super-User-Passwörter an
einem sicheren Ort speichern diese Super-User-Passwörter an und
nie wieder verwenden. wir zu unserer
Kibana-Instanz zurück, um zu sehen, wie wir Rollen und Benutzer erstellen
können, um
keine benutzerdefinierte Rolle zu erstellen. Zuerst klicken wir
auf Rolle erstellen, dann müssen wir
einen Rollennamen für den Namen Rom angeben.
Ich gebe
administrative ein, da dies
eine
Administratorrolle ist , unter der wir konfigurieren
Cluster-Privilegien, ich klicke auf Alle. Und dann kann
ich
ihnen unter Indexberechtigungen entweder Zugriff auf einen
dieser Indizes gewähren oder da dies mein Administratorbenutzer
ist, gebe
ich hier Start ein, um ihnen Zugriff auf
alle Indizes zu gewähren. Und dann klicke
ich unter Privilegien auf Alle. Als Nächstes. Unter Kibana klicke ich zuerst auf Kibana-Privileg
hinzufügen, wir müssen ihnen Zugriff auf
alle Bereiche gewähren und dann können sie dieser Rolle
entweder einen benutzerdefinierten
Zugriff auf jedes Feature gewähren. Unter Analytics kann
ich dieser Rolle beispielsweise Zugriff auf
Dashboard usw. gewähren. Oder da es eine Admin-Rolle gibt, können
wir ihr alle
Privilegien erteilen und auf Globale
Privilegien auf Stein erstellen
klicken. Klicken wir auf Rolle erstellen. Lassen Sie uns nun als Nächstes
eine Rolle erstellen, die
nur Zugriff auf bestimmte Indizes hat . Also klicke ich auf Regel erstellen und nenne es COVID-Admin. Und wir werden den
Rest der Einstellungen
genauso belassen wie
zuvor unter Indizes. Ich wähle den
COVID-Index und
gebe dieser Rolle Zugriff
auf alle Privilegien. Und dann dasselbe für Kibana. Ich gebe ihm Zugriff auf alle
Räume und alle Funktionen. Also klicke ich auf
Globale Berechtigung erstellen und klicke auf Rolle erstellen. Lassen Sie uns als Nächstes drei Benutzer
erstellen. Der erste wird
ein Admin-Benutzer sein. Also klicke ich auf „Benutzer erstellen“. Ich gebe diesen Benutzernamen admin. Vollständiger Name wäre Admin One und E-Mail-Adressen
Admin auf test.com. Und dann geben wir
ein paar Passwörter an. Und danach müssen wir diesem Benutzer einige Regeln
zuweisen. Im Moment weisen wir also eine
Administratorrolle zu und
weisen auch die
Benutzerrolle für eine
Administratorrolle zu und
weisen auch die die Überwachung zu, da diese Rolle den Zugriff auf die
Stack-Überwachungsfunktion benötigt
wird. Und dann klicke ich
auf Benutzer erstellen. Loggen wir uns nun von diesem Superuser-Konto ab
und
erstellen dann unseren neu
erstellten Administrator um zuerst die weitere
Bereitstellung durchzuführen, und wir geben den Benutzernamen und dann das Passwort für dieser Benutzer. Lassen Sie mich diese Warnung als nächstes stumm schalten Lassen Sie uns zuerst herausfinden
und prüfen, ob Sie
Zugriff auf beide Indizes haben ,
Netflix und Covered. So kann ich einige Daten
im Netflix-Index sehen. Lasst uns nun
zum Deckungsindex übergehen. Jetzt muss ich meine Zeitsuche
erweitern. Also vor 1415 Wochen, und ich klicke auf Update, und ich kann sehen, dass ich auch
Zugriff auf diesen Index habe. Gehen wir als Nächstes zu Dashboards. Ich sehe das von uns erstellte
COVID-Dashboard. Lassen Sie uns als Nächstes erneut zu
Management und
Personalmanagement gehen . Und hier, Benutzer. Jetzt erstellen wir einen zweiten Benutzer. Klicken Sie auf Benutzer erstellen. Und dies ist ein Benutzer, der
über Administratorzugriff verfügt. Es ist nur zum COVID-Index. Also nennen wir es COVID
Unterstrich-Admin, und der Name
wäre COVID-19 und E-Mail-Adresse COVID test.com. Dann gebe ich
ihm
jetzt ein Passwort für das Privileg, ich gebe ihm das
Privileg von COVID Admin und klicke auf „
Benutzer erstellen“ gelernt. Lassen Sie mich von diesem Benutzer abmelden. Und hier gebe ich
COVID-Unterstrich-Admin und gebe dann das
Passwort für diesen Benutzer ein. Sobald Sie angemeldet sind, gehen
wir zu unserer Registerkarte „Entdecken“, also nach Hause und entdecken Sie es dann. Und hier, wenn Sie Netflix-Index
wählen, sehen
Sie keine
übereinstimmenden Indizes und keine Ergebnisse entsprechen Ihren
Suchkriterien. Aber wenn ich den
COVID-Index auswähle und dieses Datum
von vor 15 Minuten ändere, ändern
wir ihn auf 15
Wochen und klicken auf Update. Sieh mal, dass ich ein paar Daten sehen kann. Jetzt kann dieser Benutzer
auch Benutzer erstellen. Wenn Sie also zu Stack
Management und Benutzern gehen, kann
ich einen Benutzer erstellen, aber ich zeige Ihnen
eine andere Sache, da wir diesem
Benutzerkonto nicht
das Privileg zur Überwachung
des Unterstrich-Benutzers gewährt haben. Wir haben keine verwaltete
Stack-Überwachung für diesen Benutzer
angezeigt. Dies ist also
wichtig zu beachten, obwohl Sie
alle Berechtigungen unter Kibana erteilen können, müssen
Sie den Benutzern, die Sie erteilen möchten, gezielt die
Benutzerrolle für
Überwachungsunterstriche zuweisen Benutzerrolle für
Überwachungsunterstriche die Sie erteilen möchten, gezielt die der Abschnitt zur privilegierten
Überschuss-Stack-Überwachung unter Verwaltung. Als nächstes erstellen wir einen
dritten Benutzer, der nur
Zugriff auf Dashboards hat und
festgestellt, dass wir dazu zuerst zu Rollen gehen und eine Rolle erstellen,
und nennen wir diese Rolle
COVID-Unterstrich-Reporting. Jetzt möchten wir diesem
Benutzer keine Clusterberechtigungen erteilen , daher lassen wir diese leer. Wir möchten nur, dass dieser Benutzer
Zugriff auf den
COVID-Unterstrich-Index hat. Und das einzige
Privileg, das wir für
diesen Benutzer wünschen , ist, aus diesem Index lesen
zu können. Als Nächstes müssen wir
einige Kibana-Privilegien hinzufügen, damit wir ihm
Zugriff auf alle Bereiche gewähren. Und als nächstes behalten wir es so an und
gehen dann zu Analytics. Und dann geben wir
ihnen den schreibgeschützten Zugriff auf Discover und
schreibgeschützt im Dashboard. Und wir würden
ihnen auch Zugriff auf
Canvas gewähren und die Bibliothek visualisieren. Und dann klicken wir auf Globale Privilegien
erstellen. Und dann klicken wir auf
Rolle erstellen, um diese Rolle zu erstellen. Jetzt gehen wir zu Benutzern und
klicken auf Benutzer erstellen. Und dieses Mal nennen wir diesen Benutzer COVID-Unterstrich-Reporting. Der Name würde den Benutzer
melden, eine E-Mail würde einen test.com
melden. Wir geben ihm ein Passwort. Also Passwort und dann
unter Privilegien geben
wir ihm das Berechtigungsrecht für
COVID-19-Score, und klicken dann
auf Benutzer erstellen. Danach melden wir uns ab und sehen den Überschuss für
diesen Benutzernamen. Ich gebe
COVID-Unterstrich-Berichte ein und
geben Sie ein Passwort an. Sobald Sie drinnen sind, sehen
Sie nur Analysen
auf Ihrem Startbildschirm. Dies liegt daran, dass Ihr Benutzer nur Zugriff auf
Analysefunktionen hat. Wenn Sie nun auf unser
linkes Navigationsmenü klicken und unter Analytics herausfinden, dass wir
einige Daten für den
COVID-Unterstrich-Index haben . Wenn wir jedoch zu
Netflix-Index wechseln, wird der Index
eine Fehlermeldung erhalten , die besagt, dass keine Indizes
mit einem besseren Netflix-Index übereinstimmen. Dies liegt daran, dass unser
Benutzer unter Dashboard keinen Zugriff auf den
Netflix-Index hat. Wenn ich einfach auf das
COVID-Dashboard klicke, kann
ich alle
Daten für mein COVID-Dashboard sehen. Als nächstes,
gehen Sie als Nächstes zu Canvas und öffnen Sie die
Netflix-Arbeit inzwischen, da dieser Benutzer
keinen Zugriff auf Daten im
Netflix-Index hat, erhalte ich Fehler. Loggen wir uns nun von diesem Benutzer und melden wir uns wieder
als Admin-Benutzer, Admin und Passwort an. Klicken wir nun auf das
linke Navigationsmenü und gehen direkt zur
Stack-Verwaltung. Und dann gehen wir
jetzt von diesem Bildschirm zu den Benutzern, wenn Sie
den Benutzer löschen möchten, zum Beispiel wenn ich meinen
COVID-Unterstrich-Berichtsbenutzer löschen möchte, kann
ich
diesen Benutzer einfach auswählen und
auf klicken lösche einen Benutzer
und klicke auf Löschen. Aber ich werde das jetzt nicht
tun,
wenn ich das Passwort für diesen Benutzer ändern möchte, klicke
ich darauf, gehe runter und
klicke auf Passwort ändern. Und hier kann ich das
Passwort für diesen Benutzer aktualisieren. Soul bricht dies auch wenn ich diesen Benutzer
deaktivieren möchte, also behalten Sie diesen Benutzer auf dem System, aber verhindern Sie, dass Benutzer
darauf zugreifen. Ich kann auf Benutzer deaktivieren klicken. Und wenn ich
Privilegien für diesen Benutzer ändern möchte, kann
ich hierher kommen und
ihm eine andere Rolle zuweisen. Auf diese Weise können Sie
Benutzer und Rollen verwenden, um
rollenbasierte Zugriffssteuerungen für
Ihren Elasticsearch-Cluster bereitzustellen . Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss.
19. Bereiche: Hey Leute, und dann Enterprise. Es wird mehrere Teams , die Zugang zu Kibana benötigen. Beispielsweise benötigt das Marketingteam möglicherweise Zugriff auf
Marketing-Dashboards. Das Betriebsteam benötigt Zugriff auf Betriebs-Dashboards. Jetzt kann dies
die Dinge
sehr schnell überladen , um
Ihnen bei dieser Situation zu helfen Kibana hat eine Funktion
namens Spaces. Sie können
Ihre gespeicherten Objekte
wie Dashboards in
aussagekräftige Kategorien organisieren . Aus unserem Beispiel
erstellen Sie einen Raum für Marketing und diese erstellen
alle ihre Dashboards in diesem Bereich. Ebenso
erstellen Sie einen Raum für Operationen und
sie werden
ihre Dashboards innerhalb des
IT-Space-Marketings
löschen ihre Dashboards innerhalb des
IT-Space-Marketings , um nicht zu sehen, was sich im Betrieb befindet oder sogar bemerken , dass ein Operationsraum ist vorhanden. Ebenso wird der Betrieb nichts über Marketingflächen
Bescheid wissen. Damit ein Benutzer nun ein Leerzeichen sehen
kann, müssen
Sie diesem Benutzer gezielt
Überschuss mit diesem
Speicherplatz zuweisen . Zum Beispiel erhält jeder im Marketingteam
Zugang zu Marketingflächen. Jeder im Betriebsteam
erhält Zugang zum Operationsbereich. Und wenn jemand
Zugriff auf Marketing
und Betrieb benötigt , weisen
Sie ihm
Zugriff auf beide Bereiche zu. Jetzt erstellt Kibana
einen Standardplatz für Sie und alle unsere Objekte , die wir
bisher in diesem Kurs erstellt
haben , wurden im Standardbereich des
Decks erstellt. Und schließlich, um Räume zu verwalten, benötigen
Sie
Kibana-Unterstrich-Admin-Rolle gleichwertig. Jetzt knacken wir
auf meiner Kibana-Webseite. Ich habe mich mit
meinem Admin-Konto angemeldet, Admin One, um Bereiche zu konfigurieren, ich muss auf das linke
Navigationsmenü klicken und dann
direkt zur verwalteten
Stack-Verwaltung gehen . Also klicke ich drauf. Und die Konfiguration von
Räumen finden Sie unter
Kibana und Spaces. Jetzt können Sie sehen, dass ich gerade meinen
Standardspeicherplatz habe. Wir schaffen hier einen neuen Raum. Also klicke ich auf Platz erstellen und nenne diesen
COVID-Unterstrich-Bereich. Als Nächstes kann ich einen Avatar
erstellen. Standardmäßig ist es auf Initialen
eingestellt, aber Sie können auch
ein Bild für Ihren Avatar hochladen, belassen es als
Standardinitiaten, aber ich ändere die
Hintergrundfarbe in Grün. Jetzt können
wir unter Features angeben, welche Funktionen unter dem Space
verfügbar sind. Also werde ich alles
außer Analytics entfernen, weil ich nur auf
Analysefunktionen zugreifen
möchte, die diesen Bereich nutzen. Und dann klicke ich
auf Platz erstellen. Jetzt, sobald ich den Raum bewertet habe, brauchen
wir einige Objekte
in diesem Bereich. Jetzt befinden sich alle unsere Objekte
standardmäßig im Standardbereich. Im Moment kopieren
wir den COVID-Index und
das COVID-Dashboard in den
COVID-Unterstrich-Bereich. Um das zu tun, muss
ich zu gespeichert gehen und dann muss ich COVID
und das Score-Dashboard finden. Und von diesen drei Schaltflächen ganz links von dieser Zeile muss
ich darauf klicken und auf Leerzeichen kopieren klicken. Dort angekommen kann ich Aktionen kopieren
wählen. Erstellen Sie beispielsweise
neue Objekte mit Zufalls-IDs werden auf
vorhandene Objekte überprüft. Ich belasse es als Standard
, weil ich weiß, dass es keine Objekte in meinem
COVID-Unterstrich-Bereich gibt. Und dann muss ich
auf den COVID-Unterstrich unter Leerzeichen auswählen klicken und dann auf In ein Leerzeichen kopieren klicken. Sobald das Kopieren abgeschlossen ist,
wird angezeigt, wie
viele Objekte kopiert werden sollen, und Sie können auf Fertig stellen
klicken. Ebenso muss ich den
COVID-Unterstrich-Index
kopieren, um darauf zu klicken und dann auch auf In Leerzeichen kopieren zu
klicken. Dann klicke ich auf COVID, unterstreiche es und klicke dann auf
Unternehmen oder einen Bereich. Wenn es irgendwelche Fehler gibt, werden
Sie diese hier sehen. Vorerst klicke ich auf Fertig stellen. Nachdem die Objekte in diesen Bereich
verschoben wurden, wurde
begonnen, diesen
Raum einer Rolle zuzuweisen. Lasst uns also zur
Sicherheit punkten und dann rollen und herausfinden, dass
COVID-Unterstrich alle gemeldet hat. Sobald wir drinnen sind
, müssen wir direkt
nach Kibana gehen und dann
auf dieses Stiftsymbol klicken. Und aus Räumen, in denen
alle Leerzeichen aufgeführt sind, müssen
wir das entfernen und dann den
COVID-Unterstrich-Raum auswählen. Sobald Sie dies getan haben
, können Sie
auf Bereichsberechtigungen aktualisieren klicken . Diese Regel kann also nur jetzt
Zugriff auf COVID-Raum gewähren. Und dann können Sie auf Update-Regel
klicken. Sobald Sie das getan haben, melden
wir uns von diesem Admin-Benutzer und melden Sie sich wieder mit
dem berichtenden Benutzer an. In diesem Bildschirm gebe ich den Benutzernamen COVID und
die Punkteberichterstattung ein und gebe mein Passwort ein und klicke auf Login. Jetzt können
Sie sofort feststellen, dass ich mich
nicht mehr im Standardbereich befinde. Und jetzt klicke ich auf das
linke Navigationsmenü. Und zuerst gehen wir
zu unserem Discover-Tab. Jetzt können Sie standardmäßig sehen, dass
ich mich im COVID-Index befinde, aber Auswirkungen
auf das Dropdown-Menü klicken. Ich sehe nicht mal
den Netflix-Index. Das liegt daran, dass es diesem Bereich nicht
zugewiesen ist. Um Daten anzuzeigen, muss
ich die
Zeitsuche vor
15 Wochen ändern und
klicke auf Update. Und du siehst, dass
ich Zugriff auf Daten habe. Lassen Sie uns als Nächstes sehen, ob unser
Dashboard noch funktioniert. Also klicke ich auf Dashboard
und klicke auf das COVID-Dashboard. Und Sie können sehen, dass ich auch
Daten in meinem
Dashboard habe. Wenn jemand über diesen Fehler geht, wenn ich
jetzt zu Canvas gehe, können
Sie sehen, dass
ich
das Netflix Wordpad nicht einmal mehr sehe . Spaces ist also eine gute Möglichkeit,
Ihre Objekte
für verschiedene Kategorien zu organisieren. Zum Beispiel kann Marketing nur auf ihre
Dashboards
zugreifen und so weiter. Wenn Sie nun
ein neues Objekt in diesem Bereich erstellen , wird
es
diesem Bereich automatisch
zugewiesen und nicht
dem Standardspeicherplatz. Wenn ich also auf das
linke Navigationsmenü klicke
und auf Bibliothek visualisieren klicke. Und wenn ich auf „
Neue Visualisierung erstellen“ klicke, wähle ich Objektiv. Angenommen, ich möchte die Gesamtzahl der
Länder in meiner Datenbank. Also klicke ich auf Metrik,
Analytisch vor Ort. Jetzt habe ich eine einzigartige Art
von Ort, der 64 ist. Jetzt kann ich
dies nicht speichern, da mein Benutzer Benutzer
meldet,
keine richtigen Berechtigungen für
diese Datenbank hat. Aber wenn ich mich auslogge und mich
wieder als Admin-Benutzer anmelde, wähle ich hier den
COVID-Unterstrich-Bereich aus. Und Sie können sehen, dass
ich, obwohl mein Benutzer viel
mehr Privilegien hat, mein Benutzer viel
mehr Privilegien hat, nur sehen kann, was meinem Speicherplatz
zugewiesen ist. Ich erhalte also nicht alle Such - und Verfügbarkeitsfunktionen usw. Ich erhalte nur Analytics
und Stack-Management. Jetzt klicke ich von hier aus
auf Bibliothek visualisieren. Ich klicke auf Neue
Visualisierung und Objektiv erstellen. Und dann ändere ich den
Visualisierungstyp der Metrik und ändere
das Datum auf 15 Wochen. Und von hier
ziehe ich den Standort wieder,
sehe, dass eine eindeutige Anzahl
des Standorts 64. Und jetzt habe ich wieder den
Save-Button. Also klicke ich auf Speichern und nenne
es einzigartige Länder. Und ich verschiebe es auf das
vorhandene Dashboard, das
COVID-19-Score-Dashboard ist. Und ich klicke auf Speichern
und Gehe zu Dashboard. Und hier habe ich das vierte
Element zu meinem Dashboard für
eindeutige Länder hinzugefügt oder klicke auf Speichern, um die Änderungen an diesem Dashboard
zu speichern. Und wenn ich jetzt zu
meinem Berichtsbenutzer zurückkehre , der
unter der Score-Berichterstattung behandelt wird, und ich auf
das
COVID-Dashboard klicke und das Datum auf vor Wochen ändere, kann
ich auch die neue
Visualisierung sehen. Auf diese Weise
können Sie Leerzeichen verwenden, um Ihre
Objekte in Kibana zu kategorisieren. Damit
sind wir am Ende
dieser Vorlesung gekommen .
Danke fürs Zuschauen. Wir sehen uns
im nächsten Kampf.
20. Einführung in Logstash: Hey Leute, reden wir
über Log-Sitzung. In diesem Abschnitt, Log
Stash, können Sie Ihre Daten
aus verschiedenen Quellen
aggregieren, transformieren und
dann an die
elastische Suche oder eine andere
Anwendung Ihrer Wahl senden . Wenn Sie beispielsweise die Daten analysieren
möchten, können
Sie sie an Elastic
Search oder MongoDB senden. Wenn Sie die Daten jedoch nur speichern
möchten, können
Sie sie
an etwas senden, wie Amazon S3 in einer Datei in
Ihrem lokalen Dateisystem gespeichert sind. von Ihrem Anwendungsfall gibt es viele Ziele Abhängig von Ihrem Anwendungsfall gibt es viele Ziele. Und ich habe einen Link zu
einem Artikel angehängt, in dem Sie
weitere Informationen zu den
Zielen und Log Stash finden . Bevor wir jetzt mehr
über Protokollsuchen und Details
auf niedrigerer Ebene wissen , ist
es immer eine gute Idee,
einige Anwendungsfälle zu verstehen. Der erste Anwendungsfall von Log
Stash sind also Protokolle und Metriken. Manchmal gibt es
keine Standardmethode , Ihre Protokollierungsdaten zu verstehen. In diesen Szenarien kann Log
Stash Ihnen helfen,
Logik zu definieren , damit Sie Ihre Logdaten
transformieren und
verstehen können . Als Nächstes können Sie auch
Daten aus dem HTTP-Webdienst verbrauchen oder Ereignisse durch
Pooling und HTTP-Endpunkt generieren, z. B. können Sie Twitter
abrufen und mithilfe von Log Stash einige Daten von
Twitter abrufen. Sie können auch Protokollstatuen verwenden, um
die relationalen oder
nicht relationalen Daten zu
transformieren und zu verstehen die relationalen oder
nicht relationalen Daten , die in
Ihren Datenbanken gespeichert sind. Und schließlich ist Log Stash ein häufiges Rückgrat zur
Ereignissammlung für Aufnahme von Datenversand
von Mobilgeräten, intelligenten Häusern,
vernetzten Fahrzeugen, Gesundheitssensoren und vielen anderen Branchen,
spezifische IoT-Anwendungen. Jetzt
hat die Log Stash-Pipeline drei Phasen. Es hat eine Eingabe von
Filter und dann ausgegeben. Zum Beispiel haben Sie einige
Daten in Ihrem Datenspeicher. Es könnte ein IoT-Datenspeicher sein
oder es könnte eine
Anwendung oder eine Datenbank sein, alles, was Sie an Log Stash senden. In dieser
englischen Pipeline müssten Sie zuerst eine Eingabe
definieren. Und das sagen Sie Log Stash, wie Sie
diese Daten erhalten werden. Zum Beispiel könnten Sie es aus einer Datei
abrufen. Sie könnten es auch
an einem TCP- oder UDP-Port bekommen. Es könnten auch Sys-Protokolldaten sein. Sie definieren also alle
Schulden im Input Next. Sobald Sie diese Daten haben, müssen
Sie sie verarbeiten. Und diese Verarbeitungslogik ist in
Filterfiltern
konfiguriert oder wie Sie Ihre Daten
transformieren können. Sie können auch
Bedingungen innerhalb des Filters verwenden , um einige Transformationen
nur durchzuführen , wenn sie mit
bestimmten Kriterien übereinstimmen. Jetzt
sind einige häufig verwendete Filter Grok Crop hat etwa 120 Muster, die es Ihnen ermöglichen, unstrukturierte Daten
zu übergeben. Wir werden uns Grok in einem bevorstehenden Vortrag etwas genauer ansehen. Mutate führt allgemeine
Transformationen einem Ereignisfeld durch. Sie können Dinge wie das Entfernungsfeld aus
Ihren Daten
umbenennen und ein Feld ersetzen und Felder in ihren Ereignissen ändern. Abgelegt ermöglicht es Ihnen
, ein Ereignis
vollständig zu löschen und das Klonen ermöglicht es
Ihnen, ein Ereignis zu duplizieren. Jetzt ist die Ausgabe Sobald Sie die Daten
durch Ihre Eingabe erhalten haben, haben
Sie eine Transformation vorgenommen. Sie müssen definieren, wohin diese
Daten weiter gehen müssen. Ausgabe ist also, wie Sie
ein Ereignis an ein oder
mehrere Ziele weitergeben . Jetzt ist dies am
häufigsten eine elastische Suche. Wenn Sie die Protokollsuche verwenden, möchten
Sie sich in Elastic Search
integrieren. Es können aber auch Dinge wie
eine Dateiausgabe sein oder Sie können sie
an eine Kafka-Warteschlange senden. Es liegt an Ihnen, im Grunde das
nächste Ziel von Daten, sobald es die
Log Search-Pipeline verlässt unter Ausgabe konfiguriert
ist. Bevor wir jetzt mit Konfiguration von
Elasticsearch-Pipelines
beginnen, müssen Sie noch eine
Sache verstehen, nämlich Codecs. Codecs sind
Stream-Filter, die als Teil der Ein- oder
Ausgabe
arbeiten können . Ein Codec ermöglicht es
Ihnen,
den Transport Ihrer Nachricht einfach
vom Serialisierungsprozess zu trennen den Transport Ihrer Nachricht . Nehmen Sie im Grunde ein Beispiel für
einen mehrzeiligen Codec. Denken Sie nun an ein
Anwendungsprotokoll, das standardmäßig über
mehrere Zeilen verteilt ist, was die Locks-Suche versuchen
wird. Es wird versuchen, jede Zeile
in ein und Log Stash-Ereignis zu verwandeln. Jetzt können Sie
diese Protokolldatei
möglicherweise nicht verstehen , wenn sie über mehrere Ereignisse
verteilt ist. Sie möchten also, dass all das in eine einzige Veranstaltung
eingeht. In diesem Fall
verwenden Sie den mehrzeiligen Codec. Wenn Sie Ihre Daten in JSON codieren
oder dekodieren möchten , verwenden
Sie den anständigen Codec. Codecs sind also Filter
, die Ihnen helfen,
den Transport
Ihrer Nachricht vom
Sterilisationsprozess von Log Stash zu trennen den Transport
Ihrer Nachricht vom . Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. sehen uns im nächsten. Tschüss.
21. Einführung und Transformieren von CSV-Daten mit Logstash und Transformation: Hey Leute, In dieser Vorlesung werden
wir
CSV-Daten mit Log Stash transformieren. Wir erstellen eine
Pipeline-Konfigurationsdatei mit drei Phasen. Eine Eingabephase mit einer Dateieingabe hilft
uns, eine CSV-Datei aufzunehmen. Dann verwenden wir eine Filterphase
und verwenden den CSV-Filter, um unsere CSV-Daten zu transformieren. Und schließlich werden
wir in
der Ausgangsphase zwei Ausgänge verwenden. Standardausgabe wird
während der Testphase verwendet. Eine elastische
Suchausgabe wird verwendet, um die Daten
endgültig in
unserem Elasticsearch-Cluster zu speichern. Sobald wir mit
der Pipeline-Konfigurationsdatei fertig sind , testen
wir sie, indem wir Log
Stash ausführen. Lasst uns anfangen. Hier auf dem Bildschirm. Mein
Elasticsearch-Cluster mit einem einzigen Knoten. Was ich zuerst mache, ist, dass ich zwei SSH-Verbindungen
erstelle, und dann kopiere ich
die externe IP-Adresse und versuche zu sehen, ob ich eine
Verbindung zu meiner Kibana-Instanz herstellen kann. Ich kann mich mit meiner
Kibana-Instanz auf Port 5601 verbinden. Jetzt kehren wir zu
unserer SSH-Instanz zurück und klicke dann
oben auf das Einstellungen-Symbol und klicke dann
auf Datei hochladen. Und von hier aus lade
meine Downloads die
Wettkampf-Rankings hoch, den ESV, und ich klicke auf Öffnen. Sobald die Datei mit dem Hochladen
fertig ist, kann
ich ls in
mein Home-Verzeichnis eingeben , um
sicherzustellen, dass die Datei vorhanden ist. Bevor wir nun mit der
Transformation dieser Daten beginnen können, müssen
wir diese Daten zunächst
verstehen. Also tippe ich Katze, Wettkampf-Rankings ein,
starte CSV und drücke Enter. Es gibt also ungefähr fünftausend
Datensätze in dieser Akte. Jetzt werde ich es klären und wir werden
einen
Chef-Wettkampf-Ranking-Punkt CSV machen einen
Chef-Wettkampf-Ranking-Punkt , um uns die
ersten Rekorde anzusehen. Die erste Zeile ist also die Kopfzeile, und diese Zeile
erklärt jede Spalte. Zum Beispiel wird die erste
Spalte eingestuft, die zweite Spalte ist Ebene, die dritte Spalte ist Benutzername und jede Spalte ist durch ein Semikolon
getrennt, Fünftausend Datensätze, und jede Spalte ist getrennt
durch ein Semikolon. Jetzt können wir anfangen unsere
Pipeline-Konfigurationsdatei zu
schreiben. Um das zu tun, werde
ich in Schrägstrich, ETC slash Log Stash. Und dann mache ich hier ein Ls. Jetzt
gibt es in Log Stash ein Verzeichnis
namens dot t. Was
passiert ist, gibt es in Log Stash ein Verzeichnis
namens dot t. Was wenn Sie
Log Slash als Dienst ausführen.
Was es tut, ist, dass es
alle
Konfigurationsdateien von innerhalb des
Konstrukts aufnimmt alle
Konfigurationsdateien von innerhalb des d. Also schreiben wir unsere Konfigurationsdateien
in dieses Verzeichnis. Es gibt eine andere
Konfigurationsdatei namens Locke's —sample.com. Und diese Datei ist eine Beispielkonfigurationsdatei
, die Ihnen Kunststoff zur Verfügung stellt. Es gibt also Trend in dieser Akte. Wir werden einen kurzen Blick werfen. Jetzt hat diese Datei eine
Eingabe, die
einige Daten an einem Port und dann
ohne Transformation akzeptiert einige Daten an einem Port und dann
ohne Transformation Es sind Volkszählungsdaten oder
zeigen auf elastische Suche. Lassen Sie uns also kalt für D gehen und schreiben wir unsere
Pipeline-Konfigurationsdatei. Also werde ich alles klären. Ich mache ein Ls. Dieses Verzeichnis ist leer. Ich werde sudo touch machen und wir rufen unsere
Konfigurationsdatei CSV data.com auf. Und dann tippe ich
Sudo über CSV data.com ein. Und ich werde das schließen
und hier einen Einsatz machen. Jetzt müssen wir in unserer Pipeline zuerst eine Eingangsphase
definieren. Also gebe ich Eingabe
und dann geschweifte Klammern ein, und dann verschiebe ich die
geschweifte Klammer nach unten. Und hier müssen wir
eine Dateieingabe angeben , da wir
Daten aus einer Datei aufnehmen. Also mache ich
wieder geschweifte Klammern und mache etwas Formatierung. Jetzt müssen
wir unter der Dateieingabe einige Einstellungen angeben. Was ich tun werde, ist, dass ich eine weitere Registerkarte
öffne und die
Dateieingabe Log Stash eintippe, und wir gehen in die Dokumentation des
Dateieingabe-Plug-Ins ein. Jetzt können
Sie in dieser Dokumentation nachlesen, wie
dieses Plug-In funktioniert. Was sind zum Beispiel
die verschiedenen Modi? Es gibt einen Tale-Modus
, der nicht abgelegt werden kann, und es gibt einen Lesemodus. Sie können verstehen, wie diese Eingabe
die aktuelle Position
in der Datei nachverfolgt , die sie ansieht. Was uns jedoch interessiert, sind die
Eingabekonfigurationsoptionen. Unter
Eingabekonfigurationsoptionen sehen
Sie alle Einstellungen, die für diese Eingabe konfiguriert werden
können. Und Sie können auch sehen, welche Einstellungen für diese Eingabe
erforderlich sind. Im Moment ist die einzige Einstellung, die
erforderlich ist, die Pfadeinstellung. Und diese
Teileeinstellung ist ein Array. Diese Teileeinstellung
ist also erforderlich, um den Pfad der Datei
anzugeben
, die Sie lesen möchten. Für uns. Lassen Sie mich die SSH-Instanz öffnen. Und hier mache ich ein Ls
und dann mache ich eine PWD. Das ist also mein Pfad und dies ist der Dateiname, den wir für diese Eingabe angeben
müssen. Ich gehe zurück zu meiner
Pipeline-Konfiguration. Ich tippe ein, aber dann ist
gleich und dann Pfeil. Und hier gebe ich den
Pfad an. Also gebe ich
doppelte Anführungszeichen ein und
kopiere dann die Handlung und
füge diesen Teil hier ein, und dann setze ich einen Schrägstrich, und dann kopiere ich
den Namen meiner Datei, und dann füge
ich ihn hier ein auch. Schauen wir uns danach noch
ein paar weitere Einstellungen an. Die nächste Einstellung
ist die Startposition, und es ist eine Zeichenfolge, und es kann einmalig
sein, oder n. Was wir
herausfinden müssen, ist der Standardwert dieser Einstellung? Also klicke ich auf diese URL und es heißt, der
Standardwert ist. Und so wird es im Grunde genommen
anfangen, die Datei von unten zu lesen, wenn Sie
sie so konfigurieren möchten , dass
die Datei von oben gelesen wird, was wir tun möchten. Wir müssen
es als Anfang konfigurieren. Lass uns zurückgehen. Hier. Ich gebe die
Startunterstrich-Position und der Wert
würde beginnen. Danach möchte ich dir einen anderen Wert
zeigen. Also gehe ich wieder hoch. Jetzt gibt es einen Wert, der
als sensibler Pfad bezeichnet wird. Was seit db ist, ist es eine Datenbankdatei
, die verfolgt
, wie viel von der Datei von Log Stash gelesen
wird. Wenn Ihre Datei über 100 Datensätze
verfügt und der
Log-Schrägstrich 50 davon gelesen hat, wird
dieser Wert
in einer Sensitivitätsdatei gespeichert. Da der db-Pfad Ihnen nun den Teil der sinc-TB-Datei enthält, ist
der Standardpfad
Pfad-Punkt-Daten-Slash-Plug-Ins Slash-Eingaben. Eine Datei in unserem Fall, weil wir gerade eine einzige
Datei haben und dieselbe Datei
weiter lesen möchten , da wir
verschiedene Optionen testen werden. Was ich tun muss, ist, dass
ich den
Empfindlichkeitsteil als
Slash Dev-Schrägstrich null konfigurieren muss . Das heißt, da db in keines schreiben
wird, und dies ermöglicht es uns, diese Datei
weiter zu lesen. Also gebe ich seit dem
db-Unterstrichenpfad ein und konfiguriere den
Pfadwert als Slash Dev-Schrägstrich null. Sobald ich das gemacht habe, bin
ich mit meiner Dateieingabe fertig. Als Nächstes muss ich
den Filter angeben und unsere Daten transformieren. Also geben wir Filter
und geschweifte Klammern ein. Unter Filter muss
ich jetzt einen CSV-Filter angeben. CSV und geschweifte Klammern müssen
also
wieder unter CSV einige Einstellungen angeben. Werfen wir einen Blick
auf die Dokumentation. Csv, Obst und Log Stash. Und ich öffne den
Link für die Dokumentation. Und hier gehe ich auf
Konfigurationsoptionen ein. Zuerst können wir
entweder
Spaltennamen automatisch erkennen oder Spaltennamen
angeben. Was ich also tun werde, ist, dass ich die
Spaltennamen hier manuell
angeben möchte . Also muss ich eine Einstellung
namens Columns angeben , und
es ist ein Array. Also gehe ich zurück zu meinem Filter und hier gebe ich Spalten an. Und dann tippe ich eckige Klammern ein, weil
dies ein Array ist. Um nun Spaltennamen zu erhalten, gehe
ich zur
zweiten SSH-Instanz zurück. Und hier gebe ich den Kopf Wettbewerb
Ranking sort csv ein, und ich kopiere die
Spaltennamen von hier. Dann bin ich zurückgegangen
und füge sie ein. Jetzt muss ich
etwas formatieren. Im Grunde
muss ich
zuerst alle diese Spalten
in doppelten Anführungszeichen wie diesem machen zuerst alle diese Spalten . Und dann muss
ich das Semikolon ins Koma verwandeln. Das mache ich jetzt. Sobald ich damit fertig bin, möchte
ich als Nächstes angeben was das Zeichen ist, das meine Spalten
trennt. Gehen wir also zurück
zur Dokumentation. Und was wir angeben müssen, ist eine Einstellung namens Separator,
und es ist eine Zeichenfolge. Also gehe ich zurück und drücke Enter. Und hier tippe ich ein
Trennzeichen ist gleich Pfeil. Innerhalb der Gerichte wird Semikolon
angeben , da unsere Daten durch Semikolon
getrennt sind. Sobald ich das gemacht habe, möchte
ich Ihnen
zwei weitere Einstellungen zeigen. Zuerst können wir leere
Spalten überspringen und leere Zeilen überspringen. Zur Demonstration
gebe ich leere Spalten überspringen an. Wir können auch
das Header-Feld überspringen. Wenn Sie sich also unsere Daten ansehen, ist
die erste Zeile eine Kopfzeile. Mithilfe dieser Einstellung „Header überspringen können
sie Log Stash anweisen, die erste Zeile
zu überspringen. Jetzt gibt es einen Vorbehalt. Sie müssen sicherstellen
, dass Ihre Spaltennamen genau mit der ersten
Zeile Ihrer Daten übereinstimmen. Wenn nicht, überspringt Log, Stash die Header nicht. Was auch immer in dieser Zeile ist, die Spaltennamen müssen genau mit dem übereinstimmen, was Sie als
Spaltennamen angeben , damit die Einstellung „
Überspringen“ funktioniert. Also lasst uns das konfigurieren. Überspringe leere Spalten als wahr. Und auch Überspringen Header ist wahr. Jetzt können Sie mithilfe des Hash-Symbols Kommentare in
Ihre Pipeline-Konfigurationsdatei
hinzufügen Ihre Pipeline-Konfigurationsdatei . Also tippe ich Hash ein. Hash ermöglicht es Ihnen,
die erste Zeile in
der Quelldatei zu überspringen . Spaltennamen
müssen genau übereinstimmen. Jetzt sind wir bereit, die Ausgabe
anzugeben. Zu Beginn verwenden wir eine
Standardausgabe als Ausgabe. Eine andere Art in der
Ausgabe, geschweifte Klammern. Und ich schiebe das nach unten. Und hier gebe ich
STD als Ausgabe ein. Und darin tippe ich Kodak ein und Kodak
wäre Ruby-Debug. Und jetzt sind wir bereit
, diese Pipeline zu betreiben. Ich speichere diese Datei. Und um eine Pipeline auszuführen, müssen Sie Sudo Slash,
usr Slash Share Slash Log Stash eingeben . Und dann gab es einen
Einblick, wenn es ein Dienstprogramm namens Log Stash gibt
, das wir verwenden werden. Dieses Dienstprogramm ist
der vollständige Pfad zu Ihrer
Pipeline-Konfigurationsdatei. Da wir uns jedoch im
selben Verzeichnis dem sich die
Pipeline-Konfigurationsdatei befindet, können
wir einfach
einen relativen Pfad angeben. Also CSV data.com und drücken Sie Enter. Wenn Ihre Pipeline richtig konfiguriert
wurde, erhalten
Sie ein Ergebnis wie dieses. Dann werden Ihre Daten
in verschiedene Felder aufgeteilt. Zum Beispiel geht es in ein Feld namens Join-Datum, die Anzahl der
Probleme, Metalle usw. Es gibt einige vom
System generierte Felder. Es gibt ein Nachrichtenfeld, bei dem es sich um ein vom System generiertes
Feld handelt, das
jeden einzelnen Zeitstempel der
Zeilenversion enthält . Dieses Zeitstempelfeld ist die Zeit, zu der Log Stash diese Datendatei
aufgenommen hat. Und wir werden dieses Feld verwenden, um unsere
Daten in Kibana zu suchen und zu untersuchen. Damit können wir jetzt angeben, die Elastic Search es mithilfe von Steuerelement C
herausgibt, wodurch die Pipeline gestoppt wird. Jetzt werde ich
meine
Pipeline-Konfigurationsdatei erneut bearbeiten oder fertig. Ich kann entweder die STD
entfernen oder ich kann einfach eine weitere Ausgabe
hinzufügen. Also gehe ich in den Einfügemodus und möchte einfach eine weitere Ausgabe
hinzufügen. Also geben wir Elastic
Search und geschweifte Klammern ein. Beweg diesen Stein. Unter der Ausgabe von Elasticsearch ist
die erste Einstellung, die ich bereitstellen
muss, eine Liste von Hosts, an
die ich diese Daten senden wollte. Eingabe von Hosts
entspricht einem Pfeil, und diese Einstellung benötigt ein Array. Also setze ich doppelte Anführungszeichen und
http localhost und dann 90 bis 100, weil ich die Log-Suche
lokal auf demselben Computer
ausführe lokal auf demselben Computer dem sich mein
Elasticsearch-Cluster befindet. Als Nächstes kann ich auch
einen Index für Elastic Search angeben einen Index für Elastic Search , in den diese Daten geschrieben
werden. Also geben wir den Index ein
und ich gebe ihm dann den Namen des Index, den
CSV-Unterstrich-Index. Nun ist eine Sache zu beachten: Wenn ich zuerst keinen Index
für Elastic Search erstelle, erstellt
dies automatisch den Index in meinem
Elasticsearch-Cluster für mich. Probieren wir das zuerst aus, ich speichere diese Datei und dann führe ich meine
Pipeline erneut aus. Und während das läuft, wenn man sich meine
Kibana anschaut und wenn ich
in Indexmanagement
und Personalmanagement
und dann Indexmanagement gehe in Indexmanagement
und Personalmanagement , gibt es hier keinen Index. Um dies zu beenden, keine Stimmen, die die Pipeline dort geschrieben
hat. Es scheint, als gäbe es einige
Schwierigkeiten, sich mit der
elastischen Suche zu verbinden , weil ich eine Nachricht
habe,
die „elastisch“ sagt , dass
ein Steuerelement C ausgeführt wird , um diese Pipeline
herunterzufahren. Es sieht also so aus, als würden die elastischen
Suchdienste laufen. Werfen wir also noch einmal einen Blick auf unsere
Konfigurationsdatei. Nun, der Grund, warum es fehlgeschlagen ist,
war,
dass es einen Tippfehler gibt, also muss Altcoin eingefügt werden
und ich werde
meinen Tippfehler localhost 9200 reparieren , und dann werde ich
diese Datei speichern und
die Pipeline erneut ausführen. Sobald die Pipeline mit der Verarbeitung unserer Daten
fertig ist, ihre Punktzahl zur
Indexverwaltung nicht auf einer Seite
belegt und
lassen Sie uns Indizes neu laden. Hier. Sie können den CSV-Index sehen. Es wurde
automatisch erstellt, also werde ich entlassen und es
hat fünftausend Dokumente. Versuchen wir nun,
diese Daten auf unserer Registerkarte „Entdecken“ zu untersuchen. Also klicke ich
von oben links auf
diese drei Zeilen und dann werde
ich es entdecken. Aber hier können Sie keine Daten sehen da
Sie eine Indexschaltfläche erstellen müssen, um Daten und Kibana zu visualisieren
und zu untersuchen . Werfen wir einen Blick darauf,
was ein Indexmuster ist. Wenn Sie sich an
frühere Vorlesungen erinnern, ist
ein Index die Entität auf
höchster Ebene , die Sie für
eine elastische Suche abfragen können. Durch die Verwendung unserer Log Search
Pipeline werden unsere Daten in einem Index
gespeichert. Mithilfe von Elastic Search Rest-APIs können
wir die Daten für
diesen Index abfragen. Ein
Indexmuster identifiziert jedoch einen oder mehrere elastische
Suchindizes , die Sie mit Kibana
erforschen möchten. Um diese Daten und Kibana zu untersuchen, müssen
wir
ein Indexmuster erstellen. Was Kibana tut, sucht nach Indexnamen, die
mit einer bestimmten Schaltfläche übereinstimmen. Ein Asterix ist beispielsweise ein Platzhalter, der
0 oder mehr Zeichen entspricht. Wenn wir zum Beispiel auf einen CSV-Dash-Stern
setzen, stimmt er mit allen Indexnamen überein,
die CSV Strich eins,
CSV Dash T2- oder CSV-Daten usw. sind . Lassen Sie uns ein
Indexmuster auf unserer Kibana erstellen. Hier auf der Kibana muss
ich ins
Stack-Management gehen. Also klicke ich hier
unter Verwaltung und innerhalb des
Stack-Managements und muss unter Kibana
in Indexschaltflächen
gehen. Jetzt muss ich einen Index-Button
erstellen. Jetzt war unser Index, wenn ich in
meine Pipeline und Control C gehe und meine
Konfigurationsdatei oder
Indizes öffne CSV-Unterstrich-Index. Was ich also mache, ist, dass ich ein
Indexmuster mit CSV
erstelle. Und auf der rechten Seite sehen
Sie, dass diese Indexschaltfläche
mit einem Quellindex übereinstimmt
, nämlich CSV und
Discord in Tagen. Wenn wir nun
den globalen Zeitfilter verwenden möchten, müssen
wir einen Zeitstempel angeben wie ich es Ihnen zuvor gezeigt habe. Wann immer lass mich das einfach
aussteigen. Immer wenn die Log
Stash-Pipeline ausgeführt
wird, erstellt sie automatisch ein Zeitstempelfeld
namens Zeitstempel hinzufügen, das den Zeitpunkt enthält, zu
dem die Datei aufgenommen wurde. Da unsere Daten kein natives Zeitstempelfeld
haben, verwenden
wir dieses Feld als
Zeitfilterfeld. Also gehe ich zu
Indexmuster und wähle Zeitstempel
hinzufügen aus, und dann
erstelle ich mein Indexspektrum. Sobald die
Indexschaltfläche erstellt wurde, können
Sie alle Felder
in diesem Indexmuster sehen. Jetzt stellt diese Uhr dar, dass dieses Zeitstempelfeld
das Zeitfeld ist , das zum Filtern verwendet
wird. Gehen wir nun zurück zu unserem Tab „Entdecken“ und sehen, ob
wir diese Daten untersuchen können. Wie Sie sehen können, können wir jetzt nach diesen Daten
suchen, nachdem
wir ein
Indexmuster für diesen Index erstellt haben. Denken Sie also daran, dass Sie
mit einem Index diese Daten
gegen Elastic Search abfragen können, während Sie mit einer
Indexschaltfläche diese Daten mithilfe von Kibana
untersuchen können. Sobald wir damit fertig sind,
möchte ich Ihnen zeigen, wie Sie eine
Indexschaltfläche und einen Index
löschen können. Also gehen wir in Management
und Personalmanagement ein. Zuerst gehe ich zum
Indexmanagement. Wählen Sie meinen Index aus, klicken Sie auf Index
verwalten und löschen Sie
dann den Index. Dann gehe ich zu Indexschaltflächen, klicke auf CSV und lösche diese. Jetzt wollte ich Ihnen zeigen, wie Sie einen Index und eine
Elastic Search
erstellen. Dafür klicken wir erneut
auf diese Symbole und gehen dann zur Verwaltung
und dann zu DevTools. Jetzt können wir DevTools verwenden, um
einige API-Aufrufe gegen unseren
Elasticsearch-Cluster auszuführen . Und dieses Mal verwende ich
die PUT-Methode um einen Index namens
CSV-Unterstrich-Index zu erstellen. Und die Anzahl der Diagramme in
diesem Index wäre eins. Also kann ich
einige Einstellungen konfigurieren. Und hier gebe ich
alle Felder ein, die ich in diesem Index haben
möchte. Klicken Sie auf diesen Pfeil, um diesen Index zu löschen. Jetzt können wir
zu unserer Pipeline zurückkehren und zuerst müssen wir sicherstellen,
dass dieser Indexname, die Indexeinstellung,
genau mit dem Index
übereinstimmt, den
wir gerade erstellt haben. Andernfalls
erstellt
Sasha, wenn es ein anderes Protokoll
hat , einen anderen Index und Sie erhalten die
Daten nicht, die in Ihrem Index gespeichert sind. Also haben sie sichergestellt, dass
dieser Name der gleiche ist, wie dieser aus
dieser Datei herauskommt , und wir
führen unsere Pipeline aus. Sobald die Pipeline mit der Verarbeitung fertig
ist, kehren
wir zurück zu unserer Kibana. Und hier gehe ich zuerst in Stack-Management und
Indexmanagement ein, du kannst sehen, dass ich einen Index habe. Es gibt eine gewisse Speichergröße, aber die Dokumentspalte sagt 0. Also müssen wir auf
Indexpatente eingehen und
ein Indexmuster erstellen. Und wieder wird es CSV sein und
dies wird mit unserem Index übereinstimmen. Und ich verwende das
Zeitstempelfeld und erstelle
das Indexmuster. Und sobald diese
Schaltfläche „Es ist“ erstellt wurde. Wenn ich unter
Indexmanagement nachschaue, kann ich
jetzt sehen, dass das
Dokument plus 5 Tausend läuft. Und wieder können wir unsere Daten über
den Tab „Entdecken“
untersuchen. Ich minimiere diese Nachricht und
es gibt fünftausend Treffer. Lassen Sie uns jetzt prüfen, ob unser
Header-Rover übersprungen ist. Also gehe ich in meine zweite
notwendige Verbindung und suche
im Feld Benutzername nach einem Wert-Benutzernamen. Was ich mache, ist, dass ich herausfinden werde und einen Benutzernamen
schreibe. Ich werde diese
Nachricht abweisen, Benutzername. Und ich wollte,
dass dies der gleiche Benutzername ist. Und ich werde aktualisieren , welche Knotenergebnisse Ihren
Kriterien entsprechen. Wählen wir nun einen
gültigen Benutzernamen aus. Zum Beispiel, BSI, entdecke,
ich entferne das. Sie tippen PSI und
ich werde auf Update klicken. Und Sie können sehen, dass
die gültigen Werte oder alle richtigen Daten in meinem
Elasticsearch-Cluster gespeichert
wurden. Und die älteren
Header-Zeilen werden übersprungen. Der Schlüssel dazu war
sicherzustellen, dass die von Ihnen definierten Spalten genau mit den Spalten
in Ihrer CSV-Datei übereinstimmen. Bevor ich dich jetzt loslasse, wollte
ich
Ihnen eine letzte Sache zeigen, nämlich wie Sie
Daten von Log Stash
an eine Elasticsearch-Instanz senden an eine Elasticsearch-Instanz auf der die
Passwortauthentifizierung
eingerichtet ist. Für diese Demo habe ich einen separaten ELK
erstellt. Ein Computer würde eine
Sicherheitseinrichtung für die
Kennwortauthentifizierung erwarten . Wenn ich die externe
IP-Adresse
dieser Instanz kopiere und
auf meine Kibana-Webseite gehe. Ich werde aufgefordert,
meinen Benutzernamen und mein Passwort anzugeben. Jetzt habe ich einen integrierten Benutzernamen und ein Passwort namens elastisch, das ist das Superuser-Konto. Ich benutze diesen
Login bei meiner Kibana. Jetzt, sobald ich in Kibana
bin, klicke ich von
oben links auf diese
drei Zeilen und
gehe dann zu Stack Management. Und dann finde
ich unter
Sicherheit und Benutzern alle Benutzernamen , die
auf diesem System konfiguriert wurden. Dies sind alles
integrierte Benutzernamen. Was wir also tun werden, ist, dass wir Elastic verwenden
werden, um unseren Log Stash in
die
Elasticsearch-Instanz auf ELK zu
integrieren . Also klicke ich auf SSH auf ELK T2, um eine
SSH-Verbindung zu öffnen. Sobald ich die
SSH-Verbindung in
jedem Typ in Sudo,
V-Schrägstrich usw. geöffnet habe, schrägstrich Log Stash slash d. Und dann bearbeiten wir unsere
Konfigurationsdatei namens CSV-Daten. Und in dieser
Datei, um
die Ausgabe so zu konfigurieren , dass sie auf ELK 1 zur
elastischen Suche wechselt. Zuerst werde ich
den Hostwert von der internen
IP-Adresse des
lokalen Hosts Buddha von ELK 1 ändern . Entschuldigung, bearbeite das alles
, füge
192 Punkt 168 Punkt einen Punkt F5 ein und tippe ein. Und jetzt muss ich den Benutzernamen
und das Passwort
angeben , mit
dem ich mich authentifizieren werde. Also gebe ich den Benutzer ein, und hier setze ich doppelte
Anführungszeichen ein und tippe elastisch ein, und dann gebe ich das
Passwort ein. Und was ich mache, ist, dass ich
doppelte Anführungszeichen einfüge und
das Passwort aus meinen Notizen kopiere. Sobald ich
das Passwort kopiert habe, können
wir diese Datei speichern und jetzt können wir unsere Pipeline
ausführen. Also tippe ich Sudo-Schrägstrich,
Schrägstrich , Log Slash Bin
und Log Stash und minus F. Und ich werde das alles kopieren. Ich füge es
hier ein und drücke Enter. Und sobald die Pipeline
mit der Verarbeitung fertig
ist, gehen Sie zu unserer Kibana-Instanz und verstehen Sie das Management. Wir können zur Indexverwaltung gehen und Sie können sehen, dass ein Index namens CSV-Unterstrich-Index mit 5 Tausend Dokumenten erstellt
wurde. Und wieder muss ich ein Indexmuster
erstellen. Klicken Sie auf Indexmuster erstellen. Ich gebe CSV ein
und es ist mit
meinem Index übereinstimmt und ich verwende
das Zeitstempelfeld und klicke
auf Indexspektrum erstellen. Um meine Daten zu untersuchen, gehe
ich zu Analytics
und entdecke es. Und hier muss ich
den Index von Logs
beginnen zu CSV Star ändern . Und damit sollten
Sie in der Lage sein, Ihre Daten zu
untersuchen. Aber das, wir sind am
Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Tschüss.
22. Installieren von Apache Webserver: Hey Leute, In diesem Video zeige
ich euch, wie man den
Apache-Webserver
auf der GCP VM-Instanz installiert . Zuerst werden wir die Software
installieren und dann die
neue Datei index.html bereitstellen. Danach
starten wir den Apache-Webserver und testen schließlich Zugriff auf unsere zusammengestellte Website. Also lasst uns anfangen. Hier auf dem Bildschirm. Ich habe die VM-Instanzen Konsole für meine GCP-Plattform
eingerichtet. Dann wähle ich einen neuen
Vitamin Sense aus Template. Und danach wähle ich
die Webserver-Vorlage aus
, die wir zuvor erstellt haben. Als Nächstes klicke ich auf Weiter. Danach
ändere ich die Region in US West One nächstes Video, gehe runter und klicke auf Networking. Unter Netzwerk stellen
wir sicher, dem Netzwerk-Tag um
Webserver handelt, und dann
müssen wir die Netzwerkschnittstelle
im
Webdienstnetzwerk ändern . Also ändere ich das von der
Überwachung auf Webserver. Und danach gehe ich
runter und klicke auf Erstellen. Dadurch wird
unsere VM-Instanz erstellt, die wir
für einen Webserver verwenden werden. Sobald die VM in Betrieb ist
, können
wir zu
Visual Studio Code wechseln. Jetzt habe
ich hier auf der Visual
Studio-Code-Konsole die Hinweise, um
einen Webserver auf der
linken Seite zu installieren , und auf der rechten
Seite habe ich meine SSH-Verbindung
in diesen Webserver. Also werden wir zuerst unser System
aktualisieren. Also sudo APT bekomme Update minus y. Jetzt lasst uns als nächstes klarieren, ich tippe sudo apt-get install Apache zwei minus
y ein und drücke Enter. Als Nächstes. Ich werde
das klären und dann
kopiere ich diesen Befehl,
um eine neue Datei
index.html zu erstellen und Beispielcode
darin einzufügen, um unsere Website zu erstellen. Fügen Sie es hier ein und drücken Sie Enter. Sobald dies erledigt ist, kann
ich meinen Apache-Dienst starten. Also Pseudosystem CTL startet
Apache zwei und drücke Enter. Jetzt lasst uns nach Status suchen. Also Pseudosystem CTL, Status Apache zu seinem
aktiven und laufenden Status. Und jetzt gehen wir zurück
zu unserer GCP Console. Und hier kopiere ich die
externe IP dieses Rechners und füge sie hier ein
und drücke Enter. Wie Sie sehen können,
haben wir unsere Beispiel-Webseite hochgestellt. So können Sie
einen Webserver auf der GCP VM-Instanz installieren . Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss.
23. Install installieren und konfigurieren: Hey Leute, wir haben unseren Elasticsearch Cluster ihn an die Arbeit
angehängt. Jetzt ist es an der Zeit, den Cluster zu
verwenden. In dieser Demo sammeln wir Systemüberwachungsdaten wie
CPU- und Speicherauslastung, Protokolldaten wie Systemprotokolle, löschte einige coole
Dashboards wie dieses
wiederum Einblicke in
unsere IP-Systeme. Jetzt verwendet Elastic Search
leichtgewichtige Versender , die Beats
genannt werden, die auf den
Zielcomputern
installiert sind und Betriebsdaten an den
Elasticsearch-Cluster
senden. Und wir können diese
Betriebsdaten verwenden , um Berichte
und Dashboards zu erstellen. Einer der
häufigsten Anwendungsfälle besteht darin,
Systemmetrikdaten in
Elastic Search einzufügen und
damit
Dinge wie CPU- oder
Speicherauslastung, Festplatte usw. zu überwachen . besteht darin,
Systemmetrikdaten in
Elastic Search einzufügen und
damit
Dinge wie CPU- oder
Speicherauslastung, Festplatte usw. zu überwachen. faktorelastische Suche mit
einem Beat namens Metric
, der leicht und billiger
ist, Sie
auf Ihrem Server installieren können. Sammeln Sie regelmäßig
Metriken
vom Betriebssystem und von den darauf
ausgeführten Diensten. Es braucht also diese Metriken
und Statistiken und verschiebt sie auf die Ausgabe Ihrer Wahl Beispiel, es könnte
Log Stash oder Elastic Search sein . Um Ihnen ein Beispiel zu nennen, möchten
wir an, dass
sie ein Intervall Ihres Linux-Rechners für unsere Systemmetrikdaten wie CPU- und Speicherauslastung usw. Was müssen Sie tun
müssen installieren Sie metrische Gewicht auf dem
Server und aktivieren Modulsystem, das
alle diese Informationen und
Chip-SEQ für Elastic Search sammelt . Mit diesem Modul können
Sie
viele Dinge überwachen , die ich auf dem Bildschirm
aufgeführt habe. Jedes dieser Elemente
wird einzeln als Matrix bezeichnet. Sie können entweder aktivieren. All dies sind nur diejenigen
, an denen Sie interessiert sind. Diejenigen, an denen Sie
nicht interessiert sind, müssen
wir
aus Ihrer Konfigurationsdatei herauskommentiert werden. Theoretisch findet
es daher ein
Magnetperlenmodul die grundlegende Logik
für das Sammeln von Daten von einem bestimmten Dienst wie dem
Apache-HTTP-Webserver. Das Modul gibt
Details über den Service an, einschließlich der Verbindung
zu diesem Service, wie oft
Metriken gesammelt werden sollen und welche
Metriken erfasst werden sollen. Jedes Modul hat eine
oder mehrere Matrix. Es ist eine Matrix, die der Teil
des Moleküls
ist , der die Daten berührt
und strukturiert. Es gibt viele
Modelle, die Sie in metrischem Köder
in der Beschreibung dieses Videos in
einer URL aus
der
Elasticsearch-Dokumentation nach oben
aktivieren können in metrischem Köder
in der Beschreibung dieses Videos in
einer URL aus
der
Elasticsearch-Dokumentation nach oben
aktivieren dieses Videos in
einer URL aus
der
Elasticsearch-Dokumentation nach oben . Und Sie können
es durchsuchen, um sich alle verfügbaren Module
anzusehen . Und Sie können die auswählen
, die Sie benötigen, basierend auf
Ihren Systemanforderungen. Schauen wir uns als Nächstes an, wie
metrisch, welcher Service funktioniert? metrische Perle arbeitet in vier Schritten. Zuerst werden die auf
dem Zielcomputer installierten
und konfigurierten Dienste auf
dem Zielcomputer installierten
und konfigurierten und erfasst
Überwachungsinformationen basierend auf den aktivierten Modulen und Metriken
konfiguriert. Diese Daten werden in der
Elastic Search gespeichert und indiziert. Und schließlich können wir mithilfe der Kibana-Benutzeroberfläche coole Berichte und
Dashboards zu diesen
Daten
erstellen . Sie können auch die
Standard-Dashboards verwenden dieser Nachfolge
bereitgestellt werden. Wir hoffen, das Metrikgebot für
diese Demo auf dem Apache-Webserver zu
konfigurieren ,
wird das Apache-Modul aktivieren, das den Status
für den Apache-Webserver bereitstellt. Wir werden auch
das Systemmodul aktivieren, das Systemmetriken bereitstellt. Schließlich hatten wir auch das
Beats erwartungsmodul aktiviert. Dieses Mohr Buret wird uns
helfen,
den Apache-Dienst auf
dem ELK-Server zu überwachen den Apache-Dienst auf
dem , um das
elastische Sucherwartungsmodul zu ermöglichen, das uns hilft,
Elasticsearch selbst zu überwachen, wird auch das
Kibana erwartungsmodul ermöglichen was uns helfen wird, Kibana zu
überwachen. Aktiviert das Bit-Expertenmodul, das uns hilft,
andere Bits zu aktivieren , die auf ihrem Dienst
installiert sind. Nun ist eine Sache zu beachten
, dass wir dieselbe
Metrik mit Weihrauch verwenden werden ,
um sich selbst zu überwachen. Dies ist nicht das, was Sie
in einer Produktionsumgebung sehen werden . Ihr Produktionscluster
könnte eher so aussehen, wo Sie einen separaten
Produktionscluster
und einen separaten
Überwachungscluster haben . Da im Falle eines
Ausfalls
im Überwachungscluster möglicherweise
die Produktionsservices weiterhin über
den Produktionscluster
überwacht werden. Und wenn der
Produktionscluster stirbt, können
Sie auch beheben, warum er mit dem
Überwachungscluster
fehlgeschlagen ist . Lasst uns nun
zu unserem Laborsystem übergehen. Installiertes metrisches Gebot. Nach der Metrik, wo
es installiert ist müssen wir zuerst
die Überwachung
des Elasticsearch-Clusters aktivieren. Was wir also tun werden, ist zu Elasticsearch zu
gehen, EML-Dateien zu
schlagen, damit ich
Nano-Schrägstrich usw. sudo und Elasticsearch
schrägst. Elasticsearch beginnt im Jemen. Er drückte gehen bis
zum Ende dieser Akte. Wie kann man jedoch einen Kommentar
für einen neuen Abschnitt abgeben. Und ich nenne es
erwarten Monitoring. Und am Ende erwarten Sie eine Überwachung. Ich kopiere diese beiden Einstellungen. Erwarten Sie, dass die Überwachung
als wahr aktiviert ist , und erwarten Sie Überwachung. aktivierte elastische Suchsammlung ist wahr. Diese beiden Einstellungen ermöglichen die
Überwachung unseres Clusters. Kopiere das und füge es hier ein. Sagen wir jetzt mein Finale. Danach starte ich meinen
Elasticsearch-Dienst,
das System CTL, neu, starte die
elastische Suche neu. Sobald IT-Assets wie AP, können
wir eine Metrik installieren und
konfigurieren, sudo
Nano-Schrägstrich ETC prototypisieren, slashen und Metriken slashen. Hier ist das erste Setting Out
Configure Library load. Oder die Einstellung sucht nach der
Modulkonfigurationsdatei unter diesem Teil. Und wenn es Änderungen
an dieser Konfigurationsdatei gibt, wird
sie automatisch neu geladen ohne dass der
Metrik-Beats-Dienst neu gestartet werden muss. Ich ändere das in „wahr“. Willkommen und Notenzeitraum neu laden. Nun, eine Agenda und ein Name, können
wir einen benutzerdefinierten
Namen für den Versender angeben. Standardmäßig nimmt
das Metrik-Bit den Hostnamen
des Rechners an, auf dem der
Versender ausgeführt wird. Ich kann ELK Dash
eins und die Eier eingeben. Ich gebe an, dass dies die ELK-Maschine
ist, also werde ich all dieses
angegebene Tag namens ELK loswerden. Unter Dashboards. Wir können entweder standardmäßige Kibana-Dashboards für das
Metrikgebot für den Versender
einrichten, dies
jedoch nicht kommentieren und dies auf wahr setzen. Oder wir können das
Dashboard verwenden ist Kumar. Was ich tun werde, ist, dass ich das hier auf wahr
setze. Aber wenn wir den Webserver machen und Ihnen zeigen, wie
es über den Befehl geht. Jetzt muss Kibana Gastgeber
auskommentieren, aber wir können es
als lokale Krankenhäuser belassen, der Versender läuft auf
derselben Maschine wie Kibana. Gleiches gilt für Elastic Search, damit wir
es als lokaler Host belassen können. Und das Protokoll,
lassen Sie uns das auskommentieren und von
STDEV.S zu Azure DB ändern. Unter Benutzername müssen wir den Elastic user
und das Passwort
angeben. Sie müssen das
Passwort für den Elastic Benutzer angeben. Als nächstes müssen wir die Protokollierung
angeben. Wir gehen zu dem Abschnitt
, der Protokollierung heißt. Und hier müssen wir die Protokollierungsstufe
auskommentieren, aber wir werden
sie als Standard belassen und Protokollierungsselektoren
auskommentieren. Also belassen wir es als
Standardpulswähler. Danach müssen wir diese Einstellungen
kopieren. Die erste Einstellung konfiguriert
die Protokollierung so, dass sie zu Datei wechselt. Und danach geben wir einen
Bot für die Logging-Datei an. Und wir geben den Namen
der Logging-Datei an. Danach geben wir an, wie
viele Dateien wir befolgen müssen , worauf
wir die Berechtigungen für die Protokollierung angeben müssen. Ich kopiere
das alles einfach und füge es hier ein. Jetzt müssen wir endlich das Monitoring für unsere
metrische Beat-Instanz
einrichten . Daher empfehle ich, dass die
Überwachung aktiviert ist. Und jetzt fügen wir das zu wahr hinzu. Das wird nach unten gehen, wo Punkt Elastic
Search überwachen und kommentieren. Diese Einstellung von niemand ist,
dass sie alles aufnimmt, was wir in Ausgaben für
Elastic Search als Ausgabe
angegeben haben , es wird die
Ausgabe von hier aufnehmen. Wir können diese Datei speichern und Metric Big Service
starten. Also Pseudosystem CTL, starte. Und wir können
Sudo-System CTL aktivieren Metriken,
aktivierte metrische Köder auch eingeben . Nun danach
müssen wir ein paar Module
aktivieren. Wenn ich also zu ETC Slash-Metriken gehe. Wenn ich hier ein ls mache, wirst
du sehen, dass es ein
Verzeichnis namens Module gibt. Ich gehe in Module
oder D, mach ein ls. Sie werden sehen, dass alle Module in diesem Verzeichnis vorhanden
sind, aber alle
außer dem Systemmodul deaktiviert sind. jetzt für ELK Server Lassen Sie mich jetzt für ELK Server
das Außer noch einmal klären. Für ELK Solver müssen
wir nun die elastische Suche
ermöglichen, Modul
erwarten, Kibana
Modul und deaktiviertes
System erwarten oder tun. Also lasst uns das zuerst machen. So aktivierte Pseudometrikgebot
Elastic Search Strich erwarten. Danach können wir
Kibana erwarten lassen. Jetzt müssen wir auch
Beta-Erwartungen aktivieren. Dieses Modul wird verwendet , um andere Versender zu überwachen , die wir auf dem Server installiert haben. Es wäre zu erwarten. Wenn wir dies wünschen, können
wir das
System deaktivieren oder deaktivieren. Jetzt konfigurieren wir zuerst
elasticsearch erwarte. Sudo nano Elastic
Search Dash erwarten. Hier müssen wir
den Benutzernamen und das
Passwort für unseren
Remoteüberwachungsbenutzer für
Elastic Search angeben Passwort für unseren
Remoteüberwachungsbenutzer . Ich komme beides
und gehe zu meinen Dateien, gehe zu Ansible und unter den
Anmeldeinformationen TM. Nun, natürlich alle
Anmeldeinformationen. Sie kopieren zuerst den Benutzernamen und das Passwort in die Reihenfolge, in
der er verwendet werden soll. Lasst es uns einfach speichern. Und jetzt ändern wir einfach Kibana erwarten und dasselbe tun. Jetzt können wir das Trinkgeld geben. Ich habe gerade bemerkt, dass ich die
Beta-Erwartung
deaktiviert habe , anstatt das System zu deaktivieren. Was ich also tun werde, ist, dass ich damit rechnen werde das Systemmodell
zuerst deaktiviert wurde. Lassen Sie mich jetzt konfigurieren, was
wir erwarten würden. Jetzt müssen wir den
Beat-Systembenutzer, den Benutzernamen,
angeben. Also kopiere ich die Verwendung einer
Info für B-Systembenutzer. Also Beta-Unterstrichensystem. Lassen Sie mich das loben
und ich füge das ein, und ich speichere diese Datei. Jetzt sollte das Metrikgebot auf meinem ELK-Server
konfiguriert werden. Also kann ich zur GCP Console gehen die öffentliche
IP-Adresse meines ELK-Servers
kopieren. Den
Browser mit 45601 anweisen. Von der Kibana-Homepage. Ich kann
von oben links auf das Menü klicken. Lass mich einfach meinen Doc geklopft. Ich kann in die Stack-Überwachung gehen und wenn ich den
Metric Beat richtig konfiguriert habe, sollte
ich anfangen,
einige andere Dinge zu sehen. Stapelt auf meinem Stack. Hier muss ich auf Demo ELK
klicken. Und wie Sie sehen können, habe ich
Überwachungsinformationen für meine Elasticsearch,
Kibana und Beats. Klicken wir also auf Beat
und klicken Sie auf ELK One. Du siehst, dass ich meine Event-Raten
habe. Jetzt kann ich zur
Demo ELK gehen und unter
meiner Elastic Search
auf Übersicht klicken unter
meiner Elastic Search
auf Übersicht um den Zustand
meines Elastic Search-Index betrachten.
Ich kann mir Sättigungen, solche Latenz,
Indizierungslatenz und Raten ansehen. Ich kann auf Knoten klicken, mir meine Notizen
ansehen, OneNote-Pitches
im grünen Status übernehmen, ich kann mir die CPU-Last
und den diskreten Speicherplatz
für diesen Knoten ansehen . Ich kann mir auch meine Indizes ansehen. Habe gerade einen Index
namens metrisches Gebot bekommen. Jetzt kann ich zu Kibana gehen
und auf Übersicht klicken. Sieh dir Kibana an. So wie hier kann ich mir
Anlagenanfragen und
Reaktionszeit ansehen . Die Erinnerung. Wie viele Fälle
maximaler Reaktionszeit? Wenn ich auf Instanzen klicke, kann
ich mir auch die Instanzen
von Kibana ansehen , die ich habe. Dies ist das Setup
für unseren ELK-Server. Als Nächstes müssen wir einen Webserver
konfigurieren. Was ich mache, ist
von der GCP-Konsole aus, ich kopiere die öffentliche
IP-Adresse meines Webservers. Ich eröffne ein neues Terminal
basierend auf der öffentlichen IP-Adresse. Auf der linken Seite
werden nun Installations
- und Konfigurationsanweisungen
für einen Webserver genannt . Auf der rechten Seite habe ich meine SSH-Verbindung
zum Webserver. Der erste Schritt besteht also darin,
den öffentlichen Signaturschlüssel für
Elasticsearch zu installieren den öffentlichen Signaturschlüssel für . Also lasst uns das machen. Danach
kontrollieren wir den Transport einfach als UDP-Paket. Danach müssen wir die Verzeichnisdefinitionen speichern
. Jetzt können wir ein Update machen, eine Metrik des Installationsprogramms schlägt. Also sudo apt-get update, sudo apt-get install metric, nicht-metrische Betas und gespeichert. Also lasst uns zuerst den Bildschirm löschen. Jetzt können wir sie davon abhalten
, metrische Perlen zu finden. Jetzt
würde diese Konfiguration dem ähneln , was wir für ELK Summer getan haben. Lassen Sie uns das Laden der Bibliothek konfigurieren. Vorname wäre Webserver. Ich wurde angeklopft, um die
standardmäßigen Kibana-Dashboards einzurichten weil ich Ihnen zeigen möchte ,
wie das über
die Befehlszeile geht. Als Host für Kibana muss
ich die interne IP-Adresse
der Instanz eingeben. Also geht es zur GCP Console, kopiere es und füge es hier ein. Gleiches gilt für Elastic Search. Jetzt können wir die
Protokollierung aktivieren. Danach. Lassen Sie uns die Überwachung aktivieren. Schließlich können wir den
Monitorpunkt Elastic Search
auskommentieren und unsere Datei speichern. Starten wir nun den
Metrik-Beats-Dienst. So
aktivieren Sie das Pseudosystem CTL den Dienst. Werfen wir nun einen
Blick auf den Status des laufenden Dienstes. Als Nächstes werden
wir anfangen, Module zu aktivieren. Das erste Modul wird hierfür
aktiviert , ist das Apache-Modul. Danach haben wir den Beat aktiviert. Erwarte mehr tun. Werfen wir nun einen Blick auf die Liste der Enable more Module
auf diesem Computer. Sie können das tun,
indem Sie Pseudo eingeben. Ein bisschen. More do's List Unity , die drei Module aufzeichnet, die auf diesem Computer
aktiviert sind. Apache Beta erwartet
, dass wir gerade aktiviert und System oder
Verzögerungen standardmäßig aktiviert haben. Werfen wir einen Blick auf die
Modulkonfigurationen. Es ist klar, dieser erste
Sudo-Nano-Schrägstrich, ETC Slash-Metrik-Bit, verzerrter d Slash Apache. Hier entkommentieren wir
Matrix-Sets Status. Wir müssen
den Benutzernamen und das Passwort nicht eingeben da unser Standard-Webserver keine
Authentifizierungen hat. Was ich empfehlen würde,
ist, dass wir
den Wert unter Host von
127001 auf die
IP-Adresse oder den Domainnamen
unseres Webservers geändert den Wert unter Host von 127001 auf die
IP-Adresse haben. Dies würde uns helfen,
diesen Webserver
in unserem Dashboard zu identifizieren . Also was ich tun werde, ist, dass
ich das alles entfernen werde. Ich kopiere die interne
IP-Adresse meines Webservers. Geh zurück zum Terminal
und ich füge es hier ein. Jetzt kann ich diese Datei speichern. Werfen wir einen Blick auf die Konfiguration von
Beat-Experten. Hier. Wir müssen den
Benutzernamen und das Passwort angeben
, damit wir uns
gegen die Beats authentifizieren können. Dies wäre der Benutzer des
Strandsystems. Dies wäre das Passwort
für den V8-Systembenutzer. Jetzt wird dieses Bit verwendet, um andere Hintern
im System zu überwachen. Da wir jedoch noch
nichts
auf dem System installiert haben , wird
dies nichts bewirken. Also lass uns einfach
aus dieser Akte raus. Ich habe es vorhin versprochen. Jetzt zeige ich Ihnen, wie Sie Dashboards
über die Befehlszeile
konfigurieren. Um dies zu tun, müssen Sie
Sudo-Metrik-Gebotseinrichtung,
Bindestrich, Dashboard eingeben . Sobald die
Dashboards geladen sind, wird eine Meldung
angezeigt, die
besagt, dass geladene Dashboards angezeigt werden. Gehen wir nun zurück zu
unserer Kibana-Instanz. Hier. Gehen wir zuerst zu Clustern und Demo ELK
verstehen Monitoring. Lass uns einfach zu Rüben gehen. Sie können sehen, dass
wir zwei Bits haben, ELK eins und der andere
sollte ein Beobachter sein. Diese Daten stammen also von der internen Überwachung
über dem Strand selbst. Um Informationen
über den Vorort zu erhalten, müssen
Sie zur Matrix gehen. Hier. Sie werden sehen, dass wir
begonnen haben, Metriken und
Details zu unseren Webservern zu erhalten . Also klicken wir darauf und
klicken auf Host-Matrix. Sie können sehen, dass wir
alle Details über
unsere Webserver zusammen
begonnen haben . Aber danach gehen wir
zu Dashboards unter Kibana. Schauen Sie sich ein
Muster-Dashboard an, das
von metrischem Köder für
einen Apache-Server hergestellt wurde. Hier unter dem Suchfeld des Dashboards gebe
ich Apache ein. Dann öffne ich
das Dashboard namens Metric mit Apache Übersicht ECS. Jetzt ist dies ein Beispiel-Dashboard. Wir können Dinge wie die
Hostnamen in unserer Umgebung, Verfügbarkeit unserer Server, vollständige Zugriffsbytes,
beschäftigte und ungenutzte Mitarbeiter, verschiedene Arten von Verbindungen, CPU-Lappen, Netzwerkknoten usw. erhalten. Jetzt lasse ich euch einen
Webserver
konfigurieren, damit wir das
Ende dieses Videos erreicht haben. Danke fürs Zuschauen. Wir sehen uns im nächsten.
24. Filebeat: Hey Leute, lasst uns die Datei
in dieser Vorlesung installieren und konfigurieren. File Beat ist ein leichter, billiger für die Weiterleitung und
Verlockung protokollierter Daten. Es wird als Agent
auf Ihren Servern installiert und überwacht Protokolldateien sind
Orte, die Sie angeben, sammelt Protokollereignisse von
diesen Dateien sind Speicherorte und leitet sie entweder an
Elastic Search oder Log Stash weiter. Es besteht aus zwei Komponenten. Der erste
heißt Harvester und der zweite ist ein Input. Ein Harvester ist
dafür verantwortlich , den Inhalt
einer einzelnen Datei zu lesen. Zeile für Zeile. Input
ist verantwortlich für die
Verwaltung der
Erntemaschinen und das Auffinden aller Quellen, aus denen
Protokolldaten gelesen werden sollen. Lassen Sie uns nun einen Blick darauf werfen
, wie File Beat funktioniert. Sobald Sie die Datei starten und
welchen Dienst starten, startet sie
eine oder mehrere Eingaben , die sich mit dem Speicherort befassen
, den Sie für Protokolldaten angeben. Geben Sie zum Beispiel eins ein, wir schauen uns Pech und
jede Protokolldatei in Verilog an. Jetzt startet
es für jede Protokolldatei, die sie an
diesem Speicherort entdeckt
hat, einen neuen Ester. Dieser Harvester ist dafür verantwortlich , die Protokolldatei
zeilenweise zu lesen und sendet diese
Daten an eine Flüssigkeit. Jetzt aggregiert dieses Lipid
die Ereignisse und da die aggregierten Daten
beispielsweise zu
der von Ihnen angegebenen Ausgabe verwendet werden, kann es die Daten an
Log Stash Elastic Search
senden . In dieser Demo konfigurieren wir
zuerst File Beat auf unserem ELK-Server. Es gibt sechs Schritte. Zuerst
überprüfen wir, ob die Protokolle auf dem ELK-Server korrekt eingerichtet
sind. Danach installieren
und konfigurieren wir den
Datei-Boot-Dienst. Danach konfigurieren wir
Metriken, um unsere
Datei zu überwachen, welchen Service. Wir haben also auch eine Art
Überwachung. Dann starten wir einen aktivierten
File Beat-Dienst. Und schließlich
aktivieren und konfigurieren wir die ELK-Module in unserem
Cluster für File Beat. Elasticsearch, Kibana
und System werden es jetzt tun. Zweitens konfigurieren wir File
Beat für unsere Webserver. Die Schritte sind ähnlich. Der einzige Unterschied besteht darin, dass
die Module auf
dem 5-Bit-Dienst für
Webserver konfiguriert werden dem 5-Bit-Dienst für
Webserver konfiguriert werden Apache sein und das System
lässt uns loslegen. Jetzt hier in meinem Labor. Und da ich die
Schritte zum Installieren und
Konfigurieren der Datei habe Britton Hill Case auf der linken Seite und die SSH-Verbindung in mein IELTS auf der
rechten Seite. Was ich tun werde, ist, dass ich
diese Schritte an die Beschreibung dieses Videos anfüge, damit ihr auch auf dieses Dokument
zugreifen
könnt . Jetzt, wenn der EMACS beendet ist, der erste Schritt darin, zu
überprüfen, dass die Protokollierung für elastische
Suchinstanzen
konfiguriert ist . Also tippe ich Sudo
Nano-Schrägstrich ETC ein, schrägstrich Elastic Search Slash
Elastic Search dot YAML. In diesem Dokument werde
ich nun
zu Pfaden gehen und überprüfen, werde
ich nun
zu Pfaden gehen und überprüfen gekaufte Punktprotokolle auf
var log Elastic Search eingestellt sind. Und es ist nicht kommentiert. Wenn dies für Sie
auskommentiert wird, müssen
Sie
es auskommentieren und sicherstellen dass Pfad-Punkt-Protokolle eingerichtet sind. Nachdem wir bestätigt
haben, dass wir das verlassen können. Gehen wir als Nächstes zu
unserer Kibana-Instanz. Also sudo nano slash TTC Slash Kibana Slash
Keep on sie kennen Tiamat. Jetzt müssen wir hier runter zum Logging
gehen. Jetzt sehen Sie standardmäßig, dass Kibana sich bei der
Standardausgabe anmeldet. Was wir also tun müssen, ist, dass
wir das ändern müssen. Ich schaffe hier Platz. Kopieren Sie all dies und fügen Sie es
auf der rechten Seite ein. Was diese Einstellungen tun,
ist, dass sie zuerst das
Protokollierungspunktziel so konfigurieren , dass es
sich unter schlechtem Protokoll befindet, und dann die Kibana-Datei. Dann haben wir die Protokollrotation aktiviert und wir haben das System ausgeteilt, dass wir
jemand Logfiles behalten möchten. Nachdem wir das getan haben, können wir diese Datei
speichern und eingeben. Ein Problem mit Kibana
ist die Konfiguration , dass die
Datei Kibana unter Verilog nicht erstellt werden kann. Was wir also tun werden, ist, dass
wir einen
Slash Slash Log Slash Kibana machen Slash Slash Log Slash Kibana eine neue Datei namens
Kibana Underbar Law
erstellen. Lass mich das einfach
mit dem Sudo machen. Danach haben wir den Besitz
dieser Protokolldatei
geändert , die Kibana im Besitz des Kibana-Benutzers und der Gruppe
sudo C-H auf Kibana ist. Kibana Slash Slash Lappen. Vor allem. Jetzt ist diese Datei Eigentum an den Benutzer
Kibana und die Gruppe Kibana. Nachdem wir das getan haben, können
wir den Kibana-Dienst neu starten. Also Pseudosystem
CTL, Coupon neu starten. Werfen wir einen Blick auf
den Status von Kibana. Sehen wir uns nun an, ob die Kibana-Datei
, die Sie gerade im var-Protokoll erstellt haben , protokollierte Daten
von
der Kibana-Instanz
erhalten hat . Lass uns einen Schwanz
minus f Schrägbett machen. Englisches Recht, besonders
wie Sie sehen können, dass wir angefangen haben,
protokollierte Daten in unsere
Protokolldatei für Kibana zu bekommen . Lasst uns das aussteigen. Lassen Sie mich von hier aus klären. Das nächste Bit von ELK Stack, das den
Server installiert, sind metrische Beats. Lassen Sie uns also noch einmal prüfen
, ob metrischer Köder mit der Protokollierung sudo
nano slash abc slash
metric main.xml
konfiguriert ist mit der Protokollierung sudo
nano slash abc slash
metric main.xml
konfiguriert . Diese Datei gehen wir
zum Logging-Bereich. Jetzt konfigurieren wir das
Loggen in dieser Datei. Kopiere das alles basierend hier. danach auch diese Datei als Nächstes Speichern Sie danach auch diese Datei als Nächstes. Lassen Sie uns die Metrik neu starten.
Welcher Service? Also Pseudosystem
CTL, Stack-Metrik. Werfen wir einen Blick auf
den Status des laufenden metrischen Angebots. Jetzt haben wir die Protokollierung in unserem ELK-Cluster
konfiguriert. Was wir danach tun
können, ist, dass wir
jetzt Datei welcher Dienst installieren können ? Also sudo apt-get install. Sobald es installiert ist, können
wir zur
Dateipunkt-YAML-Datei wechseln und den
Hybrid-Dienst konfigurieren. das zu tun, tippen
wir Sudo, ETC Slash Slash Phobic Dot YAML ein. Jetzt hier in dieser Datei werden
wir zuerst runtergehen und das Laden der
Bibliothek konfigurieren. Unter Datei-Bit-Modulen werden
wir also den
Punkt aktiviert neu laden und den
Wert von false auf true ändern. Wir werden den Kommentar auskommentieren, die Punktperiode
neu laden und sie als
Standardeinstellung zehn Sekunden belassen. Jetzt gehen wir in den
Geschlechterbereich und geben ihm ein Tag. Da es sich also um einen ELK-Cluster handelt, geben Sie ihm
einfach einen Tag ELK. Gehen wir nun zu Dashboards und aktivierter Datei,
welche Dashboards? Ich werde dieses
Setup-Punkt-Dashboard auskommentieren, startete Aktivieren und ändere
den Wert auf „true“. Danach befehle
ich im Kibana-Bereich die Kibana-Host-URL, und ich lasse sie als lokal
oder Überschuss 01 liegen, da dieser Faser-Weihrauch lokal gestartet
wird. Sehr Kibana-Instanz
ist alles, um sie zu installieren. Danach wird
als Elastic Search ausgegeben. Und ich verlasse den
Host-Bereich als localhost 9200. Ich ändere das
Protokoll, um GDB zu verwenden. Ändern Sie das Passwort in das
Elastic User-Passwort, und ich werde sowohl den
Benutzernamen als auch das Passwort auskommentieren. Danach gehe ich zum Anmeldebereich und konfiguriere
die
Protokollierung für die gelesene, nicht festgeschriebene Protokollierungspunktebene. Und ich belasse es
als Standard-Debug. Und ich werde das Kommentieren der
Logging-Punktselektoren auskommentieren und belasse sie als Standardstern. Kopiere das alles, füge es hier ein. Jetzt kann ich endlich Überwachung
über meine-Attribut
einrichten, auf diese Datei
gehen. Und ich kopiere, wenn gdb dot einen Ester-DB-Punkt-Port
aktiviert hat. Was dies bedeutet, ist, dass
Metriken den
Dateiüberfall über STDP überwachen können . Basiere das hier. Jetzt
kann ich diese Datei speichern. Nachdem wir die
metrische Köderüberwachung
über Port 5067 x plus aktiviert haben über Port 5067 x plus prüfen Sie, ob das Beaterwartungs-Modul im metrischen Gebot aktiviert ist oder nicht. Um dies zu tun,
überprüfen wir zuerst die Sudo
Electric-Gebotsliste, listen Sie alle Module und
diejenigen auf, die aktiviert sind. Wenn Sie sehen können, dass das Beta erwartungsmodul nicht aktiviert ist. Lassen Sie uns also zuerst
dieses Modul aktivieren , da
dieses Modul verwendet wird, um andere
auf dem Server installierte Bits zu
überwachen , um sich zu matrikulieren. Pseudo-Metrik-Gebotsmodule aktiviert. Wir würden erwarten, dass dieses
Modul aktiviert ist. Wir müssen dieses
Modul so konfigurieren, dass es Port 5067 ansieht. Lassen Sie mich dazu zuerst alles
klären. Dann tippe ich Sudo Nano-Schrägstrich ein, dc Slash Slash
Slash Bead erwartet. In dieser Datei
müssen wir zuerst die URL
unter Hosts vom lokalen
Überschuss 6625067 ändern , da dies der Port ist, in den die
Datei Daten exportiert. Jetzt müssen
wir unter Benutzername und Passwort den Benutzernamen und das Passwort des
Strandsystems verwenden. Das hab ich nicht bewegt.
Ändern Sie den Benutzernamen. Unterstrichensystem. Und ändern Sie das Passwort, um das Benutzerpasswort
des Systems zu unterstreichen. Und lass mich diese Datei speichern. Überprüfen Sie abschließend die Metrik
, welche Dienste
Sudo-System CTL
Statusrhetorik ausführen . Jetzt können wir den
Datei-Boot-Dienst starten. Also Pseudosystem CTL. Werfen wir nun einen Blick auf den Status der Datei,
welcher Dienst? Jetzt läuft der Dienst. Als Nächstes
müssen wir die
Module auf dieser Oberfläche aktivieren. Lassen Sie mich zuerst
alles klären. Lass mich eintauchen. Pseudo. Module können die elastische Suche
aktivieren, um das Elastic
Search-Modul zu aktivieren. Danach lassen Sie mich
Pseudo-5-Bit-Module aktiviert haben , Kibana, aktivieren Sie die
Kibana-Module. Und zuletzt werden wir
sudo vibrationsmodule aktiviertes System durchführen, um
das System zu ermöglichen. Jetzt müssen wir
all diese drei Module konfigurieren. Gehen wir zu sudo, nano dash abc slash, slash star d slash
Elasticsearch Ottoman. In diesem Modul sehen Sie,
dass es einige Teile hat. Standardmäßig x die Bots
basierend auf Ihrer Distribution. Da wir diese Teile also nicht in benutzerdefinierte Pfade
geändert
haben, müssen wir hier nichts
bearbeiten. Wenn Sie jedoch den Pass in
Ihrer Installation in benutzerdefinierte Teile
geändert haben , müssen
Sie hierher kommen und diese
Konfigurationsänderungen vornehmen. Ich komme aus dieser Akte raus. Ähnlich für Gibbon
Rhodamin-System, basierend auf der Verteilung
, werden alle Standardteile übernommen. Wenn Sie die
Teile geändert haben, müssen Sie hierher kommen und die Änderungen vornehmen. Gehen wir jetzt zu unserer
Kibana-Instanz. Ich kopiere die öffentliche
IP-Adresse 5601 den Namen des
Elastic Benutzers und das Passwort ein. Nun, wenn das Gebot korrekt überwacht
wird, sollten
wir in der Lage sein, diese
Dateizucht unter
Stack-Überwachung, CO2-Menü, zu sehen . Gehe zu Schrittüberwachung. Hier klicken wir auf
Demo-Bewässerung und gehen wir runter. Du siehst, dass
wir zwei Bits haben. Sie haben FIB unter
dem Namen EL gegeben.
Lasst uns darauf klicken. Dies ist unsere Datei,
bevor Sie
richtig überwacht werden und feststellen ,
dass Sie einige
Ereignisraten haben usw. Wenn
Sie
nun zwei Cluster haben, Demo und schauen Sie sich
den Abschnitt unter Logs, Sie können sehen, dass wir
angefangen haben, Protokolle zu sammeln. Wir haben also viele
Informationen und Protokolle
und Anwendungen erwärmen
Lappen auf unserer Elastic Search. Dies bedeutet also, dass unser
Service Protokolle aus dem ELK-Cluster
erfassen kann . Nun gehen wir weiter
zum nominalen
Ausgang von hier K. Und gehen Sie
weiter zum Webserver. Hallo, kopiere die IP-Adresse
des Webservers eins, cohere, SSH, füge
die IP-Adresse ein. Als Nächstes schließe ich es in Abschnitten für ***** über
Albert-Installation. Und ich öffne die
für den Webserver. Und ich schaue sie
im Vorschaumodus an. Jetzt auf unserer Website. Aber zuerst müssen wir überprüfen, dass die Protokollierung für die Matrix
konfiguriert ist. Lassen Sie uns also Sudo, Nano-Schrägstrich, ETC-Schrägstrich vorhersagen, dass Bit-Schrägstrich flüssigen Punkt YAML
sein könnte. Jetzt müssen wir hier runter
zum Logging-Bereich gehen. Wir entkommentieren die Protokollierungsstufe
hat Debuggen und Stern auswählen. Wir belassen sie beide als Standard. Kopieren Sie diesen Abschnitt. Also Control C, kontrolliere V. Danach
speichern wir diese Datei. Lasst uns das MATLAB-Bit neu starten. Sobald die Metrik
welcher Dienst angezeigt wird, können
wir zuerst ein Dateiobjekt
für den Status auf dem
großen Metrikdienst installieren , lassen Sie
uns einen klaren Bildschirm machen. Und hier kann ich
sudo apt-get install eingeben. Danach können wir unseren Vibrationsservice
konfigurieren. Lassen Sie mich also zuerst klarstellen. Geben Sie Sudo Nano DC
Schrägstrich ein, Schrägstrich fünf. Jetzt sind die Schritte identisch, also gehen wir zuerst mit der
konfigurierten Library Load nach unten. Als Nächstes fügen wir einfach ein Tag hinzu. Behalten Sie das Tag als Webebene bei, da es sich um einen Webserver handelt. Setup-Dashboard.
Setup-Punkt-Dashboard startet als wahr
aktiviert. Lassen Sie uns danach den Kibana-Gastgeber
untergraben. für das UFO tun werden, Was wir für das UFO tun werden, ist, dass wir
die interne IP-Adresse
unseres Kibana-Servers verwenden . Also kopiere ich dies und ändere den lokalen Host in die interne
IP-Adresse unseres ersten Quartals. Ich gehe zum Ausgabebereich Elastic
Search. Tun Sie das Gleiche auch für die
Host-URL hier. Ändern Sie die
Protokollinformationen tief. Geben Sie das Passwort für
elastischen Superuser ein. Jetzt gehe ich zum
Protokollierungsbereich und
stelle sicher, dass die Protokollierung konfiguriert ist. Jetzt
gehe ich endlich nach unten und aktiviere Metrik, um diesen Service zu
überwachen. Speichern Sie diese Datei und fügen Sie einen
Checkup-Vx-Quadratmodul hinzu, der
für das Metrikgebot aktiviert ist oder nicht. Also pseudometrisches Bit. Weitere Beiträge aktiviert. Fedex zurück. Ich kann dieses Modul
konfigurieren. Also sudo, Nano, besonders ETC, Slash Slash Slash Slash, den wir erwarten würden. In dieser Datei. Ich habe
das Host-Board auf 5067 geändert das Host-Board auf 5067 da dies die fünfte
Datei ist, die Peter konfiguriert ist. Ich verliere den
Benutzernamen und das Passwort des Beat-Systems. Ich kann diese Akte sagen. Lassen Sie uns jetzt einfach
einen Status für Metrik machen. Metrik welche Dienste funktionieren. Jetzt fangen wir an, dateibasiert. Also Pseudosystem CTL-Datei. Danach können wir zuerst den Fiber-Service in
den Status bringen, um zu überprüfen
, ob er tatsächlich gestartet wurde. Nachdem wir nun überprüft haben, dass
der Dienst gestartet wurde, können
wir alles löschen
und das Modul aktivieren. Pseudo. Schlagen. Modelle aktivieren, aktivieren das Apache-Modul. Dann aktivieren wir
dies als zwei Modelle. Sobald dies erledigt ist, können
wir zu
unserer Kibana-Instanz zurückkehren. Hier. Lassen Sie uns einfach
etwas auf einer Kibana-Instanz aktualisieren . Wenn wir untergehen, werden
wir sehen, dass Sie jetzt vier Beats
haben, also klicken wir auf Bits. Und wie Sie
sehen können, haben wir auch das 5-Bit für unseren
Webserver zur Verfügung. Wir können den Status
dieses Feeds überprüfen , indem wir
auf den Webserver klicken. Und es sollte
uns Ereignisrate,
Durchsatzausfallraten usw. geben . Jetzt
können wir uns eines
der Beispiel-Dashboards
für einen Apache-Webserver ansehen . Lassen Sie uns dazu zum
Menü und dann zum Dashboard gehen. Suchen
wir hier unter dem Dashboard nach Apache. Und klicken wir auf Datei mit Apache-Exzess und analogem ECS. Jetzt ist dies ein
Beispiel-Dashboard, das FileReader mithilfe des Überschusses
erstellt und Protokolle von
einem Apache-Dienst bearbeitet. Sie können dies verwenden, um
eindeutige IP-Adressen zu betrachten , die
mit diesen Antwortcodes auf sich selbst zugreifen mit diesen Antwortcodes auf .
Dies ist
eine einmalige Browser-Aufschlüsselung usw. So können Sie die
Datei
installieren und konfigurieren ein E- und
K-Server und ein Webserver. Was ich möchte, dass Sie tun,
ist, dass Sie irgendwo im Internet die
Datei installieren
und konfigurieren. Was Sie erwarten sollten
, ist, dass Sie, sobald Sie dies tun, nicht in der Lage sein sollten, solche Informationen für
das Absolute zu erhalten. Und wenn du
zu Schritt 100 gehst, hast du sechs Beats. Eine Metrik ist eine Datei für
Ihren zweiten Webserver. Kommen Sie damit zum
Ende dieses Videos. Danke fürs
Zuschauen. Wir sehen uns im nächsten. Tschüss.
25. Heartbeat 7: Hey Leute, Lektion installiere
und konfiguriere Heartbeat. In diesem Video können
Sie mit Heartbeat regelmäßig
den Status Ihrer Dienste überprüfen und feststellen, ob sie
verfügbar sind oder nicht. zum Beispiel daran, Denken Sie zum Beispiel daran, dass Sie einen Webserver
haben. Und wenn Sie sich bei
der Konsole
ihres Webservers anmelden und einen Service überprüfen Sie
den HTTP-Dienst. Der Dienst wird wieder ausgeführt oder Sie versuchen, die Webseite
zu laden, das webbasierte wird nicht geladen, Sie erhalten einen Editor
auf der Webseite, was bedeutet, dass Ihre Benutzer
auf unserem Tisch
Ihre Website verwenden können wofür auch immer sie es benutzen
wollten. Jetzt können Sie Heartbeat verwenden, um diese
Art von Szenarien zu überwachen. Wo das Cockpit reicht,
ist, dass es von seinem Webserver nach
einem Statuscode sucht. Und wenn es
seinen Statuscode nicht zurückerhält, es wirklich gezeigt, dass Web
Services nicht reagiert oder herunterfällt. Jetzt gibt es drei
verschiedene Arten von Monitoren, die Sie innerhalb von Heartbeat
konfigurieren können. Zunächst können Sie
einen ICMP-Ping-Monitor konfigurieren. Es denkt im Grunde genommen diesen bestimmten
IP-Adressen-Port-Hostnamen. Und wenn es einen
erfolgreichen Ping bekommt, zeigt
es ihn wie oben an. Und wenn es nicht erfolgreich ist, zeigt
es diesen Monitorstein. Als Nächstes können Sie sich TCP vorstellen. Mit diesem Monitor können
Sie
über PCP
eine Verbindung zu einem bestimmten Endpunkt herstellen. Und Sie können diesen Monitor auch
ändern, um zu überprüfen, ob der Endpunkt um
die ähnliche benutzerdefinierte Nutzlast
von diesem Endpunkt aus aufsteigt . Drittens
können Sie nun auch
ein überwachtes HTTP konfigurieren, um eine Verbindung
über HTTP mit Ihren Endpunkten herzustellen. Dieser Monitor kann optional auch so konfiguriert
werden, Ihren Endpunkten
nach bestimmten Antworten von Ihren Endpunkten
nach bestimmten Antworten
oder Statuspunkten sucht. Als nächstes gibt es fünf Schritte,
um Heartbeat zu installieren. Zuerst müssten Sie das
Heartbeat Dash elastisches Paket installieren . Danach konfigurieren wir
den Hybriddienst. Es wird metrische Köder konfigurieren, um unsere Heartbeat-Instanz zu überwachen. Viertens
konfigurieren wir Monitore, nämlich SERDP,
ICMP, TCP-Monitor. Schließlich haben wir begonnen,
den Hybriddienst zu aktivieren. Lasst uns also nach links gehen. Nun, hier im Laborsystem, gemäß Anweisungen
zum Installieren und Konfigurieren eines Heartbeat auf ALEKS
auf der linken Seite. Und ich habe meine
SSH-Verbindung und mache meinen ELK-Server auf
der rechten Seite. Nun ist eine Sache zu
beachten, dass wir Heartbeat in dieser
Demo nur
auf ALEKS installieren
werden . Installiere Heartbeat. Das ist ein Typ in sudo
apt-get update. Sudo apt-get install heartbeat. Sie sind tatsächlich elastisch
und treffen Enter. Sobald Heartbeat installiert ist, konfigurieren
wir
den Heartbeat-Dienst. Wir müssen
Sudo Nano-Schrägstrich,
ETC Slash Heartbeat
Slash Heartbeat oder PMA eingeben . In dieser YAML-Datei. Lassen Sie uns zuerst unten
live konfigurieren. Ändern Sie das
Lord-Punkt-Integral und wir belassen den standardmäßigen
Nachladezeitraum auf fünf Sekunden. Danach. Lassen Sie uns zuerst alle
Inline-Monitore
auskommentieren. Weil Sie den Monitorspot
verwenden um diese Monitore zu konfigurieren. Der Pfad ist Schrägstrich, ETC Slash Heartbeat
Slash-Monitore in Richtung D und NAM und Datei
innerhalb der Stelle. Sobald Sie
alle Inline-Monitore
aus dieser
Heartbeat-Punkt-YAML-Datei kommentiert alle Inline-Monitore haben. Lass uns zu Taschen
und Theatertasche gehen. Er hatte
das Ziel als ELK angeben. Danach
gehen wir weiter nach Kibana. Und im Kibana-Abschnitt werden
wir
den Host-Teil auskommentieren, aber wir belassen den
standardmäßigen localhost 5601. Gehen wir nun zur
Elastic Search-Ausgabe über und wir belassen den
URLS-Standard localhost 90 auf 100, ändern das Protokoll STDP und geben die
Authentifizierungsdetails an. nun nach der nächsten
Aktion zum Logging-Bereich fort. Wir implementieren die Protokollierungsstufe. Heben Sie auch die
Kommentarprotokollierungsselektoren auf, behalten Sie
jedoch die
Standardwerte für beide bei. Wissen Sie, ich kopiere diese Konfiguration
aus meinen Anweisungen und
geben Sie die Anmeldung an, um zu einer Datei zu wechseln. Dies ist konfiguriert,
wir können jetzt
als GDB-Überwachung für
unseren Heartbeat Räucherstäbchen konfigurieren . Ich kopiere diese beiden Werte. Wenn Sie bemerken, dass wir Port
5069 für die Überwachung
unserer Heartbeat-Instance verwenden , wird dieses Board danach in unsere
Beta-erwarte-Konfigurationsdatei aufnehmen. Also lasst uns diese Akte vorerst. Lasst uns zuerst
zu unserem Beat gehen. Schlagen. Oder sortierst du D?
Und wir würden erwarten, dass AutoML-Lüfter die
Überwachung auf Port 5069 konfiguriert. Er hatte ein Leiterkomma. Jetzt habe ich die URL
http localhost 5069 gelernt. Ich kann diese Datei speichern. Jetzt zuerst Check
Matrix, es läuft. Also Pseudosystem CTL, Status. Es wiederhole es. Atemberaubend. Nicht, lassen Sie uns auch noch einmal prüfen
, ob wir erwarten würden, dass es aktiviert ist. Also Pseudoliste und Sie können
sehen, dass Beta erwartet aktiviert ist. Das ist also alles gut.
Lassen Sie uns jetzt alles klären und wir können mit Heartbeat unsensibel beginnen
. Also Pseudosystem CTL,
beginne Herzschlag elastisch. Lassen Sie uns zuerst den
Status des Dienstes prüfen. Stellen Sie sicher, dass es läuft. Und jetzt ist es an der Zeit, Monitore zu
konfigurieren. Um das zu tun. Gehen wir zuerst zu ATC,
Hybrid-Monitor gespeichert. Hier. Sie werden sehen, dass
einige
Beispielüberwachungsdateien verfügbar sind. Benutze dies und
passe sie an. Wer erstellt unsere eigenen
Monitordateien? Zuerst tippe ich
Sudo-Kopie ein, Beispiel, ICMP-Punkt-Yammer-Punkt deaktiviert, kopiere zwei Pi Sinus PWM. Jetzt mache ich einen Nano auf ICMP-Punkt YAML,
um ICMP überwacht zu konfigurieren. Jetzt müssen Sie für unseren ICMP-Monitor zuerst
die ID und den Namen ändern. Für Ausweis. Ich verwende den
ICMP-Dash-Status als Name. Ich verwende die ICMP-Statusüberprüfung. Lassen Sie uns dies auskommentieren
, um den Monitor zu aktivieren. Jetzt belassen wir den
Zeitplan
alle fünf Sekunden als Standard ,
damit unsere Hosts, die wir unter
dem Hosts-Array angeben. Alle fünf Sekunden. Wir müssten hier
eine Liste von Hosts angeben. Was ich jetzt mache, ist, dass ich zuerst die interne
IP-Adresse unseres Webservers
angeben werde. Dann nur um an
der externen IP-Adresse
unseres Webservers
193,68 Punkt auf Punkt neun zu demonstrieren , was die interne
IP-Adresse meiner Hüften
über einem Koma-Raum ist . Und ich kopiere die IP-Adresse
meines Webservers nach hier. Was ich jetzt auch
tun werde, ist, dass ich einfach
eine öffentlich zugängliche externe
IP-Adresse hinzufüge . Und diese Hybridisierung eines
Punkt-Punkt-Treffers ist immer hoch nicht als nächstes entlastet
den Modus als Standard, Sie können jetzt
von IPV6 deaktiviert werden, aber lassen Sie es uns als Standard belassen. Sie können auch einen
Diamanten angeben oder eine Rate wird
in den Abschnitt Tag weiter gehen und DAG namens web
aggregieren. Und jetzt können wir diese Datei speichern. Sobald dies erledigt ist, wir weiter und
konfigurieren unseren PCP. Um Deck zu machen, kopieren
wir einfach die
Beispiel-TCP-Monitordatei. Pseudokopie gesampelter
TCP-Punkt-Gmail-Punkt ist
auf TCP-Punkt YAML deaktiviert. Und jetzt ändern wir
dieses PC-Boot-RPM. Jetzt hier. Erstens müssten wir die Idee noch einmal
angeben. Beginnen wir also, weil
wir diesen Monitor verwenden, um den Status
der SSH-Verbindung zu überprüfen und unter Name und Eingabe
der SS-Statusüberprüfung. Nachdem dies aktiviert ist, belässt
der Monitor seinen Zeitplan als Standardeinstellung fünf Sekunden. Und die Hosts habe ich die interne
IP-Adresse meines Webservers
angegeben. Erstens, geben Sie den Port an, also ist der SSH-Port 22. Jetzt kann ich entweder den Port hier
angeben, Port eine Liste von Boards angeben. Wenn der Host unter
der Option Ports keine Portnummer enthält . Dies sind also die beiden Stellen, an denen
Sie Ports angeben können. Wir belassen alle anderen
Werte als Standard. Eine Sache, die
Sie beachten sollten, ist, dass Sie
benutzerdefinierte Maler mit Scheck gesendet
und empfangen verwenden können . Wir gehen zum Tag-Bereich über und fügen das Tag für europäisch hinzu. Und ich speichere diese Datei jetzt. Als Nächstes lassen Sie uns
das Pseudobeispiel für den TV-Monitor kopieren. Http-Punkt YAML sind für Esther
db.json
deaktiviert SGD goo.gl, sudo nano dot YAML-Datei hier, ID Ich gebe
Webstatus und Name an könnte Webdienstprüfung
aktiviert
sein Monitor. Und unter Hosts füge ich meine
elastische und meine Kibana-URL hinzu. Danach muss ich eine
Indikation angeben, da Sie erwarten auf unserem System
konfiguriert haben . Ich war der Benutzername
und das Passwort, elastisch und das Passwort
für den Elastic Benutzer. Jetzt können wir die anderen
Einstellungen verwenden, um eine benutzerdefinierte Statusüberprüfung oder eine benutzerdefinierte, auf
diese Anfrage gemalt zu setzen. Aber wir belassen diese als Standard und gehen
zum Tag-Teil über,
geben an, dass sich die DAG angepasst hat,
und wir heben dies auf. Und jetzt können wir
diese Datei auch speichern. Bevor wir fortfahren, prüfen
wir den Status
unseres Heartbeat-Dienstes. Wieder einmal läuft es. Lasst uns jetzt zu
unserer Kibana gehen, dieser Seite. Das erste, was
zu überprüfen ist
, wäre , dass Heartbeat
als Stack-Überwachung erscheint. Also lass uns nach Hause gehen. Dann Stack-Überwachung. Klicken wir hier auf Demo und gehen wir zu Beats. Und wie Sie sehen können,
haben wir einen Herzschlag und ein bisschen. Wir können auf Beat und
dann auf Heartbeat klicken ,
um den Status unserer
Hartholz-Instanz zu überprüfen . Jetzt müssen
wir für die eigentlichen Monitore auf unsere Homepage gehen und uns dann unter
Beobachtbarkeit bewerben. Hier können Sie nach allen Monitoren suchen,
die nach oben oder unten sind. So wie es aussieht, sind
alle unsere Monitore jetzt aufrecht. Sie können den
Filter nach oben und unten verwenden , um nach einem bestimmten
Status zu filtern, den Sie möchten. Oben rechts
können Sie die Uhrzeit angeben. So können Sie beispielsweise
angeben, ob Sie
ihre Daten vor 15 Minuten
oder 15 Tagen oder Stunden wünschen , Sie können auch
die Zeitspanne angeben. Wie kann man
ein absolut angeben. Jetzt können Sie auch nach Booten
suchen. Wir haben drei Ports von 90 bis 22560001
konfiguriert. Für unsere Schecks. Sie können das Schema, ICMP oder UDP oder TCP
angeben, um die Endpunkte
herauszufiltern. Oder du suchst nach Tags. Wir haben ELK und Web-Tier-Tag. Es gibt also einen Klick auf die Webebene. Wenn Sie dies tun, sehen
Sie nur die Monitore, die für dieses bestimmte Tag spezifisch
sind. Damit kommst du
zum Ende dieses Videos. Danke fürs Zuschauen.
Wir sehen uns im nächsten.
26. Auditbeat: Hey Leute, In diesem Video installieren und
konfigurieren
wir Audit V8. Audit-Bit ermöglicht es Ihnen,
Benutzeraktivitäten und -prozesse
in Ihrem Linux-System zu überwachen Benutzeraktivitäten und -prozesse
in Ihrem Linux-System kommuniziert direkt mit
dem Linux-Audit-Framework. Und seit den Daten, die es für die elastische
Suche in Echtzeit
gesammelt hat . Das sind vier Schritte zur Installation und Konfiguration unseres
Lastschriftendienstes. Zuerst installieren wir das Audit-Bit. zweite Woche
hat ein wenig konfiguriert und
die drei Modelle konfiguriert , die
im Audit V8-Dienst verfügbar sind. Derzeit sind diese
Module Audit D, Dateiintegrität
und System oder do. Danach konfigurieren wir die
Metrik, um das
Audit zu überwachen, welcher Dienst? Schließlich starten und
aktivieren wir den Audit Beach Service. Nun
ist eine Sache zu beachten, dass es keine Option zum Laden der Bibliothek gibt, um
sich zu treffen. Bevor wir
zum Laborsystem wechseln, schauen wir uns jedes
dieser Module einzeln an. Und zuerst
schauen wir uns das Kuriositätsmodul an. Das Modul erhält Audit-Ereignisse aus dem Linux-Audit-Framework, das Teil
des Linux-Kernels ist. Was es tut, ist, dass
es ein Abonnement die Ecke erstellt, um
Audit-Ereignisse zu erhalten, während sie auftreten. Eine Sache zu beachten ist
, dass Sie möglicherweise
andere Dienste beenden müssen , die auf
Ihrem System ausgeführt
werden , z. B. Und im Allgemeinen
gibt es zwei verschiedene
Arten von Regeln, die Sie innerhalb
des Moduls
konfigurieren können, damit
dieses Modell funktioniert gibt es zwei verschiedene
Arten von Regeln, die Sie innerhalb
des Moduls
konfigurieren können, damit . Die erste Regel ist ein Dateisystem. Was diese Regel bewirkt,
ist, dass sie den Zugriff auf eine bestimmte
Datei oder ein Verzeichnis überwacht . Stellen Sie sich vor, dass Sie diese bestimmte Datei beobachten
. Sie werden also benachrichtigt
, wenn auf die Datei zugegriffen oder geändert
wird. Die Syntax dieser Regel
ist minus W-Pfad zu der Datei, die Sie benötigen,
um die Uhr auf
minus p zu setzen . Welche Berechtigungen
wie Lesen, Schreiben, Ausführen,
minus kx, ky name. Der nächste Regeltyp, den Sie
konfigurieren können , ist ein
System namens Regel. Was diese Regel bewirkt,
ermöglicht es die Protokollierung von Systemkosten, die jedes
bestimmte Programm macht. Die Syntax dieser Regel ist minus eine Aktion, die immer oder nie
sein könnte. Dies wäre Aufgabe
außer Benutzer oder Ausschluss, gefolgt von einem Systemaufruf, der durch seinen Namen angegeben wird. Und schließlich können Sie Feld
und Wert verwenden, um
die Regel weiter so zu ändern , dass sie
Ereignissen basierend auf
bestimmten Dingen
wie Architektur,
Gruppe ist die Prozess-ID usw. übereinstimmt bestimmten Dingen
wie Architektur, . Dateiintegritätsmodul und dem
Integritätsmodul erkennen Ereignisse wenn eine Datei geändert wird, was bedeutet, wenn eine Datei
erstellt oder aktualisiert
oder auf der Festplatte gelöscht wird . Dies geschieht, indem Sie
ein Abonnement mit
dem Betriebssystem erstellen , um
Benachrichtigungen über Änderungen an
bestimmten Dateien oder Verzeichnissen zu erhalten. Nun, wenn Sie dieses Modul
zum ersten Mal starten, führt
es einen ersten Scan aller
von
Ihnen konfigurierten Pfade durch. Und dann überwacht es
diese Pfade, um
Änderungen zu erkennen , seit
Sie das Ausführen dieses Moduls verloren haben. Es verwendet lokal persierende
Daten, um
nur Ereignisse für neue
oder geänderte Dateien zu senden . Werfen wir danach einen Blick auf das System oder das duale System oder sammeln verschiedene
sicherheitsrelevante Informationen
über ein System. Datensätze senden sowohl
periodische Informationen, z.
B. einen Status der aktuell laufenden Prozesse als
auch Echtzeitänderungen. Wenn beispielsweise ein Prozess jeden Datensatz
startet oder stoppt, werden Statusinformationen regelmäßig gesendet und
auf dem Systemstart gestartet und können
gesteuert durch Verwendung einer Konfiguration namens
State DOT-Periode. Ereignisinformationen werden gesendet,
wenn das Ereignis eintritt. Zum Beispiel, wenn Sie einen Prozess
starten oder beenden. für Ereignisinformationen oder Verwenden Sie für Ereignisinformationen oder
Datasets das Bone-Modell,
um diese Daten abzurufen. Die Häufigkeit der Umfragen kann durch den Parameter der
Periodenkonfiguration
gesteuert werden . Lasst uns nun
zum Laborsystem übergehen. Hier auf meinem Laborsystem habe
ich die Anweisungen
zum Installieren und Konfigurieren Audit Big auf EHS
auf der linken Seite. Und auf der rechten
Seite habe ich meine SSH-Verbindung zum EHS, unsere erste müssten wir
Audit-Leute installieren, um das zu tun. Geben wir sudo apt-get ein,
installieren Sie es besser. Nun sollten Sie sich daran erinnern , dass wir dies tun können
, weil wir alle
Voraussetzungen erfüllt haben, um ein elastisches Suchrepository,
den Signaturschlüssel und den
Apigee-Transport als
GTPase
hinzuzufügen den Signaturschlüssel und den
Apigee-Transport als Paket auf diesem System bereits, als wir die
Installation der elastischen Suche durchgeführt haben. Wenn Sie das nicht getan haben, können
Sie diesen Schritt nicht ausführen. Sie müssten also zu
dem Schritt zurückkehren, in dem wir
Elastic Search installiert haben , und diese Voraussetzungen
auf diesem Computer tragen. Jetzt, nachdem die Auditability installiert
ist, können
sie
Sudo Nano-Schrägstrich ETC eingeben. Slash-Audit V8
Slash-Audit mit Dot Yammer. Öffnen Sie die
Konfigurationsdatei für das Prüfgebot. Jetzt werden
wir in dieser Datei
als erstes die Module konfigurieren. Also werden wir zuerst das Modul
konfigurieren. Gehen wir runter und Sie werden sehen, dass es einen Abschnitt
namens Identitätsänderungen gibt. In diesem Abschnitt können Sie Firewall-Regeln einführen, die Dateien wie die Gruppe
nach WD und G Shadow File
ansehen. Sie können entweder, ich komme dies, um diese Regeln zu aktivieren, fügen
wir eine benutzerdefinierte
Regel hinzu, um
unsere Elasticsearch- und
Kibana-Konfigurationsdateien zu beobachten . Ich hab die Regel hier. Minus w FASTA-Datei ist Plots auf die Elasticsearch
Kurzdurchmesser fünf minus b für Berechtigungen
und dann sind Berechtigungen WA, und dann ist der Schlüssel Änderungen. Kopieren wir einfach diese
beiden und fügen sie hier ein. Für Schlüssel. Es sei denn, es ist auch
aktiviert diese Regeln. Jetzt können wir auch auf
unbefugte
Zugriffsversuche auf unser System achten . Verwenden wir dazu also eine
Standardregeln. Als Nächstes konfigurieren wir
das Motiv der Dateiintegrität. Jetzt werden
Sie unter Dateiintegrität sehen, dass
es einige Pfade gibt die bereits konfiguriert sind, z. B. verwendet
wurden, sbin oder cetera sind. Fügen wir nun unsere benutzerdefinierten Teile für Elasticsearch und Kibana hinzu. Kopieren Sie also Einfügen. Danach möchte
ich Ihnen als Nächstes zeigen dass sie möglicherweise schnell sind,
dass Sie den Pfad, den Sie unter dem Modul
Dateiintegrität angeben,
nicht überwachen möchten den Pfad, den Sie unter dem Modul
Dateiintegrität angeben,
nicht überwachen . Sie können diese Dateien ausschließen,
indem Sie die ausgeschlossene
Unterstrich-Datei verwenden. Zweitens kopiere ich
diese Einstellung einfach und füge
sie in diese Datei ein. Was diese Einstellung jetzt tut,
ist, dass sie nach einem Dateinamen oder
einem Back-End für diesen Dateinamen sucht einem Back-End für diesen Dateinamen und diese Dateien
vom Waschen ausschließt. Ich habe ein Experiment verwendet , das die
Referenzdateien ausschließt. Daher wird die
Elasticsearch-Kurz-Referenz- oder Metrik-Referenzdatei überwacht. Werfen wir als Nächstes einen Blick
auf dieses Systemmodul. Es gibt zwei Arten
von Informationen, denen Sie Daten
vom System abrufen oder tun können. Erstens sind die Ereignisinformationen. Dies könnte etwa sein , welches Paket
bereits auf
Ihrem System installiert oder
entfernt oder aktualisiert wurde. Die Häufigkeit des Monitors, diese Entzündung kann mithilfe der Einstellung
Perioden
geändert werden . Derzeit ist der Standardwert auf zwei Minuten
eingestellt, lassen Sie es uns
also dabei belassen. Zweitens
können die
Informationen zur Statusinformationsstufe standardmäßig auf
Dinge wie Host-Anmeldung,
Prozess, Socket und
Benutzer überwacht werden . Und diese Entzündung kann standardmäßig für eine Häufigkeit
von 12 Stunden
gesammelt werden, aber dies kann
geändert werden, indem
der Wert der State Dark
Periode geändert wird, wo dies der Fall wäre, aber wir belassen sie
als Standard bei groß. Jetzt leben wir den Rest
der Einstellungen als Standard und gehen
zu den allgemeinen Einstellungen fort. Zuerst. Konfiguriert, eine DAG. Also Eier, ich werde
es auskommentieren und ein Tag
namens ELK hinzufügen. Als Nächstes. Unter Dashboards aktiviere ich
die Standard-Dashboards. Danach. Gehen wir weiter
zur Sektion Kibana. Er hatte
die Host-URL nicht festgeschrieben gelassen. Danach gehen wir zur
Elasticsearch-Ausgabe über. Und ich komme Protokoll und ändere den
Protokollwert so, dass er als UDP ist. Als Nächstes fügen wir Authentifizierungsdetails
der Elastic Benutzer hinzu. Danach
konfigurieren wir die Protokollierung. Also werde ich das Kommentieren der
Protokollierungspunktebene auskommentieren, belasse sie
aber als
Standard-Debug-Befehl , der
Punktselektoren protokolliert, und belasse sie wieder als ganze Selektoren als
Standard. Jetzt konfigurieren wir die
Protokollierung als Datei. Kopieren Sie diesen Abschnitt und
fügen Sie ihn hier ein. Jetzt, nach diesem Testergebnis heruntergefahren und das
HTTP-Monitoring konfigurieren. Kopieren wir diese Einstellungen. Stdev-Punkt aktivierte einen
zusätzlichen Grad-Punkt-Anschluss. Für den Audit-Beat konfigurieren
wir den
Monitoring-Port auf 5068, denn wenn Sie sich erinnern, wird
5067 von
File Beat in dieser Demo verwendet. Jetzt können wir diese
Datei danach nicht speichern. Überprüfen wir zuerst, ob wir
erwarten würden, dass das Modell
in meinem Attribut aktiviert ist. Also sudo-Pip-Liste. Sie können sehen, dass BTEX
back aktiviert ist. Die Oper lässt mich
einfach alles klären. Jetzt. Es wurde die
modulare Redex-Konfigurationsdatei bearbeitet. So Sudo Nano Slash
ETC Schrägstrich,
Slash-Modul-Sort D Schrägstrich erwartet
werden oder TML. nun in dieser Datei Fügen
wir nun in dieser Datei das Marketing
für den Host hinzu. Nach dem Ausmaß der
Entzündung für die Datei tippe
ich http, localhost 68 ein. Jetzt speichern wir das einfach. Danach können wir geordnete Bit-Pseudosystem
CTL, Start oder Deadbeat starten. Lassen Sie uns nun nach dem Status was wir als
Servicestatus hatten. Jetzt ist dies aus irgendeinem
Grund gescheitert. Lassen Sie uns also zuerst
eine gute Vorstellung davon untersuchen, was wir uns die eingegebenen Informationen
ansehen und
sicherstellen
, dass die Syntax korrekt ist. Also sudo, nano, ETC slash Audit Bit Slash
Audit Beat oder GVO. Jetzt sieht es so aus, als würden falsch
konfigurierte Dateien
ausgeschlossen werden. Lassen Sie uns also einfach ein
paar Leerzeichen setzen ,
die dem Shamatha-Index folgen. Es gibt einfach diese Datei speichern. Und lassen Sie uns einfach versuchen
, unser Audit neu zu starten. Welcher Service? Also
Pseudosystem CTL, starte Beat. Lassen Sie uns jetzt einfach noch einmal
einen Status machen,
um zu sehen, ob er aufgetaucht ist. Jetzt sieht es so aus, als wäre
das Problem und ungeordnet welcher
Dienst läuft nicht? Gehen wir zu
unserer Kibana-Instanz über , um
einige Dashboards zu sehen , die sie standardmäßig für uns
erstellt hat. Lassen
Sie uns nun zuerst zur
Stack-Überwachung wechseln , Demo ELK. Lass uns zu Beats gehen. Und Sie können sehen, dass
wir hier ein Audit mit Service haben. Jetzt. Wir können auf Weizen klicken
und dann auf den
bestellten Zimmerservice klicken. Suchen Sie nach einigen
Informationen zum Audit V8. Wir können zu Home
und dann zu Dashboard gehen. Jetzt können wir hier eines
dieser Audit-Bit-Dashboards öffnen. Öffnen wir einfach das Dashboard für die
Dateiintegrität. Jetzt ist dies ein Beispiel-Dashboard , das wir aus dem Audit V8 herausholen können. Sie können sehen, dass die anfängliche
Scananzahl 1043 betrug. Sie können sehen, wann der
erste Scan durchgeführt wurde. Besitzer und Gruppen für unsere Dateien,
die Datei, die durch die Dateianzahl am meisten
geändert wurde, einige Dateiereignisse von jemandem. Lassen Sie uns danach weitermachen und schnell das Audit
konfigurieren. Warte auf unseren Webserver. Jetzt habe
ich hier im Laborsystem die SSH-Verbindung
in meinen Webserver. Also tippe ich sudo
apt-get install ein. Lassen Sie uns danach schnell
konfigurieren. So sudo nano slash Slash Audit Slash Audit
Slash Audit mit Punkt YAML. Jetzt fügen wir die Datei-Watches hinzu, nicht auf dem Webserver. Was wir tun werden, ist, dass wir keine Modifikationen von
Elasticsearch und
Kibana haben. Also habe ich diese Regel gerade kopiert. Dann. Ich ändere es für
meine metrischen Beat - und
Datei-Beta-KML-Dateien, speichere es hier. Und ich habe die Vergangenheit in Datei
von Elastic Search zu ETC geändert . Schrägstrich. Der Schlüssel wurde geändert, um Änderungen zu sein. Ich kann das kopieren
und hier einfügen und Änderungen an Datei-Videokameras ändern. Also Slash Slash Slash Slash
Datei bessere Kamera. Da es sich
um eine wichtige
Datei handelt, die Sie vielleicht auf diesem Silber ansehen möchten ,
wäre Ihr Apache-Web. Mehrere Dateien können wir dasselbe
kopieren und
den Pfadschrägstrich ändern den Pfadschrägstrich www dot slash HTML
Slash index.html. Und wir ändern
den Schlüssel Bu Epsilon. Danach. Gehen wir zum
Dateiintegritätsmodul über. Hier. Ich wollte diesen WWW-Schrägstrich HTML. Jetzt müssen
wir keine Änderungen am
System vornehmen oder tun. Lasst uns nun
zu Eiern und Agenda übergehen. Hier entkommentieren x Einstellung. Und lassen Sie uns das Tag für
Web-Ebene hinzufügen , aktiviert die
Standard-Dashboards. Gehen wir nun
die Hosts herunter und fügen die IP-Adresse meines AKS hinzu, unseren 192 Punkt 0,68 Punkt ein Punkt 34. Und lasst uns das
Gleiche für Kunststoffe testen. Eine solche Ausgabe hat das
Protokoll oder Jüdisch oder DB geändert. Und fügen wir das Passwort hinzu, gehen Sie weiter nach unten und fügen Sie die Protokollierung hinzu. Lassen Sie uns schließlich konfigurieren,
erwarten Sie eine wunderbare Sache. Speichern Sie
diese Datei nicht unbedingt und fügen Sie nicht als nächstes die überwachende
Entzündung hinzu, die wir erwarten würden. So Sudo Nano Slash Slash Slash Slash, verzerrter d
Slash b zu erwarten. Diese Datei erneut,
Kommageraum http localhost 5068. Jetzt können wir
diese Datei auch speichern. Jetzt fangen wir an. Also
Pseudosystem CTL. Stammbaum beginnen. Lassen Sie uns nach dem Status
eines Neustartservers suchen. Also Pseudosystem CTL-Status
oder sie wurden ausgeführt. Gehen wir zurück zu
unserer Kibana-Instanz. Jetzt hier, ihre Punktzahl, um einen zu
stapeln oder zuerst zu bekommen, und klicken wir darauf. Und hier sehen Sie, dass
wir Gewichte prüfen müssen. Sie können jetzt auch zum Dashboard gehen und dieses Mal ein anderes
Dashboard auswählen. Wählen wir einfach das Dashboard für die
Systemübersicht aus. Dieses Dashboard gibt
Ihnen einen Überblick über Ihre Umgebungen wie Anzahl der Hosts in
Ihrer Umgebung, Anmeldeanzahl, Anmeldeaktionen, Benutzeränderungen nach der Verteilung, Prozessstarts und
Stopps, Sockets, geöffnet und geschlossen,
Paketänderungen usw. Sie können
Ihre Systemereignisse
auch unten rechts auflisten . Nun, was ich möchte, dass Sie
danach das Audit Beat
auf dem Webserver installieren ,
um auch
andere verfügbare Dashboards
und Dashboards für Audit
Beat zu erkunden andere verfügbare Dashboards
und Dashboards für Audit , um zu sehen, welche Art von Informationen, die Sie
aus diesem Service abrufen können. Damit kommen wir
zum Ende dieses Videos. Danke fürs Zuschauen.
Wir sehen uns im nächsten.
27. Packetbeat 7: Lassen Sie uns in diesem Video besprechen,
wie Sie Paket-Bit installieren und
konfigurieren können , um den
Netzwerkverkehr zwischen
Ihren Anwendungen zu überwachen . Packet ist ein
Echtzeit-Netzwerkpaketanalysator , den
Sie mit
Elastic Search verwenden können , um
ein Anwendungsüberwachungs- und
Performance-Analysesystem bereitzustellen ein Anwendungsüberwachungs- und . Es erfasst den Netzwerkverkehr zwischen
Anwendungsservern. Und es dekodiert die
Anwendungsschicht-Protokolle wie HTTP, MySQL usw.
Sie können es wieder auf demselben Server bereitstellen, auf dem sich Ihre
Anwendungen befinden, oder ungeklärter jemandem in
einer Cloud-Umgebung weil sie unterstrichen haben, dass
Netzwerkgeräte Ihnen nicht ausgesetzt
sind. Es ist schwer, Packet
Break Hunderte für jemanden bereitzustellen. In dieser Demo werden wir die Paketrate auf
unserem Webserver
bereitstellen und unseren HTTP-Datenverkehr
mithilfe der Paketrate
überwachen. Es gibt vier Schritte, die wir wieder
bereitstellen müssen, und zuerst werden wir
Packet Week installieren. Zweite Woche konfigurieren Sie die
Paketrate und konfigurieren Sie Traffic Sniffer und Desktop-Flows für unser
Bucket-Repository. Wir werden die Metrik konfigurieren. Wir haben das
Paket überwacht. Und schließlich starten und aktivieren
wir das Paket. Lasst uns zu unserem Laborsystem übergehen. Hier auf der linken Seite habe
ich die Anweisungen
zum Installieren und Konfigurieren Paketbits auf dem Epsilon,
auf der rechten Seite habe
ich meine SSH-Verbindung
und morgen 1. Oktober, nächstes Installationspaket bewerten. So können wir sudo apt-get install
package eingeben und Enter drücken. Sobald das Paket installiert ist, können
Sie es
auf die nächste erste
CD konfigurieren und den Schrägstrich, das
ETC-Schrägpaketbit drucken . Wenn ich hier ein ls mache, werden
Sie sehen, dass
ich mein Paket habe,
lese die Referenzdatei, lese die Referenzdatei, die ich verweisen kann,
wenn ich meine
Paketinstallationskonfigurationsdatei konfiguriere,
die Paket ist mit Punkt YAML. Lass uns Sudo machen. Zahl. Könnte schmutzig sein Emma. In dieser Datei muss ich
als erstes die Netzwerkschnittstelle
konfigurieren
, von der ich Daten
schnüffeln möchte. Linux-Maschinen. Habe einen Wert von
irgendeinem, was bedeutet, diesen Datenverkehr von der
gesamten verbundenen Schnittstelle zu schnüffeln. Oder Sie können
eine bestimmte
Netzwerkschnittstelle angeben , um
nur auf dieser Schnittstelle perfekt auf das Netzwerk abzielen zu können. Jetzt belassen wir es als
Standard und es ist als nächstes bei Paketflüssen standardmäßig
aktiviert. Für deaktivierte Flows können
Sie aktiviert
als false und
Flow-Konfiguration festlegen , um sie zu deaktivieren, aber wir lassen es aktiviert. Und jetzt ist es an der Zeit,
die Protokolle zu konfigurieren , für die wir Netzwerkflüsse überwachen
möchten. Jetzt steht das unter den
Paket-Bedard-Protokollen. Jetzt werden wir hier
Netzwerktools für ICMP,
IPv4, DNS, ein deaktiviertes HTTP überwachen . Der Rest der
Flows muss sie
kommentieren.
Das mache ich jetzt. Nun ist zu beachten, dass der Sportplatz
verwendet wird , um die
Ports zu konfigurieren, für die Sie die Flussinformationen für Ihren Webserver überwachen
möchten möglicherweise auf einem
anderen Porttest ausgeführt werden von einem
dieser Standardports aus. Beispielsweise läuft Ihr Webserver möglicherweise auf Port 8.001. Flow für Ihr
Webserver-Indexszenario müssen
Sie entweder
hierher kommen und Ihr
spezifisches Board wie folgt hinzufügen und auch
den Rest löschen. Da wir auf Port 80 laufen, bewegen
sie alle anderen Ports. Und ich gehe jetzt zum
nächsten Abschnitt über, der Geschlecht ist. Hier. Ungewöhnliche Schlagworte. Und ich lasse die Tags erscheinen. Danach
richten wir ein paar Dashboards ein. Konfiguriert, Setup-Punkt-Dashboard
Sortierung ist als wahr aktiviert. Lassen Sie mich das also zuerst auskommentieren und
dies auf wahr setzen. Aktiviert Standard-Dashboards für Paket mit Kibana-Instanz. Danach müssen wir Kommentar nach der Sitzung für
Kibana aufheben und die URL korrigieren. Dies ist die
interne IP-Adresse unserer Standardinstanz. Wenn Sie 168 Punkt mp4 machen. Danach
gehen wir mit der Ausgabe über. Und die Ausgabe, als
erstes müssen wir
die URL für meine elastische Ausgabe korrigieren , Abschnitt 921681 Punkt 34, die interne IP
meiner ELK-Instanz ist. Als Nächstes konfigurieren
wir unter Protokoll das
Protokoll als STDP. Danach müssen
wir Authentifizierung,
Elastic User und Passwort einrichten . Lassen Sie uns als Nächstes die Protokollierung einrichten, Protokollierungsstufe aufheben,
aber lassen Sie es wie zuvor, debuggen Sie die Logging-Selektoren, aber
belassen Sie sie als Standardstern, was bedeutet, dass alles Es gibt
gewisse Google-Datei. Ich muss diese
Konfiguration kopieren und hier einfügen. Was diese Konfiguration
macht, ist, dass sie die Protokollierung ermöglicht an eine Datei gesendet
wird. Dann geben wir die Parameter für die Datei an, die verwendet
werden muss, z. B. den
Pfad der Datei, die Anzahl der zu behaltenden Dateien und
die Berechtigungen für diese Datei. Nach dieser Vorlesung
sollte das Setup durch metrische Perle überwacht werden. Kopiere diese beiden Chirurgen
und füge sie hier ein. Jetzt
ermöglicht die erste Einstellung, dass HTTP trinken möchte, und die zweite Einstellung. Das könnte sein, welchen Port es für zentrale
Überwachungsdaten benötigt. Was wir tun werden, ist, dass wir
diesen Port in unserer Beat
erwarteten Datei konfigurieren werden, ist begrenzt. Also lasst uns diese Datei speichern. Danach. Lassen Sie uns
unsere Expertenfonds bearbeiten. So erwarten Sudo, Nano Slash, ETC Slash Retributive
Modelle sicherlich. In dieser Datei und
im Host-Bereich müssen
wir die URL für unser
Paket hinzufügen, das militärische Komma
Space Anführungszeichen http localhost liest . Im Cortex Teil
070. Ich kann das retten. wir danach zuerst, Überprüfen wir danach zuerst, ob das metrische
Gewicht läuft. Also Pseudosystem CTL-Status. Jetzt läuft das. Beginnen wir jetzt unser
Paket mit einer Instanz. Also beginnt das Pseudosystem CTL. Lassen Sie uns einen Status
für Paketbits machen. Status der Pseudozyste zu CTL läuft also reibungslos. Kibana UI, um einige
der Leute anzusehen , sind Dashboards
, die durch Paket erstellt werden. Von der Homepage meiner Kibana-Benutzeroberfläche. Ich gehe zuerst zur Speisekarte. Ich stempel
es auf. Er war unrein. Gehe zu Abschnitt vier Beats. Und ich kann sehen, dass es
ein Beat-Board-Paket mit gibt, damit ich auf Beats klicken kann. Klicken wir auf das Optimale. Ich könnte lesen. Sie können sehen, dass es einige Daten
empfangen hat. Zu unserer Backend-Instanz. Schauen Sie sich einige
Dashboards an, die von Paket für uns erstellt
wurden von Paket für uns erstellt
wurden in unserem
Experten-Dashboard für Kibana UI. Hier. Tippen wir ein Paket ein. Dann klicken wir auf das Dashboard, das
besagt, dass ich lesen könnte,
wie das BIP ist, ja. Dieses Dashboard bietet
Ihnen jetzt die STDP-Transaktionen,
z. B. Anzahl der Transaktionen, Schichten, Scores und Berichte,
Doktrin-Verlauf, DB-Anfragen usw. Ebenso können Sie
sich auch das Netz ansehen ärzte. Und hier können Sie
Verbindungen im Laufe der
Zeit von Beiträgen sehen , die Traffic,
Posts, Empfangen von Datenverkehr und
Netzwerkverkehr zwischen Hosts erstellen . Dns voller Ansicht, Sie können einige DNS-bezogene Daten
abrufen. Zum Beispiel fragt DNS-Abfrage von
jemandem in seinen
Anfragen im Laufe der Zeit, die Fragetypen in seinen
Client- und Server-IPs, häufig Fragen für DNS. Als Nächstes können Sie sich auch
ansehen, ob CPS-Transaktionen. Sie können Hals- und
Rückgangszahlen, Transaktionsanzahl, leere Spalten, Datenübertragung, Streifen sehen, einfach im Laufe der Zeit eingeben. Jetzt ist dies der Pol
Ihres Armaturenbretts. Kann sich Kunden ansehen
, die versuchen, bei ihren Transaktionen
auf Ihre Websites zuzugreifen. Transaktionen,
Transaktionstypen, Reaktion im Laufe der Zeit, Perzentile der
Reaktionszeit, Fehler im Vergleich zu erfolgreichen
Transaktionen Bedingungen, die sie nicht gesucht haben usw. ,
Bedingungen, die sie nicht gesucht haben usw.
Was ich möchte, dass Sie
danach tun möchten, dass Sie um sie auf dem Webserver bereitzustellen. Das wird zum Ende
dieses Videos kommen und du siehst
dir an, wir sehen uns im nächsten.
28. So bereitest du einen multi ein: Hey Leute, In dieser
Vorlesung erstellen wir einen
3-Node-Elasticsearch-Cluster mit zwei Knoten Master berechtigt sind, um
unsere Kibana-Anwendung
auch
auf eine eigene Instanz zu trennen . Die Kommunikation zwischen
elastischen Suchknoten wird über SSL erfolgen und die Kommunikation
zwischen Kibana und unserem Elasticsearch-Cluster
wird über HTTPS erfolgen. Nun, hier sind ein paar Schritte. Zuerst werden wir
drei Elasticsearch-Knoten
auf unserem GCP-Testkonto erstellen . Dann
erstellen wir auch eine Kibana-VM auf unserem GCP-Testkonto. Danach
installieren wir Elastic Search, alle drei
Elasticsearch-Knoten und installieren Kibana auf eigener Last. Dann generieren wir
eine elastische Suchzertifizierungsstelle und erstellen alle Zertifikate. Dies liegt daran, dass wir
selbstsignierte Zertifikate verwenden werden. Wenn Sie dies nicht möchten, können
Sie Anfragen zur
Zertifikatsignierung generieren und die Zertifizierungsstelle
Ihres Unternehmens oder eine öffentliche
Zertifizierungsstelle erhalten Ihres Unternehmens oder eine öffentliche
Zertifizierungsstelle , um Ihnen die
Zertifikate für Ihren Cluster zu geben. Sobald Sie
die Zertifikate haben, werden diese
Zertifikate an alle Knoten verteilt. Dann konfigurieren wir
Elasticsearch und Kibana. Und schließlich stellen wir sicher, dass
Elasticsearch-Knoten
dem Elasticsearch-Cluster beitreten und der Kibana-Knoten über HTTPS mit Elastic
Search
kommunizieren kann . Lasst uns also anfangen. Wie ihr sehen könnt, befinde ich mich auf meiner Compute
Engine-VM-Instanzen Seite. Hier. Ich klicke auf Instanz erstellen. Ich klicke auf Neue Frauen
aus Vorlage, wähle ELK-Vorlage aus
und klicke auf Weiter. Ich ändere die Region
in US West One. Ich behalte den Namen als ELK One. Und ich gehe zum
Netzwerkbereich,
erweitere dies und
erweitere es dann. Ich werde sicherstellen, dass diese VM
eine elastische Such-VPC ist und
das Subnetz überwacht. Und danach
klicke ich auf Create. Sobald diese VM erstellt wurde, kann
ich zwei weitere erstellen. Sobald ich die drei elastischen
Suchinstanzen erstellt habe, klicke
ich
erneut auf die Schaltfläche „Instanz
erstellen “, um endlich
meine Kamera-Instanz zu erstellen Ich klicke auf VM-Instanz
aus Vorlage und verwende
erneut meine ELK-Vorlage
und klicke hier weiter, ich ändere den Namen in Kibana, ändere die
Region erneut in Networking. Stellen Sie sicher, dass es sich im
Überwachungssubnetz befindet, und klicken Sie auf Erstellen. Schließlich habe ich meine drei
Elasticsearch-Instanzen und meinen Kibana-Räucherstäbchen bereit als nächstes testen wir die Konnektivität
zu allen von ihnen. Was ich mache, ist, dass
ich zuerst auf
diese drei Zeilen klicke , um die Spaltenanzeige zu
ändern. Ich will keine Zonen, weil ich den ganzen Zonensatz
kenne. Ich möchte keine
Empfehlungen verwenden, und ich klicke auf Okay, jetzt ändere ich die Größe
meines Browserfensters, um mein Terminal
aufzurufen. Jetzt habe ich mein
GCP-Testkonto, die linke Seite und mein Terminal für Mac auf
meiner rechten Seite. Und ich überprüfe die
Konnektivität von meinem Mac
zur externen IP-Adresse
meiner GCP-Instanzen. Also tippe ich
SSH-Bereich ein, labriere es unter und kopiere dann
die externe IP und füge ein und drücke Enter es. Ja, ich kann mich bei der ersten Instanz anmelden
. Dann öffne ich einen neuen
Tab mit Profilbasic. Hier tippe ich das
SSH-Labor ein, dann das zusätzliche Licht, das wir haben die
zweite Instanz und es tritt ein, ja, dasselbe. Ich füge einen weiteren Tab hinzu, SSH ,
labriere es unter und
kopiere dann die IP-Adresse
der nächsten Instanz. Ja. Schließlich kopiere ich die externe IP der
Mikrobiologie-Instanz, öffne einen neuen Tab und mache SSH-Labor Bit und
füge es hier ein. Es hat Jahre gedauert und jetzt kann
ich mich mit allen verbinden. Also minimiere ich das und wir beginnen mit der Konfiguration
unserer Instanzen. Zuerst müssen wir
Elastic Search auf allen R3,
drei Elasticsearch-Instanzen, installieren . Also mach bitte weiter
und du kannst die gleichen Schritte ausführen, die ich
dir in einer Bereitstellung mit einem einzigen Knoten gezeigt habe . Konfigurieren Sie den
Elastic Search Dot YAML noch nicht, installieren Sie ihn
einfach und kommen zurück und ich mache
dasselbe für diese Instanzen. Nachdem Sie
Elastic Search
auf allen drei
Elasticsearch-Notizen installiert haben , ist
es an der Zeit,
Kibana auf dem Kibana-Knoten zu installieren. Ich habe
den öffentlichen Signaturschlüssel bereits installiert und speichere diese
Verzeichnisdefinition. Alles, was wir
auf dieser Instanz tun müssen, ist sudo APT Update und End zu bekommen. Sudo APT holt
Kibana installieren und Enter drücken. Wie Sie sehen können, wurde
Kibana erfolgreich auf diesem Computer
installiert,
nachdem Gibbon nicht gespeichert wurde. Was ich mache, ist, dass ich zum
Visual Studio Terminal gehe , damit ich meine Notizen referenzieren
kann während ich
die Dienste konfiguriere. Hier auf dem Bildschirm habe ich mein Visual
Studio-Code-Fenster geöffnet mit meinen Notizen auf der linken Seite
und dem Terminal auf der rechten
Seite und oben.
Ich habe dieses Plus-Symbol verwendet, um vier Registerkarten zu erstellen jeder in meine individuelle
Ladung des GCP-Kontos. Also beginnen wir zuerst mit
der Konfiguration der ELK One Maschine. Hier. Ich werde sudo VI Slash, ETC, Slash Elastic
Search Schrägstrich
elastisch search.html machen. Vernichten Sie ein.
Ich gehe in Insert. Und das erste, was
ich tun muss, ist, dass ich einen
Namen für meinen Cluster einrichten
muss. Dies muss auf
allen meinen letzten Anstrengungsknoten gleich sein oder den Demo-Unterstrich ELK
einschränken. Als Nächstes gebe ich diesem Knoten einen
Namen. Ich nenne diesen Knoten ELK eins. Wir können den Pfad zu Daten und
Log-Verzeichnis gleich behalten , das ist in Ordnung. Als nächstes gehe ich ins
Netzwerk und ändere den
Netzwerkpunkt-Host-Wert auf 0. Punkt 0 ist 0. Als Nächstes werde ich STDP-Punkt-Port
auskommentieren. Als Nächstes müssen wir
die Seed-Hosts für unseren Cluster angeben . Dies sind die ersten Hosts. Was hier
unseren Cluster bilden wird, gebe
ich die
private IP-Adresse aller meiner Elastic Search-Knoten ein. Wenn ich in meine GCP-Konsole gehe, sind
die privaten IPs 192.6781681. Also das gehen wir hier rein. Nachdem wir Seed-Hosts bereitgestellt
haben, müssen wir angeben, welche Knoten berechtigt beherrscht werden
können. Wir möchten, dass ELK Wonder Neil
K2 für den Meister berechtigt ist. Also das gehen wir hier rein. Ich tippe EL k1 und k2 ein. Das ist alles für diese Akte. Im Moment kann ich ihm ein
blaues Ausrufezeichen speichern. Sobald ich das getan habe, muss ich zur
Benutzerfreigabe von Elastic Search gehen und
jetzt einmal im Bin bin, wir können ein ls machen und
Sie werden sehen, dass es
ein Dienstprogramm namens Elastic
Search gibt dash 30 Hotel. Wir werden damit
zuerst eine CA erstellen und dann einige Zertifikate
für eine Replikation generieren Diese Zertifikate sind
selbstsignierte Zertifikate. Also lasst uns zuerst anfangen, wir müssen einen Seher generieren. Tun Sie das, wir geben
Sudo-Punkt-Schrägstrich Elastic Search
Dash sagittal ein. Und um einen Seher zu generieren, lautet
der Befehl C
und wir drücken Enter. Wir können die Standardeinstellungen und
kein Passwort für den CEO beibehalten. Dieser Dateipunkt p12 ist zum Teil die
Benutzerfreigabe Elastic Search. Also mache ich hier ein LS, um
sicherzustellen , dass diese Datei
da ist, da ist sie. Jetzt wird CFI IS generiert. Wir müssen jetzt
die SSL-Zertifikate generieren , die von Elasticsearch-Lasten
verwendet werden sollen. Was wir tun werden, ist, dass wir wieder
hineingehen und ich drücke den
Pfeil nach oben , um zu meinem
Elastic Search
Utility-Befehl zu gehen , entfernt CA, und dieses Mal gebe ich Insert ein, weil ich generieren
wollte zertifikate. Und um
die Zertifikate zu generieren, muss
ich eine CA bereitstellen, ich gebe Dash, Dash C ein, und wir kopieren den Namen
unserer CAP 12-Datei und legen sie hierher, da die Datei
für den Speicherort bleibt. Wir müssen keinen
vollqualifizierten Weg in Richtung angeben und ich drücke Enter, wenn es
nach einem Passwort für ca fragt Wir haben bei
der Generierung des CS keines angegeben, also ist es in Ordnung, wir können Enter drücken. Jetzt
akzeptieren wir auch Standardwerte für die Zertifikatsdatei
oder das Passwort. Jetzt sollte sich diese Datei auch in der Benutzerfreigabe Elastic Search
befinden. Also gehe ich in dieses
Verzeichnis und mache ein ls. Und das ist unsere Elastic
Search-Zertifikatsdatei. Das ist für die SSL. Wenn wir also
zu unserem PowerPoint zurückkehren, ist
dies für die Kommunikation zwischen den Elasticsearch-Knoten. Für die Kibana-Kommunikation
müssen wir ein
STDP-Zertifikat erstellen. Um das zu tun, können
wir es jetzt aufnehmen. Dieses Mal tippe ich sudo dot slash elastische
Suche Sergio Tabelle ein. Und hier gebe ich STDP ein, regeneriere die SGD
wird Zertifikate sein. Ich möchte keine CSR generieren,
also gebe ich jetzt ein .
Dies ist die Option, die Sie verwenden,
wenn Sie eine Zertifizierungsstelle
eines Drittanbieters verwenden, z. B. die CA Ihres
Unternehmens, die öffentliche CA. Da wir jedoch die
selbstsignierten Zertifikate verwenden, tippe ich 0 ein und drücke Enter. Ja, wir möchten
ein vorhandenes CS verwenden, also tippe ich ja ein, als nächstes will es den
Pfad zu meiner CASB T12-Datei. Also kopiere ich den Pfad, der die Benutzerfreigabe Elastic Search
ist. Ich kopiere es hier ist
Elastic Search ca dot p12. Also kopiere ich das
auch hier und drücke Enter. Jetzt gibt es kein Passwort
für diese SCF-Datei. Als nächstes fragt ich, wie lange ich möchte, dass die
Zertifikate gültig sind. Jetzt möchte ich den Standardwert, also behalte ich ihn als fünf
Jahre als nächstes,
wenn Sie
ein Zertifikat pro
Ladung in einem
Produktions-Setup generieren möchten, könnten Sie es wenn Sie
ein Zertifikat pro
Ladung in einem
Produktions-Setup generieren möchten tun. Also gehst du ja hier, aber im Moment klicke ich
auf Nein und drücke Enter. Jetzt will es die
Hostnamen für alle Knoten oder wir können Platzhalter bereitstellen. Jetzt zeig ich dir für eine Minute
was. Es wird zu einer anderen Instanz gehen. Jetzt machen wir hier Sudo V Slash,
ETC, Slash-Hosts, um meine Host-Datei zu
öffnen. Jetzt
haben alle GCP-Instanzen ein internes DNS, das so aussieht. Angenommen, der Hostname, den
Sie während der Einrichtung angegeben haben, die Region dort m Punkt c
und dann das Projekt, in dem sie sich befinden, und dann punktintern. Was wir tun werden, ist, dass wir
ein Zertifikat mit internem
Star Dot generieren . Dritter Typ in Stern, um
alles von Hostnamen,
Punktregion-Punkt-Projekt abzudecken . Und dann tippe ich
intern ein und drücke Enter und drücke dann erneut die Eingabetaste, ich gehe ja, das ist richtig. Jetzt möchte es, dass wir
die IP-Adressen
aller meiner Knoten angeben . Also mache ich das. 92
Punkt 168 Punkt ein Punkt 6190 Punkt 168 Punkt 168 Punkt ein Punkt 7192
Punkt 168 Punkt ein Punkt acht. Bitte beachten Sie, dass dies für Sie natürlich anders sein
wird. Was Sie also tun müssen,
ist, dass Sie zu
Ihrer GCP-Konsole gehen und sich
die internen IPs ansehen und
diese an dieser Stelle bereitstellen müssen Ihrer GCP-Konsole gehen und sich
die internen IPs ansehen . Wenn diese nicht korrekt sind, treten
Ihre Knoten dem Cluster nicht bei. Also tippe ich erneut
Enter ein, um rauszukommen. Ja, die sind richtig. Ich möchte keine Optionen
ändern. Ich klicke auf Nein, ich
möchte kein Passwort angeben. Klicken Sie auf Enter und ich
akzeptiere alle Standardeinstellungen. Und dies sollte
eine Zip-Datei in meiner Benutzerfreigabe für
Elastic Search erstellen . Also lasst uns eine Ebene über
einem klaren gehen und ein ls machen. Jetzt haben wir eine Datei,
ein Zertifikat für
Elasticsearch-Knoten und eine ZIP-Datei generiert . Mal sehen, was sich
in der Zip-Datei befindet. Also tippe ich entpacken
Elastic Search Dot zip ein. Es kann den Unzip nicht finden. Das ist also eine einfache Lösung. Ich tippe sudo
apt-get install ein, entpacken, weiß, was das
Entpacken installiert ist. Wir führen den gleichen
Befehl aus und fügen Pseudounakte
klar an, um sie zu analysieren. Jetzt müssen wir
in diesen Ordner gehen. Also mache ich CD Elastic Search. Und es sei denn, es hat die
STDEV-Punkt-p12-Datei. Lassen Sie uns nun eine Ebene oben gehen
und erneut analysieren, es gab auch einen Kibana-Ordner. Also lasst uns da reingehen. Und wann immer es
eine elastische Suche gibt, CA Him Datei. Es gibt also eine
HTTP-Punkt-P12-Datei und eine ca-Punkt-VM-Datei, die
darin
erstellt wurde . Jetzt werden wir all
diese relevanten Dateien in
mein temporäres Slash-Verzeichnis verschieben ,
damit ich es herunterladen kann all dies und verteilte
sie dann auf die Kredite. Also gehe ich zuerst eine Ebene
über klar, wenn Alice, kopiere
ich elastische
Dash-Zertifikate um zuerst die
Zertifikatsdatei zu kopieren, um TMP zu schrägen, und ich muss ein Pseudo hinzufügen. Als nächstes muss ich
meinen CFL Elastic Stack kopieren, ca Punkt p12 Schrägstrich TMP Schrägstrich. Als nächstes muss ich eine
Sudo-Kopie machen Elastic Search die STDP-Datei
im Elastic
Search-Ordner, auch tmp. Und schließlich muss ich
eine Sudo-Kopie Kibana und die Elastic Search
ca dot PEM-Datei in diesem
Kibana-Ordner machen, um TMP zu schrägen. Sobald ich das gemacht habe, muss
ich in
den Slash-TMP-Ordner gehen. Und was ich mache, ist, dass
ich einen CH-Mod mache und allen
in diesen Dateien volle Berechtigungen erteile. So elastischer Stern, und
ich mache es mit Sudo und schließlich
Pseudo CH mod 777. Ich mache das für
meine STDEV.P 12-Datei wenn ich minus l bin, um
sicherzustellen, dass das erledigt ist, es sieht so aus, als wäre es so. Bevor wir diese herunterladen, werden die relevanten
Zertifikatsdateien
für diesen bestimmten Knoten direkt
in den Konflikt verschoben . Lasst uns ins ETC gehen. Slash Elastic Such
geben Sie sudo SU ein. Zuerst gehen wir auf CD,
ETC, Elastic Search. Hier erstellen wir ein
Verzeichnis namens search. Sobald dies erledigt ist, kopieren wir das SSL-Zertifikat für
unsere Elastic Search, das ist dieses Zertifikat in elastischen Suche der
Benutzerfreigabe
in den Suchordner, das ist dieses Zertifikat in der elastischen Suche der
Benutzerfreigabe
in den Suchordner,
kopieren den Schrägstrich der Benutzer Elastic
Search. Und das Zertifikat ist ein elastisches
Zertifikat, das B12 gespeichert ist. Und wir kopieren das Zertifikat
in den Quellordner, suchen nach Schrägstrich, wir drücken die Eingabetaste, lassen uns
dann eine CD in
diesen Suchordner
machen, stellen Sie sicher, dass das
Zertifikat ordnungsgemäß
kopiert wurde , das ist erledigt. Nun, was wir tun müssen ist, uns hier eine
Ebene oben gehen zu lassen wieder unsere Elastic
Search Dot YAML-Datei bearbeiten. Also mache ich eine VI
elastische search.html. Und in dieser
Datei muss man direkt in die Sicherheit
gehen und unter Sicherheit werden
einige Sicherheitseinstellungen
aus meinen Notizen kopiert . Erwartet also, dass Sicherheit aktiviert true ermöglicht die erwartete
Sicherheit erwartet Sicherheitstransport SSL aktivieren true ermöglicht das SSL
auf dem Transport, wir verwenden das
SSL-Verifizierungsmodus I Zertifikat und wir stellen sicher, dass es
zwingend erforderlich ist , dass
die Kunden authentifiziert werden. Und schließlich müssen
wir den KeyStore und
Vertrauen oder Teil für unsere elastische
Zertifikat-Pupillendatei bereitstellen , die wir gerade in den Quellordner in Della kopiert haben, direkt in den Quellordner in
Della kopiert haben. Aber bevor wir das tun, müssen wir, weil wir in
den dritten Ordner wechseln, den
FQDN dieses Teils bereitstellen. Also geben wir einen Schrägstrich ein, ETC Schrägstrich Elastic
Search
Slash Suchstrich elastischer
Zertifikatspeicher beendet. Nun, wir kopieren das und
fügen es auch hier ein. Und jetzt können wir all diese
Einstellungen kopieren und hier einfügen. Bevor wir fortfahren, müssen wir dafür
auch die
HTTPS-Kommunikation oder
einen anderen Cluster aktivieren , wir müssen zuerst
als GDB, einen anderen Cluster, aktivieren, und dann
müssen wir der SGD P einen Pot
zur Verfügung stellen . volve-Datei enthält. Wie wir es zuvor getan haben. Ich werde den FQDN zur Verfügung stellen, weil
Sie den Pot
ADC Elastic Search Slash
Slash SRB Dot Py-Datei geändert haben ADC Elastic Search Slash
Slash SRB Dot Py-Datei und diese beiden
Einstellungen an
den unteren Rand meiner YAML-Datei für Elastic
Search Dot kopiert haben. Und jetzt kann ich diese Datei speichern. Sobald wir das getan haben, kopiere
ich diese Datei auch in
meinen Temp-Ordner. Und wieder mache ich ein CH mehr. So und so und so weiter. Auf meiner Elastic
Search-Punkt-YAML-Datei in ihnen befinden sich diese und
drücken Sie Enter und es gibt Kopie unseres Zertifikats
Introducer sesshaft. Kopieren Sie also Schrägstrich, usr Slash
Share-Schrägstrich
Elasticsearch, elasticsearch slash
STDP-Punkt py verweilen in ATC elastische
Suchsuche. Und gehen wir in
den Quellordner , um sicherzustellen, dass diese Datei vorhanden ist. Gehen wir nun zurück zu unserem GCP-Konsolenfenster, um all diese Dateien
herunterzuladen. Jetzt klicke
ich auf der Konsole für GCP neben meiner ELK One Instance auf SSH. Dies öffnet den SSH für diese Instanz in
einer neuen Browser-Registerkarte. Sobald die
SSH-Verbindungen fertig sind, klicken Sie
oben rechts auf die Schaltfläche Einstellungen und klicken Sie
auf Datei herunterladen und geben Sie von hier aus den FQDN. Schrägen Sie also temp Slash elastische Zertifikate Punkt
p12 und klicken Sie auf Download. Wir haben das
erste Zertifikat heruntergeladen. Als Nächstes müssen wir
unsere STDEV dot p12 Datei herunterladen. Slash Begriffe slash std
p.volve ist also das einmal heruntergeladen. Klicken Sie dann erneut auf die
Download-Datei. Dieses Mal laden wir die Punkt-PEM-Datei
herunter. Um den Namen zu erhalten, gehe
ich in mein
temporäres Verzeichnis, um den Namen
meiner Punkt-PEM-Datei zu analysieren und zu erhalten. Hier. Das habe ich heruntergeladen. Jetzt. Als Nächstes müssen wir
unsere Elasticsearch
kurze YAML-Datei herunterladen . Also klicke ich auf
Datei herunterladen und die Begriffe slash Elastic Search dot YAML und klicke auf Herunterladen. Sobald das erledigt ist, kann ich
diesen SSH-Tab schließen und
einen neuen Tab für mein ELL k2 öffnen. Sobald der SH2 GLP-2 geöffnet ist, klicken
wir erneut auf die Schaltfläche
Einstellungen, wir klicken auf Datei hochladen
und gehen zu
dem Speicherort, an dem wir
die Zertifikate heruntergeladen haben. Und die erste Datei, eine ist das elastische
Suchzertifikat. Und ich klicke auf Öffnen, und dies wird diese Datei
zu Home Slash aufwändigen
Training drei hochladen . Und die nächste Datei, die ich
hier möchte, ist die HTTP-Datei. Also klicke ich erneut auf
Hochladen und lade den SGD p.Volve
an denselben Ort hoch. Und schließlich lade ich meine elastische search.html hoch, diese Datei. Sobald wir das getan haben, müssen
wir
diese drei Dateien auch auf
die dritte
Elasticsearch-Instanz hochladen . Also mache ich das jetzt. Sobald Sie
die Dateien auf ELL K3 hochgeladen haben, müssen
wir zur
Kibana-Instanz gehen, dasselbe
tun, aber
dieses Mal müssen wir nur die Elastic
Search ca dot vm-Datei
hochladen. Also klicke ich auf die Schaltfläche
Einstellungen, klicke auf Datei hochladen und die Punkt-PEM-Datei für Elastic Search und
klicke auf Öffnen. Nachdem Sie
alle diese Dateien hochgeladen haben, wurden
sie alle in
das Home-Verzeichnis
des
Laborbenutzers oder Ihres einzelnen
Benutzers auf Ihren Linux-Computern hochgeladen das Home-Verzeichnis
des
Laborbenutzers oder Ihres einzelnen
Benutzers auf Ihren . Wir müssen sie
in den richtigen Teil kopieren. Lasst uns zuerst hier zu ELL K2 gehen. Lassen Sie uns zuerst zu Hause
Slash Lab IT-Training drei übergehen. Und Sie können sehen, ob Sie
eine Elastic Search-Punkt-YAML-Datei
und zwei Zertifikatsdateien haben eine Elastic Search-Punkt-YAML-Datei . Zuerst, um SU zu
sudo, um root zu werden. Dann gehen wir in unser elastisches
Suchverzeichnis, hier
erstellen wir ein neues Verzeichnis
namens search kopieren unsere Zertifikate
in dieses neue Verzeichnis. Also STDEV Punkt p12
in einen dritten Schrägstrich. Und als nächstes kommt das Elastic
Search-Zertifikat. So elastisches Zertifikat Dot
Py Tool und um zu suchen, gehen wir
nun in den dritten
Selektor, um sicherzustellen, dass sie kopiert
wurden und
hier Analysen durchführen, das ist in Ordnung. Jetzt müssen wir
unsere vorhandene Elastic
Search Dot
YAML-Datei durch die neue Datei ersetzen unsere vorhandene Elastic
Search Dot
YAML-Datei , die
wir gerade kopiert haben. Kopieren Sie also Slash Home Slash
Labor mit drei Schrägstrichen elastische search.html in den
ETC-Schrägstrich Elastic Search. Und lasst uns eine Ebene
oben gehen und ein ls minus l machen. Und hier müssen wir
ein paar Einstellungen in dieser
Elastic Search Dot YAML-Datei ändern . Also muss sudo nano elastic search.html zu unserem Knotenpunktnamen gehen, und wir müssen dies in ELL K2,
ec2
ändern , und das sollte es sein. Jetzt sieht es so aus, als hätte ich
einen Tippfehler gemacht und einen Punktnamen geladen. Wir brauchen das, um ELK Dash,
die Lastnummer 12 oder drei zu sein . Lassen Sie mich also einfach überprüfen,
was ich auf
echtem k1 gemacht habe , hier auf meinem ELK One. Also gehe ich zu ETC, Elastic Search und ich mache ein Nano nur
das Letzte, search.html. Und ich ändere
das auch in einen Dash. Und ich speichere
das jetzt, wo wir gesammelt haben, speichern
wir diese Datei
auch und fahren mit ELK a3 fort. Also müssen wir das Gleiche tun. Also Pseudokopie Slash Home
Slash Bibliothek Training drei Schrägstrich http Punkt Slash elastisch search.html
zu Schrägstrich, ETC. Slash Elastic Search hat
den Ordner erstellt und
alle richtigen Zertifikate
in seinen Pfad kopiert . Was wir jetzt tun können, ist,
dass wir eine Nano- oder nicht
elastische Datei search.html machen können und
den Ladennamen ändern können. Wir können diese Datei speichern. Lasst uns nun zu
unserer Kibana-Instanz übergehen. Auf Kibana
gab es nur eine Datei, also ausgearbeitetes Training
drei nach der Anbieterliste. Es gibt nur eine
Elastic Search, Punkt PM. Also machen wir eine Sudo
SU, es ist Co2, ETC. Slash Kibana, erstelle hier
ein neues Verzeichnis namens search und kopiere die Elasticsearch ca dot vm-Datei aus unserem Level Training
Verzeichnis, um zu suchen. Und jetzt machen wir hier einen Nano
auf der Tastatur AutoML,
das erste, was wir tun
müssen, ist, dass wir Server-Punkt-Port auskommentieren
müssen. Dann müssen wir die
Server-Punkt-Hosts auf 0 ändern. Und hier, wo
Server Public Base URL steht, müssen
wir die URL angeben, diesen Desk
Kibana-Dienst Goneril, nein, wir werden HTTPS für
unsere Kibana-GUI-Schnittstelle nicht tun. Was ich mache, ist, dass ich den
Http-Schrägstrich eintippe. Ich gehe zu VM-Instanzen, kopiere die interne IP der
Microbiota-Instanz, füge sie hier ein und konfiguriere
Kibana so, dass sie auf 5601 läuft. Also gebe ich ein, dass
diejenigen, die das getan haben, was wir zuerst angeben müssen,
mehrere nach Kibana benannt sind. Also werde ich
diesen Rollentyp in
Demo Kibana hier und hier auskommentieren ,
müssen wir alle Elastic
Search-Instanzen für unsere Anfragen angeben . Wenn Sie also
nur möchten, dass Ihre Abfragen auf einer einzelnen
Elasticsearch-Instanz ausgeführt werden, müssen
Sie die
IP-Adresse dieser Inzidenz angeben. Aber weil wir möchten, dass sie auf allen unseren Instanzen
ausgeführt werden, werde
ich hier alle
Elasticsearch-Instanzen liefern. Ich gehe zurück zu meinen Notizen und kopiere diese Zeichenfolge von hier, und ich entferne sie
und füge sie ein, und ich korrigiere die Diapedese. Die eine ist, dass ich das gemacht habe. Das nächste, was wir tun
müssen, ist, dass wir den Pfad der Punkt-BM-Datei
angeben müssen. Um dies zu tun, müssen wir zu den
SSL-Zertifikatsbehörden von
Elastic Search Dot gehen , und das werde ich abkommentieren. Und hier links, um
die Teile zu meiner ca dot vm-Datei zu liefern . Also entferne ich all
das und tippe ETC-Schrägstrich ein Kibana Slash Slash Slash Slash Slash den Namen
unseres Elasticsearch-Suchpunkt-VM-Datei-Schrägstrichs Elasticsearch ca dot pm. Und sobald ich das getan habe, kann
ich diese Datei speichern. Jetzt ist es an der Zeit, unseren
Elasticsearch-Cluster zu starten. Jetzt gehe ich zu meiner
ertragsgegebenen Maschine. Ich tippe System-CTL ein, starte Elastic Search und gehe
dann zu meinem Computer. Sie Elastic Search, starten Sie Elastic Search
und geben Sie sudo vor. Und dann gehe ich zu meiner dritten
Maschine, aber das Gleiche. Also Pseudosystem CTL startet
Elastic Search und es wurde eingegeben, mal sehen, ob das erste Elasticsearch-Instanzspiel von gut
aussieht, als gäbe es ein Problem. Um Probleme zu beheben wenn Sie allgemeine CTL
minus u
und dann den Dienstnamen verwenden können minus u .
Also schauen wir uns mal an. Es ist fair, den Service zu starten. Ein anderer Ort, an dem Sie suchen können ist Unterwäsche Log Elastic Search. Wenn wir ein ls machen,
wird es eine Punkt-Log-Datei geben. Also lasst uns eine Katze darauf machen. Es heißt eine überschüssige Nacht
zur Zertifikatsdatei. Gehen wir also zurück zu unserem
Elastic Search-Ordner. Lass mich hier alles klären. Lassen Sie uns einen ls minus l
r Zertifikatordner ist unhöflich Elastic Search Ergebnis. Legen Sie dort ein und machen Sie ein, lassen Sie mich S minus L. Unser
Elasticsearch-Zertifikat hat die Berechtigungen r, w und dann nichts
für die Gruppe. Jetzt
müssen wir das vielleicht ändern, also machen wir den CH-Modus. Und im Moment gebe ich
nur 777 und Elastic Search
Zertifikat Punkt p12 ein. Und ich mache das
Gleiche für mein HTTP. Oder um es für
eine Produktionsbereitstellung herauszufinden, müssen
Sie sich möglicherweise
die Berechtigungen für
das Zertifikat ansehen , aber im Moment versuchen wir einfach, den Dienst mit
diesen Berechtigungen zu
starten. Es sieht so aus, als hätte es dieses Mal
angefangen zu finden. Lassen Sie uns also ein System CTL machen,
Status Elastic Search. Beachten Sie, dass das erledigt ist. Wir können zur
anderen Instanz und zu
diesen CDC Elastic Search
gehen diesen CDC Elastic Search um SU hier zu sudo
Lassen Sie uns ETC,
Elastic Search zeichnen und
dann ls minus l und schauen uns den Quellordner an,
sofern dies nicht übereinstimmt. Schauen wir uns jetzt die Berechtigungen für das Zertifikat
an und schauen uns den Status
auf diesem Computer an. Dieser läuft also. Werfen wir einen Blick auf die
Daten auf dem dritten Computer. Wie Sie sehen können, ,
wenn es ein Berechtigungsproblem Ihr Dienst möglicherweise nicht angezeigt,
wenn es ein Berechtigungsproblem gibt. Wenn ich zu meiner
ersten Instanz zurückkehre, müssen Sie nur
, wenn Sie Probleme beim Starten dieses
Elastic Search-Dienstes haben, können
Sie dorthin gehen, wo die Logs
Elasticsearch protokolliert , um diese Datei zu analysieren
und anzusehen . Und wie ich bereits gezeigt habe, es Ihnen einen Hinweis darauf,
wo der Fehler vorerst aufgetreten ist.
Ich habe Ihnen auch gezeigt, wie
Sie Berechtigungen für verschiedene Dateien ändern können,
um Probleme zu beheben. Wie Sie sehen können, mit einer Erlaubnis von 755 dieses Zertifikat
mit einer Erlaubnis von 755 korrekt
geladen. Was
wir also tun müssen, ist zu ATC Elastic Search zu
gehen
und auf die Suche zu gehen, die Berechtigungen auch für dieses Elastic
Search-Zertifikat auf
755 zu
ändern . Und lasst uns versuchen,
dasselbe für
unser STDP-Bidwell-Zertifikat zu tun ,
es sei denn, versuchen Sie,
die Service-Dollars auf
einen CTL-Status des Systems neu zu starten , Plastiksuche läuft. Lassen Sie uns das nicht klären. Als Nächstes müssen wir
die Anmeldeinformationen für unseren
Elasticsearch-Cluster generieren . Wir gehen Benutzerfreigabe Elastic Search und waren in der
Benefit-Analyse, es gibt eine Setup-Passwort-Datei, also werden wir Elasticsearch
Passwörter slash. Und ich werde
automatisch alle meine Passwörter generieren. Geh, ja, und es hat das Passwort
für diesen Cluster für mich
generiert, ich kopiere diese in Dateien. Ich hab das. Bevor ich etwas mache, muss
ich zu meiner
Kibera-Instanz gehen und dann meine
Tastatur ohne Punkt YAML-Datei vierteln. Ich mache Sudo SU Kibana Akte. Und hier lerne ich
über Kibana Rhodamin. Und in dieser Datei gebe ich
die Anmeldeinformationen für meinen
Kibana-Systembenutzer an. Auf diese Weise verwenden wir die
Passwortauthentifizierung für unsere Kibana, um
mit Elastic Search zu kommunizieren. Kopieren Sie dies und speichern Sie diese Datei. Und fangen wir einfach mit Kibana an. Lassen Sie uns einen Status in
diesem Dienst als Vektor machen. Jetzt können wir zu unserer
Elasticsearch-Instanz
zurückkehren,
gelb angegeben, und lassen Sie uns zu unserer
Elasticsearch-Instanz
zurückkehren,
gelb angegeben, den Status
dieses Clusters
abrufen , um sicherzustellen, dass alle
drei Knoten verbunden sind. Illustrator. Also
gehe ich zu meinen Notizen, kopiere den curl-Befehl und füge den Benutzernamen und das Passwort
für den Elastic user zu diesem Befehl minus
u elastisch hinzu und
gebe dann das Passwort
für diesen Benutzerbereich ein. Und ich drücke Enter und
ändere die STDP in HTTPS. Und ich habe diesen Fehler
beim Versuch, über
curl eine Verbindung herzustellen , festgestellt, dass es ein selbstsigniertes Zertifikat
und eine Zertifikatkette gibt. Alles, was Sie tun müssen, ist, dass Sie curl sagen
müssen, dass es
ein selbstsigniertes Zertifikat ignoriert ,
das direkt nach Carl und nach Carl und
minus k geht und Enter drücken. Und hier sehen Sie, dass
unser Cluster drei Knoten hat, Demo ELK
heißt und der Status dieses
Clusters grün ist. Dies ist eine positive Reaktion. Was wir also tun werden, ist, dass wir stattdessen die öffentliche IP-Adresse
unserer Kibera
kopieren und sehen, ob sie auf die
Kibana-Benutzeroberfläche
gelangen können , indem dies eine
ausübt und die
Kibana-Benutzeroberfläche geladen ist. Was wir als Nächstes tun werden,
ist, dass wir versuchen zu sehen, ob wir uns
mit dem elastischen Benutzer anmelden können. Kopieren Sie das Passwort. Gummiband hier das Passwort
oder was auch immer
angegeben. Klicken Sie jetzt selbst auf Erkunden. Wie Sie sehen können, war die
Lösung nicht erfolgreich. So können Sie
einen Multimode-ELK-Cluster erstellen. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss.
29. elasticsearch: Hey Leute, in diesem Vortrag, schauen wir uns einen
Elasticsearch-Cluster ein bisschen genauer an. Und
Elasticsearch-Cluster ist eine Gruppe von einer oder mehreren Knoteninstanzen
, die miteinander verbunden sind. Was ist das Elastic
Search and Load? Ein elastischer Suchknoten ist ein einzelner Server, der Teil eines Clusters
ist. Und das bedeutet, dass alle diese Knoten
in der elastischen oder kurzen
YAML-Konfigurationsdatei dieselbe Einstellung für den
Cluster-Punktnamen
haben. Alle Knoten, die dieselbe Einstellung
für
den
Cluster-Punktnamen haben, können also dieselbe Einstellung
für
den
Cluster-Punktnamen einen Cluster bilden. Ein Knoten speichert Daten
und nimmt an den Indexierungs- und
Suchfunktionen der Cluster teil, wenn ein Knoten einem Cluster
beitritt oder verlässt.
Der Cluster
organisiert sich automatisch um, um die Daten
gleichmäßig zu die Daten
gleichmäßig über alle verfügbaren
Knoten in diesem Cluster hinweg. Im Falle des Verlustes eines Knotens verlieren
Sie
die Daten nicht und sie sind auf allen
anderen Knoten verfügbar. Wenn Sie nun eine
einzelne Instanz von
Elastic Search ausführen , ist
dieser Clustertyp voll funktionsfähig, aber falls Sie Ihren Knoten verlieren, verlieren
Sie alle Ihre Daten. Wenn Sie also Hochverfügbarkeits
- oder Fehlertoleranzanforderungen haben , sind
Sie
mit dem Cluster besser dran. Jetzt
können Knoten in einem
Elasticsearch-Cluster mehrere Rollen haben. Dies wird durch die Zieleinstellung von
Node.js
in Ihrer YAML-Datei für die elastische
Suchstrategie festgelegt Zieleinstellung von
Node.js . Jetzt hier auf dem Bildschirm habe
ich Ihnen eine
kurze Zusammenfassung
aller Knotenrollen gegeben , die in Elastic Search
verfügbar sind. Und jetzt schauen wir uns jeden einzelnen von ihnen
an. wir zunächst einen
Blick auf gemeisterte berechtigte Knoten
sind Master-Knoten in einem
Elasticsearch-Cluster ist verantwortlich für leichtgewichtige
clusterweite Aktionen wie das Erstellen oder
Löschen eines Indexes, Nachverfolgung welche -Knoten sind
Teil des Clusters und entscheiden, welche Diagramme welchen Knoten
zugewiesen werden sollen. Im Grunde genommen, welche
Daten auf
welchem Knoten gespeichert werden , ist es wichtig
, dass der Clusterzustand einen stabilen
Master-Knoten hat, da der Muskelknoten
alle
Clusterverwaltungsaktivitäten durchführt . Und wenn Ihr
Master-Knoten stabiler ist, kann
Ihr Cluster nicht
herausfinden, was los ist. Jetzt gibt es zwei Arten
von Master-berechtigten Knoten. Sie können einen
dedizierten Master oder
einen nur abstimmenden Master haben , der jetzt
dedizierte Master-Knoten
ist, wie der Name schon sagt, wie der Name schon sagt, ein dedizierter Knoten, als Master-Knoten
für diesen Cluster
fungiert. Jetzt ist diese Art der Einrichtung von Vorteil, wenn Sie einen
sehr großen Cluster haben und Ihre
Clusterverwaltungsaufgaben so groß sind, dass Sie eine
dedizierte Muskelnorm
für kleinere Cluster bereitstellen
müssen für kleinere Cluster Sie benötigen wahrscheinlich keinen
dedizierten Master-Knoten. Sie geben an, welcher Knoten
ein dedizierter Master ist, indem Sie nur den Wertemaster
im Wert der Knotenpunktrollen angeben. Dieser Knoten fungiert nicht
wie ein anderer Knoten. Jetzt kann eine zweite Art von
Master-berechtigter Last ein nur
abstimmender Master-Knoten sein. Jetzt kann dieser Knotentyp einer
Master-Wahl
teilnehmen, aber es kann niemals ein Master-Knoten
sein. Es kann also angeben, dass es sich lohnt wenn ein Master gewählt wird, aber es wird seinen
Namen niemals als Master-Knoten werfen. Lassen Sie uns nun als Nächstes
einen Blick auf die Datennormen werfen. Datanodes enthalten die Hemden, die die Dokumente
enthalten
, die Sie indiziert haben. Sie enthalten also eine
Datenmenge , die Sie in Ihrem Cluster
gespeichert haben. Datanodes behandelten datenbezogene
Vorgänge wie Erstellen,
Lesen, Aktualisieren und
Löschen von Vorgängen wie Aggregationsvorgängen. Diese Vorgänge
sind Input-Output-, CPU- und speicherintensiv. Es ist also immer eine gute Idee, diese Ressourcen
auf diesen Datenknoten zu überwachen. Und wenn sie
überlastet werden, um Ihrem
Cluster
weitere Datenknoten hinzuzufügen , um die Last auszugleichen. Jetzt können Sie
einen Content DataNode haben , der
vom Benutzer erstellte Inhalte aufnehmen kann. Und sie können potente
Operationen wie Grad entwickeln oder
solche Aggregationen
in Ihrem Cluster erstellen ,
lesen, aktualisieren und löschen ,
lesen, aktualisieren und löschen. Jetzt können Datenknoten in verschiedenen Ebenen
konfiguriert werden. Werfen wir also einen Blick
auf jeden einzelnen von ihnen. Nehmen wir an, um Ihnen ein Beispiel zu
nennen, Ihre Daten
sind kürzlich in Ihrem Cluster angekommen. Nehmen wir an, Sie haben
einige CRM-Daten, die in
den Cluster
fließen und es kommt gerade. Offensichtlich alle Ihre
Vertriebspartner oder andere
Personen, die diese CRM-Daten
benötigen. Wir werden uns diese
Daten ansehen, sobald sie eingehen. Sie erwarten also eine hohe Häufigkeit der Suche nach dieser Art von Daten. Sie lagern es
in der heißen Stufe. Das sind also Daten, die gerade
reingekommen sind und
häufig durchsucht werden. Lassen Sie uns als Nächstes sagen, dass die Daten wahrscheinlich
drei Monate alt
geworden
sind, sodass Ihre Kundenliste etwas abgestanden ist. Möglicherweise müssen Sie einige Suchen
durchführen da die
Daten gerade eingegeben wurden, Sie werden diese Art
von Daten in der warmen Stufe speichern. Danach
hast du hier Gleichheit. Dies ist der Zeitpunkt, an dem die Daten
älter werden und
selten so unterstützt wurden. Sie speichern diese Art
von Daten in der kalten Stufe. Und schließlich, wenn die Daten, also alle Tage nur einmal in einer Blue
Moon Art von Suchen, dann sollten Sie
diese Art von Daten
in der eingefrorenen Stufe speichern . Eine Sache der
gefrorenen Stufe ist, dass Sie nur teilweise gemountete
Indizes in der gefrorenen Stufe speichern können. Was also im Grunde
passiert, ist, dass die Daten in dieser Stufe nicht
im lokalen Cache gespeichert werden. Es gibt eine gemeinsame Geisha im
Cluster, und diese Art von Daten wird in diesem freigegebenen Cache
gespeichert. Offensichtlich werden die
Suchanfragen langsamer. Jetzt ist der Hauptgrund für
diese Art von Architektur,
dass
Sie beispielsweise für wichtige Knoten mehr Ressourcen,
mehr CPU, mehr Speicher usw.
bereitstellen können ,
mehr CPU, mehr Speicher usw. . aber ein Ein-Knoten wird
mehr Ressourcen haben als ein kalter Knoten und weniger
Ressourcen als ein Herzknoten. Und ebenso
wird der Knoten immer noch einen lokalen Cache haben, aber dies ist wahrscheinlich ein langsameres
System als ein bekanntes. Auf diese Weise können Sie
billigere Ressourcen für die
Stufen angeben , wenn Ihre Daten altern. Nun, um jede
dieser Datenebenen anzugeben. Um beispielsweise einen Knoten
als auf der heißen Ebene anzugeben, geben
Sie unter
Naught Dot-Rollen den Wert des
Datenunterstriches Volume an. Und für Ihren Freiwilligen
und Höfling geben
Sie Daten an, die
Frauendaten unterstreichen , die kalt unterstreichen. Werfen wir nun als nächstes einen
Blick auf den Ingest-Knoten. Und Ingest Node kann
Vorverarbeitungspipelines ausführen, die aus einem
oder mehreren Ingest-Prozessoren bestehen. Danach haben wir
koordinierende Knoten. Jetzt verhalten sich koordinierende Knoten
wie intelligente Load Balancer. Was diese Knoten tun,
ist sagen wir, Sie haben einen großen Cluster und Sie haben eine große Menge an Daten, die
in Ihren Cluster gelangen. Diese Knoten können als
Load Balancer fungieren und
dem Cluster zugute kommen, indem den
Koordinationsteil der Aufgabe auf einige bestimmte Knoten auslagern, sodass Ihre Datenknoten
nicht überlastet werden. Als Nächstes haben Sie
Remote-berechtigte Lappen. Was diese Knoten
tun können, ist zum Beispiel, dass
Sie Cluster
eins und dann unseren
Remote-Cluster
namens gruppiert haben . Jetzt können Sie die
Cross-Clustersuche
zwischen diesen beiden Clustern aktivieren . Und Sie können einen Knoten
als Remote-berechtigte Last definieren. Die Abfragen
, die diesen Knoten treffen,
können also eine Suche
im Remote-Cluster durchführen. Auf diese Weise können Sie
die Daten in zwei Clustern kombinieren, aber die Suchen in einem
Remote-Cluster werden langsamer sein. Als Nächstes haben Sie Knoten für
maschinelles Lernen. Jetzt führen diese Knoten Jobs aus und behandeln
API-Anfragen für maschinelles Lernen. Und Sie können diesen Knoten angeben indem Sie die Knotenregel als ML konfigurieren. Und schließlich haben Sie Knoten
transformiert, die Transformations-API-Anfragen
transformieren und bearbeiten. Sie können diese „Bye“ konfigurierende Load
Dot-Rolle als Transformation
konfigurieren. Dies sind also die Arten
von Knoten, die Sie in Ihrem
Elasticsearch-Cluster
konfigurieren können . Damit sind wir am Ende dieser Vorlesung gekommen. In dieser Vorlesung habe ich
versucht, Ihnen einen Überblick über verschiedene Knotentypen in
einem Elasticsearch-Cluster zu geben. Wo auch immer es geht,
ist, dass ich
einige Links in die
Beschreibung dieses Videos anhängen werde . So können Sie etwas mehr über
die verschiedenen Arten von Knoten
in einem Elasticsearch-Cluster studieren . Danke fürs Zuschauen und wir sehen uns im nächsten. Tschüss.
30. Elasticsearch 8x: Hey Leute, elastic.co, die Muttergesellschaft
von Elastic Search, hat kürzlich die
allgemeine Verfügbarkeit
von Elasticsearch
Version acht Punkt x angekündigt . Version die Muttergesellschaft
von Elastic Search,
hat kürzlich die
allgemeine Verfügbarkeit
von Elasticsearch
Version acht Punkt x angekündigt.
Installationsschritte
sind auch ein bisschen anders. Werfen wir einen Blick auf die jetzt. Hier auf dem Bildschirm habe
ich die neue Seite aus
der
Elasticsearch-Dokumentation geöffnet. Zunächst werden
mehrere Änderungen an
Elastic Search-Rest-APIs eingeführt . Aber was sie
getan haben, ist die 7-X-Kompatibilität zulässig , die
Ihnen genügend Zeit geben sollte, sich auf ein Upgrade vorzubereiten. Als Nächstes werden Sicherheitsfunktionen standardmäßig
aktiviert und konfiguriert. Wenn Sie Elastic Search installieren, sollte
es bereits
einige selbstsignierte
Zertifikate erstellen und einige
Sicherheitseinstellungen in Ihre
Elasticsearch-Strich-YAML-Datei
enthalten . Danach ist die Sicherheit
auf Systemindizes. In Version acht Punkt 0 selbst der elastische
Superuser
keinen nativen Zugriff
auf Systemindizes. Um Zugriff auf Systemindizes zu gewähren, müssen
Sie die Berechtigung für
einen bestimmten Benutzer konfigurieren,
Unterstriche zulassen, eingeschränkte
Unterstrich-Indizes auf True zulassen. Danach gibt es
einige Verbesserungen bei der Suche, Speicherung, Indexierung und Verarbeitung
natürlicher Sprache. Werfen wir als Nächstes einen Blick
auf die Versionshinweise. Jetzt sehen
Sie auf der Release-Notice-Seite einige bekannte Probleme, die im Grunde ungewiss sind. Linux-Plattformen, das
Elastic Benutzerpasswort und das Kabinett-Registrierungstoken nicht automatisch generiert, aber es gibt Ihnen eine Liste von Befehlen, die Sie ausführen können, um diese nach
dem installation. Dann listet es alle brechenden
Änderungen in dieser Version auf. Wenn Sie jetzt bereits einen Produktionscluster
unterstützen, empfehle
ich Ihnen, sich
jede
dieser Änderungen anzusehen , um sicherzustellen dass es
nach dem Upgrade keine Überraschungen
gibt. Damit können wir mit der Installation von
Elasticsearch acht
Punkt 0 auf unseren VMs
fortfahren . Jetzt bin ich in meiner
GCP-Plattform und VM-Instanzen, ich habe einen ELK-Computer, auf dem wir Elasticsearch np.zeros installieren
werden. Ich kopiere die externe
IP-Adresse dieses Rechners. Und dann habe
ich auf meinem
Visual Studio-Code einige Schritte
auf der linken Seite und mein Terminal auf
der rechten Seite. Also gebe ich SSH-Speicherplatz ein, labriere es unter und dann die
externe IP-Adresse. Und ich klicke
hier auf Enter und gib ja ein. Und sobald ich in der
Maschine bin, tippe ich sudo apt-get update ein
, um das System zu aktualisieren. Dann lösche ich das
und tippe sudo apt-get install ein W um
Duplikat auf diesem Computer zu installieren. Sobald WIR geschlossen und gespeichert
sind, können wir mit der
Installation von ELK Stack beginnen. Zuerst lade ich
den öffentlichen Signaturschlüssel
herunter und installiere ihn. Also kopiere ich den
Befehl und füge
ihn in mein Terminal ein
und drücke Enter. Was ich jetzt tun werde,
ist, dass ich
all diese Befehle in die
Beschreibung dieses Videos aufnehmen werde . Ihr könnt also auch
Zugriff auf diese Befehle haben. Als Nächstes installieren wir das HTTPS-Paket sbt
transport. Danach lösche ich meinen Bildschirm und als nächstes speichern wir die
Verzeichnisdefinition. Eine wichtige Sache, die zu
beachten ist, ist, dass, wenn an dieser Stelle
acht Punkt x für 7,6
Pakete angegeben
wird, sieben Punkt x angezeigt werden. Die URL enthält nichts
Wichtiges. Nur eine kleine Änderung
von sieben auf acht und füge sie hier ein. Und dies sollte
die Elastic Search
Adx-Repository-Definitionen
auf diesen Computer herunterladen . Als nächstes bin ich bereit, meinen ELK Stack
auf diesem Computer zu installieren. Also kopiere ich diesen Befehl und füge ihn hier ein
und drücke Enter. Während der Installation sehen
Sie
unter
Informationen zur automatischen
Sicherheitskonfiguration einige Informationen. Unter dieser Überschrift sehen Sie das integrierte Superuser
Elastic Passwort. Unter dieser Zeile, die ein Passwort für den
elastischen integrierten
Superuser
generiert hat, ist dies. Sie müssen dieses Passwort speichern , da wir dieses später
verwenden werden. Ich gehe in meine Notizen runter. Ich hebe es hier auf. Nachdem alles installiert
ist, lösche
ich meinen Bildschirm. Jetzt
konfigurieren wir von hier aus zuerst unsere Elastic Search. Also pseudo via slash ATC, Slash Elasticsearch,
elasticsearch starten ML. Jetzt ändern wir
in dieser Datei zuerst den Clusternamen. Ich nenne es Demo ALK. Dann ändere ich
den Knotennamen
, den ich ELK one nennen werde. Als nächstes gehe ich zum
Netzwerk-Punkt-Host und ändere den Wert vom
Standardwert auf 0 Punkt 0000. Danach werde ich den Port
auskommentieren, aber ich belasse ihn als
Standard 90 bis 100. Da es sich um einen Cluster mit einem
einzelnen Knoten handelt, müssen
wir bis zum
HTTP-Punkt-Port nichts unter
Discovery
tun . Die Konfiguration
ähnelte dem, was wir für 7 x von einem
Scheitelpunkt an
tun mussten für 7 x von einem
Scheitelpunkt an
tun Sie werden einen
Abschnitt namens
Pickin-Sicherheits-Auto-Konfiguration in der kurzen YAML-Datei
Elasticsearch sehen . Dies liegt daran, dass
Elasticsearch, wie
ich Ihnen bereits sagte , standardmäßig einige Sicherheitsoptionen
enthält. Wenn Sie hier sehen können, erwartet, dass Sicherheit standardmäßig aktiviert ist. Sicherheitsregistrierung ist
ebenfalls standardmäßig aktiviert. Es hat einen
KeyStore-Pfad für die
HTTP-Kommunikation erstellt und behauptet , und die Datei ist http dot p12. Es hat auch
gegenseitige Authentifizierung,
Keystone und terrestrisch geschaffen . Jetzt belassen wir alle
Einstellungen als Standard und speichern diese. Jetzt hier, wenn ich hineingehe. Mein Elasticsearch-Verzeichnis. Also sudo SU, und wenn
ich hier ein LS mache, wirst
du sehen, dass es ein
Verzeichnis namens certs gibt. Und wenn ich auf die Suche gehe
und eine Liste mache, sehen
Sie die C-Behauptung, nämlich
STDP-Unterstrich CA dot CRD, das Transportzertifikat unter Transportpunkt p12 und das HTTPS-Zertifikat
unter http dot py 12. Jetzt können wir das
Elasticsearch-Servicesystem CTL starten, Elastic Search starten. Jetzt, sobald der Dienst gestartet
ist, versuche ich eine Locke zu
machen, genau wie ich es früher für 7 x System getan habe. Also curl minus x GET http localhost oder 9200 Unterstrichen-Cluster
und hielt hübsch. Und wenn ich hier eintrete, erhalte
ich einen Fehler, da sich ein
Cluster tatsächlich auf HTTPS befindet. Also muss ich zuerst von HTTP auf HTTPS
wechseln. Aber selbst wenn ich das ausführe, sollte
ich einen Fehler bekommen. Es heißt SSL-Zertifikatproblem, selbstsignierte Zertifikate
und Zertifikat chin. Um dies zu überwinden, drücke ich den Pfeil nach oben und
kurz bevor x bekommt, tippe
ich minus
k ein und drücke Enter. Und dieses Mal habe ich die fehlenden
Authentifizierungsanmeldeinformationen. Jetzt haben wir die
Kennwörter für
den Building User auf diesem Computer noch nicht eingerichtet, aber standardmäßig hat Elastic aber standardmäßig hat Elastic das Passwort des elastischen
Benutzers für uns eingerichtet. Also kopiere ich dieses Passwort
und drücke den Pfeil nach oben. Und nach der Option minus p, die
die Zelle ignorieren sollte , senden Sie Zertifikate
jeden Typ in minus u space elastisch
und dann Doppelpunkt, und dann werde ich das
Passwort angeben Elastic user. Und wenn ich jetzt Enter drücke, sollte
ich den
Gesundheitshaufen bekommen. Wie Sie sehen können, ist der
Status des Clusters grün. Bei den selbstsignierten
Zertifikaten müssen
Sie standardmäßig die Option minus
K verwenden. Jetzt müssen Sie den Elastic user
verwenden, um den Clusterzustand
zum ersten Mal zu erhalten. Sobald Sie das getan haben,
lassen Sie uns den Bildschirm verlassen. Bevor wir Kibana konfigurieren, müssen
wir
das Passwort für
Kibana Unterstrichen-Systembenutzer einrichten . Also werde ich zuerst in usr gehen, Elastic Search
teilen, und ich mache ein LS aus diesem Fach, ich werde das Elastic Search
Setup-Passwort-Dienstprogramm verwenden. Von hier aus verwende ich das Dienstprogramm zum
Zurücksetzen
des Passworts für Elastic Search Also gebe ich Punktschrägstrich ein
Elastic Search Reset Passwort. Und ich gebe
minus u group dem System mit, welches Passwort zurückgesetzt wurde. Und ich tippe das
Kibana-Unterstrichensystem ein und drücke Enter und
tippe hier nie in der Nähe ein. Und ich habe das Passwort für meinen
Kibana-Unterstrichen-Systembenutzer. Es wird das kopieren und ich
füge das auch hier ein. Sobald ich das gemacht habe, kann
ich jetzt Kibana konfigurieren. Also Pseudo VA ATC Kibana,
Kibana-Punkt YAML. Und wieder werde ich den Silberpunkt-Port
auskommentieren, mehrere Punkt-Hosts auskommentieren und vom lokalen
Host oder den Nullen 000
wechseln. Und als nächstes kommentieren Sidebar
Dot Public Base URL. Und hier gebe ich http ein, und jetzt brauchen wir die interne IP-Adresse
unserer Kibana-Instanz. Ich kopiere die hier
eingefügte interne IP und stelle den Port
bereit. Dann können wir
den self.name konfigurieren. Und hier tippe ich
Demo-Banner ein, staubiges Banner. Als Nächstes gehen wir zum
System Elastic Search. Und dort gebe ich den Wert für Elastic
Search Benutzernamen an. Bleiben Sie standardmäßig auf dem
Unterstrichensystem. Und dann müssen wir das Passwort
angeben, das wir gerade generiert haben. Kopiere das hier und füge es ein. Und wenn Sie jetzt
unter System elastisch gehen,
so optional, weil wir selbstsignierte
Zertifikate für diese Demo
verwenden, werde
ich den SSL-Verifizierungsmodus für den Elastic Search
Dot auskommentieren und den Wert ändern
von voll bis gar nicht. Dies ignoriert alle Warnungen für selbstsignierte Zertifikate. Eine andere Sache
zu beachten ist, dass ab Version acht
Punkt X Kibana
ab Version acht
Punkt X standardmäßig protokolliert
Es meldet sich bei einer Datei an. In einigen früheren Versionen die Protokolle für Kibana standardmäßig, aber nur
bei Standardausgabe verfügbar. Das ist also auch eine nette Abwechslung. Jetzt speichern wir diese Datei
und starten wir Kibana. Also sudo system
CTL, starte Kibana. Lasst uns jetzt diesen Status bekommen. Es ist aktiv und läuft. wir zu unserer Instanz zurück, kopieren Sie die öffentliche IP-Adresse, fügen Sie sie in einen Browser ein und geben Sie dann den Port 5601 an. Jetzt bekomme ich einen
Kibana-Server ist nicht bereit Fehler. Also gehe ich zurück
zu meinem Einsatz. Und hier öffne ich
meine YAML-Datei wieder und suche nach Fehlern. Jetzt
habe ich in meiner
Gibbon- oder DML-Datei vergessen, den Hostwert
für die elastische Suche nach
Version Punkt acht einzugeben . Was Sie tun müssen, ist, dass
Sie
hierher kommen und
von HTTP auf HTTPS wechseln müssen. Jetzt speichere ich diese Datei erneut und starte Kibana neu. Nachdem der Dienst neu gestartet
wurde, überprüfen
wir den Status
aktiv und läuft. Wir haben die Meldung, dass HTTP-Server Anzeigen
Nullen, Nullen 005601 ausführt. Gehen wir nun zurück zum
Browser. Lass es mich auffrischen. Jetzt. Wir haben die
Anmeldeseite für Kibana. Also tippe ich hier
elastisch ein und kopiere
das Passwort
für meinen elastischen Superuser, gehe zurück und lege das
Passwort ein und klicke auf Login. Klicken Sie nie, und wir sind dabei. So können Sie
Elasticsearch
Version acht Punkt 0 installieren . Die Schritte unterscheiden sich ein
bisschen von Elasticsearch Version 7 x, unterscheiden sich
aber nicht so. Die meisten Einstellungen
besagen: Wenn Sie vorsichtig sind, bin
ich mir ziemlich sicher, dass Sie sich darauf verlassen
können hier am
wenigsten Ihre eigenen
Cluster einrichten, wir sind
am Ende dieser Vorlesung gekommen. Wir sehen uns
im nächsten. Tschüss.
31. Einsetzen von elastic-agent und Analyse von apache: Hey Leute, es gibt
zwei Möglichkeiten,
Daten von deinen Servern an die elastische Suche
zu senden . Erstens können Sie Beats verwenden, bei denen es sich um leichte
Datenversender handelt, die für jeden Anwendungsfall Daten
an einen
Elasticsearch-Cluster senden für jeden Anwendungsfall Daten
an einen
Elasticsearch-Cluster Es gibt ein bestimmtes Gebot. Für Matrixdaten verwenden
Sie beispielsweise ein Metrikgebot für Dateidaten wie Protokolldateien,
Sie verwenden FileReader. Dies macht die
Verwaltung
etwas umständlich , da
Sie
je nach Anwendungsfall möglicherweise
mehrere Bits auf derselben VM installieren müssen. Jetzt
ist die zweite Methode elastisches Mittel. Elastic Agent ist ein
einziger Agent für Protokolle, Metriken, Sicherheits- und
Bedrohungsschutzdaten. Da es sich um einen einzelnen Agent
handelt, ist es einfacher und schneller, die Überwachung in
Ihrer Umgebung
bereitzustellen. Elastic Agent nutzt
Integrationen und Kibana, die eine
einfache Möglichkeit bieten,
Elastic Search mit externen
Systemen und Diensten zu verbinden . Wenn Sie beispielsweise Protokolle vom
Apache-Webserver
sammeln müssen , weisen
Sie den Elastic Agent mithilfe der
Apache-Integration an , diese Daten von
einem Apache-Server zu sammeln. Diese Integrationen werden über die Kibana-Benutzeroberfläche
verwaltet. Jetzt erfolgt die gesamte Kommunikation zwischen
den elastischen Agenten und Elastic Search
über den Flottenserver. Jetzt
ist dieser Flottenserver eine Komponente, die verwendet
wird, um alle elastischen Agenten zentral zu
verwalten. So funktioniert es. Wenn Sie eine
Richtlinie in Kibana erstellen, wird diese
bei jedem Erstellen dieser Richtlinie in Elastic Search gespeichert. Der Elastic Agent generiert einen Authentifizierungsschlüssel
oder einen Registrierungsschlüssel, dem er sich gegen
den Fruit-Server
authentifiziert. Sobald dies der Fall
ist, wird der
Hochwasserserver nach einer Richtlinie gefragt. Jetzt
erhält dieser gekippte Server diese Richtlinie von Elastic Search und stellt
sie dann dem Elastic Agent zur Verfügung. So funktioniert es, wenn neue Agent-Richtlinien in Kibana
erstellt werden
, auf Elasticsearch gespeichert werden. Um sich für die Richtlinie anzumelden, senden
Elastic Agents eine
Anfrage
mit dem für die Authentifizierung
generierten Registrierungsschlüssel an den Flottenserver . Fluid Server
empfängt diese Anfrage dann und ruft die Agent-Richtlinie
von der elastischen Suche ab. Und dann verschiebt es diese Richtlinie auf alle Agenten, die für diese Richtlinie registriert
sind. Der Elastic Agent verwendet dann
Konfigurationsinformationen, die
in dieser Richtlinie gespeichert sind, um Daten zu sammeln und an Elastic Search zu senden. Nehmen Sie jetzt ein Beispiel. Angenommen, Sie haben Apache
auf diesem Agenten installiert
und MySQL auf
diesem Agenten hier in Kibana installiert, Sie weisen eine
Richtlinie von Apache zu. Dieser Agent wird sich für
diese Richtlinie beim Solar Flare-Server
der
Flotte registrieren diese Richtlinie beim Solar Flare-Server
der
Flotte diese Richtlinie dann
an diesen Agenten senden, der
ihm auffordert ,
Apache-Serverprotokolle zu sammeln. Sobald es die Richtlinie hat, kann
es diese Protokolle und
andere Daten an Elasticsearch senden. Nun, dieser Agent, der MySQL
enthält,
wird nicht
in die Schuldenpolitik eingeschrieben. Sie weisen diesem Agenten eine andere
Richtlinie zu. Auf diese Weise können
verschiedene Server
verschiedene Datenschichten
Elasticsearch Cluster senden . Als Nächstes gibt es zwei Methoden,
um Elastic Agents bereitzustellen. Erstens können Sie
sie von einer Flotte verwalten. Auf diese Weise können Agent-Richtlinien und Lebenszyklen
zentral verwaltet werden. In Kibana gibt es eine
weitere Option selbstverwaltete elastische Zeitalter, was ein fortgeschrittener
Anwendungsfall ist, in dem Sie jeden Agenten manuell verwalten
müssen . Für diese Vorlesung werden wir Flottenmanagement-Agenten
verwenden. Jetzt sind hier die
Konfigurationsschritte. Zuerst konfigurieren Sie
elasticsearch short YAML installieren
dann einen Fruchtserver. Danach installieren Sie
einen Elastic Agent. Nachdem Sie den
Agenten auf den Servern installiert
haben, konfigurieren Sie
eine Agentrichtlinie. Und schließlich bestätigen Sie,
dass die Daten
korrekt gesendet wurden , indem Sie sich
Dashboards und andere Metriken ansehen. Also lasst uns anfangen. Jetzt hier auf dem Bildschirm habe
ich meinen elastischen Server mit einem einzelnen
Knoten. Also muss ich zuerst einen gebratenen Server
erstellen. Also klicke ich auf Instanz
erstellen, dann klicke ich auf Neu
und VM-Instanz aus Vorlage wählen ELK
und fahre dann fort. Ich werde den
Namen ändern, um den Flip Server die Region
in US West One zu ändern und dann
unter Netzwerk zu gehen. Ich werde sicherstellen, dass ich mich in der elastischen Such-VPC
und dem Überwachungssubnetz befinde, und klicke dann auf Erstellen. Während diese Früchte erstellt werden
oder erstellt werden, klicken
wir
erneut auf Instanz erstellen , um unseren Webserver zu erstellen. Also klicke ich auf die neue
VM-Instanz aus der Vorlage, wähle die Beobachter aus
und klicke auf Weiter. Hier werde ich die
Region auf US West One umstellen. Sie können den Namen so behalten, wie er ist, und ich gehe zum Networking. Und bei der Vernetzung werde
ich
die Netzwerkschnittstelle von der
Überwachung zum Webserver-Subnetz ändern die Netzwerkschnittstelle von . Dann klicke ich auf Create. Sobald wir die drei
virtuellen Maschinen bereit haben, können
wir mit
der Installation beginnen. Jetzt gehe ich zu meinem
Visual Studio-Code über. Jetzt habe
ich in meinem
Visual Studio-Code meine Notizen, um den Elastic Agent auf dem
Flood Server und auf dem
Webserver auf der linken Seite zu
installieren . Und ich habe mein Terminal in alle drei Maschinen auf
der rechten Seite. Also Terminal eins ist EL gegeben, Terminal zwei ist Webserver und Terminal drei ist
mein Obstserver. Also lasst uns zuerst anfangen, wir müssen zum ELK-Server gehen. Also gehe ich weiter zum Terminal eins. Und auf dem ELK-Server müssen
wir
diese beiden Einstellungen in
unsere von Elasticsearch getroffenen
YAML-Konfigurationsdateien hinzufügen diese beiden Einstellungen in
unsere von Elasticsearch getroffenen ,
mehrere tippen Sudo VI Slash,
ETC, Schrägstrich Elastic Search Elastic Suche Punkt
YAML und drücke Enter. Jetzt in dieser Datei sehen
Sie, dass die
erste Einstellung erwartet oder der aktivierte Sicherheitspunkt wahr ist. Ich gehe in den Einfügemodus. Und hier, direkt unter dem erwarteten
Sicherheitspunkt aktiviert, füge
ich die Einstellung für den
erwarteten Sicherheitspunkt ein, Punkt-API-Schlüssel ist als wahr aktiviert. Also kopiert es das
und fügt es hier ein. Und sobald ich das gemacht habe, kann
ich diese Datei speichern. Also entkomme und ich
schreibe in diese Datei, und jetzt kann ich
meine Elastic Search starten. Also Pseudosystem CTL,
starte Elastic Search neu. Sobald der Dienst neu gestartet
wurde, fangen
wir als Dienst an. Also Pseudosystem, CTL,
Status, Elastic Search, stellen Sie sicher, dass der Dienst aktiv
ist und ausgeführt wird. Und nun gehen wir
zu unserem Feldserver über, der sich auf Terminal drei befindet. Ich werde
zuerst zu einem flüssigen
Server auf diesem Computer wechseln , wir müssen
den Elastic Agent herunterladen. Also kopiere ich den
curl-Befehl und füge ihn auf das Terminal ein,
um Elastic Agent herunterzuladen. Nachdem die elastische
Agent-Anwendung heruntergeladen wurde, müssen
wir die TAR-Datei extrahieren, diesen Stern
minus Z F-Befehl
kopieren und auf das
Terminal einfügen und die Eingabetaste drücken. Als Nächstes gehen wir
zur Kibana-Webseite über. Also habe ich die
Kibana-Webseite
hier oben vom linken
Navigationsmenü. Ich werde unter die Leitung gehen. Ich klicke auf Flotte und gehe dann zu Einstellungen. Jetzt klicke ich hier auf Aktionen und die Ausgaben
belassen den Namen als Standard und der Typ wäre elastische Suche, da
wir flüssige
Serverausgaben an
Elastic Search und den Host senden möchten flüssige
Serverausgaben an
Elastic Search und den Host Ich wechsle von HTTP zu HTTPS. Und dann ersetze ich
den lokalen Hostwert durch die private IP-Adresse
meiner ELK-Instanz. Also kopiere ich es von hier
und ersetze es. Als nächstes müssen wir
zu unserem Visual Studio-Code zurückkehren, und dann müssen wir zu Elastic Search
gehen. Und auf der
Elasticsearch-Instanz muss
ich
zuerst sudo SU und dann CD EDC, Elastic Search machen und dann suchen. Wenn ich nun ein ls
in diesem Verzeichnis mache, wirst
du sehen, dass
es meine CSRP hat. Also lasst uns dieses Zertifikat holen. Holen Sie sich also einen DB-Unterstrich
CA dot CRT. Sobald Sie die Ausgabe
des cat-Befehls
für das CA-Zertifikat erhalten haben, müssen wir
das CA-Zertifikat unter
der
erweiterten YAML-Konfiguration aktualisieren . Auf diese Weise teilen wir
dem System mit, dass wir
dieses CA-Zertifikat verwenden ,
um Vertrauen
zwischen unserem Fluid-Server und
dem Elasticsearch-Server herzustellen . Sie können es auf zwei Arten machen. Sie können entweder den vertrauenswürdigen Fingerabdruck der
Zertifizierungsstelle verwenden oder das
CA-Zertifikat für diese Demo einfügen, wir fügen das
CA-Zertifikat ein. So wie Sie es
tun, verwenden Sie eine Einstellung namens
SSL-Zertifizierungsstellen, fügen Sie dann dem ESC ein Zertifikat ein und lassen Sie es
mich einfach erweitern. Dies ist also ein Beispiel für
den Bildschirm. Zertifikat unter
SSL-Zertifizierungsstellen Kopieren Sie dieses Zertifikat unter
SSL-Zertifizierungsstellen
für Ihren Computer, das sich von dem unterscheidet, was
auf meinem angezeigt wird. Kopieren wir einfach
all das und ich ersetze dieses und
ich füge es hier ein. Jetzt müssen Sie
die Formatierung möglicherweise ein wenig aktualisieren. Kopieren wir einfach diesen
ganzen Befehl und gehen zu unserer erweiterten
YAML-Konfiguration auf meiner Kibana-Seite und fügen Sie
diesen hier ein. Sobald Sie das getan haben, können
wir dies speichern, Einstellungen
speichern und anwenden
und sieben bereitstellen. Danach
müssen wir zu Agenten gehen. Auf der Seite des Agenten wird angezeigt, dass Umkehrungen
erforderlich sind, bevor wir mit der Registrierung von Agenten
beginnen können. Also machen wir das jetzt. Jetzt wird unter Adafruit-Server die Agent-Richtlinie als Standard
belassen. Wir haben
den Fluid-Server bereits
auf unsere Flottenserver-VM heruntergeladen , damit wir das überspringen können. Unter Bereitstellungsmodus auswählen verwenden
wir QuickStart
für diese Demo. Dies
ermöglicht es dem Fluid-Server, selbstsignierte
Zertifikate
für Ihr Produktionssystem zu generieren für Ihr Produktionssystem Sie müssen die
Produktion auswählen und
Ihr eigenes Zertifikat in Ihrer
Flüssigkeit vorlegen Serverkonfiguration. Als nächstes müssen
wir in Schritt vier die
URL unseres Fluid-Server-Hosts angeben. HTTPS, jetzt müssen wir zu
VM-Instanzen gehen und die
interne IP-Adresse
unseres Fruits-Servers kopieren und ihn
hier einfügen und den Port als
Standard Etudes 0 für diese
Demo entlasten und auf Host hinzufügen klicken. Sobald Sie den Host hinzugefügt haben, müssen
wir auf Service-Token
generieren klicken. Nun, danach, in Schritt sechs, gibt
es uns den Befehl, unsere Flips
zu starten. Es kopiert diesen Befehl und
wechselt zurück zu unserem
Visual Studio-Code. Und ich bin auf den
Flotten, unserem Terminal. Bevor wir diesen Befehl jedoch
einfügen können, müssen
wir einige Änderungen vornehmen. Jetzt habe ich den
Beispielbefehl, der funktioniert. Also füge ich den
Befehl ein, den wir aus der Kibana-Instanz
kopiert haben. Von diesem Befehl
nehmen wir die
ES-URL des Flood Servers und ich werde dafür
den
Wert „Flips over ES“ ändern . Jetzt müssen wir für die URL die private
IP-Adresse unseres Flottenservers
angeben. Also gehe ich zu VM-Instanzen, kopiere diese private IP-Adresse
des Fluid-Servers, gehe zurück und dann ändern wir den Wert
des privaten
IP-Flood-Servers die tatsächliche IP-Adresse
des Flood-Servers. Als Nächstes müssen wir
das Service-Token liefern , das
wir gerade generiert haben. Es kopiert all dies und
ändert das
Wert-Service-Token mit dem neuen Wert
der Flottenserverrichtlinie, nicht für Ihr System. Dies könnte anders sein, und danach
müssen wir zwei weitere Werte hinzufügen. Flottenserver ES ist unsicher
Dieser Befehl wird benötigt da unser Elasticsearch-Server selbstsignierte
Zertifikate verwendet. Und das letzte
Unsichere ist auch, dass unser geflippter Server auch selbstsignierte
Zertifikate verwendet. jetzt in Ihrer
Produktionsbereitstellung Da Sie jetzt in Ihrer
Produktionsbereitstellung keine
selbstsignierten Zertifikate verwenden, benötigen
Sie diese
letzten beiden Befehle nicht. Jetzt auf der anderen Seite, unserem Terminal, lass es mich
einfach ein bisschen erweitern. Wenn ich ein ls mache,
werden Sie sehen, dass
es ein Verzeichnis für
Elastic Agent gibt. Ich werde in dieses Verzeichnis schreiben. Jetzt gebe ich hier sudo dot slash elastische
Agent-Installation und minus F ein, und dann verwende ich
das Escape-Zeichen. Jetzt geben wir zuerst die
URL unseres Fluid-Servers an. Also kopiere ich es aus den Notizen, füge es hier ein und drücke Enter. Als Nächstes gebe ich die ES-URL des
Flottenservers an. Also die URL mein Elasticsearch-Server eine
Verbindung herstellen kann, und er wurde eingegeben. Als Nächstes gebe ich
das Service-Token an, kopiere es, füge es
hier ein und es wurde eingegeben. Danach geben wir die Richtlinie an, unter
der wir diesen Fluid-Server
registrieren werden, die
Standardrichtlinie ist, die er eingegeben hat. Als nächstes liefern wir den Befehl
ES unsecure, bei dem es sich um selbstsignierte
Zertifikate auf Elastic Search handelt. Und schließlich werden wir
den unsicheren Befehl liefern,
bei dem sich um selbstsignierte
Zertifikate auf dem Flottenserver handelt. Jetzt drücke ich die Eingabetaste
und dies sollte
die Bereitstellung für unseren Elastic
Agent auf meinem Fluid-Server starten . erste Protokoll sagt Ihnen, dass
es selbstsignierte
Zertifikate für Fluid-Server generiert. Als nächstes versucht es,
den Fluid-Server zu starten. Dann können Sie sehen, dass die SSL-, TLS-Überprüfung deaktiviert wurde weil wir den
unsicheren Modus verwenden. Und schließlich haben Sie, dass der elastische Agent
erfolgreich registriert wurde. Was wir jetzt tun können ist, dass wir die Kibana-Seite
rückwärts bewegen können, und Sie sollten sehen können
, dass der Hochwasserserver verbunden
war und
ich auf Weiter klicke. Wenn Sie nun sind, dass der
Fluid-Server erfolgreich
verbunden wurde und ordnungsgemäß
konfiguriert wurde, sollten
Sie den
Status als gesund sehen. Und wenn Sie darauf klicken, können
Sie einige Details
sehen. Und als nächstes müssen wir
prüfen, ob es Protokolle
an Elastic
Search senden kann , was es kann. Wenn Sie bei der
Bereitstellung dieses Flottenservers auf
Probleme stoßen , können Sie dies
tun, wenn ich zu
meinem Visual Studio-Code zurückkehre und alles erledige, können
Sie das Sudo-System CTL eingeben der elastische Agent der Daten, schauen Sie sich die Protokolle an und Sie sollten die Protokolle hier
sehen können. Abgesehen davon, wenn Sie den
Fluid Server Agent bereitgestellt haben, aber aus irgendeinem Grund
keine Verbindung hergestellt wird und Sie ihn deinstallieren
müssen. Wenn Sie das tun, gehen Sie in den Benutzerfach und dann den elastischen Agent. Und hier, wenn ich ein Minus h mache, muss
ich Pseudo hinzufügen. Sie sollten in der Lage sein,
die verschiedenen Befehle zu sehen , die
mit dem Elastic Agents Skript verfügbar sind . Es gibt einen Android-Befehl,
wenn Sie
Agenten für diese Flotte registrieren möchten , der installierte Befehl ist, dem wir gerade den Fluid Server Agent
installiert haben. Sie können den Dämon neu starten, den Dämon ausführen, den Dämon statusieren und
diesen Elastic Agent deinstallieren. Es könnte also einige
Szenarien geben, in denen Sie den Dämon deinstallieren und
neu installieren
müssen. So kannst du es schaffen. Im Grunde genommen gehen Sie einfach zum Benutzer
bin elastische Agent und geben Sie jetzt die Deinstallation von
Exit aus ihm ein und löschen Sie den Bildschirm. Da der klassische Agent installiert und gesund
ist, können
wir nun installiert und gesund
ist, können
wir den Elastic
Agent auf unserem Webserver
installieren. Um das zu tun, gehen wir zu unserem Terminal auf
dem Webserver. Jetzt
müssen wir zuerst auf dem Webserver Elastic Agent herunterladen. Also kopiere ich all dies
aus unseren Notizen und füge den Befehl auf das
Terminal ein und drücke Enter. Sobald die Datei heruntergeladen
wurde, können
wir diesen
Punktstern minus
Z F Plastikmittel extrahieren und Enter drücken. Sobald Sie das getan haben, gehen
wir zurück zu unserer
Kibana-Seite und gehen dann zur Flotte. Jetzt gibt es
eine Schaltfläche zum Hinzufügen eines Agenten. Wenn ich auf Agent hinzufügen klicke, wird die Standardrichtlinie des Agenten
belassen. Jetzt haben wir
den Elastic Agent bereits heruntergeladen. Als nächstes gibt es uns einen Befehl. Also lasst uns das kopieren und zurück zu unserem Terminal
gehen. Ich füge diesen Befehl ein, füge ihn
aber nicht aus. Aber ich muss das tun, dass ich minus anhängen
muss, abzüglich unsicher für diesen Befehl weil wir
selbstsignierte Zertifikate verwenden. Auch hier müssen
Sie dies für Ihre
Produktionsbereitstellung nicht hinzufügen. Wenn ich jetzt Enter drücke, habe ich
jetzt vergessen,
zuerst ins
elastische Agent-Verzeichnis zu gehen und ein ls zu machen. Und von hier aus
müssen wir dieses Skript ausführen. Ich drücke den
Pfeil nach oben, bis ich
den Befehl bekomme und jetzt
führe ich ihn aus und tippe ein. Ja, und ich habe Elastic Agent
erfolgreich installiert. Also gehe ich zurück zu meiner Kibana und schließe den Agent wurde richtig
installiert. Ich sollte es auf dieser Seite
sehen können. Jetzt können Sie sehen, ich den Webserver sehen kann. Also klicken wir noch einmal
auf diesen Webserver. Wir stellen sicher, dass
wir auch Logs vom Webserver
haben, den wir haben. Bevor ich dich jetzt gehen lasse, möchte
ich dir noch
eine Sache zeigen. Jetzt
nutzt Elastic Agent Integrationen. Da unser Webserver nun ein Apache-Webserver
ist, können
wir die Überwachung
für den Apache-Server verbessern. Was wir tun werden, ist, dass wir zur Flotte
zurückkehren. Und was wir dann tun
müssen, ist, dass wir eine Agentenrichtlinie hinzufügen müssen. Also werden wir die Agent-Richtlinie erstellen und diese Richtlinie für den
Namen des Richtliniennamens beibehalten. Jetzt fügen wir eine Beschreibung hinzu. Diese Richtlinie wird verwendet, um
Apache-Metriken und -Protokolle zu sammeln. Wir belassen alles
als Standard und ich klicke auf Agentenrichtlinie erstellen. Jetzt wird diese Richtlinie erstellt. Was wir tun müssen,
ist, dass wir dieser Richtlinie
einige
Integrationen hinzufügen müssen . Ich klicke auf das
linke Navigationsmenü, und das geht
zu Integrationen. Unter
Management-Integrationen können wir
hier
die verschiedenen verfügbaren Integrationen
sehen . Vorerst. Wir
interessieren uns für Apache, Apache HTTP-Server, also klicke
ich darauf. Jetzt gibt
Ihnen diese Seite einen Überblick über die Apache HTTP
Server Integration. Was wir tun werden, ist, dass wir
auf Apache HTTP-Server hinzufügen klicken. Jetzt können
wir ihm von configure
Integration Speech einen Namen geben, also belassen wir ihn als
Standard Apache eins. Als Nächstes behalten wir
die Sammlungsprotokolle von der Apache-Instanz auf. Ich möchte die
experimentelle Funktion nicht einschalten und wir lassen auch die
Collect-Metriken von Apache und Sensoren eingeschaltet. Als nächstes müssen wir
eine Richtlinie angeben, auf die
diese Integration angewendet werden soll. Also klicken wir auf das
Dropdown-Menü und
wählen dann die Webserverrichtlinie aus
, die wir gerade erstellt haben. Dann klicken wir auf
Speichern und Fortfahren. Und jetzt heißt es in
der Meldung, dass Sie Ihrem
Host Elastic Agent
hinzufügen, um Daten zu sammeln. Und ich klicke später einfach auf Elastikmittel
hinzufügen. Was wir jetzt
tun müssen, ist, dass wir zu unserer Flotte
zurückkehren müssen , Flotte. Wir müssen zum Webserver eins gehen. Darauf klicke ich also. Und hier klicke
ich auf
Aktionen und klicke auf eine neue Richtlinie
zugewiesen. Dann wähle ich die
Webserver-Richtlinie und klicke dann
auf Richtlinie zuweisen. Bevor ich das tue, heißt
es die ausgewählte
Agent-Richtlinie, aber sie sammelt Daten von
zwei Integrationen, System,
das Standard ist, und der
Apache-HTTP-Server-Integration , die wir gerade machen konfiguriert. Also klicke ich auf Richtlinie zuweisen. Sobald wir das getan haben, klicken Sie darauf und es die Eingaben für diese Integration, unsere Protokolle und Metriken aus
unserer Apache-Instanz angezeigt. Und die
Systemintegration sammelt Protokolle bei Protokollen und
Metriken von unserem Betriebssystem. Gehen wir nun als nächstes zum
linken Navigationsmenü und gehen wir dann zu Dashboards. Jetzt werden Sie
sehen, dass Ihnen noch
ein paar Dashboards
zur Verfügung stehen. Was wir tun werden, ist, dass
wir
jetzt Apache eingeben , um zu überprüfen, ob wir Apache-Protokolle
erhalten Wir können auf Access
- und Fehlerprotokolle klicken. Und im linken
Dropdown-Menü unter Hostname wählen
wir unseren Webserver aus. Wenn Ihre Integration ordnungsgemäß eingerichtet
ist, sollten
Sie
einige Daten wie hier sehen. Ich sehe alle
Response Scores. Jetzt. Als Nächstes überprüfen wir
ein anderes Dashboard. Also gehe ich zum Dashboard
und klicke auf Apache, tippe Apache erneut ein. Und dieses Mal
klicke ich auf Metriken, Apache-Übersicht, um zu
sehen, ob Sie
Metrikdaten von unserem
Apache-Server erhalten oder nicht. Jetzt können
Sie unter
Anfragen pro Sekunde sehen, dass
einige Daten durchfließen. Auf diese Weise können Sie
einen Flottenserver installieren und dann Ihre Webserver oder
andere
Anwendungsserver für Ihre Flotte
registrieren . Und dann können Sie mithilfe von
Integrationen
einige aussagekräftige Daten von
Ihren Anwendungen
oder Webservern sammeln einige aussagekräftige Daten von . Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns
im nächsten. Tschüss.